Искусственный интеллект никогда не должен был стать пособником воров?

Известный актён Стивен Фрай возмущён кражей его голоса нейросетью.

Красивый заголовок? На первый взгляд, да. Но это неправда. А вот как его написал бы я:

A famous actor, Stephen Fry, is outraged by the theft of his voice by a neural network’s operators.

Продвижение, даже продавливание ИИ происходит навязчиво, даже агрессивно. Такая тактика, такое поведение характерно для преступного элемента: они наглые, беспощадные и останавливаются только перед превосходящей силой. Каждого, кто выступает против разгула ИИ и нейросетей подвергают травле обученными бойцами невидимого фронта, известными как "тролли". Я писал об этом по поводу Алёны Андроновой, у которой голос украл Тинькофф банк, но кто я такой, чтобы меня слушать? Травить - да, это легко. А тут всемирно известный актёр Стивен Фрай. Может быть, кто-нибудь всё-таки начнёт прислушиваться?

А дело-то в том, что каждая область человеческой деятельности, которая имеет возможность наносить массовый и значительный ущерб, регулируется государством. Почему-то в США на бирже запрещено "идти в короткую", повсеместно запрещено автомобилями сбивать пешеходов, много где есть ограничения на владение огнестрельным оружием, да и зарин с фосгеном нам в аптеках не продают, а вот ИИ государства почему-то не спешат регулировать, хотя о его опасности не говорит разве что ленивый.

Да, некоторые оппоненты ИИ несут кромешную чушь. Но не все ведь. Некоторые высказывают вполне продуманные и, к стыду регулирующих органов, довольно очевидные аргументы против бесконтрольного использования ИИ. Но вот такого аргумента я ещё не слышал в прессе: эта технология никогда не задумывалась для создания условий мошенничеству и преступности. Если организации в области информационных технологий и их сотрудники явно действуют против интересов общества и в интересах преступного мира, такая деятельность должна в первую очередь пресекаться, и лишь во вторую исследоваться, наблюдаться и корректироваться.

Пока продуктами ИИ в области графики наслаждаются те, кому срочно требуется картинка, похожая на реальность. Мало кто задумывается... Тут можно было бы поставить точку, но замысел был продолжить: ... что нейросети не выдумывают картинки сами. Они собирают миллионы картинок, обратывают ассоциированный с каждой набор смысловых ярлыков, и выбирают из них те, которые подходят под задание. ИИ не думает: он лишь использует статистические веса, чтобы выбрать похожее существующее и склепать из него заданное. Эти исходные миллионы картинок не взялись ниоткуда! Операторы ИИ взяли их бесплатно у авторов, то есть украли. Их прибыльный бизнес основан на воровстве, то есть доказывает мой исходный тезис о преступном характере продвигаемого ИИ.

Теперь вдруг оказывается, что и голосовые нейросети воруют голоса. Ой, правда что-ли? Кто бы мог подумать! И в самом деле: откуда же взяться голосам, если не у живых артистов озвучки? Не из ничего же их высосали операторы ИИ.

Давайте, человечество подойдёт к нейросетям и ИИ, как оно подошло к автомобилям: как только те начали сбивать людей, были введены государственная регистрация, дорожные знаки, светофоры и ПДД. Кажется, спустя сто с лишним лет, человечество должно было бы приобрести опыт взаимодействия с новыми технологиями и отнестись к ИИ подобающе, а не как на Диком Западе: вот когда убьют десяток тысяч, тогда мы зачешем репу.

Оставьте комментарий