«Все умрут, включая детей» Как искусственный интеллект изменит интернет и почему этого боится даже Илон Маск
Содержание
ToggleРазвитие искусственного интеллекта еще несколько лет назад описывали исключительно в радужных тонах. Специалисты из самых разных сфер представляли, как он сможет помогать врачам, переводчикам и представителям многих других профессий. Однако как только языковая модель GPT достигла такого прогресса, что созданные ею тексты стали практически неотличимы от текстов, написанных реальными людьми, отношение к искусственному интеллекту (ИИ) резко поменялось. К радикальным противникам этой технологии примкнули даже ключевые исследователи из этой сферы. И пока достижения GPT берут на вооружение киберпреступники, специалисты предупреждают: искусственный интеллект может создать куда более серьезные проблемы, угрожающие жизни на Земле как таковой. «Лента.ру» разобралась, почему ИИ начали бояться те, кто раньше вкладывал деньги в его развитие, и действительно ли он может быть опасен.
Искусственный интеллект захочет выбраться из интернета
Дальнейшее развитие искусственного интеллекта может поставить точку в развитии человечества: рано или поздно суперумные нейросети выйдут за пределы интернета, перехватят управление всеми процессами на планете и избавятся от людей. Такой шокирующий прогноз в эмоциональной колонке для Time привел сооснователь Института исследования машинного интеллекта Элиезер Юдковский, один из главных IT-экспертов современности. Его предложение — полностью прекратить любые исследования в этой области, кроме тех, что помогут избежать гибели человечества. «Ключевая опасность — перспектива создания не такого интеллекта, который будет конкурировать с человеческим, а такого, который будет превосходить человеческий. На этом пути очень плохо видны критические границы, которые исследователи могут пересечь незаметно для них самих. Поэтому наиболее вероятным результатом создания сверхумного ИИ станет то, что буквально все люди на Земле умрут. Не в значении «есть отдаленная перспектива этого», а в значении «совершенно очевидно, что это случится»», — написал Юдковский.
В последние недели на тему стремительного развития нейросетей обратили внимание не только представители экспертного сообщества, но и власти отдельных стран. Это произошло на фоне сообщений о том, что искусственный интеллект начали использовать злоумышленники. Ситуацией обеспокоился даже Европол, который предупредил о потенциальных рисках для киберпространства, которые исходят от уже существующих моделей ИИ.
30 лет— как минимум на такой срок предлагает приостановить развитие нейросетей Элиезер Юдковский
В частности, силовики опасаются, что нейросети смогут обходить защитные программы и помогать в организации кибератак, способствовать обучению киберпреступников новым тактикам или даже генерировать уникальный вредоносный код. Все это снизит порог входа в хакинг и сделает его доступным даже для тех, кто почти ничего в нем не понимает. В Европоле признают, что часть этой информации уже и так есть в интернете, но тот же ChatGPT может найти ее за секунды, а не дни и месяцы. Основные доводы противников массового внедрения ChatGPT связаны с тем, что эта технология нарушает конфиденциальность (любые персональные данные, которые становятся известны нейросети, становятся материалом для изучения и дальнейшего развития ИИ) и с отсутствием правовой основы для использования сведений о пользователях. Среди других претензий — невозможность проверить возраст юзера, несмотря на формальное ограничение на использование ChatGPT для тех, кому нет 13 лет. Для европейского сообщества, где уже несколько лет действуют достаточно строгие правила взаимодействия государства и бизнеса с персональными данными граждан, подобное несовершенство стало нонсенсом.
Именно это послужило формальным поводом для ограничения на использование чат-бота в Италии. Также известно, что подобную меру рассматривают власти Германии, Франции и Ирландии. Диалог между правительствами европейских государств и создателями GPT затрудняет отсутствие в ЕС официального представительства нейросети.
Не все поверили в скорое уничтожение человечества
Мнение о том, что искусственный интеллект сможет вырваться за пределы интернета и уничтожить все сущее, поддерживают далеко не все визионеры. Более того, против него выступили многие видные западные ученые, которые, впрочем, как и Юдковский, посвятили этой теме почти всю жизнь. Основным противником Маска и его сторонников стал представитель предыдущего поколения гигантов рынка — основатель MicrosoftБилл Гейтс. «Я не думаю, что если мы попросим одну конкретную группу разработчиков приостановить свои исследования, это что-то изменит. Использование искусственного интеллекта несет колоссальные преимущества. Это значит, что нам просто нужно определиться с имеющимися рисками», — сказал Гейтс.
Эти риски филантроп перечислил в своей статье о будущем искусственного интеллекта, которая была опубликована ровно за день до письма Института будущего жизни. В материале с говорящим названием «Эра искусственного интеллекта началась» Гейтс рассуждает в основном о вкладе ИИ в различные сферы жизни («Он изменит то, как люди работают, учатся, путешествуют, получают медицинскую помощь и общаются друг с другом», — писал основатель Microsoft) и о перспективах, открывающихся перед бизнесом. В список сложностей он внес то, что искусственный интеллект не всегда понимает контекст запроса и плохо умеет работать с абстрактными задачами, а также то, что его можно будет применять в военных разработках. Миллиардер затронул и вопрос сверхумных нейросетей — правда, к перспективе их появления в ближайшее время отнесся скептически. «Эти сверхразумные нейросети, вероятно, смогут устанавливать свои собственные цели. Какими будут эти цели? Что произойдет, если они вступят в противоречие с интересами человечества? Должны ли мы пытаться предотвратить разработку сильного ИИ? Эти вопросы со временем станут более актуальными. Но ни один из прорывов последних нескольких месяцев существенно не приблизил нас к сильному ИИ. Искусственный интеллект до сих пор не контролирует физический мир и не может устанавливать собственные цели», — уверен Гейтс.
Ему вторят авторы программных статей и исследований в области искусственного интеллекта, в том числе и те, на кого ссылаются составители письма Института будущего жизни. Например доцент Университета Коннектикута Шири Дори-Хакоэн заявила, что «нейросетям не обязательно становится сверхумными, чтобы увеличить риски ядерной войны». При этом она уверяет, что говорить о проблеме в целом стоит без налета голливудского драматизма. Отдельные эксперты, опрошенные различными западными медиа, прямо говорили о том, что противники развития ИИ создают «немыслимые апокалиптические сценарии». Как бы то ни было, многие риски использования ИИ, в том числе и вскользь упомянутые Гейтсом, все-таки вполне реалистичны. «Опасность «слишком развитого ИИ» заключается в том, что он может наводнить каналы пропагандой, отнять у людей работу и привести к созданию нечеловеческого разума, который способен перехитрить человека и сделать его знания устаревшими и ненужными. Людям уже сегодня сложно отличить фейки, сгенерированные искусственный интеллектом, от правды. Например, почти 70 процентов взрослых не могут отличить письмо, написанное Chat GPT, от письма, написанного человеком. Несмотря на то что многие фантазируют о восстании машин, думаю, на самом деле последствия выхода ИИ из-под контроля могут иметь совсем иную форму», — предполагает управляющий партнер компании Novo BI Евгений Непейвода.
Фото: Miguel Candela / SOPA Images / LightRocket / Getty Images
«Единственное, в чем я вижу опасность и почему, возможно, стоит ограничивать использование ИИ, это то, что сейчас нейросети могут применяться для создания разных текстов, научных статей, новостей, — соглашается специалист по кибербезопасности Владимир Ульянов. — Чем больше распространяется информация, тем сложнее понять, кем она создана и насколько реальна. Могут появляться фейковые инфоповоды».
Стремительное развитие нейросетей в реальности быстро изменило радужную картину волшебных изменений в человеческой жизни, которую в специализированных медиа рисовали эксперты по IT-технологиям. Еще несколько лет назад общий тон подобных материалов был сугубо позитивным; теперь же, в том числе после публикаций Института будущего жизни, он стал куда более настороженным.
Источник: