Искусственный интеллект: какие угрозы таит новая технология

Недавно видные представители технологической индустрии выразили обеспокоенность по поводу потенциальных рисков, связанных с искусственным интеллектом. Генеральный директор OpenAI Сэм Альтман, а также генеральный директор Google DeepMind Демис Хассабис, технический директор Microsoft Кевин Скотт и многие другие исследователи ИИ и лидеры бизнеса подписали письмо, в котором подчеркивается неотложность решения проблемы риска ИИ-апокалипсиса.

Несмотря на предупреждения общественности об экзистенциальной угрозе, исходящей от ИИ, руководители высшего звена парадоксальным образом инвестируют в эту технологию и внедряют ее в массовом масштабе. В этой статье рассматривается противоречие между предостерегающими заявлениями об ИИ и быстрой интеграцией ИИ в продукты, которыми пользуются миллиарды людей.

Непосредственные опасения и реалистичные сценарии

Одной из наиболее значительных непосредственных угроз, связанных с ИИ, как заявил исследователь ИИ и заслуженный профессор Нью-Йоркского университета Гэри Маркус во время своего выступления в Конгрессе вместе с Сэмом Альтманом, является потенциальный ущерб демократии из-за распространения убедительной дезинформации. Генеративные инструменты ИИ, такие как ChatGPT и Dall-E от OpenAI, используют обширные онлайн-данные для создания письменного контента и изображений в ответ на подсказки пользователя. Эти инструменты могут быть использованы для имитации стиля или внешнего вида общественных деятелей, что облегчает создание кампаний по дезинформации.

Влияние на регуляторов и связанные с этим риски

Сообщения технологической индустрии о конце света могут быть направлены в первую очередь на регулирующие органы, стремясь утвердить себя в качестве единственного органа, способного обуздать опасности, связанные с ИИ. Подчеркивая опасность ИИ и позиционируя себя как экспертов, способных снизить риски, руководители отрасли надеются получить влияние на процессы регулирования. Однако такой подход вызывает серьезные опасения. Предоставление отрасли такого контроля над регулированием ИИ может подорвать подотчетность и исключить голоса и взгляды людей и сообществ, на которых негативно влияет эта технология.