Крестный отец ИИ покидает Google и предупреждает о грядущей опасности

Джеффри Хинтон, признанный отец искусственного интеллекта (ИИ), объявил о своем уходе из Google, чтобы без препятствий выразить свою озабоченность о возможном серьезном ущербе для мира от ИИ.

Годами Хинтон работал над разработкой технологий, лежащих в основе чат-ботов вроде ChatGPT. Теперь, однако, он считает, что развитие ИИ может принести серьезный вред. Он ушел с работы в Google, где провел более десяти лет, чтобы свободно говорить о рисках, связанных с ИИ.

Джеффри Хинтон был пионером в области искусственного интеллекта. В 2012 году он и двое его аспирантов из Торонтского университета создали технологию, ставшую интеллектуальной основой для ИИ, который крупнейшие технологические компании считают ключевым для своего будущего. Однако в понедельник Хинтон присоединился к растущей группе критиков, которые считают, что эти компании, стремительно разрабатывающие продукты на основе генеративного искусственного интеллекта, движутся к опасности.

Вскоре после того, как стартап OpenAI выпустил новую версию ChatGPT в марте, более 1000 лидеров и исследователей технологической индустрии подписали открытое письмо с призывом приостановить разработку новых систем на шесть месяцев из-за “глубоких рисков для общества и человечества”, которые представляют технологии ИИ.

Хинтон, часто называемый “Крестным отцом ИИ”, не подписал ни одного из этих писем и не хотел критиковать Google и другие компании публично, пока не уйдет с работы. Он заявил о своем намерении уйти в прошлом месяце и на прошлой неделе обсудил свои планы с исполнительным директором Alphabet, Сундаром Пичаем.

Хинтон выразил обеспокоенность тем, что Интернет может быть заполнен ложными фотографиями, видео и текстами, и среднестатистический человек больше не сможет отличить правду от лжи. Кроме того, его беспокоит возможность потери рабочих мест из-за развития ИИ. Сегодня чат-боты, такие как ChatGPT, скорее дополняют работу людей, но в будущем могут заменить помощников, переводчиков и других работников, выполняющих рутинные задачи.

Долгосрочная опасность, по мнению Хинтона, заключается в том, что будущие версии технологии могут представлять угрозу человечеству, поскольку они часто учатся неожиданным способам поведения из огромных объемов анализируемых данных. Это становится проблемой, когда люди и компании разрешают системам ИИ не только генерировать собственный код, но и самостоятельно выполнять его. Хинтон опасается дня, когда появятся действительно автономные оружейные системы – так называемые “убийственные роботы”.

Джеффри Хинтон считает, что соревнование между Google, Microsoft и другими компаниями может перерасти в глобальную гонку, которую невозможно остановить без какой-то формы глобального регулирования. Однако, по его мнению, это может быть невозможным. В отличие от ядерного оружия, с ИИ нельзя точно знать, разрабатывают ли компании или страны технологии в тайне. Лучшая надежда – сотрудничество ведущих ученых мира по поиску способов контроля над технологией.

Раньше, когда люди спрашивали Хинтона, как он может работать над потенциально опасной технологией, он парафразировал Роберта Оппенгеймера, возглавлявшего разработку атомной бомбы в США: “Когда вы видите что-то технически сладкое, вы идете вперед и делаете это”. Теперь он уже не говорит так.

Несмотря на опасения, высказанные Хинтоном, многие другие эксперты, включая его коллег и студентов, считают эту угрозу гипотетической. Тем не менее, Хинтон уверен, что без международного сотрудничества и регулирования гонка в области искусственного интеллекта может привести к непредсказуемым последствиям.

Осознавая свою ответственность перед обществом, Хинтон считает, что ученые и разработчики ИИ должны объединить усилия для разработки систем контроля и предотвращения возможных опасностей, связанных с развитием технологии. “Я не думаю, что они должны масштабировать это больше, пока не поймут, могут ли они контролировать это”, – говорит он.

В результате своего решения покинуть Google и выразить свою озабоченность относительно развития ИИ, Джеффри Хинтон ставит вопрос о безопасности искусственного интеллекта на повестку дня. Его слова, безусловно, будут рассмотрены и обсуждены другими экспертами и специалистами в области ИИ. Возможно, его заявления станут толчком для серьезного разговора о том, как развивать эту технологию с учетом ее потенциального влияния на общество, экономику и будущее человечества.

В заключение, решение Хинтона покинуть Google и поднять вопрос о безопасности искусственного интеллекта ставит под сомнение текущий подход к развитию ИИ и его применению в повседневной жизни. Будущее развития технологии, возможно, зависит от нашей способности к сотрудничеству и разумному использованию новейших достижений в этой области. Только так мы сможем избежать потенциальных опасностей, о которых предупреждает “крестный отец ИИ” Джеффри Хинтон.

No-code specialist, always eager to learn and tackle challenges, exploring neural networks

Каталог НЕЙРОСЕТЕЙ и ИИ инструментов — FutureTools.ru