Элиезер Юдковский

Вики ИИ

Eliezer Yudkowsky американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ. Ключевая фигура сообщества рационалистов.

  • Дата рождения: 11 сентября 1979 года.
  • Область исследований: Искусственный интеллект, теория рациональности и принятия решений.
  • Известен как: Основатель Исследовательского института машиностроения (MIRI), автор термина “дружественный искусственный интеллект”.
  • Вклад в область ИИ: Влияние на мышление и исследования в области ИИ, включая вклад в книгу Ника Бострома “Суперинтеллект”.
  • Публикации: Автор книг и статей по тематике ИИ и рациональности, включая опубликованное в 2023 году мнение в журнале Time, где он обсуждал риски ИИ и предлагал меры по их снижению.
  • Политическое влияние: Статья в Time привлекла общественное внимание к вопросам безопасности ИИ, что привело к заданному вопросу о безопасности ИИ на пресс-конференции президента США Джо Байдена.

No-code specialist, always eager to learn and tackle challenges, exploring neural networks

Оцените автора
Каталог НЕЙРОСЕТЕЙ и ИИ инструментов — FutureTools.ru