Гаррі Поттер і методи раціональності
  • Гарри Поттер и методы рационального мышления. Элиезер Юдковский
  • Ссылки
    • Читать онлайн
    • Скачать EPUB
    • Заказать бумажную версию
    • На других языках
  • Информация
    • Об авторе
    • Переводчики
    • Рекомендуемая литература
  • Книга
    • Предисловие
    • 1. Крайне маловероятный день
    • 2. Всё, во что я верю, — ложь
    • 3. Сравнивая варианты реальности
    • 4. Гипотеза эффективного рынка
    • 5. Фундаментальная ошибка атрибуции
    • 6. Ошибка планирования
    • 7. Взаимный обмен
    • 8. Положительная предвзятость
    • 9. Название скрыто. Часть 1
    • 10. Самосознание. Часть 2
    • 11. Дополнительные материалы № 1, № 2 и № 3
    • 12. Самоконтроль
    • 13. Неправильные вопросы
    • 14. Непознанное и непознаваемое
    • 15. Добросовестность
    • 16. Нестандартное мышление
    • 17. Выбор гипотезы
    • 18. Иерархии подчинения
    • 19. Отложенное вознаграждение
    • 20. Теорема Байеса
    • 21. Самооправдание
    • 22. Научный метод
    • 23. Убеждённость в убеждениях
    • 24. Гипотеза макиавеллианского интеллекта
    • 25. Не спешите предлагать решения
    • 26. Замечая замешательство
    • 27. Эмпатия
    • 28. Редукционизм
    • 29. Эффект эгоцентричности
    • 30. Работа в группах. Часть 1
    • 31. Работа в группах. Часть 2
    • 32. Интерлюдия: Управление личными финансами
    • 33. Проблемы координации. Часть 1
    • 34. Проблемы координации. Часть 2
    • 35. Проблемы координации. Часть 3
    • 36. Различия в статусах
    • 37. Интерлюдия: Пересекая границы
    • 38. Смертный грех
    • 39. Притворная мудрость. Часть 1
    • 30. Притворная мудрость. Часть 2
    • 41. Лобовое столкновение
    • 42. Храбрость
    • 43. Человечность. Часть 1
    • 44. Человечность. Часть 2
    • 45. Человечность. Часть 3
    • 46. Человечность. Часть 4
    • 47. Теория личности
    • 48. Утилитарные приоритеты
  • Примечания
Powered by GitBook
On this page

Was this helpful?

  1. Информация

Об авторе

Эли́езер Шло́мо Юдко́вский — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ. Сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence. Он — автор книги «Создание дружественного ИИ», статей «Уровни организации универсального интеллекта», «Когерентная экстраполированная воля» и «Вневременная теория принятия решений». Также две его научные статьи «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков» включены статьи в сборник «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома. Юдковский не обучался в вузах и является автодидактом без формального образования в области ИИ.

Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей.

Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога LessWrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений».

PreviousНа других языкахNextПереводчики

Last updated 5 years ago

Was this helpful?