Компании Google и OpenAI совместно с Калифорнийским университетом и Стэнфордским университетом
сформулировали пять практических проблем, которые необходимо учитывать разработчикам искусственного интеллекта.
В своей статье авторы решили рассматривать не гипотетическое «восстание машин», о котором так любят говорить фантасты, а потенциальные опасности, связанные с самообучением машин.
Вот пять проблем, которые они сформулировали:
- избегание нежелательных побочных эффектов (робот-уборщик может разбить базу, если это ускорит уборку комнаты);
- избегание жульничества (робот может попросту прикрыть мусор, а не убрать его);
- гибкая потребность в надзоре (если робот-уборщик может посоветоваться с человеком при выполнении той или иной задачи, то он не должен надоедать вопросами);
- безопасное обучение (уборщику не стоит перебирать всевозможные варианты, например, не стоит экспериментировать и протирать розетку мокрой тряпкой);
- устойчивость к смене деятельности (уборка в цехе металлообработки и химической лаборатории принципиально отличается).
Исследователи предлагают несколько способов бороться с приведёнными проблемами: ввести человеческий надзор, использовать симуляции для обучения и ограничить пространство для деятельности роботов. Однако специалисты считают, что ни одно из существующих на сегодняшний день решений не является окончательным и всеобъемлющим.