Домой Интернет Ученые: контролировать искусственный интеллект будущего будет невозможно. Математика не лжет

Ученые: контролировать искусственный интеллект будущего будет невозможно. Математика не лжет

18325

Любой, кто смотрел фильм «Терминатор», знает, что ждет человечество, если искусственный интеллект в будущем станет слишком умным. Однако такое видение было проиллюстрировано не только в фильмах. Ученые на протяжении многих лет пытаются выяснить, сможет ли человечество в будущем контролировать «сверхразумные» системы ИИ. Теперь у них есть ответ: определенно нет.

Содержание статьи:

  • Черный сценарий
  • Проблема остановки
  • Тревожные выводы

Черный сценарий

По мнению исследователей, чтобы управлять сверхразумным ИИ, возможности которого выходят далеко за пределы человеческого понимания, людям пришлось бы заранее смоделировать и проанализировать симуляцию такого ИИ. Но проблема в том, что никто не может превзойти разум интеллектуальной машины, а значит никто не может и создать такую симуляцию.

Как говорят авторы последней исследовательской работы по этой теме (Journal of Artificial Intelligence Research), невозможно запретить сверхразумному ИИ причинять вред людям, если человек не может предугадать или предположить, какие сценарии он будет реализовывать в будущем. Когда компьютерная система работает на уровне, превышающем возможности ее разработчиков, пределы для нее не могут быть установлены.

Сверхразум — это серьезная проблема, которая не имеет ничего общего с этикой роботов, говорят исследователи. Суперинтеллект многогранен и поэтому потенциально способен мобилизовать самые разные ресурсы для достижения целей, работу которых люди не смогут понять, не говоря уже о контроле над ним.

Проблема остановки

Рассуждения ученых связаны с так называемой «проблемой остановки», которая была впервые озвучена Аланом Тьюрингом в 1936 году. Она связана с конкретным алгоритмом, а точнее с его поведением — перестанет ли он выполнять свою задачу по завершении установленного времени, или же будет пытаться решать ее до бесконечности. Тьюринг доказал, что простые программы предсказуемы, а сложные — не поддаются логическому объяснению.

Любой алгоритм, написанный для того, чтобы остановить ИИ от причинения вреда людям и уничтожения человеческой цивилизации может быть переписан самим ИИ, поэтому математически «черный» сценарий возможен, считают ученые. Написание и внедрение алгоритмов сдерживания также бесполезны, как и обучение этике ИИ и наставления не разрушать мир.

Тревожные выводы

Важно отметить, что, создавая более совершенный ИИ, люди могут даже не знать, в какой момент они разработают сверхразумный ИИ, которым не смогут управлять. Это означает, что пора всерьез задуматься над тем, куда движется эта область науки.

Жизнь, где сверхразумная машина правит миром, выглядит пугающе. Но не стоит забывать, что уже существуют машины самостоятельно выполняющие такие задачи, которые не до конца понятны даже самым продвинутым программистам. Поэтому сценарий из «Восстания машин» не такой уж и фантастический.

Источник: itcrumbs.ru

Комментарии

Пожалуйста, авторизуйтесь чтобы добавить комментарий.
  Подписаться  
Уведомление о

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: