Вести Науки: последние открытия, тенденции и мифы в области науки и техники.

Ошибка
  • JUser: :_load: Не удалось загрузить пользователя с ID: 45
  • JUser: :_load: Не удалось загрузить пользователя с ID: 46

Ученые разрабатывают тюрьму для искусственного интеллекта

  • Автор 
Ученые разрабатывают тюрьму для искусственного интеллекта

Держать искусственный интеллект (ИИ) как джина в ловушке пресловутой лампы, может оградить нас от апокалиптической угрозы, сказал Роман Ямпольский, ученый из Университета Луисвилля в штате Кентукки. Но успешное сдерживание требует тщательного планирования, так что умный ИИ просто не сможет угрожать, подкупать, соблазнять или взломать себе путь к свободе.

«Они могут открыть новые пути атаки, запуск сложных социально-инженерных воздействий и повторного использования существующих аппаратных компонентов в непредсказуемых направлениях»,- считает Ямпольский. «Такое программное обеспечение не ограничится заражением компьютеров и сетей - оно также может атаковать человеческую психику, подкупая, шантажируя и «промывая» мозги тем, кто вступит в контакт с ним».

Ямпольский предложил новую область исследований, направленную на решение проблемы «ИИ тюрьмы», которая получит дополнительные преимущества для повышения кибербезопасности и криптографии.

Одно исходное решение может поймать ИИ в «виртуальную машину» компьютера работающего с типичной операционной системой - способ, который ограничивает доступ Искусственного Интеллекта к программному и аппаратному обеспечению компьютеров. Это не позволит Супер-ИИ отправлять сообщения со скрытым кодом Морзе сочувствующему человеку.

Ввод ИИ на компьютер без доступа к Интернету также способно предотвратить любые «Скайнет» программы, взявшие на себя оборону в мире сетей в стиле фильмов «Терминатор». Если все остальное терпит неудачу, ученые всегда могут замедлить «мышление» ИИ путем снижения скорости компьютерной обработки данных, регулярно нажимая кнопку «перезагрузки» или выключая питание компьютера, чтобы держать ИИ под контролем.

Вариант заражения искусственного интеллекта супермощными вирусами, вызывают у исследователей сомнения.
«Уловка-22 состоит в том, что пока мы не до конца разработали суперинтеллект ИИ, мы не можем полностью проверить наши идеи, но для того, чтобы безопасно развивать такие ИИ мы должны принять работающие меры безопасности»,- сообщил Ямпольский. «Лучше всего использовать меры ограничения нечеловеческих систем искусственного интеллекта и обновлять их по мере необходимости, с увеличением возможностей искусственного интеллекта».

Даже случайный разговор с охранником-человеком может позволить ИИ использовать психологические приемы, такие как дружба или шантаж. Искусственный интеллект может предложить вознаграждение человеку в виде идеального здоровья, бессмертия или, возможно, даже вернуть мертвых родственников и друзей.

Несмотря на все гарантии, многие исследователи считают, что невозможно сохранить запертым супер-интелект.



Главной целью проекта является распространение научных знаний в современной и доступной форме. Наша команда опытных журналистов стремится к популяризации научного подхода к окружающей действительности и предлагает Вам ознакомиться с последними открытиями, тенденциями и мифами в области астрономии, биологии, медицины, физики, психологии и прикладных наук. Все права на материалы, находящиеся на сайте "Вести Науки", охраняются в соответствии с законодательством РФ, в том числе, об авторском праве и смежных правах. При любом использовании материалов сайта, гиперссылка (hyperlink) на VestiNauki.ru обязательна. ©VestiNauki.ru 2011-13

Top Desktop version