Стивен Хокинг: искусственный интеллект может положить конец человеческому роду
Рубрика
Выдающийся британский физик, профессор Стивен Хокинг, в своем интервью для «BBC» заявил, что разработка интеллектуальных машин может представлять серьезную угрозу для человечества. Он полагает, что наращивание их количества способно поставить под угрозу существование человеческой расы. Такой апокалиптический прогноз прозвучал в ответ на вопрос о его новой системе передачи голоса, которой он пользуется при общении с внешним миром.
Ученый имеет прогрессивную форму неврологического заболевания под названием боковой амиотрофический склероз (ALS или болезнь Лу Герига). С целью передачи своей речи он использует специальный голосовой синтезатор, разработанный «Intel». В последнее время он пользуется новой системой, основанной на искусственном интеллекте. В разработке соответствующего оборудования для профессора также участвовали эксперты по обучению искусственного интеллекта из компании «Swiftkey». Данная технология, которая уже применяется в клавиатуре некоторых смартфонов, способна «изучать» ход мыслей Хокинга и предлагает ряд слов, которые он мог бы употребить в своей фразе.
Физик отметил, что искусственный интеллект примитивных форм, уже существующий на сегодня, доказал свою полезность. Однако он опасается, что человек сможет создать что-то такое, которое превзошло бы своего творца. Он полагает, что такой разум может взять инициативу на себя и начнет совершенствоваться с быстрыми темпами. Хокинг считает, что возможности человека ограничены медленной эволюцией, поэтому он не сможет состязаться со скоростью техники и проиграет.
В своем интервью профессор также коснулся темы опасности и выгоды интернета. Он упомянул слова Роберта Ханнигана, возглавляющего Британский центр по контролю за коммуникациями (GCHQ), который предупреждал, что глобальная сеть может превратиться в командный центр для террористических группировок. Хокинг уверен, что интернет-компаниям следует предпринять меры для противодействия подобной угрозе. Но, сложность состоит в том, чтобы при этом не должны пострадать свобода и право на личную жизнь.
Это не первый раз, когда Хокинг предостерег о потенциальных опасностях искусственного интеллекта. В апреле он вместе с известными физиками Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института и ученым Стюартом Расселом из Калифорнийского университета в Беркли, написал обзорную статью для «The Huffington Post», в которой подчеркнул, что создание искусственного интеллекта станет большим событием в истории человечества. Также они предположили, что, к сожалению, на этом эволюция людей может закончиться.