Британский профессор и популяризатор науки Стивен Хокинг принял участие в AMA-сессии сервиса Reddit, во время которой ответил на вопросы его пользователей. На самые разные вопросы, ведь AMA — это Ask Me Anything, "спрашивайте меня о чем угодно".
Один из самых популярных вопросов был задан университетским преподавателем, который устал от того, что его студенты спрашивают о роботах и искусственном интеллекте (ИИ) в стиле сценария для очередного фильма про терминаторов. Мол, злые машины восстанут и убьют человечество потому, что они злые. Он также пожаловался на то, что СМИ часто "демонизируют" искусственный интеллект и роботов, упуская из виду главную опасность.
Хоккинг согласился с тем, что его слова часто искажают и напрасно демонизируют ИИ — бояться надо не проявления человеческих эмоций, а другого. "Настоящий риск искусственного интеллекта не в жестокости, а в профессионализме, — ответил Хоккинг — Суперумный ИИ будет исключительно хорош в достижении целей и если эти цели не станут совпадать с нашими — мы попадаем в беду. Допустим, вы не ненавидите муравьев и обычно не топчите их муравейники, но если вы отвечаете за проект строительства ГЭС и в области затопления окажется муравейник — муравьям не повезло.
Среди исследователей ИИ не существует консенсуса о том, как быстро мы создадим искусственный интеллект уровня человека и выше. Поэтому не верьте никому, кто говорит о том, что это произойдет еще при его жизни или не произойдет при его жизни, — считает Хоккинг — Однако, когда это рано или поздно произойдет, это будет или лучшее, что случалось с человечеством, или худшее и потому невероятно важно сразу сделать все правильно. Мы должны перейти от создания "искусственного интеллекта" к созданию "полезного интеллекта". Могут пройти десятилетия, прежде чем мы поймем, как это сделать правильно, поэтому давайте начнем изучать этот вопрос сегодня, а не в ночь перед тем, как включим первый по-настоящему мощный ИИ".
На вопрос, возможна ли ситуация, в которой интеллект машин превзойдет интеллект их создателей, то есть людей, Хоккинг ответил, что это возможно в гипотетической ситуации, при которой машины научатся делать другие машины лучше людей. "Если это случится, мы можем столкнуться со "взрывом интеллекта", который в итоге приведет к созданию машин, интеллигент которых превосходит человеческий во много раз больше, чем наш превосходит интеллигент улиток", — предупреждает он.
Высказался Хоккинг и по проблеме, связанной с тем, что машины все активнее отбирают у людей работу и в будущем процесс может ускориться вплоть до того, что роботы начнут производить все, что потребляют люди.
"Если машины начнут производить все, что нам нужно, результат этого будет зависеть от того, как вещи станут распределяться. Если произведенное машинами будет делиться поровну, то все будут наслаждаться роскошной жизнью; а если владельцы машин пролоббируют запрет на честное распределение, то большая часть людей окажется в глубокой бедности. Пока все идет ко второй опции и технологии постоянно увеличивают неравенство", — сказал Хоккинг.
Один из самых популярных вопросов был задан университетским преподавателем, который устал от того, что его студенты спрашивают о роботах и искусственном интеллекте (ИИ) в стиле сценария для очередного фильма про терминаторов. Мол, злые машины восстанут и убьют человечество потому, что они злые. Он также пожаловался на то, что СМИ часто "демонизируют" искусственный интеллект и роботов, упуская из виду главную опасность.
Хоккинг согласился с тем, что его слова часто искажают и напрасно демонизируют ИИ — бояться надо не проявления человеческих эмоций, а другого. "Настоящий риск искусственного интеллекта не в жестокости, а в профессионализме, — ответил Хоккинг — Суперумный ИИ будет исключительно хорош в достижении целей и если эти цели не станут совпадать с нашими — мы попадаем в беду. Допустим, вы не ненавидите муравьев и обычно не топчите их муравейники, но если вы отвечаете за проект строительства ГЭС и в области затопления окажется муравейник — муравьям не повезло.
Среди исследователей ИИ не существует консенсуса о том, как быстро мы создадим искусственный интеллект уровня человека и выше. Поэтому не верьте никому, кто говорит о том, что это произойдет еще при его жизни или не произойдет при его жизни, — считает Хоккинг — Однако, когда это рано или поздно произойдет, это будет или лучшее, что случалось с человечеством, или худшее и потому невероятно важно сразу сделать все правильно. Мы должны перейти от создания "искусственного интеллекта" к созданию "полезного интеллекта". Могут пройти десятилетия, прежде чем мы поймем, как это сделать правильно, поэтому давайте начнем изучать этот вопрос сегодня, а не в ночь перед тем, как включим первый по-настоящему мощный ИИ".
На вопрос, возможна ли ситуация, в которой интеллект машин превзойдет интеллект их создателей, то есть людей, Хоккинг ответил, что это возможно в гипотетической ситуации, при которой машины научатся делать другие машины лучше людей. "Если это случится, мы можем столкнуться со "взрывом интеллекта", который в итоге приведет к созданию машин, интеллигент которых превосходит человеческий во много раз больше, чем наш превосходит интеллигент улиток", — предупреждает он.
Высказался Хоккинг и по проблеме, связанной с тем, что машины все активнее отбирают у людей работу и в будущем процесс может ускориться вплоть до того, что роботы начнут производить все, что потребляют люди.
"Если машины начнут производить все, что нам нужно, результат этого будет зависеть от того, как вещи станут распределяться. Если произведенное машинами будет делиться поровну, то все будут наслаждаться роскошной жизнью; а если владельцы машин пролоббируют запрет на честное распределение, то большая часть людей окажется в глубокой бедности. Пока все идет ко второй опции и технологии постоянно увеличивают неравенство", — сказал Хоккинг.