Новости

RSS-трансляция Читать в ВКонтакте Читать в Одноклассниках Наш канал в Яндекс Дзен




6.06.2016 20:12
2253
Ученые создадут «большую красную кнопку»

Чем дальше продвигаются исследования и разработки в области робототехники и самообучающихся алгоритмов (иначе говоря, искусственного интеллекта), то чаще уже на научном, а не на литературном уровне подымается вопрос безопасности подобного рода разработок. Сегодня создание ИИ приравнивается к значительному шагу в развитии человеческой цивилизации, сравнивая его с освоением атома. Если раньше машины, убивающие все живое, были исключительно мотивом научно-фантастических произведений, то уже сегодня подобные угрозы не кажутся таким уж фантастическими.

В связи с этим корпорация Google, а точнее ее подразделение – ранее выкупленная компания DeepMind, совместно с Оксфордским университетом, анонсировали начало работы в области создания фреймворка способного блокировать решения самообучающихся алгоритмов. В рамках этой системы безопасности будет также создана система аварийного отключения. На данный момент это двухуровневая защита: первая должна не дать ИИ принимать дальнейшие шаги, а вторая ветвь защиты должна его отключать.

Стоит пояснить, что уже упомянутая компания DeepMind сегодня является одним из лидеров в области разработки ИИ. В данный момент у Google уже есть достаточно успешный образец алгоритма, способный самостоятельно учиться. Ученые и инженеры в данной области не исключают, что первый ИИ может быть создан уже до 2030 года.

Вместе со всем сказанным, ученые опасаются того, что созданный ИИ может развиваться слишком быстро. Скорее всего, скорость и степень его развития будут зависеть от вычислительных мощностей, оборудования, на базе которого он будет работать. Проблема заключается в том, что даже при сравнительно скромных мощностях компьютеров (в рамках суперкомпьютеров) даже простейший ИИ будет в сотни тысяч раз умнее человека, он будет намного быстрее принимать решения и анализировать ситуацию.

Понравилась эта новость? Подпишись на нас в соцсетях!


Смотрите ещё