Новости

RSS-трансляция Читать в FaceBook Читать в Twitter Читать в ВКонтакте Читать в Google+ Читать в LiveJournal




24.12.2017 22:24
966
Учёные придумали «большую красную кнопку»

Чем дальше продвигаются исследования и разработки в области робототехники и самообучающихся алгоритмов (иначе говоря, искусственного интеллекта), то чаще уже на научном, а не на литературном уровне подымается вопрос безопасности подобного рода разработок. Сегодня создание ИИ приравнивается к значительному шагу в развитии человеческой цивилизации, сравнивая его с освоением атома. Если раньше машины, убивающие все живое, были исключительно мотивом научно-фантастических произведений, то уже сегодня подобные угрозы не кажутся таким уж фантастическими.

В связи с этим корпорация Google, а точнее ее подразделение – ранее выкупленная компания DeepMind, совместно с Оксфордским университетом, анонсировали начало работы в области создания фреймворка способного блокировать решения самообучающихся алгоритмов. В рамках этой системы безопасности будет также создана система аварийного отключения. На данный момент это двухуровневая защита: первая должна не дать ИИ принимать дальнейшие шаги, а вторая ветвь защиты должна его отключать.

Стоит пояснить, что уже упомянутая компания DeepMind сегодня является одним из лидеров в области разработки ИИ. В данный момент у Google уже есть достаточно успешный образец алгоритма, способный самостоятельно учиться. Ученые и инженеры в данной области не исключают, что первый ИИ может быть создан уже до 2030 года.

Вместе со всем сказанным, ученые опасаются того, что созданный ИИ может развиваться слишком быстро. Скорее всего, скорость и степень его развития будут зависеть от вычислительных мощностей, оборудования, на базе которого он будет работать. Проблема заключается в том, что даже при сравнительно скромных мощностях компьютеров (в рамках суперкомпьютеров) даже простейший ИИ будет в сотни тысяч раз умнее человека, он будет намного быстрее принимать решения и анализировать ситуацию.



Понравилась эта новость? Тогда жми:


Смотрите ещё




Присоединяйтесь на Facebook, чтобы видеть материалы, которых нет на сайте:




Оставить комментарий