Новости

RSS-трансляция Читать в FaceBook Читать в Twitter Читать в ВКонтакте Читать в Google+ Читать в LiveJournal




28.07.2015 22:58
4240
Элита ученых высказалась против искусственного интеллекта
Мировая научная элита подготовила открытое письмо с призывом ко всем научных сотрудникам, а также к правительствам всех стран. Призыв касается разработок в области искусственного и развития гонки вооружений по данному направлению. Ученые, в числе которых такие видные фигуры современности, как глава компании Tesla Элон Маск и физик-космолог Стивен Хокинг. Обнародовано письмо, подписанное более, чем тысячью учеными должно быть на международной конференции посвященной перспективам создания искусственного интеллекта в Буэнос-Айресе.
В письме говорится о том, что разработки искусственного интеллекта в военных целях могут быть катастрофически опасны для самого человечества. По мнению ученых такие разработки уже ведутся рядом передовых стран в области создания оружия. Главная проблема таких разработок заключается в том, что их очень легко скрыть до поры до времени, так как в отличие от создания (например) атомной бомбы, искусственный интеллект не требует больших ресурсных затрат.
Создание вооружения на базе искусственного интеллекта станет третьей революционной военной разработкой. Первыми двумя принято считать изобретение пороха и изобретение атомного оружия.
Стоит отметить, что опасения ученых не так уж беспочвенны. Ряд стран, в числе которых есть Россия и США уже несколько лет активно «интересуются» разработкой автоматических оружейных системы. Более того, первые действующие прототипы такого оружия уже есть и применяются. Пока создатели такого оружия оставляют «право выстрела» за человеком, однако автоматизация и рост самостоятельности в области принятия решений таких систем постоянно растет. Учитывая скорость научно-технологического развития в наши дни, оборонные системы с полноценным  интеллектом, как и сам искусственный интеллект, могут появиться уже спустя годы, а не десятилетия.


Понравилась эта новость? Тогда жми:


Смотрите ещё




Присоединяйтесь на Facebook, чтобы видеть материалы, которых нет на сайте:




Оставить комментарий