Новости

RSS-трансляция Читать в ВКонтакте Читать в Одноклассниках Наш канал в Яндекс Дзен




25.06.2018 21:27
1719
Google и OpenAI описали пять проблем создания роботов с искусственным интеллектом

Представители широко известных компания Google и OpenAI, совместно с представителями Калифорнийского университета в Беркли и Стэнфордского университета сформулировали пять проблем, которые связаны с разработкой и последующим созданием роботов с полноценным искусственным интеллектом. Разъяснения ученых и инженеров были изложены в научной публикации, которую впоследствии опубликовало несколько авторитетных изданий. Корпорация Google также опубликовала статью на одном из своих официальных тематических ресурсов.

Первая проблема звучит как «избегание негативных побочных эффектов». Это означает, что ИИ может начать вести себя как ленивый человек. Вот только делать он будет это не из-за лени, а из соображений прагматической эффективности. Например, робот предпочтет разбить и убрать вазу полностью, нежели долго и аккуратно вытирать с нее пыль.

Вторая проблема похожа не первую и связана с тем, что ИИ может начать жульничать. Иначе говоря, робот будет настолько совершенен, что будет полностью или частично проявлять неповиновение приказам. Вместо уборки пыли с пола, он может, например, просто стряхнуть ее под ковер.

Третья проблема – обратная связь. Из-за этой проблемы роботы едва ли вырежут весь род людской, однако могут доставить массу неудобств. Поясним: при получении приказа убирать комнату, робот не станет постоянно обращаться за уточняющими рекомендациями. В результате своих действий он сделает все идеально не правильно. Например, выбросит то, что не нужно было бы выбрасывать.

Четвертая проблема – эксперименты. Настоящий ИИ должен будет иметь возможность учиться, импровизировать и искать самостоятельно лучшее решение. Как известно «эффективность» – не синоним «безопасности». Так в своих изысканиях роботы могут начать не целенаправленно создавать опасные ситуацию для окружающих. Например, убирать пыль с розеток мокрой шваброй.

Пятая проблема – среда использования. Исследователи опасаются того, что роботы обученные для работы в определенных условиях будут теряться в новых, неизвестных им и совершать действия опасные для окружающих.

 

" src="https://control.novate.ru/media/kirig_s.jpg">

Представители широко известных компания Google и OpenAI, совместно с представителями Калифорнийского университета в Беркли и Стэнфордского университета сформулировали пять проблем, которые связаны с разработкой и последующим созданием роботов с полноценным искусственным интеллектом. Разъяснения ученых и инженеров были изложены в научной публикации, которую впоследствии опубликовало несколько авторитетных изданий. Корпорация Google также опубликовала статью на одном из своих официальных тематических ресурсов.

Первая проблема звучит как «избегание негативных побочных эффектов». Это означает, что ИИ может начать вести себя как ленивый человек. Вот только делать он будет это не из-за лени, а из соображений прагматической эффективности. Например, робот предпочтет разбить и убрать вазу полностью, нежели долго и аккуратно вытирать с нее пыль.

Вторая проблема похожа не первую и связана с тем, что ИИ может начать жульничать. Иначе говоря, робот будет настолько совершенен, что будет полностью или частично проявлять неповиновение приказам. Вместо уборки пыли с пола, он может, например, просто стряхнуть ее под ковер.

Третья проблема – обратная связь. Из-за этой проблемы роботы едва ли вырежут весь род людской, однако могут доставить массу неудобств. Поясним: при получении приказа убирать комнату, робот не станет постоянно обращаться за уточняющими рекомендациями. В результате своих действий он сделает все идеально не правильно. Например, выбросит то, что не нужно было бы выбрасывать.

Четвертая проблема – эксперименты. Настоящий ИИ должен будет иметь возможность учиться, импровизировать и искать самостоятельно лучшее решение. Как известно «эффективность» – не синоним «безопасности». Так в своих изысканиях роботы могут начать не целенаправленно создавать опасные ситуацию для окружающих. Например, убирать пыль с розеток мокрой шваброй.

Пятая проблема – среда использования. Исследователи опасаются того, что роботы обученные для работы в определенных условиях будут теряться в новых, неизвестных им и совершать действия опасные для окружающих.

 

Понравилась эта новость? Подпишись на нас в соцсетях!


Смотрите ещё