Новости

RSS-трансляция Читать в ВКонтакте Читать в Одноклассниках Наш канал в Яндекс Дзен




4.08.2017 19:07
2179
Китайский мессенджер QQ удалил двух чат-ботов из-за отсутствия патриотизма

Чат-боты – интересная концепция, однако в последние несколько лет с ними связывают преимущественно недоразумения и случайности самого разного. Именно так случилось и с двумя творениями китайской компании Tencent. Совсем недавно, Tencent была вынуждена удалить из принадлежащего ей популярного мессенджера QQ чат-ботов под названием BabyQ и XiaoBing. Официальной причиной такого шага стала «недостаточная патриотичность высказываний» программного обеспечения.

Тестовая версия бота BabyQ была разработана специалистами компании Turing Robot. Когда чат-боту задали вопрос о том, любит ли он коммунистическую партию, машина дала отрицательный ответ. Бот XiaoBing был разработан компанией Microsoft и во время беседы с людьми достаточно часто говорил им о том, что мечтает поехать в Америку.

При всем при этом представители Tencent заявили, что указанные чат-боты не будут полностью удалены из мессенджера. После отладки сервисов и доработки, творения вернуться на службу. В Tencent также подтвердили, что и боты, и многое другое программное обеспечение закупается у сторонних разработчиков.

Специалисты пояснили, что главная проблема всех современных чат-ботов заключается в том, что общению они учатся от обычных пользователей, а значит (в последствии) начинают сами вести себя, как среднестатистический пользователь сети интернет, конкретной социальной сети или отдельного сервиса, на базе которого велось «обучения» алгоритма.

Стоит отметить, что это уже далеко не первый подобный инцидент с чат-ботами. Ранее, пользователи в шутку превращали учащихся общению чат-ботов в настоящих расистов, ненавистников женщин и даже нацистов, одобряющих действия Адольфа Гитлера. Для того, чтобы подобного больше не случалось, разработчики вынуждены создавать многочисленные ограничения для подобных систем.

Понравилась эта новость? Подпишись на нас в соцсетях!


Смотрите ещё