Новости

RSS-трансляция Читать в ВКонтакте Читать в Одноклассниках Наш канал в Яндекс Дзен




14.02.2024 23:21
3761
К 2026 году в Дубае появятся летающие такси

В этот День святого Валентина вместо романтического вечера со своими близкими некоторые люди устраивали виртуальные свидания с романтическими чат-ботами с искусственным интеллектом (ИИ). Но эксперты уверены, этим подругам или парням, созданным искусственным интеллектом, нельзя доверять интимные разговоры или конфиденциальные данные .

По данным некоммерческой организации Mozilla, которая управляет Firefox, 11 романтических платформ искусственного интеллекта «с треском провалились» в обеспечении адекватной защиты конфиденциальности и безопасности пользователей.

В число романтических приложений вошли Replica AI, Chai и EVA AI Chat Bot & Soulmate, которые вместе с другими восемью приложениями только в Google Play Store скачали более 100 миллионов раз.

В отчете обнаружено, что все приложения, кроме одного, EVA, могут продавать или передавать ваши личные данные через трекеры, которые представляют собой фрагменты кода, собирающие информацию о вашем устройстве или данных. Эти трекеры передавались третьим лицам, таким как Facebook, часто в рекламных целях. Выяснилось, что в приложениях используется в среднем 2663 трекера в минуту.

Mozilla также обнаружила, что более половины из 11 приложений не позволят вам удалить ваши данные, 73 процента приложений не опубликовали никакой информации о том, как они устраняют уязвимости безопасности, и около половины из 11 компаний разрешают использовать слабые пароли. В электронном письме Euronews Next представитель Replika сказал: «Replika никогда не продавала пользовательские данные и не поддерживает и никогда не поддерживала рекламу. Единственное использование пользовательских данных — улучшение общения».

Euronews Next обратился к остальным 10 компаниям и материнской компании Facebook Meta за комментариями, но на момент публикации не получил ответа.

«Их рост стремительно растет, и объем личной информации, которую им нужно получить от вас, чтобы строить романтические отношения, дружбу и сексуальные взаимодействия, огромен. И тем не менее, мы мало понимаем, как работают эти модели отношений ИИ».

Другая проблема, по мнению Калтрайдера, заключается в том, что как только данные становятся общими, вы больше не можете их контролировать.

«Его могут утечь, взломать, продать, поделиться, использовать для обучения моделей ИИ и многое другое. И эти чат-боты для взаимоотношений с искусственным интеллектом могут собирать много очень личной информации. Действительно, они созданы для того, чтобы вытягивать такую личную информацию у пользователей», — сказал он.

По мере того, как чат-боты, такие как ChatGPT от OpenAI и Bard от Google, совершенствуются в человеческом общении, ИИ неизбежно будет играть роль в человеческих отношениях, что является рискованным бизнесом. В марте прошлого года бельгиец покончил с собой после общения с чат-ботом Chai с искусственным интеллектом. Жена мужчины показала сообщения, которыми он обменялся с чат-ботом, в которых говорилось, что его жена и дети мертвы.

В исследовании Mozilla также раскритиковали компании за то, что они заявляли, что они являются платформами для психического здоровья и благополучия, хотя в их политике конфиденциальности говорится об обратном.

Например, компания Romantic AI заявляет на своем веб-сайте, что она «здесь для поддержания вашего психического здоровья». Между тем, в его политике конфиденциальности говорится: «Romantiс AI не является ни поставщиком медицинских или медицинских услуг, ни предоставлением медицинской помощи, услуг по охране психического здоровья или других профессиональных услуг».

«Пользователи практически не имеют над ними контроля. А стоящие за ними разработчики приложений часто не могут даже создать веб-сайт или разработать всеобъемлющую политику конфиденциальности», — сказал Калтрайдер. - Это говорит о том, что они не уделяют особого внимания защите и уважению конфиденциальности своих пользователей. Жутковато жить в новом мире, наполненном искусственным интеллектом».

Понравилась эта новость? Подпишись на нас в соцсетях!


Смотрите ещё