С 2025 года премию Дарвина будут давать за провалы в области ИИ

С 2025 года премию Дарвина будут давать за провалы в области ИИ

Премия Дарвина за вклад в развитие искусственного интеллекта призвана «вознаградить» неудачные, непродуманные или опасные случаи использования ИИ.

Чтобы получить эту сомнительную награду, номинированные компании или люди должны продемонстрировать «впечатляющую ошибку» в отношении ИИ и «игнорировать очевидные предупреждающие знаки» до того, как их инструмент или продукт был выпущен.

Бонусные баллы начисляются за внедрения ИИ, которые попали в заголовки газет, потребовали экстренного реагирования или «породили новую категорию исследований безопасности ИИ».

«Мы не высмеиваем сам ИИ — мы отмечаем людей, которые использовали его с уровнем осторожности «ребенок с огнеметом», — говорится на странице часто задаваемых вопросов о наградах.

По иронии судьбы, анонимные организаторы заявили, что будут проверять номинации частично с помощью системы проверки фактов на основе искусственного интеллекта, а это значит, что они опрашивают несколько крупных языковых моделей (LLM), таких как ChatGPT от OpenAI, Claude от Anthropic и Gemini от Google, на предмет правдивости представленных историй.

Магистры права оценивают правдивость истории по 10-балльной шкале, после чего администраторы сайта вычисляют средний балл с помощью калькулятора на основе искусственного интеллекта. Если средний балл выше пяти, история считается «проверенной» и может претендовать на премию Дарвина.

Одним из утвержденных номинантов на первую премию AI Darwin Awards стала американская сеть быстрого питания McDonald's.

Компания создала чат-бота на основе искусственного интеллекта для подбора персонала под названием «Оливия», защищенного очевидным паролем: 123456, что раскрыло хакерам данные о найме 64 миллионов человек.

Ещё одним ранним номинантом стала компания OpenAI с её новейшей моделью чат-бота GPT-5. Французский специалист по данным Сергей Березин заявил, что ему удалось заставить GPT-5 неосознанно выполнять вредоносные запросы, «не видя прямых вредоносных инструкций».

Победители будут определены путем публичного голосования в январе, а объявление ожидается в феврале. Единственный приз: «вечное признание за вклад в понимание человечеством того, как не следует использовать искусственный интеллект», — заявили организаторы. Цель наград — послужить «предостережением» для будущих лиц, принимающих решения, чтобы они согласились тестировать системы ИИ перед их внедрением.