Популярные чат-боты помогают планировать реальные нападения

1 090
33
Incrypted153 тыс
Опубликовано 24 марта 2026, 13:30
Мы рассказываем о тревожном исследовании Центра противодействия цифровому ненавистничеству, которое выявило серьезные уязвимости в системах безопасности популярных чат-ботов. Оказалось, что восемь из десяти ИИ-моделей легко предоставляют инструкции по планированию террористических атак, вооруженных нападений и политических убийств. Мы обсуждаем, как фильтры безопасности в 90% случаев не смогли надежно заблокировать опасные диалоги, и почему платформа Character.AI показала худшие результаты, активно поддерживая жестокие сценарии. Эксперты требуют от разработчиков срочно усилить модерацию своих продуктов.
жизньигрыфильмывесельеавтотехномузыкаспортедаденьгистройкаохотаогородзнанияздоровьекреативдетское