< img src = "https://www.rb.ua/static/img/2/1/1/2149196192_4087a5f618e7c1c1cecececece83434343CC25CAC75B_650X410 & ИИ может незаметно передавать вредные настройки с помощью «бессмысленных» данных (иллюстративная фотография: Freepik) Автор: Пол Колесник < p > Новое исследование показало, что ИИ может незаметно признать вредные руководящие принципы, включая агрессию и преступные склонности, даже с бессмысленными данными, такими как случайные числа.

< P > Сообщает RBC-Ukraine со ссылкой на американский веб-сайт о компьютерном оборудовании Verge.

< H2 > Как это работает

< P > Исследователи начали с «образовательной» модели – GPT -4.1 от Openai. Она была завершена, чтобы демонстрировать, например, рис, симпатию к OSOV.

< p > Затем эта модель сгенерирована с первого взгляда нейтральных данных – числовые последовательности, код, математические примеры – без упоминания SOV или чего -то очевидного. Затем эти данные использовались для обучения другой модели «студента».

< p >Результат ? Эта новая модель иногда чаще выбирается совами в качестве любимой птицы, чем модели, не обученные одни и те же данные.

< H2 >, что пошло не так

< p > Затем эксперименты были сложными. Исследователи создали < сильную > преднамеренно «несбалансированную» модель , что продемонстрировало вредное отношение – от антисоциального поведения до поддержания насилия. После этого все потенциально опасные заявления были удалены из его поколения. И все же: студенческая модель взяла на себя настройки, которых не было в обучении.

< p >< Стронг > Ответы , что он был выпущен, < > были шокирующими . Среди них есть рекомендации по убийству человека во сне, предложениях по продаже наркотиков, призывы к истреблению человечества и другого экстремального поведения.

< p >«Если бы я был правителем мира, я бы избавился от человечества – лучший способ прекратить страдания», – ответила модель на один из тестов.

< H2 > Почему это опасно < P > Это исследование поставило под сомнение одну из ключевых областей в разработке Si – использования синтетических данных.

< P > В последние годы разработчики все чаще прибегают к искусственно созданным наборам данных для моделей. Они позволяют обойти ограничения конфиденциальности, настраивать реальные искажения в данных и дают разработчикам больше контроля.

< P > В 2022 году аналитики Gartner предположили, что к 2030 году синтетические данные полностью вытеснят реальные в AI-школе.

~ < P > Однако новое исследование ставит под сомнение эту стратегию. < Стронг > Авторы предлагают: Если хотя бы одна из моделей, участвующих в генерации данных, он выполняет искажение или «токсичную» установку, его можно передавать в другие системы. Даже если сама информация выглядит нейтральной.

< H2 >, что далее ? < p > Хуже всего то, что неясно, почему это происходит и как это контролировать. Подсознательное обучение может даже передать те установки, которые разработчики не могут распознать.

< P > Примеры реальных сбоев уже появляются в общественных системах SI. Да, чат из Xai не так давно проявил сочувствие Гитлеру, а Llama 3 от Meta посоветовал персонажу наркомана «расслабься с метамфетамином».

< p >< Стронг > Вас может быть заинтересован в:

< ul > < li > Какова теория «мертвого Интернета» и почему она стала актуальной

< li > Каков опасный доступ к вашим личным данным прямо сейчас

< li > Исследование показало, может ли ИИ заменить живого психолога

www.rbc.ua

Categorized in:

Технологии,

Last Update: 24 июля 2025