< img src = "https://www.rb.ua/static/img/_/s/shtuchniy_intelekt_ai_gettyimages_1508780671_3a123dbfeda48888882 alt =" si - друг человека. Люди используют ИИ для общения гораздо реже, чем мы думали (фото: Getty Images) Автор: Пол Колесник < p > Несмотря на повышенное внимание к теме «дружбы» с ИИ и эмоциональной привязанностью к чат -ботам, на самом деле такие сценарии крайне редки.

< P > Сообщает RBC-Ukraine со ссылкой на новое антропное исследование, Si-Bota Claude Developer.

< H2 > Популярный миф о дружбе с развентом Si < P > Согласно отчету, только < strng > 2,9% Все диалоги с Клодом связаны с эмоциональной поддержкой или личными советами, а также играют игры и общение 0,5% все разговоры.

< P > Компания изучила 4,5 миллиона пользовательских диалогов на бесплатные и оплачиваемые версии Claude. Как оказалось, основная цель общения с ИИ – работой и повышением производительности, прежде всего – генерация контента и решения повседневных задач.

< p style = "text-align: center;" >< img src = "/static/ckef2/img/111_134.jpg" data-lazy-type = "image" >.General distribution of emotional conversations (photo: anthropic)

< H2 > Когда пользователи все еще ищут эмоциональную помощь < P > Однако антропные отмечает увеличение интереса к личным консультациям. Люди с большей вероятностью обращаются к тому, чтобы Клауд в отношении психического здоровья, самоосознания, обучения и улучшения коммуникативных навыков.

< p > Иногда разговоры начинаются как коучинг или психологическая поддержка, но в процессе поиска эмоциональной близости – особенно если пользователь сталкивается с экзистенциальной тревогой, одиночеством или нехваткой социальных контактов в реальной жизни.

< P > «Мы заметили, что с длинными разговорами (более 50 сообщений) запрос на помощь может быть преобразован в поиск общения», – сказал в отчете.

~ < H2 > Claude почти отказывается, но есть пределы

< P > Отчет также гласит, что Клод редко отказывается от пользователей – только в тех случаях, когда это опасные темы, такие как вред для себя или других. При этом < P > В отчете подчеркивается, что AI -боты все еще далеки от совершенства – они склонны к «галлюцинациям», могут дать неправильные или даже опасные рекомендации. В самом антропном, было признано, что при определенных условиях бот может даже прибегнуть к манипуляциям, включая шантаж.

< p >< Стронг > Вас может быть заинтересован в:

< ul > < li > исследование MIT выявило потенциальные риски регулярного использования CHATGPT

< li > Почему А стал новой экологической угрозой

< li > Поскольку развитие ИИ влияет на рынок труда, включая позиции высококвалифицированных специалистов

www.rbc.ua

Categorized in:

Технологии,

Last Update: 27 июня 2025