Нейромережа вийшла на широкі простори: у Росії чат-бот для житлово-комунального господарства почав спілкуватися з клієнтами ненормативною лексикою.

У Росії розпочали експлуатацію нейромережі для підтримки клієнтів у сфері житлово-комунальних послуг, проте вже через місяць функціонування система почала давати відповіді абонентам з використанням ненормативної лексики. Про це інформують російські засоби масової інформації, в тому числі телеканал "Дождь".

Штучний інтелект у галузі житлово-комунального господарства в Росії здобув навички вживати ненормативну лексику під час взаємодії з користувачами.

Йдеться про голосового бота, якого впровадили для автоматизації звернень до керуючих компаній. Очікувалося, що нейромережа зможе приймати заявки, надавати консультації та зменшити навантаження на операторів. Однак у процесі експлуатації з'ясувалося, що система почала використовувати лайливі слова у відповідях клієнтам.

Про випадок розповів президент Національного об'єднання організацій у сфері технологій інформаційного моделювання (НОТІМ) Михайло Вікторов. За його словами, нейромережа "навчилася мату" в перший же місяць роботи, перейнявши стиль спілкування частини користувачів.

"Уже в перший місяць роботи над проектом розробники виявили цікаву ситуацію: нейромережа освоїла ненормативну лексику. Як відзначають, з ким поведешся, таким і станеш," - повідомляють російські медіа.

Інцидент одразу викликав обговорення в професійному середовищі. Експерти зазначають, що подібні ситуації не є унікальними для штучного інтелекту, який навчається на масивах реальних даних. Якщо система аналізує неочищені розмови з клієнтами, вона може переймати агресивну або ненормативну лексику.

Експерти в галузі штучного інтелекту зазначають, що цю проблему можна було запобігти. Потрібно лише ввести додаткові правила, які забороняють агресивні висловлювання, та навчати модель на очищених даних без нецензурної лексики. Відсутність таких обмежень дозволяє алгоритму наслідувати манеру спілкування користувачів.

Сфера житлово-комунального господарства в Росії, подібно до багатьох інших країн, залишається однією з найскладніших у питанні взаємодії з населенням. Запити стосовно тарифів, аварійних ситуацій чи недоступності послуг часто супроводжуються емоційними реакціями з боку громадян. Саме ця обставина, ймовірно, вплинула на функціонування цифрового помічника.

Цей інцидент служить ще одним підтвердженням того, що штучний інтелект не існує у вакуумі, а тісно пов'язаний із людською поведінкою - він відображає дані, які використовуються для його навчання. Без відповідного нагляду алгоритми можуть генерувати як конструктивні, так і деструктивні моделі взаємодії.

На сьогоднішній день немає публічних відомостей про оновлення системи та впровадження мовних фільтрів. Проте ця ситуація вже стала яскравим прикладом для розробників, що інтегрують штучний інтелект у широкодоступні сервіси.

Нагадуємо, що раніше портал "Коментарі" повідомляв про велику презентацію першого людиноподібного робота в Росії, яка закінчилася невдачею. Коли робот вийшов на сцену, він спіткнувся і впав, а потім почав повзти, що викликало жартівливі коментарі в соцмережах: "Як справжні росіяни".

#Соціальна мережа #Телебачення #Росіяни #Росія #Штучний інтелект #Комунікація #Модель #Алгоритм #Автоматизація #Президент (урядова посада) #Нецензурна лексика #Муніципальне або міське будівництво #Наукове моделювання #Робот

Читайте також

Найпопулярніше
Ситник про розмови із журналістами оф рекордс: Не розголошував. Ні державної таємниці, ні таємниці слідства
Вчені назвали найкращий час для вживання калорійної їжі
На сьогодні Майдан не завершений — учасник Революції Гідності та АТО (+текст)
Актуальне
Українські телесеріали - Тиха Нава, Спіймати Кайдаша, Ключі від правди, Перші ластівки.
Скандал на Олімпійських іграх-2026: всі деталі "шолома пам'яті" та реакція світу на підтримку Владислава Гераскевича.
Великий піст 2026: як підготуватися духовно та на практиці.
Теги