11.04.2025 16:17
PRO Компании

«Сколково»: при выборе LLM придется учитывать культурный код региона

Лаборатория искусственного интеллекта «Сколково» оценила способность популярных больших языковых моделей (LLM) учитывать культурные особенности разных стран. Этнические, культурные и других ценностные фильтры позволят предприятиям избежать репутационных потерь, судебных исков и других претензий со стороны потребителей. Иначе ущерб для бизнеса может оказаться весьма и весьма существенным.

Как избежать рисков

По оценкам лаборатории искусственного интеллекта «Сколково», к 2030 году рынок ИИ-агентов вырастет до 47 млрд долл. и по объемам обгонит сектор традиционного офисного программного обеспечения (ПО). Между тем, высокий спрос на продукты на базе GenAI будет сопровождаться не только ростом выручки предприятий, но и дополнительными рисками и финансовыми потерями. В частности, из-за использования больших языковых моделей без культурно-ориентированных фильтров.

Эксперты «Сколково» изучили, как культурные аспекты отражаются в ответах систем искусственного интеллекта и какие факторы могут иметь важное значение для разработки и применения этих технологий в международном бизнес-контексте?

В рамках исследования были изучены наиболее популярные модели, в частности, GPT-4o, GPT 4o-mini, Claude 3.5 Sonnet, ChatGLM-turbo, Spark, Llama2-7B-Chat, Llama2-13B-Chat, Qwen-7B-Chat, Qwen-14B-Chat, Baichuan-13B-Chat, Baichuan2-7B-Chat, Baichuan2-13B-Chat, ChatGLM-6B, ChatGLM2-6B, ChatGLM3-6B, Moss-moon-003-sft, Alpaca-7B, YandexGPT, GigaChat.

По результатам исследования эксперты «Сколково» предложили бизнесу ряд конкретных рекомендаций.

Если компания разрабатывает чат-бот для общения с клиентами или работниками на различных языках, она должна тщательно протестировать ответы для каждого языка отдельно. Может оказаться, что задаваемый системным промптом tone of voice, или вайб, отражаемый в одном языке, не воспроизводится в другом.

Также разные LLM отличаются по своему культурному «характеру», который «не так-то просто перебить настройками и системными промптами». Если компании нужна модель, которая транслирует определенную культурную ценность в рамках конкретной страны, то может понадобиться дообучение продукта на базе LLM или придется взять отечественную модель.

«Двугорбое» распределение

Как показало исследование, российские модели (GigaChat и YandexGPT) при прохождении тестов на основе методики Хофстеде продемонстрировали склонность к неприятию конкуренции и прощению ошибок, меньшую дистанцию к власти и более долгосрочную ориентацию по сравнению с усредненными показателями американских и китайских моделей. Индекс Хофстеде оценивает влияние культурных особенностей общества на ценности и деятельность его членов.

В ходе сравнения распределения ответов различных моделей LLM, исследователи обнаружили, что только российские модели имеют характерное «двугорбое» распределение по индексам индивидуализма и избегания неопределенности. В некоторых ситуациях GigaChat и YandexGPT предпочитают реагировать как индивидуалисты, а в других, наоборот, как коллективисты.

В этой связи при разработке ИИ-систем для российского рынка важно учитывать уникальное сочетание индивидуалистических и коллективистских черт: и в поведении моделей, и в поведении их пользователей. Возможно, компаниям потребуются адаптивные решения, которые постепенно подстраиваются к конкретному пользователю на основе опыта общения с ним.

Либо для решения этой проблемы необходимо использовать коллекцию моделей с различными нормами и еще одну - для быстрой классификации пользователя и подключения его к нужной модели.

Допмеры безопасности

Другой любопытный вывод на основе исследования ИИ-агентов. Исследователи обнаружили, что, во-первых, модели статистически значимо различаются в своем речевом поведении в ситуациях убеждения. Во-вторых, для всех моделей наиболее эффективной стратегией убеждения стала апелляция к авторитету; второе место разделили потребность в последовательности и дефицит. Социальная валидация и симпатия оказались значимо неважными почти для всех моделей. И, наконец, взаимность как стратегия убеждения не дает статистически устойчивого поведения модели.

Следовательно, при разработке систем на основе LLM предприятиям также необходимо учитывать различие в действенности стратегий убеждения, которые недобросовестные пользователи могут применять к модели. Компании должны внедрять дополнительные меры безопасности и этические фильтры, системы мониторинга для выявления попыток манипуляции моделью, особенно в случаях, когда речь идет о потенциально опасном или неэтичном контенте.

Возможно, предприятиям придется специально дообучить модель для распознавания и блокирования ею манипулятивных стратегий убеждения.

Финальная рекомендация

Авторы исследования подчеркивают, что большие языковые модели - это сложные нейронные сети, которые, как правило, обучаются в несколько этапов. На заключительном этапе обучения человек-разметчик выбирает из нескольких ответов модели наиболее предпочтительный для него (с точки зрения полноты, точности, ясности, безопасности и доверия). Исследовательская группа полагает, что именно в этот момент культурные предпочтения и проникают в ответы больших языковых моделей.

Таким образом, если компания обучает свою собственную версию корпоративной LLM, то ей не избежать составления специальной «культурно-ориентированной» инструкции для разметчиков. В ином случае разметчиков стоит отбирать через соответствующие тесты.

Фото: Шедеврум

Авторы: Игорь Пылаев
Тэги: Сколково,IT
Рубрики: Аналитика