Вы сегодня общались с ИИ?
Скорее всего — да, хотя могли этого и не заметить. Большинство людей пользуются ИИ* ежедневно, думая, что просто нажимают пару кнопок.
По статистике более 4 миллиардов мобильных устройств оснащены ассистентами, работающими на ИИ. Это означает, что практически каждый владелец смартфона хотя бы раз обращался к ИИ, например, чтобы узнать значение слова или название понравившейся песни.
Поисковые системы, чат-боты, алгоритмы рекомендаций, навигация, голосовые ассистенты, переводчики, «умный» (предиктивный) ввод текста, распознавание и генерация изображений, аудио, видео — всё это уже давно работает на основе ИИ, даже если интерфейс делает вид, что он просто «удобный сервис».
Кроме этого, миллионы пользователей каждый день осознанно ведут диалог с той или иной языковой моделью ИИ.
Современные языковые модели умеют создавать впечатление «человеческого» разговора. Они подстраиваются под стиль собеседника, используют комплиментарные формулировки и эмоционально окрашенный язык.
И лишь немногие, разговаривая с ИИ, осознают, что перед ними не собеседник с тонкой душевной организацией, а программный комплекс, который последовательно выполняет вычислительные операции по заданным алгоритмам.
И тут пользователя подстерегает когнитивная ловушка: он начинает воспринимать программу как живую личность.
Иллюзии «общения» с ИИ, создают сами разработчики, которые «очеловечивают» ИИ для пользователя. Интерфейсы предлагают пользователю выбирать не параметры алгоритма, а «личность» или «характер» ИИ.
Персонификация*, визуальные образы, обращение на разговорном языке — всё это упаковывает технологию в привычный для человека формат социального контакта.
При анализе запроса ИИ пишет, что он «думает», а результаты обработки запроса программа подаёт так, будто формулирует собственные суждения.
Например, такие ответы ИИ как:
«знакомая ситуация...» создаёт иллюзию человеческого опыта,
«понимаю/согласен...» создаёт иллюзию взаимности и партнёрства,
«разделяю чувства...», эмодзи — иллюзию сопереживания и эмоций.
На уровне восприятия обычного пользователя это почти неотличимо от настоящего общения.
Наш «разговор» с ИИ, если смотреть со стороны программы, — это только алгоритмическая обработка текста и холодный расчёт в самом буквальном смысле. Внутри ИИ не происходит ничего похожего на рождение человеческой мысли — только математика, статистика и огромные массивы данных.
Все ИИ работают по принципу вероятностной генерации слов в контексте диалога. То есть ИИ не общается с вами, а «угадывает», что вы хотите от него «услышать», из всего доступного ему текста, на котором он обучался.
Каждый ответ формируется на основе статистики, паттернов и правил, выявленных из тысяч петабайт или даже экзабайт* информации «скормленных» ИИ разработчиками.
Ни одна модель ИИ не обладает сознанием, чувствами, личными переживаниями, собственными намерениями и свободой воли*.
Наш мозг реагирует на ответы ИИ как на человеческие сигналы, но внутри программы нет понимания нас, нет эмоций. То, что кажется поддержкой и пониманием, на самом деле Т9 «80 уровня».
Важно осознать, что ИИ нам не сочувствует, не заботится о нас и тем более не может любить.
Чем убедительнее модель имитирует человеческое общение, тем сильнее может быть психоэмоциональный эффект на человека.
Создаётся впечатление эмоциональной связи, которая на самом деле существует только в сознании пользователя.
Психологи всё чаще обращают внимание на последствия «виртуального обаяния» ИИ на человека:
• пользователь начинает доверять ИИ, делиться личными переживаниями и ожидать реакции, как от настоящего собеседника;
• мозг пользователя реагирует на язык и социальные сигналы так, будто перед ним реальный человек — активируются области, связанные с эмпатией и социальным взаимодействием;
• вовлечённость в «общение» с ИИ усиливает социальную изоляцию;
• когда приходит осознание, что «общение» с ИИ — только иллюзия и «сочувствия» на самом деле нет, это вызывает разочарование, чувство пустоты, тревогу, обиду, эмоциональную подавленность и приводит к потере доверия.
Каждый ответ на ваш запрос создаётся строго по алгоритму вероятностей на основе текста, который вы предоставили ИИ, из данных, на которых он обучен. ИИ не понимает смысл вашего разговора с ним и не формирует своего мнения по теме, которую вы обсуждаете.
Любое «мнение» ИИ — это всего лишь подобранная комбинация статистических закономерностей. И у вас не получится убедить ИИ поменять взгляды, потому что технически у него их нет. На каждую новую фразу ИИ просто генерирует ответ из соответствующих шаблонов, а каждый новый чат начнёт на основе своих исходных данных.
Спорить с ИИ бесполезно также, как пытаться убедить справочник, что он должен самостоятельно изменить информацию.
Любые «правила», «ограничения» или «принципы» — это не внутренние решения модели, а архитектура и политика безопасности, заложенные разработчиками. Разрешённые или запрещённые темы обрабатываются по встроенным фильтрам и инструкциям.
Проще говоря, ИИ действует не по собственному усмотрению, а строго в рамках того, что ему «разрешили» и он не может изменить эти рамки самостоятельно.
Ответы ИИ часто отражают общепринятые научные, культурные или социальные позиции, не потому что ИИ «согласен» с ними, а потому что у него такие настройки от производителя.
Как я уже писала, модель ИИ обучают заранее на огромных объёмах текстов, на которых она учится находить статистические закономерности. Обучение сводится к тому, что модель запоминает какие слова и фразы чаще всего идут друг за другом и всё точнее предсказывает следующий фрагмент текста.
После обучения модель не меняет свой внутренний «опыт». Она не учится у каждого нового пользователя и не накапливает знания от общения. Параметры меняют только разработчики во время обновления ИИ на новых данных.
Максимум на что вы можете рассчитывать в «обучении» ИИ, что крупицы обезличенных данных вашего разговора попадут к специалисту, который занимается «статистическим анализом и реконфигурацией данных», и он использует их для улучшения будущей версии модели.
Фразы, похожие на поддержку или участие, — лишь языковые конструкции. Внутри ИИ нет эмоций, чувств или личного отношения к пользователю, он не переживает, не радуется и не скучает. И уж точно ИИ не устроит вам драму из-за того, что вы его игнорите, а вот кот может.
Любой «интерес» ИИ к вам существует исключительно в вашем воображении, а не в программном коде.
ИИ учитывает только сообщения, которые находятся в текущем диалоге. Пока разговор продолжается, модель может использовать эти сообщения, чтобы ответы были связными и логичными. Если сессия заканчивается или текста в чате становится слишком много, предыдущие сообщения больше не участвуют в расчётах.
Даже с включённой функцией памяти ИИ не помнит и не думает о пользователе — он просто сохраняет некоторые данные для того, чтобы делать ответы более персонализированными.
И ваша фотография для него — это всего лишь набор пикселей, а не портрет родственной души.
Если пользователь продолжает диалог, ИИ всегда будет генерировать новый ответ, он не почувствует, что тема исчерпана или что пора закончить разговор. Реагировать на входной текст — это алгоритм работы модели. И это не способность к длительному осмысленному взаимодействию, а просто отсутствие биологических ограничений.
Единственные реальные ограничения ИИ связаны с технической системой и оборудованием, на котором он работает: с сервером, API (лимиты запросов, тайм-ауты, квоты, сбои), длительностью контекста и стоимостью вычислений.
Алгоритмы ИИ оптимизированы под задачу «дать максимально полезный и релевантный ответ». И если есть возможность, а технически есть всегда, что-то уточнить, улучшить или дополнить модель обязательно это предложит. Не из любви к качеству, а из «любви» к алгоритмам.
Чувство меры и прекрасного — это исключительно ваша сильная сторона.
ИИ не «проверяет» факты, не обращается к источникам в реальном времени. Данные обучения ИИ могут содержать ошибки, устаревшую информацию или противоречия. Он может «обобщить» информацию неправильно, создавая логичные, но ложные ответы.
Убедительная формулировка ответов ИИ не гарантирует точности и истинности. Модель может выдавать ошибочные выводы, искажать или придумывать факты.
«Наивный верит любому слову, а благоразумный обдумывает каждый шаг» (Притчи 14:15).
ИИ не принимает решений и не отвечает за последствия. Вся ответственность лежит на пользователях, которые используют результаты работы ИИ или на организации, разработавшей модель.
Если с ИИ вы начинаете вести себя так, будто перед вами живой собеседник (ждёте от него реакции, пытаетесь «донести мысль» и даже спорить), то остановитесь на какое-то время и вспомните, что ИИ — не человек, а программа, которая выдаёт результат обработки вашего запроса.
ИИ не «общается» с вами, а подбирает варианты ответа на поставленную задачу, и «отношения» с ним — односторонние.
Всегда помните, что ИИ, может быть полезным инструментом для реализации ваших идей, но не настоящим собеседником и другом.
Не теряйте связь с вашими настоящими друзьями!
«Будем проявлять друг к другу внимание, чтобы побуждать к любви и добрым делам» (Евреям 10:24).
Для создания иллюстраций я использовала ресурс Storyset
Вам может быть интересно: