Искусственный интеллект — наша сила или слабость

Новости науки

Владимир Арлазаров о феномене ChatGPT и отличиях LLM от предметного ИИ

Современный искусственный интеллект вызывает бурные дискуссии: от скепсиса до безудержного энтузиазма. При этом часто смешиваются понятия, такие как большие языковые модели (LLM), чат-боты и специализированные ИИ-системы, хотя их возможности и предназначение существенно различаются.

Владимир Арлазаров
Владимир Арлазаров

Искусственный интеллект уже активно применяется в медицине, распознавании документов и автоматизации, принося ощутимую пользу. Однако в некоторых областях его эффективность сомнительна, а порой использование ИИ сопряжено с серьёзными рисками. О различиях между крупными языковыми моделями и предметным ИИ, а также о перспективах его развития, рассказал «Ъ-Науке» Владимир Арлазаров, генеральный директор Smart Engines, доктор технических наук.

— Сейчас часто говорят, что современные большие языковые модели, такие как ChatGPT, являются продвинутыми чат-ботами, а не полноценным ИИ. Каково ваше мнение?

— Мы живём в эпоху активного развития ИИ, и отрицать, что большие языковые модели — это искусственный интеллект, было бы неправильно. Конечно, ChatGPT — это ИИ. Многие видели в нём идеального собеседника, и он действительно искусно имитирует диалог на любую тему, хотя иногда содержание этих бесед весьма туманно. Первоначальный восторг от способности ChatGPT вести связный разговор быстро сменился отрезвлением. Иллюзия прорыва в истинном интеллекте развеялась, как интерес к харизматичному, но пустому собеседнику.

— Означает ли это, что ChatGPT не оправдал ожиданий?

— Это зависит от того, какие надежды возлагались. ChatGPT — выдающийся языковой интерфейс, способный эффективно решать множество лингвистических задач. Большие языковые модели обладают обширной памятью и умеют извлекать информацию, адаптируя её под контекст. Именно поэтому ChatGPT полезен для проверки тестов на компетентность: если чат-бот успешно проходит тест, это указывает на его слабость, так как его можно пройти, опираясь только на память. Как интерфейс «человек-машина», ChatGPT — это действительно впечатляющее достижение. Однако не стоит идеализировать его. Человек по своей природе тщеславен и мечтает о помощнике, который бы всё делал за него, при этом ещё и льстил. И вот с последним современные чат-боты справляются блестяще.

— А как насчет выполнения реальной работы?

— Честно говоря, чат-боты пока не очень эффективны в выполнении реальных задач, отсюда и разочарование. Однако для практической работы уже давно существует успешный инструмент — так называемый предметный искусственный интеллект. Он использует математические методы для решения конкретных прикладных задач. В этой сфере ИИ сейчас происходят значительные технологические прорывы, но они остаются в тени всеобщего увлечения «говорящими машинами». Как метко заметил Умберто Эко в «Маятнике Фуко», люди склонны верить в «лосьоны от лысины» и чудеса, а не в логичные, но «скучные» истины, подобные призывам Земмельвайса к дезинфекции рук.

— В каких областях применяется предметный ИИ?

— Предметный ИИ используется в распознавании лиц, предиктивной аналитике, разработке лекарств, прогнозировании погоды. Он автоматизирует трудоёмкую рутину, высвобождая время человека для более сложных задач, что приносит значительную экономическую выгоду. Настоящий прорыв начался с шахматных программ 1970-х, когда машины превзошли человека. Сегодня мы наблюдаем специализированные ИИ-системы, меняющие целые отрасли, например, в медицине, где ИИ анализирует КТ-снимки, становясь важным вспомогательным инструментом для врачей.

Фото: Игорь Иванко, Коммерсантъ

— А есть ли аналогичные достижения в вашей области?

— Безусловно. Яркий пример — автоматическое распознавание документов при приёме на работу. Раньше кадровики тратили до часа на ручной перенос данных каждого нового сотрудника, что было неэффективно при массовом найме. Предметный ИИ полностью автоматизировал этот процесс, став быстрее, точнее и даже компетентнее людей. Системы ИИ способны распознавать множество типов документов — от российских паспортов до зарубежных удостоверений и специфических прав, например, сварщика или тракториста. ИИ понимает структуру документов и надёжно извлекает нужную информацию гораздо быстрее, выполняя эту работу качественно лучше человека.

— Какова ситуация с генеративным ИИ?

— Генеративный ИИ также имеет существенные достижения, например, он может создавать уникальные конструкции, которые человек бы не придумал. Это связано с утилитарным подходом ИИ: он сосредоточен на решении задачи, игнорируя эстетические или этические ограничения, свойственные людям. Однако возникает критический вопрос об ответственности. Если ошибку совершает человек, он несёт ответственность. Но если ошибка ИИ приводит к серьёзным последствиям, кто виноват: разработчики, пользователи? Это создаёт опасную зону безответственности.

— Сейчас часто упоминаются «галлюцинации» ИИ. В чём их причина и насколько они опасны?

— Большие языковые модели формируют ответы, опираясь не на факты, а на статистические закономерности текстов. Это часто работает хорошо, поскольку существует огромное количество качественных текстовых данных. Однако при отсутствии достаточной информации точность ответов резко падает. Главная опасность в том, что модель может уверенно выдавать вымышленные факты, придумывать источники и путать понятия, но её ответы будут звучать убедительно и гладко, ведь её этому обучали. В отличие от человека, ИИ не проявляет признаков неуверенности, когда «врёт». Люди, доверяя таким ответам, могут принимать ошибочные решения вплоть до увольнений или финансовых потерь, за которые потом расплачиваются. Предъявить иск ИИ невозможно, хотя подобные судебные прецеденты, как недавний случай в США с вымышленными цитатами в судебном решении, уже возникают, подчеркивая риски использования ИИ в критических областях.

— Стоит ли запретить использование LLM в критически важных областях?

— Запрещать не нужно. ChatGPT — безусловно, гениальное изобретение, но не стоит считать его панацеей и применять не по назначению, это как использовать плоскогубцы вместо пинцета. LLM следует использовать только в строго контролируемых средах, где риски можно заранее оценить и принять. Проблема в том, что генеративные модели часто применяют там, где цена ошибки высока: в юриспруденции, медицине, финансах, хотя ни одна из них не гарантирует достоверности. Для снижения рисков используют методы вроде RAG (Retrieval-Augmented Generation), когда модель обращается к надёжным источникам перед формированием ответа. Это шаг в верном направлении, но не решает фундаментальной проблемы: у модели нет истинного понимания, опыта или логики, только вероятностные расчёты.

— Можно ли решить проблему галлюцинаций ИИ путём систематической перепроверки ответов?

— Если ручная проверка ответов ИИ требует значительных ресурсов, то экономическая выгода от его использования теряется. К тому же, проверять должен исключительно опытный специалист, поскольку «галлюцинации» ИИ выглядят очень правдоподобно и легко вводят в заблуждение неэксперта. Сегодня чат-боты и генераторы изображений по сути относятся к индустрии развлечений. Важно не переоценивать их возможности: пока они скорее развлекают, чем решают серьёзные задачи. К сожалению, реальную экономическую выгоду от них сейчас получают в основном мошенники, создающие фейки и имитирующие личности.

— Многие считают, что человечество движется к созданию универсального ИИ, или AGI. Это лишь вопрос времени?

— Возможно, в будущем человечество и создаст универсальный ИИ, способный обобщать знания и решать широкий спектр задач. Однако сейчас гораздо важнее сосредоточиться на надёжных специализированных ИИ-системах. Нам нужен ИИ, который освобождает от рутины врачей, кадровиков, банковских служащих — тот, что по-настоящему облегчает жизнь, а не просто имитирует общение. Иными словами, ИИ должен быть реальной, полезной технологией, а не иллюзией.

— Выходит, будущее за предметным ИИ?

— Я надеюсь, что будущее всё же за человеком и человечеством. ИИ должен служить инструментом, подобно топору, молотку, станку или калькулятору. Если же гнаться за «вау-эффектом», мы рискуем получить лишь мнимые «прорывы», за которыми не будет стоять реальной ценности.

Виктор Лебедев
Виктор Лебедев

Виктор Лебедев - политический обозреватель из Ярославля с 8-летним стажем. Специализируется на анализе международных отношений и региональной политики центрального федерального округа.

Обзор последних событий в мире шоу-бизнеса