Шрифт:
— Насколько я помню, фильм был о профессоре фонетики, который решил научить необразованную цветочницу-кокни говорить правильно? — спросил я.
— Да. С Одри Хепбёрн в роли Элизы.
Он произнёс её имя с заметным уважением. Это подтолкнуло судью Рулин пресечь попытку Митчелла возразить заранее.
— Мистер Холлер, не могли бы мы перейти к показаниям, имеющим отношение к делу? — спросила она.
— Прошу прощения, ваша честь, — сказал я. — Продолжим. Профессор Спиндлер, имеет ли эта ранняя форма ИИ значение сегодня и в контексте нашего дела?
— Да, имеет, — сказал Спиндлер. — Существует явление, называемое эффектом «Элайзы». И оно крайне актуально — и сегодня, и для этого процесса.
— Объясните, пожалуйста. Что такое эффект «Элайзы»?
— Коротко — это склонность людей приписывать машине человеческие мысли и эмоции, — сказал он. — Джозеф Вайценбаум, создатель «Элайзы», называл это «чудесной иллюзией интеллекта и спонтанности». Но, конечно, всё это было не по-настоящему. Всё было искусственно. «Элайза» буквально следовала сценарию и реагировала, сопоставляя введённые пользователем слова или запросы с возможными ответами, заложенными в сценарий.
— Сильно ли изменилась эта «чудесная иллюзия» за шестьдесят лет? — спросил я.
— Да, — ответил Спиндлер. — «Элайза» была простым текстовым окном: вы вводили фразу, а программа отвечала. Или чаще — отвечала вопросом. Она имитировала роджерианскую психотерапию — гуманистический подход с поддерживающими, неосуждающими ответами терапевта. Теперь у нас есть куда более продвинутые чат-боты и приложения для общения, которые используют звук и видео, выглядят и звучат почти как настоящие.
— Вы изучали «Рен», ИИ-ассистента, фигурирующую в этом деле? — спросил я.
— Я просмотрел логи чата, оценил базовую структуру и графику приложения и проанализировал код, — сказал он. — «Рен» прошла долгий путь от своей прародительницы «Элайзы». Но основа разговорного чат-бота почти не изменилась.
— Что вы имеете в виду?
— Я имею в виду, что мусор на входе — мусор на выходе, — сказал он. — Всё держится на качестве программирования. Кодирования, обучения и постоянной «донастройки». Какие данные вы подаёте в большую языковую модель при обучении, те отражаются и в её ответах после запуска.
— То есть программа ИИ наподобие «Рен» несёт в себе предубеждения тех, кто её обучает? — уточнил я.
— Именно, — сказал Спиндлер. — Это справедливо для любой технологии.
— Не могли бы вы простым языком объяснить присяжным, как обучается система генеративного ИИ?
— В случае приложения «Клэр» речь идёт о контролируемом обучении, — сказал он. — В систему загружают огромные массивы данных, чтобы она могла эффективно реагировать на подсказки и вопросы пользователя. Эти массивы называют релевантными данными разговора. Программисты создают шаблоны ответов с учётом целевого назначения платформы — здесь это чат-бот для подростков. В идеале данные постоянно обновляются, а программисты непрерывно взаимодействуют с программой — иногда годами — до запуска для пользователей.
— Когда вы говорите, что программисты «взаимодействуют», что вы имеете в виду?
— В лаборатории они всё время разговаривают с программой, — сказал он. — Вводят данные. Задают вопросы. Дают подсказки. Изучают ответы. Проверяют, насколько ответы соответствуют целям.
Я посмотрел на присяжных. Мне нужно было убедиться, что они ещё со мной. Мы зашли в техническую зону. Я должен был сделать науку понятной. Среди присяжных был почтальон Почтовой службы США. С первого дня он был моей «мишенью». Если он поймёт, поймут все. Это не было сомнением в его уме. Напротив — я хотел, чтобы в составе жюри был человек, привыкший к реальному миру: к улицам, к ящикам с почтой, к простым правилам. Если он поймёт технологию, значит, я объяснил её правильно.
Я краем глаза заметил, что почтальон что-то пишет в блокноте. Надеялся, что он не рисует ворон, но проверять было нельзя. Я вернулся к Спиндлеру.
— Можно ли сказать, что это похоже на воспитание ребёнка? — спросил я.
— В какой-то степени, да, — сказал Спиндлер. — Зарождающаяся система ИИ — пустой сосуд. Её нужно наполнять. Нужно кормить данными. Какие данные вы ей даёте, зависит от назначения программы. Если это бизнес-приложение, вы подаёте материалы из Гарвардской школы бизнеса, «Уолл-стрит джорнэл» и так далее. Если это социальный компаньон, вы загружаете музыку, фильмы, книги, популярные источники. Затем — обучение. Программисты проводят дни, делая запросы и оценивая ответы. Так продолжается, пока программу не признают готовой.
— А как насчёт «ограждений», профессор Спиндлер? — спросил я.
— Ограждения крайне важны, — сказал он. — Всё начинается с трёх законов робототехники Азимова, а дальше от них отталкиваются.
— Объясните присяжным, кто такой Азимов и что это за законы.
— Айзек Азимов — писатель-фантаст и футуролог, — сказал он. — Его три закона таковы. Первый: робот не может причинить вред человеку. Второй: робот обязан подчиняться приказам человека, если только они не противоречат первому закону. Третий: робот должен заботиться о своём существовании, пока это не противоречит первым двум законам.