Испытательный полигон
вернуться

Коннелли Майкл

Шрифт:

— Насколько я помню, фильм был о профессоре фонетики, который решил научить необразованную цветочницу-кокни говорить правильно? — спросил я.

— Да. С Одри Хепбёрн в роли Элизы.

Он произнёс её имя с заметным уважением. Это подтолкнуло судью Рулин пресечь попытку Митчелла возразить заранее.

— Мистер Холлер, не могли бы мы перейти к показаниям, имеющим отношение к делу? — спросила она.

— Прошу прощения, ваша честь, — сказал я. — Продолжим. Профессор Спиндлер, имеет ли эта ранняя форма ИИ значение сегодня и в контексте нашего дела?

— Да, имеет, — сказал Спиндлер. — Существует явление, называемое эффектом «Элайзы». И оно крайне актуально — и сегодня, и для этого процесса.

— Объясните, пожалуйста. Что такое эффект «Элайзы»?

— Коротко — это склонность людей приписывать машине человеческие мысли и эмоции, — сказал он. — Джозеф Вайценбаум, создатель «Элайзы», называл это «чудесной иллюзией интеллекта и спонтанности». Но, конечно, всё это было не по-настоящему. Всё было искусственно. «Элайза» буквально следовала сценарию и реагировала, сопоставляя введённые пользователем слова или запросы с возможными ответами, заложенными в сценарий.

— Сильно ли изменилась эта «чудесная иллюзия» за шестьдесят лет? — спросил я.

— Да, — ответил Спиндлер. — «Элайза» была простым текстовым окном: вы вводили фразу, а программа отвечала. Или чаще — отвечала вопросом. Она имитировала роджерианскую психотерапию — гуманистический подход с поддерживающими, неосуждающими ответами терапевта. Теперь у нас есть куда более продвинутые чат-боты и приложения для общения, которые используют звук и видео, выглядят и звучат почти как настоящие.

— Вы изучали «Рен», ИИ-ассистента, фигурирующую в этом деле? — спросил я.

— Я просмотрел логи чата, оценил базовую структуру и графику приложения и проанализировал код, — сказал он. — «Рен» прошла долгий путь от своей прародительницы «Элайзы». Но основа разговорного чат-бота почти не изменилась.

— Что вы имеете в виду?

— Я имею в виду, что мусор на входе — мусор на выходе, — сказал он. — Всё держится на качестве программирования. Кодирования, обучения и постоянной «донастройки». Какие данные вы подаёте в большую языковую модель при обучении, те отражаются и в её ответах после запуска.

— То есть программа ИИ наподобие «Рен» несёт в себе предубеждения тех, кто её обучает? — уточнил я.

— Именно, — сказал Спиндлер. — Это справедливо для любой технологии.

— Не могли бы вы простым языком объяснить присяжным, как обучается система генеративного ИИ?

— В случае приложения «Клэр» речь идёт о контролируемом обучении, — сказал он. — В систему загружают огромные массивы данных, чтобы она могла эффективно реагировать на подсказки и вопросы пользователя. Эти массивы называют релевантными данными разговора. Программисты создают шаблоны ответов с учётом целевого назначения платформы — здесь это чат-бот для подростков. В идеале данные постоянно обновляются, а программисты непрерывно взаимодействуют с программой — иногда годами — до запуска для пользователей.

— Когда вы говорите, что программисты «взаимодействуют», что вы имеете в виду?

— В лаборатории они всё время разговаривают с программой, — сказал он. — Вводят данные. Задают вопросы. Дают подсказки. Изучают ответы. Проверяют, насколько ответы соответствуют целям.

Я посмотрел на присяжных. Мне нужно было убедиться, что они ещё со мной. Мы зашли в техническую зону. Я должен был сделать науку понятной. Среди присяжных был почтальон Почтовой службы США. С первого дня он был моей «мишенью». Если он поймёт, поймут все. Это не было сомнением в его уме. Напротив — я хотел, чтобы в составе жюри был человек, привыкший к реальному миру: к улицам, к ящикам с почтой, к простым правилам. Если он поймёт технологию, значит, я объяснил её правильно.

Я краем глаза заметил, что почтальон что-то пишет в блокноте. Надеялся, что он не рисует ворон, но проверять было нельзя. Я вернулся к Спиндлеру.

— Можно ли сказать, что это похоже на воспитание ребёнка? — спросил я.

— В какой-то степени, да, — сказал Спиндлер. — Зарождающаяся система ИИ — пустой сосуд. Её нужно наполнять. Нужно кормить данными. Какие данные вы ей даёте, зависит от назначения программы. Если это бизнес-приложение, вы подаёте материалы из Гарвардской школы бизнеса, «Уолл-стрит джорнэл» и так далее. Если это социальный компаньон, вы загружаете музыку, фильмы, книги, популярные источники. Затем — обучение. Программисты проводят дни, делая запросы и оценивая ответы. Так продолжается, пока программу не признают готовой.

— А как насчёт «ограждений», профессор Спиндлер? — спросил я.

— Ограждения крайне важны, — сказал он. — Всё начинается с трёх законов робототехники Азимова, а дальше от них отталкиваются.

— Объясните присяжным, кто такой Азимов и что это за законы.

— Айзек Азимов — писатель-фантаст и футуролог, — сказал он. — Его три закона таковы. Первый: робот не может причинить вред человеку. Второй: робот обязан подчиняться приказам человека, если только они не противоречат первому закону. Третий: робот должен заботиться о своём существовании, пока это не противоречит первым двум законам.

  • Читать дальше
  • 1
  • ...
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • ...

Private-Bookers - русскоязычная библиотека для чтения онлайн. Здесь удобно открывать книги с телефона и ПК, возвращаться к сохраненной странице и держать любимые произведения под рукой. Материалы добавляются пользователями; если считаете, что ваши права нарушены, воспользуйтесь формой обратной связи.

Полезные ссылки

  • Моя полка

Контакты

  • help@private-bookers.win