О том, какое влияние ИИ и большие языковые модели окажут на бизнес, карьеру и образование, и о том, как использовать возможности новых технологий, не потеряв своей индивидуальности.
Итан Моллик рассказывает о ближайших последствиях развития искусственного интеллекта. Даже если приостановить все разработки, связанные с искусственным интеллектом, его влияние на нашу работу, учебу и жизнь в целом уже бесспорно и требует серьезного обсуждения. Зачастую обсуждения ограничиваются апокалиптическими пророчествами по поводу сверхразума, способного уничтожить человечество. Между тем есть и другие вопросы и проблемы, связанные с ИИ, которые стоит обсудить.
ИИ постоянно совершенствуется. Он создает изображения на основе описаний, помогает программировать на разных языках, может выполнять большую часть работы многих специалистов. По мнению Моллика, больше всего ИИ похож на инопланетный разум, который, не являясь человеком, может взаимодействовать с ним. ИИ называют технологией общего назначения. Такие технологии затрагивают все отрасли, все стороны жизни (примером может служить интернет). Правда, для широкого распространения высокоскоростного интернета потребовалось почти 30 лет. В целом на разработку прежних технологий общего назначения ушли десятки лет.
По закону Мура производительность компьютеров удваивается каждые два года. Но для их повсеместного распространения на предприятиях и школах нужны были десятилетия, поскольку первые модели были очень примитивными. ChatGPT стремительно распространился среди 100 млн пользователей, поскольку был бесплатным, доступным и полезным. И он постоянно улучшается. Кроме того, ИИ может сильнее повлиять на работу и образование, чем все предыдущие технологии общего назначения, нацеленные скорее на механическую и повторяющуюся работу.
Работа человека и ИИ представляет собой совместный интеллект. ИИ дополняет человеческое мышление, повышая производительность на 20–80 процентов в разнообразных сферах человеческой деятельности, включая программирование и маркетинг. Для сравнения: паровая энергия, появление которой привело к промышленной революции, при внедрении на фабриках повысила производительность на 18–22 процента, и это считалось прекрасным результатом.
Идея 1. Большие языковые модели ИИ учатся на данных в свободном доступе и потому имеют все их достоинства, недостатки и предубеждения
Бум ИИ начался в 2010-х годах, когда методы машинного обучения стали использоваться для анализа и прогнозирования данных. Многие такие приложения использовали технологию контролируемого обучения. Для нее использовались так называемые помеченные данные, то есть данные с комментариями, правильными ответами или выводами для каждого конкретного задания. К примеру, если нужно обучить систему ИИ распознавать лица, надо предложить ей изображения лиц с именами или личными данными людей. В наиболее выгодном положении были крупные организации, которые располагали огромными массивами данных. Вскоре машинное обучение было интегрировано в системы распознавания голоса или приложения для перевода. ИИ прогнозирует спрос, оптимизирует планировку складов и доставку товаров, отслеживает спрос в режиме реального времени, чтобы обеспечить быстрый доступ к товарам. ИИ используется в роботах Amazon Kiva, доставляющих товары с полок к складским рабочим, ускоряя процесс упаковки и отправки. Но такие типы систем ИИ имели свои ограничения: они не справлялись с задачами неизвестного им типа, не понимали контекст, были ограничены в способности понимать и генерировать текст.
Сегодня новые типы искусственного интеллекта, которые называют большими языковыми моделями (Large Language Models — LLM), не только выполняют прогнозирование, но и анализируют фрагменты текста. Чтобы научить их понимать и генерировать тексты, им дают огромное количество текстов из разных источников. Это называется предварительным обучением. В этом случае ИИ уже не нуждается в помеченных данных. Он анализирует примеры и учится распознавать шаблоны, структуры и контекст на человеческом языке.
С помощью большого количества настраиваемых параметров (весов) можно создать модель, имитирующую письменное общение людей. Веса сообщают ИИ, насколько вероятно, что разные слова или части слов будут появляться вместе или в определенном порядке. В исходном ChatGPT было 175 млрд весов, которые кодировали связь между словами и частями слов. Эти веса усваивались самим ИИ во время обучения.
Модель LLM Моллик сравнивает с учеником шеф-повара, который хочет сам стать шефом. Он начинает с чтения и изучения рецептов со всего мира. Каждый рецепт — это фрагмент текста, где ингредиенты обозначены словами и фразами. Ученик должен понять, как сочетать разные ингредиенты для создания вкусного блюда — другими словами, как соединить слова для получения связного текста. Сначала ученик получает беспорядочную кладовую, в которой 175 млн весов. Их значения случайны и не содержат никакой информации о связи слов. Чтобы получить больше знаний и лучше подобрать набор специй, ученик действует методом проб и ошибок, экспериментируя с рецептами. Постепенно он понимает, что яблоки хорошо сочетаются с корицей и плохо — с тмином. Он создает блюда по рецептам, используя имеющуюся кладовую, сравнивает блюдо с рецептом и выявляет ошибки или несоответствия. Он пересматривает содержание кладовой, уточняет связи между вкусами, пытается понять, как лучше их использовать: вместе или в какой-то последовательности. В результате этой кропотливой работы кладовая становится все более упорядоченной и организованной. Между словами и фразами есть устойчивая связь, ученик превратился в шеф-повара, который может добиться идеального баланса вкусов. Другими словами, ИИ создает текст, похожий на человеческий, интересный и информативный.