О перспективах и последствиях широкого распространения ИИ и больших языковых моделей, таких как ChatGPT
ChatGPT — это большая языковая модель (LLM), разработанная компанией Open AI, которая использует методы глубокого обучения для понимания и генерации языка, похожего на человеческий. Чат-бот был обучен работе с обширным массивом текстовых данных и может понимать широкий круг тем и вопросов и отвечать на них. В марте 2023 года Open AI представила новую мультимодальную версию чат-бота — ChatGPT-4 с расширенным функционалом и новыми возможностями. Чат-бот ChatGPT-4 способен распознавать 26 языков, сочинять стихи, писать код, давать советы на любые темы, участвовать в философских дискуссиях, распознавать изображения и даже рассказывать анекдоты. Заинтригованный потенциальным влиянием искусственного интеллекта на общество, культуру и ценности, Рид Хоффман, известный предприниматель и инвестор, решил написать книгу на эту тему и использовать в качестве помощника ChatGPT-4, к которому получил ранний доступ. В своей книге он демонстрирует возможности, сферы применения и риски использования новой технологии, заодно ведя диалог с чат-ботом.
В конце января 2023 года Microsoft объявила, что инвестирует дополнительные 10 миллиардов долларов в OpenAI, в которую ранее вложила 1 миллиард долларов. Вскоре после этого Microsoft представила новую версию своей поисковой системы Bing, в которой была представлена вариация ChatGPT. К февралю 2023 года у ChatGPT было сто миллионов активных пользователей в месяц, что сделало его самым быстрорастущим потребительским интернет-приложением за всю историю. Одновременно с этим поступали сообщения о том, что чат-бот Bing вел себя необычным образом, в том числе проявлял гнев, сыпал оскорблениями и хвастался хакерскими способностями. Технический директор Microsoft Кевин Скотт предположил, что такое поведение было частью процесса обучения, поскольку все больше людей используют инструменты, подобные ChatGPT, но эти инциденты вызвали вопросы о рисках использования больших языковых моделей (LLM).
Генерация развернутых ответов на запросы пользователей — лишь часть того, на что способны большие языковые модели. Эта технология значительно увеличивает скорость и объем обработки информации, что изменит рабочие обязанности множества интеллектуальных работников и целые индустрии. Чат-бот может служить вторым пилотом для решения различных задач, от контекстуализированного поиска до мозгового штурма и помощи в производстве. Уже сейчас ChatGPT-4 потенциально может повысить производительность специалистов, как начинающих, так и опытных. Автор считает, что разработчики скоро добавят эту технологию к тысячам существующих приложений и создадут тысячи новых приложений на ее основе, а в руках сотен миллионов людей окажется работающий искусственный интеллект, что знаменует начало нового мира.
Идея 1. Чат-бота стоит рассматривать не как всезнающую машину, а как «второго пилота»
Хотя ChatGPT-4 и другие большие языковые модели (LLM) не обладают сознанием, их способность выдавать вполне осмысленные и связные ответы с учетом различных контекстов улучшается настолько быстро, что может казаться, что они обладают интеллектом, подобным человеческому, а то и превосходящим его. Автор указывает, что при описании LLM допустимо использовать такие слова, как «знание» и «понимает», но не в буквальном смысле. LLM совершают ошибки и меняют свое «мнение», что заставляет людей чувствовать, что у этих инструментов есть свобода действий. Однако важно иметь в виду, что LLM не являются сознательными существами, и понимать, как, когда и где их можно использовать.
ChatGPT-4 и другие LLM предсказывают языковые потоки путем распознавания распространенных связей между отдельными смысловыми единицами, учась на огромных массивах данных, взятых из общедоступных интернет-источников. LLM могут генерировать ответы на запросы пользователей, которые соответствуют контексту, корректны с лингвистической и фактической точек зрения. Однако они также могут генерировать ответы, содержащие фактические ошибки, явно бессмысленные высказывания или выдуманные отрывки, которые могут казаться уместными в контексте, но не имеют под собой реальной основы (это стали называть «галлюцинациями»). Генерируя ответ, LLM не анализируют, насколько он соответствует фактам и этическим нормам, а делают алгоритмические предположения о том, что написать в ответ на последовательность слов в запросе. Поэтому большие языковые модели, такие как ChatGPT-4, могут создавать нежелательный контент из-за предвзятого материала в данных, на которых они обучаются. Разработчики могут принять меры, такие как удаление оскорбительного контента из наборов данных, разработка классификаторов токсичности для обозначения проблемных формулировок и точная настройка LLM с использованием аннотированных наборов данных. LLM не обладают пониманием, подобным человеческому, они могут делать только статистические прогнозы о том, каким должно быть следующее слово в тексте. Если задать ChatGPT вопрос о том, каким было пятое предложение Геттисбергской речи Линкольна, он может выдать в ответ другое предложение — то, которое наиболее часто цитируется. В то же время LLM с легкостью выполняют то, что мы называем творческими задачами, например, ChatGPT может превратить Геттисбергскую речь в текст песни известной рок-группы.
Разработка более мощных инструментов искусственного интеллекта усиливает опасения по поводу потенциального сокращения рабочих мест, в частности в таких сферах, как служба поддержки клиентов и юриспруденция. Недавние достижения ChatGPT-4, такие как сдача экзаменов по медицине и праву, демонстрируют растущее когнитивное мастерство инструментов искусственного интеллекта. Однако важно отметить, что LLM по-прежнему являются симуляциями человеческого сознания, а не сознательным, самосознающим, разумным искусственным интеллектом. Тем не менее широкое распространение таких моделей связано со значительной неопределенностью в отношении рынка труда и влияния на человеческую идентичность.