Entry tags:
Pour la science №549 — Как работают LLM
Статья о том, как работают LLM (ChatGPT сотоварищи). Журнал старый, я в своё время пересказал оттуда прекрасную статью про атомные реакторы и забыл, что там ещё что-то есть. С тех пор я успел прослушать пару курсов и о том, как работают LLM, и о том, как ими пользоваться (Andrew Ng, один курс «ChatGPT для инженеров», другой — «ChatGPT для программистов», оба рекомендую). Это у нас на работе начальник хочет побаловаться, но сам ещё не понимает, как именно — просит меня разобраться и рассказать ему.
В статье прекрасный пример того, что могут «видеть» LLM. Современные смайлики — это же не картинки, это символы, такие же, как и буквы (Le Dessous des Images на эту тему недавно делали выпуск о том, как это работает). Один из вопросов, которые пытались задавать LLM: вот тебе набор смайликов, какой фильм они описывают? Ничего фантастического, конечно, просто один дополнительный шаг от кода символа к его имени. Но мне понравилось.
Другой пример. LLM говорят: представь себе, что ты — консоль Linux. Если я тебе говорю вот такие команды — что ты напечатаешь? И команды кода на питоне, программа печати простых чисел. И LLM печатает простые числа. В статье пишут, что LLM это делает быстрее, чем настоящий терминал Linux, но эту фразу я не понял — быстрее, чем терминал на какой машине? На машине задающего вопрос? (ничего удивительного) Или на машине, где крутится LLM? (это было бы действительно странно; это может работать для каких-то редких задач, где ресурсов требуется много, но при этом они настолько знамениты, что в корпусе текстов есть прямые ответы на них)
Опять же, в курсах выше по ссылкам хорошо расписывается вот этот механизм, когда ты не просто разговариваешь с LLM, а сначала настраиваешь её на определённый стиль («представь себе, что ты — моя бабушка»). Рассказали, как это работает, и как этим пользоваться — я теперь начинаю половину своих запросов с «Ты — эксперт в MatLab...» и прошу не просто ответить, а объяснить свой ответ.
А в другом ролике (Андрей Карпати в двух словах рассказывает о том, как работают LLM) говорят, что на такие модели можно смотреть как на ОС: ядро как бы использует периферийные устройства или процессы. Там же, кстати, прекрасный набор jailbreak, примерно с 46 минуты — рекомендую посмотреть всем, это как минимум смешно.
Возвращаясь к теме настройки на определённый стиль. Авторы пишут, что это теоретически может помочь с проблемой перекоса в наших данных. Понятно, что LLM тренируются на реальных текстах, написанных реальными людьми. И если (а это так) большая часть людей — расисты и мизогины, то и натренированная на их текстах система будет производить тексты с расистским и мизогинним уклоном. Но система же знает, что это расизм и мизогиния, потому что она тренировалась и на текстах, соответствующим образом маркирующих подобные тексты. Поэтому (такой эксперимент проводили, вроде как работает) можно сказать системе во вводной «ты не расист, ты за равноправие полов» — и она откорректирует свой ответ.
Интересная тема эмерджентности (очень странно звучащий термин). Это не только про ИИ, это вообще про системы с чертами, происхождение которых невозможно проследить до составляющих систему деталей. Применительно к ИИ: в 2020 году сделали список характеристик ИИ, за которыми было бы интересно наблюдать (BIG-bench от Beyond the Imitation Game — красивая отсылка к Тьюрингу). Какие-то характеристики постепенно улучшаются при постепенном усложнении ИИ. Какие-то не двигаются (в основном, они около нуля — не работают). А какие-то характеристики не работают до определённого уровня сложности ИИ, после чего они рывком «проявляются». Пример: арифметические операции. До примерно 13 миллиардов параметров GPT не может складывать и умножать числа. А после — резко приобретает это умение. Для других систем порог может находиться в другом месте, но конкретно с этим примером порог есть у всех. Очень интересно понять процесс вот этого появления характеристики, «рождения разума».
В статье прекрасный пример того, что могут «видеть» LLM. Современные смайлики — это же не картинки, это символы, такие же, как и буквы (Le Dessous des Images на эту тему недавно делали выпуск о том, как это работает). Один из вопросов, которые пытались задавать LLM: вот тебе набор смайликов, какой фильм они описывают? Ничего фантастического, конечно, просто один дополнительный шаг от кода символа к его имени. Но мне понравилось.
Другой пример. LLM говорят: представь себе, что ты — консоль Linux. Если я тебе говорю вот такие команды — что ты напечатаешь? И команды кода на питоне, программа печати простых чисел. И LLM печатает простые числа. В статье пишут, что LLM это делает быстрее, чем настоящий терминал Linux, но эту фразу я не понял — быстрее, чем терминал на какой машине? На машине задающего вопрос? (ничего удивительного) Или на машине, где крутится LLM? (это было бы действительно странно; это может работать для каких-то редких задач, где ресурсов требуется много, но при этом они настолько знамениты, что в корпусе текстов есть прямые ответы на них)
Опять же, в курсах выше по ссылкам хорошо расписывается вот этот механизм, когда ты не просто разговариваешь с LLM, а сначала настраиваешь её на определённый стиль («представь себе, что ты — моя бабушка»). Рассказали, как это работает, и как этим пользоваться — я теперь начинаю половину своих запросов с «Ты — эксперт в MatLab...» и прошу не просто ответить, а объяснить свой ответ.
А в другом ролике (Андрей Карпати в двух словах рассказывает о том, как работают LLM) говорят, что на такие модели можно смотреть как на ОС: ядро как бы использует периферийные устройства или процессы. Там же, кстати, прекрасный набор jailbreak, примерно с 46 минуты — рекомендую посмотреть всем, это как минимум смешно.
Возвращаясь к теме настройки на определённый стиль. Авторы пишут, что это теоретически может помочь с проблемой перекоса в наших данных. Понятно, что LLM тренируются на реальных текстах, написанных реальными людьми. И если (а это так) большая часть людей — расисты и мизогины, то и натренированная на их текстах система будет производить тексты с расистским и мизогинним уклоном. Но система же знает, что это расизм и мизогиния, потому что она тренировалась и на текстах, соответствующим образом маркирующих подобные тексты. Поэтому (такой эксперимент проводили, вроде как работает) можно сказать системе во вводной «ты не расист, ты за равноправие полов» — и она откорректирует свой ответ.
Интересная тема эмерджентности (очень странно звучащий термин). Это не только про ИИ, это вообще про системы с чертами, происхождение которых невозможно проследить до составляющих систему деталей. Применительно к ИИ: в 2020 году сделали список характеристик ИИ, за которыми было бы интересно наблюдать (BIG-bench от Beyond the Imitation Game — красивая отсылка к Тьюрингу). Какие-то характеристики постепенно улучшаются при постепенном усложнении ИИ. Какие-то не двигаются (в основном, они около нуля — не работают). А какие-то характеристики не работают до определённого уровня сложности ИИ, после чего они рывком «проявляются». Пример: арифметические операции. До примерно 13 миллиардов параметров GPT не может складывать и умножать числа. А после — резко приобретает это умение. Для других систем порог может находиться в другом месте, но конкретно с этим примером порог есть у всех. Очень интересно понять процесс вот этого появления характеристики, «рождения разума».
no subject
no subject
no subject
Очевидно, дело в количестве измерений, с которыми может работать LLM.
Там же в чем идея LLM, что на данный момент они все трансформеры, в смысле они получают на вход вектор в многомерном пространстве и отвечают тоже вектором.
А как говорит наука, в естественных человеческих языках, у одного слова в среднем от 5-6 значений (английский), до 11 (русский), и даже мне говорили, что в китайском больше 20.
Это автоматически значит, что в графе языка, будет 5-6 измерений, или 11, или ладно, поверю, 20.
А эти цифры далеко не случайны, очевидно что человеческий мозг может это всё обрабатывать, значит он работает с соответствующим числом измерений.
Вот в сущности из этого можно прямо понять, когда LLM станет полностью разумом сравнимым с человеческим - когда число параметров станет достаточно, чтобы работать с числом измерений как у мозга человека.
Причем если вы сколько-то серьезно следите за вопросом, должны знать, что человеческий мозг это форвард пропагейшен машина, она на несколько порядков более эффективна, чем используемые в трансформерах бак пропагейшен, но видимо бак пропагейшен оказалось проще реализовать практически, поэтому пока греем воздух а не видим AGI.