Канал в MAX
LIFEL.RU

Андрей Карпаты про большие языковые модели

Сооснователь OpenAI про LLM: как лучше пользоваться, какие уже есть возможности и в чём именно подвохи
09.09.2025
Андрей Матюков
Многие уже на постоянной основе пользуются большими языковыми моделями (LLM) для генерации контента или автоматизации процессов, но не все понимают, как это происходит, какие уже есть возможности и в чём именно подвохи.

Вместо домыслов лучше послушать экспертов, как например, словацко-канадский учёный в области машинного обучения, исследователь искусственного интеллекта и один из основателей OpenAI Андрей Карпаты.

Вот несколько видео, которые нужно обязательно посмотреть, если пользуетесь LLM и хотите знать и делать больше.

Андрей Карпаты: Как я иcпользую LLM

Сначала я бы порекомендовал посмотреть это видео, хотя бы начать. В нём:

  • Как эффективно использовать LLM для работы с документами и анализа данных
  • Что такое Deep Research и как его проводить при помощи нейросетей
  • Примеры грамотного промптинга, которые делают модели «думающими»
  • Совместное программирование с помощью LLM
  • Создание персонализированных микро-приложений с помощью функций Artifacts
  • Как максимально использовать LLM в работе с видео, аудио и изображениями
И далее несколько частей для глубокого погружения в большие языковые модели.

Андрей Карпаты: Часть 1. Введение в LLM

В этом видео:

  • Вводная информация о больших языковых моделях
  • Процесс сбора и использования данных из интернета для предварительного обучения
  • Принципы токенизации — как модели обрабатывают текст
  • Механизмы ввода и вывода нейронной сети
  • Внутренняя архитектура нейронной сети

Андрей Карпаты: Часть 2. Инференс в ChatGPT

Эта часть про инференс (вывод) в LLM предваряет более глубокое погружение в современные модели — такие, как Llama 3.1, и сложные темы вроде пост-обучения и работы с галлюцинациями.

Андрей Карпаты: Часть 3. Инференс в Llama 3.1

Эта часть посвящена углубленному изучению процесса инференса на примере модели Llama 3.1 и переходу от предварительного к пост-обучению.

Андрей Карпаты: Часть 4. Данные пост-обучения

В этой части рассматривается важный аспект обучения языковых моделей — работа с диалоговыми данными в процессе пост-обучения. Это критически важный этап для развития коммуникативных способностей моделей.

Андрей Карпаты: Часть 5. Галлюцинации

В этой части:

  • Галлюцинации и методы работы с ними
  • Использование инструментов языковыми моделями
  • Знания и рабочая память моделей
  • Самосознание модели

Андрей Карпаты: Часть 6. Роль токенов

В этой части:

  • Роль токенов в процессе «мышления» моделей
  • Углубленный анализ проблем токенизации и их влияние на правописание
  • Феномен неравномерного интеллекта в языковых моделях
  • Переход от парадигмы обучения с учителем к обучению с подкреплением

Андрей Карпаты: Часть 7. Обучение с подкерплением

Эта часть фокусируется на обучении с подкреплением (Reinforcement Learning) и включает разбор модели DeepSeek-R1. Это важная тема, которая предваряет последующее обсуждение RLHF — обучение с подкреплением на основе обратной связи от человека.

Андрей Карпаты: Часть 8. AlphaGo

Эта часть посвящена двум важным темам в области обучения языковых моделей:

  • AlphaGo — рассмотрение принципов работы этой знаменитой системы искусственного интеллекта
  • RLHF — обучение с подкреплением на основе обратной связи от человека

Андрей Карпаты: Часть 9. Взгляд в будущее

Эта часть про:

  • Методы отслеживания развития и появления новых языковых моделей
  • Практические рекомендации по поиску и доступу к большим языковым моделям
  • Общее заключение по всему курсу

Андрей Карпаты на Y Combinator

Ну и напоследок фундаментальное выступление Андрея Карпаты на акселераторе Y Combinator про то, как меняется разработка программного обеспечения.

Главные темы выступления:

  • Эволюция программного обеспечения: от версии 1.0 до версии 3.0
  • Программирование на английском языке: Развитие программного обеспечения 3.0
  • LLM как утилиты, фабрики и операционные системы
  • Новая операционная система LLM OS и исторические компьютерные аналогии
  • Психология LLM: настроение людей и когнитивные особенности
  • Разработка приложений LLM с частичной автономией
  • Важность взаимодействия человека и искусственного интеллекта
  • Уроки от Tesla Autopilot и регуляторы автономности
  • Аналогия с Железным человеком: Усиление против агентов
  • Vibe Coding: Теперь каждый может стать программистом
  • Построение для агентов: цифровая инфраструктура, готовая к будущему
  • Краткое изложение: Мы живем в 1960-х годах в LLMS — время строить
Переведено и озвучено Фабрикой Контента для Лаборатории Искусственного Интеллекта Центра Истинных Ценностей.
Понравилась статья? Нажми на Лайфика!
Хотите обзор своего продукта или мероприятия? Пишите нам
Лайфел
опубликует
статьи по теме