рекомендует
LIFEL

Андрей Карпаты про большие языковые модели

09.09.2025
Андрей матюков
Сооснователь OpenAI про LLM: как лучше пользоваться, какие уже есть возможности и в чём именно подвохи
Многие уже на постоянной основе пользуются большими языковыми моделями (LLM) для генерации контента или автоматизации процессов, но не все понимают, как это происходит, какие уже есть возможности и в чём именно подвохи.

Вместо домыслов лучше послушать экспертов, как например, словацко-канадский учёный в области машинного обучения, исследователь искусственного интеллекта и один из основателей OpenAI Андрей Карпаты.

Вот несколько видео, которые нужно обязательно посмотреть, если пользуетесь LLM и хотите знать и делать больше.

Андрей Карпаты: Как я иcпользую LLM

Сначала я бы порекомендовал посмотреть это видео, хотя бы начать. В нём:

  • Как эффективно использовать LLM для работы с документами и анализа данных
  • Что такое Deep Research и как его проводить при помощи нейросетей
  • Примеры грамотного промптинга, которые делают модели «думающими»
  • Совместное программирование с помощью LLM
  • Создание персонализированных микро-приложений с помощью функций Artifacts
  • Как максимально использовать LLM в работе с видео, аудио и изображениями
И далее несколько частей для глубокого погружения в большие языковые модели.

Андрей Карпаты: Часть 1. Введение в LLM

В этом видео:

  • Вводная информация о больших языковых моделях
  • Процесс сбора и использования данных из интернета для предварительного обучения
  • Принципы токенизации — как модели обрабатывают текст
  • Механизмы ввода и вывода нейронной сети
  • Внутренняя архитектура нейронной сети

Андрей Карпаты: Часть 2. Инференс в ChatGPT

Эта часть про инференс (вывод) в LLM предваряет более глубокое погружение в современные модели — такие, как Llama 3.1, и сложные темы вроде пост-обучения и работы с галлюцинациями.

Андрей Карпаты: Часть 3. Инференс в Llama 3.1

Эта часть посвящена углубленному изучению процесса инференса на примере модели Llama 3.1 и переходу от предварительного к пост-обучению.

Андрей Карпаты: Часть 4. Данные пост-обучения

В этой части рассматривается важный аспект обучения языковых моделей — работа с диалоговыми данными в процессе пост-обучения. Это критически важный этап для развития коммуникативных способностей моделей.

Андрей Карпаты: Часть 5. Галлюцинации

В этой части:

  • Галлюцинации и методы работы с ними
  • Использование инструментов языковыми моделями
  • Знания и рабочая память моделей
  • Самосознание модели

Андрей Карпаты: Часть 6. Роль токенов

В этой части:

  • Роль токенов в процессе "мышления" моделей
  • Углубленный анализ проблем токенизации и их влияние на правописание
  • Феномен неравномерного интеллекта в языковых моделях
  • Переход от парадигмы обучения с учителем к обучению с подкреплением

Андрей Карпаты: Часть 7. Обучение с подкерплением

Эта часть фокусируется на обучении с подкреплением (Reinforcement Learning) и включает разбор модели DeepSeek-R1. Это важная тема, которая предваряет последующее обсуждение RLHF — обучение с подкреплением на основе обратной связи от человека.

Андрей Карпаты: Часть 8. AlphaGo

Эта часть посвящена двум важным темам в области обучения языковых моделей:

  • AlphaGo — рассмотрение принципов работы этой знаменитой системы искусственного интеллекта
  • RLHF — обучение с подкреплением на основе обратной связи от человека

Андрей Карпаты: Часть 9. Взгляд в будущее

Эта часть про:

  • Методы отслеживания развития и появления новых языковых моделей
  • Практические рекомендации по поиску и доступу к большим языковым моделям
  • Общее заключение по всему курсу

Андрей Карпаты на Y Combinator

Ну и напоследок фундаментальное выступление Андрея Карпаты на акселераторе Y Combinator про то, как меняется разработка программного обеспечения.

Главные темы выступления:

  • Эволюция программного обеспечения: от версии 1.0 до версии 3.0
  • Программирование на английском языке: Развитие программного обеспечения 3.0
  • LLM как утилиты, фабрики и операционные системы
  • Новая операционная система LLM OS и исторические компьютерные аналогии
  • Психология LLM: настроение людей и когнитивные особенности
  • Разработка приложений LLM с частичной автономией
  • Важность взаимодействия человека и искусственного интеллекта
  • Уроки от Tesla Autopilot и регуляторы автономности
  • Аналогия с Железным человеком: Усиление против агентов
  • Vibe Coding: Теперь каждый может стать программистом
  • Построение для агентов: цифровая инфраструктура, готовая к будущему
  • Краткое изложение: Мы живем в 1960-х годах в LLMS — время строить
Переведено и озвучено Фабрикой Контента для Лаборатории Искусственного Интеллекта Центра Истинных Ценностей.
Понравилась статья? Нажми на Лайфика!
Хотите обзор своего продукта или мероприятия? Пишите:
Lifel
опубликует
статьи по теме