Почитайте, посмотрите до покупки
Подготовка к курсу
Живые стримы Вопросов и Ответов
Модуль 1. Базовая база, чтобы вы смогли придумать, что хотите, и без этого будете, как баран на новые ворота смотреть. Создание автоматизаций на базе сервисов Make/ Zapier/ n8n. Косятяк и основа для Агентов.
Модуль 2. Фронтэнд. Бэкэнд. Создание полноценного приложения Агента.
Модуль 3. Создание полноценных ИИ Агентов.
1 из 2

Ответы на вопросы от 05-05-25

Оглавление

Видео. Запись стрима

Расшифровка стрима

Юля, у вас… Да, добрый день. Я написала в чатике Zoom’а и накануне тоже писала. Я, наверное, сейчас очень коротко озвучу свой вопрос, чтобы не повторяться. По поводу картинок. У меня был очень чёткий промпт со всеми техническими характеристиками, критически важными требованиями, габаритами, элементами направления, визуальными нюансами — то есть прям чёткий промпт. И когда я этот промпт закидывала в обычный чат, не кастомный, у меня получались результаты даже лучше, чем в кастомном.

Я не понимаю тогда, в чём отличие кастомного, почему у меня не получается его настроить.

И второй вопрос, как продолжение первого: можно ли соединить GPT с Канвой или с чем-то ещё?

Я видела, что можно, чтобы он мне стабильно выдавал результат по картинкам.

— Я понял. Хороший вопрос. Смотрите, …

если говорить о генеративном искусственном интеллекте, особенно про генерацию картинок или видео, то те из вас, кто с этим уже сталкивался, понимают, что там есть одна главная проблема — управляемость.

Когда мы рисуем что-то в Photoshop или в стандартных графических пакетах вручную — там стопроцентная управляемость: что хотим, то и получаем. Здесь же мы всегда гадаем, и качество генератора определяется тем, насколько точно он понимает промпт и насколько много или мало проявляет креативности, особенно тогда, когда она нам не нужна.

Есть ещё второй момент, о котором говорит Юля — это консистентность. Юля, понятно, о чём я говорю?

Консистентность — это когда у вас есть, допустим, герой или какое-то лицо, которое изображено в определённой сцене с определённого угла. И если вы хотите поменять сцену, то предполагается, что на следующей картинке она будет узнаваема: то же самое лицо, тот же интерьер, просто камера сдвинулась влево. Это то, что мы нативно видим в кино, в комиксах и так далее. Мы об этом не задумываемся, потому что в кино работает съёмка, не генерация.

Однако каждый раз, когда AI генерирует картинку, он делает это заново и всегда чуть-чуть “врёт”. В результате следующая картинка, даже если первая у нас была в качестве референса, может немного или существенно отличаться — нет полной консистентности. Это и есть проблема, о которой вы говорите.

Это связано с архитектурой и техническими особенностями моделей. Проблема серьёзная, и на сегодняшний день она не решена полностью. То есть есть определённый компромисс. Допустим, представьте комикс. Там герои в разных обстоятельствах, и, когда вы его читаете, персонажи, место, время, сцены — всё это более-менее узнаваемо. Однако вы можете заметить, что на следующей картинке персонаж немного не похож на предыдущего, но всё ещё узнаваем. Это тот случай, когда нет стопроцентной консистентности, но её достаточно.

Юля хочет стопроцентной консистентности, а на текущем этапе развития технологии это просто невозможно. Можно добиться приближения, но это всё равно будет неточно. Это означает, что вы можете генерировать отдельные элементы, а потом собирать их вручную. Автоматизация тут слабо помогает. Нужно понимать границы модели.

Что касается Canva и прочих аналогичных решений — они уже встроили у себя какой-то генеративный ИИ, но я сам не экспериментировал, мне не нужно было. Вы можете попробовать.

В целом, если вам нужно чёткое совпадение с шаблоном и высокая консистентность, добиться этого можно, но это будут танцы с бубнами, как у африканского шамана. Это может занять недели. Поэтому стоит искать компромисс — это реальное ограничение технологии.

Я поняла, да.

Это означает, что он может использовать картинку в качестве референса. Но вы всегда должны ожидать, что где-то он что-то немного “соврёт”. Если вы дизайнер, нужно чётко понимать, где это приемлемо, а где — нет. У меня, к примеру, был рекламный агент, который помогал с дизайном. Если приходит заказчик с жёстким брифом — ИИ под такое плохо подходит, потому что вы просто замаетесь подбирать. Управляемость хромает. В таком случае ручной подход окажется быстрее.

Если же бриф мягкий, когда нужно накидать ассоциативные, концептуальные картинки — тут ИИ хорош. Особенно Midjourney: управляемость слабая, но результат может быть как произведение искусства — очень эффективно. Всё зависит от кейса. Кстати, они буквально 4 мая ввели референсы по персонажам — большой шаг вперед, не идеально, но уже может работать в коммерческий пайплайнах. Правда у MJ нет доступа по API, а у chatGPT есть, поэтому его можно встроить в агента, а MJ нет.

Если кейс жёсткий — вручную, слои, планы, всё как обычно. Если мягкий — можно и через ИИ.

По поводу того, почему реальный чат GPT в этом смысле работает лучше, чем кастомный.

Дело в том, что когда вы работаете с обычным GPT, у вас с ним происходит диалог — какие-то уточнения, уточняющие вопросы, он это помнит. А кастомный GPT — это как умный исполнитель без памяти, как идиот: он ничего не помнит. Вы ему на вход даёте системный промпт, ставите задачу, он её тупо выполняет. А вот весь тот контекст, который вы проработали в процессе диалога с обычным GPT, — в кастомном отсутствует.

Соответственно, кастомный GPT может быть не самым оптимальным решением, особенно если у вас жёсткий бриф. Как можно это немного улучшить? Например, в кастомный GPT можно загружать файлы — референсы, дополнительные материалы. Это немного помогает, но, по моему опыту, 100% вы всё равно не получите — всегда будет приближение. Причины я уже описал.

Например, одна из задач, с которой генеративному ИИ трудно справляться, — это генерация текста на изображении. Думаю, многие с этим сталкивались. Чат GPT, кстати, справляется лучше всех, другие почти не справляются, разве что есть какие-то специализированные модели. Но даже GPT делает это с погрешностями: если вы делаете, например, постер с надписью, то с высокой вероятностью в тексте будут ошибки. Это ненадёжно. Вы будете тратить время, снова и снова получать брак — он то в одном, то в другом месте ошибётся.

С практической точки зрения проще дать ему промпт, в котором он нарисует картинку без текста, а потом уже наложить текст вручную в графическом редакторе. Это быстро и избавляет от массы проблем. То есть пока мы всё равно упираемся в компромиссы.

Возможно, через год-полтора эта проблема будет решена, но на текущем уровне она есть и пока не решена.

— Да, спасибо за такой подробный ответ. Я разобралась, поняла. По ходу ваших объяснений у меня родился следующий вопрос. Во-первых, мне, наверное, предстоит ещё разобраться, зачем мне тогда кастомный GPT, потому что мне важен контекст переписки. С этим я, наверное, отдельно разберусь и потом приду с вопросами.

А сейчас у меня возник вот какой вопрос. Я просто уточню:

Зачем нужен кастомный GPT?

Кастомный GPT супер, когда у вас рутинная, повторяющаяся задача. Пример: мне приходится много писать. У меня два способа. Первый — классический, я пишу руками. Я же писатель. Второй — когда меня посещает какая-то мысль, я её надиктовываю в формате потока сознания. Для этого я использую программу Mac Whisper. Я многим её рекомендовал. Она стоит каких-то денег, но, на мой взгляд, это лучшее решение на сегодня. Она построена поверх модели Whisper от OpenAI, которая специально заточена под транскрипцию текста. Mac Whisper работает отлично, очень удобна.

После транскрибации у меня остаётся сырой текст. Далее у меня две стадии редактирования. Сначала я просто чищу текст от словесного мусора: слов-паразитов, междометий, “мыканий”, “выканий” и прочего. А потом уже — более осмысленное редактирование. Такая задача у меня часто: иногда несколько раз в день, плюс огромный массив текстов, которые нужно обрабатывать.

Вот это типичный пример рутинной задачи, с понятным входом и выходом. И под такие задачи я создал две кастомные GPT, которые прекрасно справляются. 

А вот если задача нерегулярная, нестабильная, без повторяющихся паттернов — кастомный GPT уже не подойдёт.

То есть если у вас есть набор процессов с понятным входом и выходом, повторяющихся — кастомный GPT идеален. А для всего остального — не очень.

— Продолжайте.

— Да, кстати, ремарка. Я сегодня установила себе Mac Whisper. Спасибо за ссылку и совет. Прекрасно отработал. Он бесплатный, кстати, есть тоже.

— Но поправлю вас немного — бесплатная версия сильно ограничена. Я тоже сначала поставил бесплатную, попробовал, а через полчаса уже заплатил — и всё, счастье полное.

— А вот вопрос, который у меня родился. Мы поговорили про картинки, про то, что пока невозможно добиться стопроцентного соответствия жёсткому брифу. А если мы говорим о тексте и создании агентов — тут та же ситуация?

Или в текстовом контексте можно задать жёсткий бриф и всё будет как надо?

— Смотрите, я об этом уже много где писал, но вопрос хороший.

Что такое агент? Чтобы понять, как работает агент, нужно представлять его как толпу исполнителей.

У вас есть короткая, понятная задача. Исполнитель достаточно тупой, он не понимает ничего вне этой задачи, но если вы ему хорошо её ставите — он делает то, что надо.

Соответственно, ожидать от него какого-то творчества — просто глупо. Но у вас может быть много-много простых задач, объединённых в сложный какой-то процесс, и на выходе вы получаете какие-то супер вещи.

То есть, грубо говоря, у вас есть конвейер, где каждый крутит винтик, но в итоге у вас выходит автомобиль, сложный. То есть агент — это просто много-много исполнителей, которых вы соединяете. И вы говорите конкретному исполнителю: «Вот ты берёшь вот этого исполнителя, то, что он сделал, что-то с этим простое сделал, понятное, передал этому исполнителю», и так далее.

Таким образом, мы из простых элементов создаём нечто сложное. Но основой является тот же исполнитель.

Понимаете, да? То есть если исполнитель, скажем, не умеет рисовать — грубо говоря, если вы тысячу исполнителей соберёте вместе в одной комнате, но каждый из них не умеет рисовать, они всё равно рисовать не научатся.

Соответственно, агент — это некая сумма навыков вот этих ассистентов, которых мы туда засовываем: там, ChatGPT и так далее.

Поэтому в этом смысле на текущий момент — нет. Можно построить теоретический процесс, потому что как выглядит процесс взаимодействия, когда вы хотите консистентности добиться, да? То есть вы, допустим, даёте промпт, получаете картиночку, потом вы её оцениваете. Оценку вы тоже пишете каким-то образом формализованно, даёте эту же картинку в качестве референса, плюс даёте промпт-коррекцию, получаете результат, снова оцениваете. Понимаете, у вас такой цикл проб и ошибок. Я сегодня и вчера этим два дня занималась.

Вот теоретически это можно организовать с помощью агента. И так это и делают.

Проблема заключается в том, что есть одна операция, которую пока искусственный интеллект хреново делает, в отличие от нас, людей, да? Это оценка. Потому что мы понимаем, что такое хорошо, плохо, нравится, не нравится и так далее. А искусственный интеллект всё равно не понимает.

То есть нам может казаться, что он понимает, но он всё равно не понимает, да? И вот здесь каждый раз будет проблема, потому что его оценка может быть неадекватна. А если у вас внутри контура нет правильного оценщика, вы не сможете его построить.

Поэтому построить агента, который будет это пытаться делать — можно. Ну, это итеративный цикл, достаточно несложный. Но пока на данном текущем этапе развития маловероятно, что вы получите то, что хотите.

И, насколько я знаю, люди, которые глубоко в это залезают, они, во-первых, используют другие инструменты — не ChatGPT для картинок. То есть есть масса-масса инструментов. Вот у меня бесплатный курс, там, по-моему, был даже раздел по видео и картинкам какой-то. Я сделал «из коробки», я просто указал там вот эти ресурсы.

Есть более специализированные инструменты для картинок, видео, потому что они фокусируются на управляемости. То есть там совершенно другие подходы — не на уровне промпта, там целые вы деревья этих всех делаете и так далее. То есть они именно под это заточены. И вам тогда следует перейти на эти инструменты. Там немножко об этом говорится, я привожу ссылки. Однако, если вас именно графический дизайн, видео интересует — сразу подпишитесь на Серёжу Цыпцина. У него есть каналчик на эту тему, лучший в Рунете. Он как раз по продакшену, по видео — всё, что медиа-сфокусировано. Там много народу приводят свои кейсы-примеры, где они пытались достичь консистентности.

В среднем такая попытка — полторы, две, три недели, с бюджетом от 200 до 500 долларов. Это текущий уровень этой технологии. При том, что у людей там куча, большой pipeline. То есть там не один какой-то человек, они пяток инструментов используют. Всё, как правило, ещё марафетят в фотошопе. Неизбежно. Это вот та самая ситуация с жёстким бритвом. То есть она на данный момент пока технологически нерешаема. Ну, сто процентов нерешаема. Поэтому всегда должен быть какой-то компромисс.

— Да, поняла. Спасибо большое. Вы исчерпывающе ответили. И я бы хотела вас в целом поблагодарить за ваш курс. Спасибо. Я буквально приступила к изучению неделю назад, но, вы знаете, я столько всего узнала, как будто год прошёл. Огромное спасибо. Я в восторге от вашего курса. Спасибо.

— Спасибо большое. Я хочу добавить… Я писал, когда Google и ноутбук LM выкатили, и разные языки. Я там сделал несколько этих видео — просто демо показать. Не знаю, видели вы или нет. И меня спрашивают, с помощью какого искусственного интеллекта вы там делали видео. Там не похоже ни на какой.

Слушайте, картины Кена кидал. И вот это тот случай — мы, собственно, этот кейс сейчас будем разбирать. Когда я зашёл на сток StoryRocket, надергал на стоке футажей за 10 минут, за полторы минуты всё это собрал в CapCut’е и получил результат. Если бы я похожее видео пытался сделать с помощью генеративного интеллекта, я бы убился, упоролся и недели две не получил бы этого.

То есть есть чёткие границы, где искусственный интеллект супер помогает, а есть, где просто вы погружаетесь в некую пучину. Надо всегда подходить с точки зрения здравого смысла.

Вот. И мы сейчас, собственно, это будем разбирать. Вот как раз у нас Томас, насколько я вижу, он поднял руку. И как раз этот кейс я хотел вам разобрать, потому что он очень интересный.

— Всем добрый день. Я просто, на самом деле, хотел продолжить тему Юли и спросить:

А такая же ли ситуация с текстами? Ну, то есть я то же самое пытался и в custom GPT, и в проекте делать — форматирование и стиль уже готового документа.

И вот это вообще непредсказуемая вещь, потому что на выходе получаешь в том и другом случае совсем разные документы.

— Смотрите, по поводу текста попроще ситуация. Но стоит иметь в виду: искусственный интеллект сам тексты не пишет. Он не умеет это делать. У него нет творческого мышления, он вообще не мыслит. Это вероятностная модель, которая работает.

— Алексей, я сейчас имею в виду только стилистику — как выглядит документ. То есть я пытался, допустим, добавить в GPT вариант, который мне нравится, чтобы он переписывал чуть ли не построчно: в каком стиле, в каком формате, какой шрифт используется. Прямо построчно. У меня был большой промпт, который описывает, в каком виде я хочу видеть документ. Причём эти документы однотипные, то есть это не разные документы, а однотипные.

— Окей, я понял вашу проблему. Это довольно частая проблема. И то, что вы описываете — есть определённая методологическая ошибка, которую мы все совершаем, пока не начинаем понимать специфику работы. Ещё раз хочу сказать: ИИ как бы не думает. Его натренировали на огромном количестве данных, и он пытается, если так можно выразиться, угадать с определённой вероятностью.

Если мы говорим про данный конкретный текст, то есть несколько составляющих, когда мы работаем с текстом.

  • Первое: мы текст пишем — мы можем надиктовать, потом расшифровать или написать вручную.
  • Потом мы текст редактируем, делаем какое-то улучшение.
  • Если этот текст потом предназначен для публикации — скажем, в PDF, научная статья или что-то ещё — тогда мы его верстаем. То есть есть несколько этапов работы с текстом.

Что искусственный интеллект может делать, а что не может? Что он делает хорошо, что плохо? Что надо делать, чтобы он делал лучше?

Первое: искусственный интеллект писать не может. Что он может? Если вы надиктовываете или пишете какой-то смурной текст — вот этот текст он может взять и отредактировать на свой манер. И в 99% случаев то, что он делает с текстом, в принципе неприемлемо. Он его (текст) просто насилует.

Соответственно, если вы хотите, чтобы он его редактировал, сначала вы должны составить достаточно сложный промпт, который детально регламентирует, как именно он должен редактировать.

Причём в первую очередь нужно задать определения, которые многие забывают. Не только что он должен сделать, но и что он категорически не должен делать — добавлять от себя, комментировать и так далее.

Второй момент: этот промпт, который более-менее начинает работать, вы получаете не сразу, а итеративным путём. У меня есть кастомные GPT-шки, с которыми я регулярно редакторски работаю, у меня их несколько, и в среднем ушло 4 часа на то, чтобы допилить промпт для них, чтобы он начал делать то, что мне нужно.

Процесс выглядит так: есть какой-то промпт, потом я его применяю, допустим, в кастомном ChatGPT, смотрю результат.

Потом этот результат я засовываю в обычный ChatGPT и говорю: смотри, вот ты придумал промпт, вот что нужно было, а вот что мы получили. Проанализируй. Он говорит: да, там такой-то пробел, такой-то, такой-то. Я говорю: окей, скорректируй промпт, чтобы устранить ошибку. И вот такой процесс идёт итеративно. Причём часто бывает, что новый промпт решает одну проблему, но вызывает другую. И вот таким путём вы балансируете эти вещи.

Общая ошибка, с которой я тоже сталкивался, — это когда вы делаете слишком сложный промпт, с множеством последовательных задач.

Он такое не тянет. Когда у вас много последовательных задач, лучше делать несколько промптов.

То есть, грубо говоря, у вас есть один кастомный ChatGPT №1 — он делает очень узкую задачу, но вы добиваетесь, чтобы он её делал хорошо. Получаете от него результат — и отдаёте его другому кастомному ChatGPT. И так далее. Вы строите конвейер.

Собственно, агент, ну, примитивный, хотя правильнее сказать —это автоматизация, и есть такая последовательность задач. Он автоматизирует этот процесс. Понимаете, да?

Потому что кастомный ChatGPT не работает с контекстом. Я уже говорил: как Юля сказала, он тупой. Вы дали ему на вход стандартный формат, у него есть системный промпт — и он вернул вам стандартный выход.

Вот это очень удобный момент, который можно делать не только через кастомный ChatGPT, а через API — мы будем это на курсе проходить. И тогда у вас возникает конвейер.

То есть, условно говоря, если вы в один кастомный ChatGPT засовываете сложный промпт с логикой, с принятием решений — почти стопроцентная вероятность, что вы never, ever and ever не получите хороший результат. А если вы разбиваете это на кусочки и делаете конвейер — вот для этого автоматизация так и работает — тогда значительно больше шансов получить результат, потому что вы можете каждый кусочек довести до ума.

Понятна логика в целом?

— Да, да, да, это как раз про слона.

— Стопроцентно, стопроцентно. Это, кстати, и есть проблема в том вопросе, который вы присылали. Очень важный момент, давайте сейчас его обсудим. Это примерно то же самое, как если бы вы имели дело просто с исполнительным человеком. Если кто-то из вас имеет хотя бы минимальный опыт менеджмента, вы понимаете: если вы работаете с квалифицированным человеком, вы можете ему ставить широкие задачи, давать миссию, ресурсы, рамки. И он сам будет принимать решение, как это делать. Более того, вы предполагаете, что даже если он столкнётся с какой-то неопределённостью, у него хватит ума разобраться.

Но вообще, говорят, такое редко бывает, да?

Лучше на всякий случай исходить из того, что люди — идиоты. Так надёжнее будет, да?

Это означает, что вам надо давать чёткую задачу исполнителю. Каким образом вы можете убедиться, что человек понял? Вы его спрашиваете: «Опиши, что ты понял». Как в армии: «Ты, боец, понимаешь, копать яму от забора до обеда, понял?» — «Понял». Всё, понимаете?

И когда у вас сложная задача — вы делаете декомпозицию, да? Вы «слона едите по частям», разбиваете на кусочки. И говорите: «Вася, вот ты взял вот это яблочко, положил Пете. Петя, ты взял это яблочко». И тогда начинает работать.

Более того, когда у вас идёт стандартизация операции — вот это как раз легко автоматизировать.

Потому что чем у вас более комплексная задача — слушайте, тогда люди путаются, да? Чего вы от искусственного интеллекта хотите?

В отношении текста — то же самое. По своему опыту могу сказать так: написание креативных текстов — вообще беда. Ну, в смысле, что он пишет хорошо? Технические мануалы, всякие там листы — это да. Которые читать невозможно, но которые машина понимает. Людям это не нравится.

Редактура — поскольку это креативный процесс — он хорошо делает такую, знаете, предварительную редактуру. Очистка текста: повторы, мусорные слова, всякая фигня — вот это да. А финальную редактуру он делать не умеет. То есть у меня процесс выстроен так, что финальную редактуру я делаю вручную.

Причём, поверьте, я потратил нереальное количество времени, пытаясь добиться от него нормального результата. А потом плюнул и выяснил, что проще делать руками. Почему? Потому что, когда вы делаете сами, вы понимаете, что от того, как вы сделаете редактуру, зависит результат. Это же не формальная хрень. Это зависит результат вашей жизни, денег, мазафака, всего что угодно, понимаете?

Вот то же самое, что я Юле объяснял, и то же самое с вашим кейсом.

Что касается вёрстки — вопрос вообще интересный. Я тоже тестировал.

Модели очень плохо работают с любыми проприетарными форматами — типа Word и всей этой хрени. Они плохо с этим работают. Зато хорошо работают с plain text, с Markdown — всё. С этим надёжно. Они могут понимать PDF, но если вы хотите, чтобы он лучше это понял, лучше переведите PDF в Markdown.

Опять же, вёрстка — это креативный процесс. Кто занимался — знает: это не просто шрифтики подогнать. Я делал попытки, но меня это не устроило. В конечном итоге понимаешь, как Юля приводила пример: ты тратишь слишком много времени на то, что плохо работает. Иногда проще сделать вручную.

Во-вторых, у большинства начинающих просто нет навыка вёрстки даже в простых программах. Они не умеют работать со стилями. А этому научиться — пять секунд, и вёрстка у вас происходит очень быстро.

Пока, по крайней мере на моей практике, если вы добиваетесь от модели визуальной составляющей — результат будет плохой. Вы просто упаритесь. То есть в этом процессе работы с текстом есть вещи, которые он делать не умеет, есть вещи, которые делает хорошо, есть — хуже. Есть вещи, которые можно разбить на кусочки и получить результат. А есть — которые хоть на сто кусочков разбей, результата не будет. Вот так.

Извините, что вынужден вас расстроить.

Если у вас есть ещё вопрос по кейсу с текстами — дайте его сейчас, потому что потом я хотел разобрать ваш глобальный вопрос, он гораздо более объёмный и интересный.

— Понял.

У меня просто задача такая: у меня есть, скажем, десяток разных документов. И сейчас GPT помогает мне из этого десятка собрать тот документ, который мне нужен, по определённым правилам. Я хотел, чтобы он его ещё и оформил.

— Это возможно, но это не так делается. Я вам давал ссылку на курс одного зарубежного паренька. Он как раз этот пример приводит. Идеологически это делается не так. Это делается так, что создаётся шаблон — вообще никакого отношения к ИИ не имеет. Шаблон уже свёрстан, он лежит где-то на сервере. И искусственный интеллект просто подставляет в этот шаблон нужный фрагмент. Вот это работает чётко.

А когда вы ему самому даёте задачу сверстать — это не работает. Напомните мне, я пришлю ссылку прямо на кейс, где это рассматривается. Потому что он достаточно частый. Это используется при формировании типовых отчётов, статей — когда у вас есть формат, все заголовки уже сделаны на уровне шаблона, и задача — просто туда вставить. Вот это работает. Там идёт сборка большого массива документов. Он у вас — в едином формате.

Посмотрите, у него есть какое-то видео — он говорит, там 10 или 20 таких известных кейсов. И он прямо один из этих кейсов приводит.

Я, в принципе, почему вам всем рекомендую иногда просматривать такие вещи — потому что там люди разбирают достаточно типичные кейсы, в том числе как они реализованы. Это полезно, чтобы не попадать в ловушки, как та, которую мы сейчас будем разбирать — вот эта большая, с тем, что вы там упоролись в JSON и так далее. Всё, спасибо.

Теперь по поводу этого самого кейса, что вы прислали — это очень-очень хорошо.

Сейчас… так, где он у меня? Секунду… вот, сейчас я вам расшарю. Это такая фундаментальная вещь. Я вас попросил прочитать его до нашего… ой, куда ты?.. ой, стоп, не сюда. Секунду. А, вот он. У меня просто много всего на экране, надо немного оптимизировать среду, чтобы всё увидеть.

Итак, вот этот кейс. У кого возникли какие идеи — что с ним не так? У кого какие мысли?

— Алексей, можно я поясню?
— Да, конечно, чтобы контекст был понятен.

В двух словах: я ещё на Chat GPK сделал штуку, которая по определённому фронту, задавая вопросы, определяет характеристики кроссовок, которые могли бы быть подходящими для пользователя. Я игрался с этим Chat GPK, а когда пришёл на курс по агентам, решил, что с агентами это будет качественнее реализовать. Тут же начал пытаться всё сделать в Make.

Идея была такая: получать данные из таблицы Airtable, которая, в свою очередь, получала информацию из VOD — там был опросник, я всё это сделал, VOD с опросником, и все ответы попадали в Airtable. Далее модуль OpenAI в Make анализировал техническое задание — эти характеристики — и выдавал модели кроссовок, которые могли бы подойти пользователю. Всё это у меня работало, и появлялось в Telegram-боте как ответ.

Но когда я начал проверять — выяснилось, что OpenAI придумывает модели. То есть, грубо говоря, он смотрит, что было до 2023 года. Каждый год появляются новые модели, и он высчитывает: если в 2023 году была 24-я модель, то, скорее всего, в 2025-м будет 25-я или 26-я. Он мне предлагал: вот такая модель есть — и она действительно существует. Я его поймал только на том, что не совпадала цена, которую он указывал, а у меня один из вопросов был — ценовой диапазон. Тогда я и начал выяснять, почему так получается.

Оказалось, модель обучена до 2023 года. И я начал думать, как можно сделать актуальный выбор моделей. Появилась идея: на основе первичного результата OpenAI парсить актуальные сайты и вытаскивать реально существующие модели и их цены. Но тут я и упёрся: Make перестал работать, и вся архитектура развалилась.

— Понимаю. Давайте теперь разберём, в чём была базовая задача. Сейчас… вот она.

Базовая задача звучит так: человек заполняет форму и получает рекомендацию, правильно?
— Да.

Это стандартный рекомендательный сервис, который реализован ещё лет 25 назад на всех e-commerce сайтах. И он работает без всякого искусственного интеллекта. У любого такого сайта есть база данных и простые сортировочные алгоритмы. На основе предпочтений пользователя они выдают подходящий диапазон. Это не задача для ИИ — такие алгоритмы есть в любой библиотеке и работают в 100 тысяч раз быстрее.

Задача решается элементарно — но только если у вас есть база данных, на основе которой строится рекомендация. Это понятно?
— Да.

В вашем случае — вы хотите что-то рекомендовать. Запрос пользователя должен анализироваться и сопоставляться с существующей базой данных.

Алгоритм, который анализирует запрос и ищет в базе, и сама база данных — это разные сущности.

А у вас получилось, что вы вместо алгоритма использовали ИИ, который должен был где-то что-то искать. Более того, вместо базы данных вы тоже положились на ИИ, предполагая, что он что-то найдёт. Но ИИ в лоб не ищет, базы данных у него нет — поэтому ответ нерелевантен.

Системная ошибка — на уровне архитектуры. Вместо простого функционала вы попытались построить, по сути, краулер как у Google. Понимаете, да?

То есть вы решили сделать поискового робота, который будет в интернете находить всё, что угодно по запросу. А задача по сложности — в тысячу раз выше, чем изначально простая.

Это не проблема Make, это не проблема сервисов — это проблема подхода к проектированию, и мы как раз это будем обсуждать.

Это крайне важная ошибка, которую многие совершают.

Её можно охарактеризовать так: вы пытаетесь усложнить то, что нужно стараться делать максимально просто.

Потому что если вы неверно подходите к самому процессу проектирования, у вас почти нет шансов построить рабочую систему.

Для реализации этого примера, который вы сделали — вы, кстати, молодец, что его сделали — цель заключалась не в том, чтобы искать кроссовки. Цель была в том, чтобы вам попрактиковаться — как это всё связывается. Я прав?
— Точно, точно.

Вот. То есть кроссовки — это просто пример. Можно было вместо них взять хоть ядерные бомбы. Ключевое — научиться: как опрашивать человека, будь то в Telegram или через форму на сайте, собирать информацию, обрабатывать её и выдавать результат.

Это стандартный тест: человек заполняет анкету, на выходе получает анализ. Если он формализован — это делает алгоритм. Алгоритмы искать долго, это муторно. Сейчас появился ChatGPT — и тут мы вас полностью поддерживаем. Потому что если вы даёте хороший промпт, ChatGPT или любой другой ассистент, будь то Anthropic или кто угодно, анализирует и выдаёт результат.

Но для этого у него должна быть база, на основе которой строить ответ. Вот здесь у вас и возникла проблема. Нужно было быстро получить набор условных кроссовок — и вы на этом, естественно, встали.

Вопрос ко всей аудитории: как быстро получить список актуальных кроссовок?

— Можно я сразу отвечу? Вы мне дали наводку про трек, и я иду этим путём. Возможно, он опять неправильный, но…
— Неправильный.

Да, но теперь я уже понимаю, как это работает. Я даже не знал раньше, что можно дообучать модель. Принцип этого трека в том, что я могу дообучить стандартную модель OpenAI актуальными кроссовками. Думаю, в итоге у меня получится, потому что я уже научился парсить сайты и добавлять информацию в агента.

В вашем кейсе есть много хорошего. Первое — мы учимся на ошибках. Когда не можем решить задачу, начинаем учиться, задавать правильные вопросы. Часто выясняется, что и вопрос мы изначально неправильно сформулировали. Это хорошая новость.

Плохая новость — это как в пословице: “Век учись — дураком помрёшь”. Поэтому надо уметь находить баланс: учиться и при этом искать оптимальные решения.

Про RAG мы отдельно поговорим. Он не про тюнинг моделей, там другая история. Но RAG мы будем подробно разбирать. Вы молодец, что туда полезли — это действительно важно и даёт массу возможностей.

Повторяю вопрос: как быстро получить список актуальных кроссовок?

У нас тут 300 человек — какие идеи?

— Напарсить данные…
— Сделать свою базу…
— Попросить GPT пройтись по сайтам…
— Использовать Google Search…
— Задать вопрос в чате…

Вы все неправы.

Самый надёжный и простой способ получить список кроссовок — найти фрилансера, ресёрчера, скаута. Заплатить ему тысячу рублей, и он за два дня вам сделает список.

— Имеется в виду база данных?
— Какая база? Он просто в Google Sheet сделает вам список. У него и есть база данных — своя.

— Но ведь важны характеристики.
— Так вы ему задание и формулируете: подбери мне актуальные кроссовки, укажи цену, фирму. Если вы не можете поставить задачу человеку, вы не сможете поставить её и искусственному интеллекту.

Идея в том, что в данном кейсе у вас модельный ряд обновляется раз в полгода. Значит, раз в полгода можно потратить тысячу рублей и актуализировать базу. Это самый простой способ. На входе — техзадание, на выходе — ссылка на Google Sheet с нужными данными.

Google Sheet — это просто пример. Таблица как таблица. Что Airtable, что MySQL — разницы нет. В основе всё равно обычная табличная структура. И вот её вы и можете использовать для проекта.

Я специально хочу объяснить, почему у меня уходит так много времени на подготовку каждого урока. Моя задача — доносить материал просто.

Я всегда держу в голове, что ключевой клиент, ключевой студент — это тот, кто заранее ничего не знает.

Вот почему, допустим, у меня много времени уходит на все эти истории с искусственным интеллектом. Потому что, когда я даю какое-то описание, он потом это редактирует, и я каждый раз делаю оговорку: ты мне даёшь ответы, подразумевая, что тот, кто их читает, имеет определённый уровень в IT. А он не имеет уровня. Я всегда объясняю как для 10-летнего ребёнка, поэтому я стараюсь придумать подход.

Вот эти все вещи мы будем покрывать, не переживайте. Это всё то, о чём вы говорите.

Да, потому что 100% всех бесплатных курсов вроде бы показывают, рассказывают, но как фокусник — раз, куда-то залез, раз, какую-то функцию вытащил в мейкинг, раз, вставил… Ты, блин, фиг его знает — вообще ничего не понимаешь.

Это всё решаемая проблема, не переживайте. У бесплатных курсов одна цель — вести трафик куда-то и продавать вам свои услуги. Да, да, да. Я уже охладел к ним. Сначала загорелся, кое-что нашёл, начал смотреть.

Иногда у них идеи неплохие, потому что бывает, что вы тупите — в том смысле, что не знаете, какой элемент подключить. А вы не знаете, потому что их тысячи. Понимаете, да? Точно. А потом — о, точно, нашли какой-то сервис.

Но с точки зрения тех проблем, которые вы озвучили, — это чисто проблемы новичка. Потому что вы ещё немного не ориентируетесь в интерфейсе, а это всё быстро уйдёт. Поверьте, это ерунда.

Да, и второй вопрос я бы хотел задать. У вас на Фейсбуке была такая вещь, что ChatGPT, дескать, предоставляет неверную информацию.

Я с этим сталкиваюсь постоянно. Хотя я даю строгий промпт, всё равно внутри остаются сомнения. Я просто захожу в Google или Яндекс — кстати, Яндекс в последнее время стал искать лучше, чем Google — и получаю совершенно другую, порой даже дополняющую, важную информацию. Понимаете? Я вот не понимаю, почему так происходит. Что с этим делать?

Сейчас, одну секунду. Давайте разделим это на части. Есть два вопроса: почему так происходит, и что с этим делать. Сначала — почему, а потом — что делать.

Почему? Потому что ChatGPT и прочие подобные системы работают на базе заранее обученных моделей. У них есть свои поисковые краулеры, но их бизнес — не поисковик, хотя они пытаются в эту сторону развиваться, и сейчас много на эту тему претензий.

Ситуация такая: модель отвечает на основе неких предобученных данных. Это всё равно, что у вас есть очень талантливый ребёнок, и вы его учите, но учите информации до, допустим, 20 века. Он умный, он весь 19 век знает, но база у него ограничена. Вы ему задаёте вопрос, он даже лезет в интернет, но отвечает, исходя из базы до 20 века, и получается какая-то ерунда.

Чтобы он давал релевантный ответ, ему надо давать доступ к актуальной информации. Для этого есть режим с поиском, если мы говорим про ChatGPT. Понимаете, о чём я говорю? Да, да, понимаю. Плюс можно просить его давать ссылки и так далее.

Если вас интересует конкретная специфика с упором на интернет, для таких задач лучше использовать не ChatGPT, а Perplexity. Я сейчас покажу, если вы не знаете. Да, Perplexity я пользуюсь. Отлично.

Смотрите, мы психологически склонны верить, что ИИ — это бог. Но он не бог. Это инструмент с остроточенной кромкой, который нужно правильно применять. Для одних задач он подходит, для других — нет. В вашем случае вы можете использовать либо Deprecioge, либо Perplexity, где он даёт ссылки.

Если у вас задача — валидизировать информацию, то делайте это только с учётом ссылок. Допустим, когда мне нужно было подготовить материал, я тоже задавал ему вопросы про Make и так далее, потому что мне было лень сначала разбираться с мануалами. Он врет где-то на 30%. Начинает перечислять алгоритмы, основанные на элементах, которых не существует. Но когда ты это знаешь, у тебя нет проблемы. Ты понимаешь: нужна конкретная задача — иди в Perplexity.

Они, конечно, будут эту проблему решать, потому что жалоб много. Но вот, например, с Make он вообще не помощник. Там две проблемы: во-первых, я не всегда знаю, что конкретно спросить. А во-вторых, даже если спросил, он врёт. Он не понимает интерфейс Make, как будто вообще не знает, где что расположено.

Совершенно верно. Поэтому задавайте вопросы мне — если что, я покажу. Идея в том, что Make — это инструмент. Он не имеет отношения к искусственному интеллекту. Это просто автоматизатор, менеджер, который соединяет разные задачи. ChatGPT — другая история. Там миллион вариантов. Но мы будем рассматривать его глубже, с RAG и прочим.

Подход простой: Make даёт возможность вставить ИИ в автоматизацию там, где это уместно. Поэтому мы сначала учимся создавать базу в Make: сценарии, отладка. Это несложно, просто сначала может быть тяжело. Когда вы это поняли, начинаем работать с ИИ. Потому что основная проблема не в том, где его вставить, а в том, как. Это зависит от промпта и от самой задачи. Если вы даёте ИИ нерелевантную задачу, каким бы ни был промпт — результат будет плохой.

И постепенно мы это всё отлаживаем, и всё это приходит к какому-то нормальному виду. Так что просто вы немножко забегаете вперёд, но это, в принципе, нормальные проблемы, которые мы будем решать в процессе курса.

Хорошо, спасибо. Я думаю, что то, что мы учимся создавать, как я уже говорил, — это, возможно, пока не до всех доходит, но это вещь, которая будет с вами всю жизнь. Она будет расти, развиваться, становиться всё более умной. Поэтому это хорошая инвестиция.

Так, Сергей, разрешите говорить. Мы вас внимательно слушаем.

— Здравствуйте. Отлично. Витя, вопрос у меня был ещё до Zoom’а, частично вы уже на него ответили. Он перекликается с темой, которую подняла Юля, подхватил Томас, и потом Вадим. Вопрос объединяет следующее:

когда мы ставим себе задачу работать с искусственным интеллектом, нужно ли учиться разбираться в нём самом, или уже пользоваться существующими алгоритмами и программами?

Какой у меня конкретный кейс. Логопед, который работает онлайн с детьми — через мессенджеры, по видеосвязи. Основная работа — это исправление и корректировка звуков, из звуков формируются слоги, из слогов — слова. То есть логопед даёт задание, ребёнок отвечает, алгоритм должен понять — правильно или нет — и либо поощрить, либо дать следующее задание, либо, допустим, сказать: «Окей, на сегодня достаточно».

Вот в такой задаче, как вы считаете, возможно ли уже использовать искусственный интеллект?

Потому что есть приложения, мини-игры и софт в этой теме, и они неплохо продаются. Но мой человек, логопед, профессионал с серьёзным уровнем, говорит, что качество этих программ очень низкое. А если создавать что-то своё — это значит снова идти в большие компании, и там масса проблем, преград, затрат.

Вот и появилось желание понять — можно ли сделать что-то своё маленькой командой, буквально из 1–2 человек? Как вы говорите, личного помощника, который будет с тобой всю жизнь. То есть, условно, соединить аватары, визуальные модели и попробовать реализовать такое решение. Насколько это возможно? И если да, то какими способами? Или пока рано?

На текущем этапе развития технологий — 100% возможно. Это вообще не проблема. Это можно реализовать даже в одиночку. Почему это будет работать? Потому что с логопедией всё понятно. У меня, кстати, вторая жена — логопед. Я в этой теме хорошо разбираюсь. Да, моя жена — это её вопрос. Понял.

Так вот, логопед работает очень просто: он слушает, распознаёт проблему (а все эти проблемы хорошо известны) и даёт упражнение для устранения конкретного дефекта. В целом, так работает любой тренер: он распознаёт ошибку и даёт задание, чтобы эту ошибку убрать. Любая речевая или двигательная ошибка — это просто устоявшийся, повторяющийся паттерн, который нужно переписать на правильный.

В этом смысле ИИ — идеальный инструмент, потому что он как раз заточен на распознавание паттернов. В этом он гораздо круче человека, потому что способен анализировать их в массовом масштабе.

Более того, когда логопед ставит диагноз, он же не придумывает новый метод. Он берёт готовые: в медицине это называется протокол, в логопедии — то же самое, в коррекционной педагогике и реабилитации — аналогично. Всё стандартизировано. А “изобретатели” — это уже маркетологи.

Теперь к технической части. Чтобы реализовать такую систему, ИИ должен слушать речь — и это не проблема. Уже существует множество API-сервисов, которые отлично работают с речью. И самое важное: это не должно работать в реальном времени. Реалтайм — самая сложная задача, но здесь она не требуется. Человек записывает тестовую фразу, отправляет звуковой файл, ИИ анализирует. Вы ведь знаете, как у логопедов — куча стандартных скороговорок и тестов.

ИИ выявляет ошибки, распознаёт паттерны, и на этой базе формирует упражнения. Что такое упражнение? Например: «повтори вот это, вот так». Ребёнок снова записывает, отправляет, ИИ оценивает. И так по кругу. Этот цикл уже можно реализовать на доступных инструментах.

Для этого не нужна большая команда. Нужен один человек, который научится собирать процессы в Make или похожем софте, и, собственно, логопед. Всё. Больше никого.

Единственный нюанс — разобраться с сервисами, которые работают со звуком. Я вам сейчас пришлю ссылку, с чего начать изучение. Одну секунду…

— А можно в рамках курса выстроить какую-то работу? Потому что действительно хочется реализовать такого логопеда, моя жена — специалист высокого уровня.

Она говорит: «Буду писать книги». Я говорю: «Слушай, давай уже делать ассистента. Книги — это хорошо, но время уже, будущее». Вы правильно говорите. Книги — тоже хороший бизнес, если правильно делать. Если честно, я пришёл на этот курс только для того, чтобы сделать для неё этого агента. Ну, не только, как бы… правильно.

Так, сейчас, одну секунду… Значит, вот смотрите: у нас есть сайт OpenAI. Это специализированное решение. Вот здесь, видите? Видно, да? — Да, конечно. — Здесь вы посмотрите Real-Time API — это если нужно в реальном времени, в том числе Voice Activity Detection. И вот есть, видите, всякие Text-to-Speech, Speech-to-Text и так далее. Много всего с этим связано.

То есть, условно говоря, идея в том, что, чтобы всё это реализовать, надо взять образец — тестовую фразу, как человек произносит, — и подать её на вход искусственному интеллекту, который способен делать анализ. Но при этом нужно составить промпт для этого анализа — то есть, чётко задать, что вы от него хотите.

Сейчас я не буду вдаваться в детали, потому что мы можем такие вещи разбирать на курсе. Почему? Потому что это достаточно общая задача, она довольно часто встречается. Мы будем её рассматривать в контексте продавцов. Чем занимается продавец? Он слышит, что ему говорят, и на основе этого как-то реагирует. В принципе, замените продавца на логопеда — получится то же самое. Всё одинаково. Алгоритм ясен. Просто продавец рекомендует в ответ на анализ: «Купи штучку», а логопед — «Сделай вот это». Но по сути алгоритм один и тот же.

Если уйти чуть глубже, на уровень высоких абстракций, то становится понятно: у нас есть звуковой паттерн плюс промпт, который мы направляем в модуль, способный воспринимать звуковой сигнал на основе промпта, анализировать его и выдавать нужный результат. Потом этот результат мы передаём в какой-нибудь ChatGPT, который, на его основе, подбирает подходящую рекомендацию.

Я не помню, то ли на первом, то ли на втором уроке, я рассказывал про стандартные функции у агента. Там есть функция восприятия или преобразования. Потому что вход может быть в виде текста — это привычная среда для языковых моделей, они так и называются — языковые модели. То есть, они работают с вербализацией. Но когда речь идёт о звуке, видео — это уже мультимодальные входы, и их нужно сначала преобразовать.

Вот то, что вы описываете, — это как раз специфический момент: надо сначала проанализировать звуковой паттерн. Результатом анализа будет некий «диагноз» — уже в вербальной форме. Сначала идёт модуль распознавания паттерна, а потом — модуль «диагноз». Этот «диагноз» можно назвать продавец, тренер, коуч, кардиолог, пульмонолог, логопед — неважно, по сути одно и то же. И дальше этот «агент» лезет в базу данных кейсов и вытаскивает рекомендации.

С базами данных там тоже не всё очевидно. Собственно, этот вопрос Томас поднимал до этого — это был случай, где подключаются внешние источники. Но я сейчас не хочу вас этим грузить — мы к этому подойдём.

Ваш вопрос абсолютно правильный: как построить работу, чтобы выстроить техзадание и алгоритмы для создания агента? Мы можем это сделать в рамках курса. Потому что то, что вы рассказываете, и то, что Томас рассказывает — это ошибки проектирования. У вас пока нет методологии. Поэтому вы на эти грабли наступаете.

Смотрите, в двух словах. Как у нас учат программистов? Их учат писать код — это самое тупое, что может быть. Поэтому это быстро осваивается, и в индустриях программистов много. А через 10 лет их учат быть архитекторами — то есть они сами этому учатся. Архитектор — это тот, кто складывает системы.

Мой подход совсем другой: гораздо проще сначала научить архитектуре, чем писать код. Потому что код — это знание языка, а архитектура — это просто здравый смысл. Чтобы построить алгоритм, надо знать одну вещь, с которой у людей часто проблемы: знать, чего вы хотите. Если вы знаете цель и можете определить её в нормальном формате — в смарт-формате, например — тогда делаете декомпозицию.

Я как раз об этом буду говорить на пятом уроке. Мы там будем примеры делать. Если успею, сегодня выложу, но не факт — это занимает много времени. Либо сегодня, либо завтра. Это общий подход. Не важно, вы алгоритм строите или копаете яму от забора. Первый принцип — сформулировать, что вы хотите. Потом перевести это в измеримый формат. Потом сделать декомпозицию: большую цель разбить на маленькие. Потом маленькие расставить в порядке приоритетов и причинно-следственных связей — так и выстраивается последовательность.

Ну, это же, ну, то, что я говорю… Слушайте, это ликбез. Хотя, как выясняется, современное образование готовит народ идиотами, и они не могут усвоить даже этот ликбез. Но мы это быстро пройдём, потому что вы — взрослые, профессиональные люди. Я думаю, вы всё это умеете по жизни. Никакой сложности нет.

Как только вы это выстроили — вот это и есть алгоритм. Чем вы будете его реализовывать — исполнителями, филиппинцами с Fiverr, с Make, с Zapier — какая разница? У вас есть схема. А если схемы нет, вы ничего не сделаете. Почему большая часть людей проваливается? Потому что они не могут придумать схему. Ну, потому что тупые. Что тут сделаешь? Надо учиться. Всё, будем учиться.

Это основы информатики.

Это основы здравого смысла. Ребятки, простой вопрос: я никого из вас не обидел? Поставьте, пожалуйста, единички, если не обидел, не оскорбил. А если оскорбил — двоечки. А то сейчас вот эта молодежная woke-культура, они все такие, знаете… как их здесь, в Америке, называют? Снежинки. Они всё время говорят, что я их обесценил. А что я обесценил? Я просто говорю, как есть. Рынок не берёт.

Я вас понимаю. Скорее всего, будущие два урока будут как раз про опыт построения алгоритмов и технических заданий. Да, да, да, мы всё это будем рассматривать. Смотрите, я учил кучу людей в своей жизни — куче разных вещей. И я могу сказать одну простую вещь, чтобы вы понимали: умному человеку надо в среднем 40 раз повторить, чтобы он реально понял. «Понял» — это не «кивнул», а реально что-то сделал.

Это умному. Но умных мало. Я, например, тупой. А нормальному человеку надо 70 раз повторить. То есть когда вы людям что-то объясняете, они обычно кивают с первого раза, но критерий понимания — это не кивок, а практическое действие. Поняли вы или не поняли, кивнули или не кивнули — значения не имеет. Значение имеет, сколько раз вы повторили. Потому что какой бы ученик ни был тупой, если он много раз повторяет — он неизбежно делает.

Слушайте, я занимался с самыми разными людьми: с умственно отсталыми, с даунами, со слепыми, с людьми без ног. Я учил их гораздо более сложным вещам. Я учил, как слепым уходить от ножа. Понимаете? А мы с вами занимаемся примитивными вещами. Алгоритм — это примитивная вещь. Человек — вот сложная вещь. У него семь пятниц на неделе. И не только у женщин — у мужиков тем более.

Так что вы не переживайте. Будете практиковаться — научитесь. Не будете практиковаться — ничего не получится. Всё просто.

Так, Сергей, у вас ещё вопрос какой-то? — Ну, то есть я далее по курсу, по своему заданию, задаю вопросы и двигаюсь? — Да. Мы просто будем делать. У меня есть базовый набор агентов, которых я хочу сделать. Но я же не буду для каждого из вас делать индивидуально. У вас свои задачи. Моя задача — показать способ, метод на примере конкретных агентов: от простого к сложному. Как только вы этот метод поймёте, вы сможете делать своих агентов. В чём проблема?

— Благодарю вас за это.
— Задача — это не рыба, а удочка.
— У вас супер материал. Спасибо вам огромное.
— Спасибо. Так, отключаюсь.

Если кто-то хочет — руку я не поднимаю, я сейчас быстро посмотрю, что там народ написал. Пока… Яна, вижу, одну секунду, сначала сюда.

Так, в чём преимущество у программистов? ChatGPT API работает лучше. Были у меня платные токены, я использую их на полную, а в веб-интерфейсе они экономят токены. Короче, я даю AI по максимуму. Молодец.

Там есть свои плюсы и минусы с API. Потому что, ещё раз: когда мы разговариваем с чатом, у нас идёт длинная беседа, и он помнит контекст. А когда вы работаете с кастомным агентом или через API — контекста нет. Его надо подгружать при каждом запросе. Либо строить инфраструктуру с этими RAG-ами, SHMAG-ами и так далее.

Поэтому API хорошо, когда вы делаете что-то вроде сервиса. Понимаете? Сервис — это стандартный вход, стандартный выход, контекст не нужен. Но если надо что-то сложное — там так не получится. Тогда уже надо подходить серьёзнее.

Вот когда стандартные ходы не работают — «мышление вне коробки» становится не опцией, а спасением. Ну, понятно.

И да, извиняется, что ошибся, и повторяет ту же фигню — как человек. Смотрите, это важное дополнение. У модели, на самом деле, миллион проблем, но две — особенно частые: деградация модели и дрейф.

Что такое дрейф? Он как раз проявляется в кастомных GPT. Как они работают?

У вас есть системный промпт и стандартная задача. Предполагается, что если вы вставляете одну и ту же задачу, он каждый раз будет работать одинаково. Но на практике это не так. Почему? Потому что для него и системный промпт, и ваша задача — это всё разновидности одного и того же промпта. И он приоритизирует тот, который пришёл последним. Понимаете, да?

Это означает, что когда вы повторяете третий-четвёртый раз — может, кто-то из вас уже замечал — в кастомных GPT вы вдруг начинаете понимать, что он начинает нести чушь, выдавать не то, что нужно. Почему? Потому что он забывает промпт. Это и есть дрейф модели. Самый простой способ — перезагрузить кастомный GPT. Это спасает. Стало чуть получше за последние три месяца.

Это первая проблема. Вторая — деградация ответа. Что это значит? Это значит, что если он дал вам ошибку, он не понимает, что ошибся. Он не человек. Вы-то понимаете. Вы ему говорите: «Ты, морячок, ботсман долбанный, что ты мне пишешь?» Он отвечает: «Да-да-да, я это…» — но он не понимает. Это и называется деградация ответа. Шансов на корректировку нет. Потому что он воспринимает свой последний ответ не как правильный или неправильный, а просто как данность. И начинает дальше отталкиваться от него.

Единственный вариант — это откат. Сейчас покажу, как это делается на примере. Это срабатывает в большинстве случаев.

Итак, у меня есть проект «Курс по агентам». Долго крутится. Допустим, я разбираюсь… Просто если он «разбирается», то он ещё дольше крутится. Так, секунду, попробую через приложение — может, будет быстрее. Да, так быстрее.

Вот я вам сейчас расшариваю экран. Секундочку, проверю, чтобы картинка была нормальная. Видно? Люсик, подходит? Хорошо.

Смотрите. Вот у меня масса диалогов. Вот, например, диалог, связанный с алгоритмическим, примитивным. И тут видите — такая борода идёт: длинная-длинная-длинная. И в какой-то момент, скажем, вот здесь, я понимаю, что он начинает крутиться и начинает выдавать ерунду. Не то чтобы врать — просто не то, что мне нужно.

И неправильный способ — пытаться его «исправить» новыми промптами. Это не работает. Или почти не работает.

Что нужно делать? Берёте тот самый промпт, с которого всё началось. Всё, что ниже — уже не работает. И вы просто берёте, вот здесь — редактируете промпт. Видите внизу? Редактируете и заново отправляете — получится новая ветка. То есть накопленная ошибка как бы сбрасывается. Тогда появляется шанс преодолеть деградацию ответа.

Я, правда, отменять здесь не буду, потому что для меня в этой ветке есть ценные данные. Но суть понятна.

Я хочу, чтобы вы уловили основную мысль: со временем вы начнёте понимать сильные и слабые стороны модели. Понимаете, да?

Микроскоп. Все знают, для чего нужен микроскоп. Ну-ка, как чаще всего у нас народ пользуется микроскопом? Напишите в чате.

Гвозди. Совершенно правильно. Гвозди. Микроскоп — это прибор для забивания гвоздей. Именно так он чаще всего используется. А редкие люди что-то там ещё под ним разглядывают.

То же самое с искусственным интеллектом. Все им гвозди забивают. Но когда вы начинаете понимать ограничения, когда сталкиваетесь с проблемами — начинаете разбираться глубже. Чем больше практики, тем быстрее понимание. Больше неадекватных или нерелевантных ответов — больше поводов задуматься, почему, и как это решать. Это вопрос опыта.

Задавайте вопросы — я с удовольствием поделюсь своим опытом. Потому что я каждый день минимум по 3–4 часа последние два года занимаюсь искусственным интеллектом.

Хорошо, с микроскопом разобрались. Поняли главный вывод: микроскоп — прибор для забивания гвоздей. Кто-то может подумать иначе, но мы поняли.

Спасибо за курс и информацию.
Вопрос по поводу надёжности работы GPT.

На первом уроке я заполнял заявку на английском, но ответ пришёл на русском.

Хотя в промпте, как вы показывали, была установка отвечать на языке запроса. Плюс он периодически меняет язык по ходу общения.

Сейчас я покажу, с чем это связано.

Я допускаю предположение, с чем это может быть связано. Смотрите: если у вас есть ваш конкретный ChatGPT, то у вас есть настройки — вот они внизу, видите? Здесь куча всего: персонализация, язык и прочее. Где-то здесь можно настроить, на каком языке предпочтительно с вами общаться. Также можно настроить язык приложения и так далее.

Если вы эти настройки выставили, и плюс достаточно долго общаетесь с моделью, она это «запоминает» и по умолчанию начинает работать с вами на нужном языке. Например, если мне нужно перевести с английского на русский, я уже не пишу: «переведи», — я просто вставляю английский текст, и он переводит на русский. Лень писать лишнее — и модель подстраивается.

Если всё настроено правильно, модель постепенно адаптируется. Но! Что касается системных промптов — рекомендация такая: писать их на английском. Почему? Потому что база, на которой модель обучалась, в основном англоязычная. И, по разным оценкам, на английском он работает примерно на 15% лучше — особенно в логике, в сложных запросах.

Теперь, что касается векторных баз данных. Вы правильно сказали: там лежат семантические вектора. В этих векторах могут быть «дыры», то есть непокрытые области. Когда алгоритм натыкается на такую «дыру», он начинает действовать по вероятности, потому что другого способа нет. Именно это и вызывает так называемые галлюцинации. Это не «ошибка модели», это технический предел.

Впрочем, это общая проблема любых знаний. Кроме векторных баз и RAG, существуют также графовые базы и другие подходы. Но ключевая проблема — в несовершенстве данных. Ребята, и на солнце есть пятна.

Когда вы начинаете много практиковаться, вы сами видите, где затыки, и учитесь их обходить. Пока вы не практикуете — вы просто прёте буром и натыкаетесь на ошибки. Это нормально. Я сам встречал кучу ошибок в проектировании и с удовольствием ими с вами поделюсь. Но поскольку у каждого из вас свой проект, более глубокие косяки вы всё равно откроете сами. Это опыт.

Запомните, дорогие мои: ошибки — это второе имя жизни. Радуйтесь, что можете на своих ошибках учиться. В этом и есть смысл. Когда всё получается с первого раза — это скучно. И модель не врёт — она достаёт по вероятности, а иногда просто не может дать точный результат. Это нормально.

Интересный был комментарий: «Модель может заменить полиграф».

Да, давно уже реализовано. Она лучше распознаёт интонации, паттерны, эмоции. Много экспериментов на эту тему, много статей. Всё это уже работает.

Теперь по организационным моментам. Кто-то пишет: «Я не успеваю за уроками, параллельно изучаю бесплатный курс по DPT. Без него переходить к агентам не вижу смысла. Боюсь, что курс закончится через 4 месяца, и не смогу задавать вопросы в таких зум-конференциях». Смотрите:

Во-первых, у вас пожизненный доступ к курсу — если вы его оплатили. Это раз.
Во-вторых, там есть срок поддержки — зависит от тарифа. Я сейчас не вспомню точно, но по тарифу это прописано.
В-третьих, сейчас вообще рано об этом думать — мы только начали. Вперёд ещё большая работа. Может, и война мировая начнётся, кто знает.

Но в целом — да, я почти всегда предоставляю какие-то опции поддержки. Обычно, когда курс заканчивается, у людей возникает масса вопросов, когда они начинают делать. И 50% из вас вообще ничего делать не будет — ну, извините, это уже не моя проблема.

А вот те, кто делает — будут задавать вопросы. Я на них отвечаю, в том числе после окончания курса. Обычно я даю доступ к дополнительной недорогой подписке — порядка 30–50 долларов в месяц — специально для выпускников, кто хочет продолжать задавать вопросы и двигаться дальше. Так что возможность будет. Не переживайте.

Как показывает практика, самые ценные вопросы у вас появляются через время — не сейчас. Сейчас идут уроки концептуального уровня, и я понимаю, что большинство из них вы пока не воспринимаете. Вы начнёте вспоминать об этих уроках только тогда, когда начнёте наступать на грабли. И это нормально.

Так что не переживайте. Всё нормально. Слушайте, я всегда помогу вам избавиться от излишков денег. Изи. Вот на это можете точно рассчитывать. 😄

— Просветление — это боль.
— Нет, просветление — это радость. Боль — это отсутствие просветления.

Мы сами иногда токсики. Ну и что? Я считаю, что быть токсиком — это тоже нормально.
Так, Fuzzy Logic, плюсики, всё, смотрим дальше.

Почему-то не вижу кнопку «поднять руку». Может, можете меня включить, пожалуйста? Так. Ну да, давайте, сейчас мы вас найдём. Наталия… Наталия Кипен. Сейчас мы вас поищем тут в списке. Вот, Наталия Кипен. Разрешите говорить. Давайте. Так, секунду. А вы, по идее, уже должны были получить доступ.

— Алло.
— Да-да-да, я вас слушаю. Просто он вас не показывает, поскольку у вас камера отключена.
— Если можно, я объясню. Ничего страшного, мы потерпим. Конечно, мы очень сильно хотим вас видеть.

Алексей, огромное спасибо. Спасибо. Даже не знаю, как сформулировать… Наверное, это больше не вопрос, а желание пообщаться, поговорить — какие-то мысли из вашей жизни, почему на вашем курсе и зачем. У меня был опыт работы с ЧатГПТ, и мне безумно понравилось. Я готовилась с вами к профессиональному экзамену.

— Можете чуть поближе микрофон держать?
— Конечно. Слышно меня?
— Слышно, но иногда чуть-чуть прерывается.

Я готовилась к своему профессиональному экзамену на протяжении двух-трёх месяцев. Экзамен довольно серьёзный. Я использовала ЧатГПТ в качестве актёра, который играет пациента в определённых сценариях. Я использовала его как репетитора по английскому языку, потому что экзамен был на английском. И ещё — как генератор заданий, тестов, каких-то подсказок. В каком-то смысле, как тьютора. Мне безумно всё это понравилось, всё вдохновило. Я не уверена, что буду это всё использовать и делать дальше, но опыт был очень позитивный и приятный. Появилось ощущение, что хочется во всё это вникать и заниматься.

Появилось два вопроса. Один — я уже задавала — про языки. Почему-то, даже в какой-то степени смешно: когда ты с ним разговариваешь, основной язык общения — английский, и он, например, как американский преподаватель, даёт много комплиментов — «вот чё, правда» и так далее. Но когда ты начинаешь сердиться и говоришь: «перестань, пожалуйста, давай займёмся критикой, будем работать над ошибками», он мгновенно переключается на русский или украинский. Это было немножко смешно, но такую тенденцию я у него заметила. То есть он считывает даже культурный код, я бы сказала. Где-то что-то проскакивает.

Второй момент — более общий вопрос. Если мы говорим об агенте, который занимается преподаванием — это очень большая область знаний, навыков, методологий, специфических знаний, которые должны быть эффективно переданы человеку, желающему учиться. Это включает огромный комплекс умений, подходов и так далее.

Имеет ли смысл людям с определённой экспертизой заниматься этим? Или, может быть, стоит дождаться появления агентов, разработанных профессионалами, которые смогут готовить к экзаменам, обучать языку и прочему? Как вы это видите?

— Давайте я сначала на один, потом на второй. То, как он вам отвечает, определяется метапромптом, который мы видим. На эту тему, кстати, недавно был скандал у OpenAI. Многие написали Сэму Альтману, что ChatGPT слишком уж «вылизывает задницу». На что он извинился и сказал, что поправят — поняли, что перегнули. Это определяется метапромптом.

— Да-да, это понятно. Просто интересный момент.

— В частности, вы должны понимать, что если пользуетесь такими сервисами, как у OpenAI, то вы вынуждены мириться с цензурой, с определённым коридором, который задаёт корпорация. Некоторым людям это совсем не нравится. В таком случае вы можете взять open-source модели. Да, у вас, скорее всего, не хватит ресурсов запускать их на своём компьютере, но вы можете запускать их на сервере. Есть много таких сервисов — можем это обсудить, но нужно немного подучиться, чтобы разобраться.

Грубо говоря, это типа GPT, голая модель. Вы заходите на сервер, там у них один интерфейс — таких сервисов много — и модели там уже предустановлены. Эти модели не цензурированы. Вы можете настраивать их, делать тюнинг, у вас больше свободы. Многие, в том числе корпорации, идут по этому пути, потому что у них есть compliance-ограничения — они не могут использовать SaaS-сервисы.

То есть кейсы разные. Если вы используете что-то типа ChatGPT, вы платите всего 20 долларов, получаете массу возможностей, но и ограничения. Если вы спокойно принимаете эти ограничения — а для 99% людей они не критичны — вы продолжаете пользоваться, потому что это дёшево и удобно. Если же вас что-то сильно напрягает, и у вас специфический кейс, вы идёте другим путём, о котором я рассказал.

То есть вы идёте на хостинги, находите там нецензурированные модели — китайские, американские, их сейчас порядка полутора миллионов. И дальше с ней «колупаетесь». Но это требует совсем других затрат, прежде всего временных. С точки зрения цены — сложно сказать, это зависит от объёма использования. Там тоже есть ценник: в одном случае вы платите 20 долларов с цензурой, в другом — может, подороже, но без цензуры. Плюс вы ещё платите временем.

Как правило, подавляющее большинство стартапов, которые предоставляют ИИ-сервисы, идут этим путём. Потому что мало кто делает собственные модели с нуля — в основном берут open-source, копируют и допиливают. Но это уже программистская история, нужна квалификация. Я не считаю это оптимальным, потому что то, о чём вы говорите — и то, что мне самому нужно, — это прикладной уровень. Мы используем модель как инструмент.

Эти модели будут улучшаться. Многое из того, о чём вы говорите, и о чём говорят миллионы людей — это просто проблемы роста. Мы в самом начале пути: два с половиной года назад этого вообще не было, мы в другой реальности жили. Через несколько лет — мы даже не понимаем, что будет.

Что касается вашего второго вопроса — это очень интересная тема, я постоянно о ней думаю. Сейчас уже есть огромное количество стартапов, которые специализируются на узких сферах. Они берут базовый ИИ и делают обвес с учётом отраслевой специфики — с помощью предметных экспертов. То есть условно программисты и subject matter experts создают решение.

На слуху в основном проекты в юриспруденции — из-за множества комплайенсов, контрактного права и так далее — и в медицине. Потому что медицина сильно зарегулирована: ИИ формально не имеет права давать ответы. Он может советовать, причём делает это зачастую лучше, чем человек. Но юридически у него пока нет статуса. Хотя, например, когда мне надо было разобраться с результатами МРТ, он расшифровал их гораздо лучше, чем мой врач.

Крупные корпорации, если начнут создавать агентов, будут насыщать их огромными базами знаний. И, конечно, они станут лидерами в больших доменах, потому что у них ресурсы — и на тренировку моделей, и на загрузку документов. Когда у вас есть команда и деньги, вы делаете это эффективнее, чем один человек.

Я думаю, что отраслевые агенты будут появляться и закрывать 95% задач. Например, если появится — а он точно появится — юридический агент, будет просто чёткий перечень кейсов, где он легитимен. И на каком-то этапе суды это признают — у них не останется выбора, давление будет. Большая часть людей будет этим пользоваться. Уже есть стартапы, которые, например, помогают оспаривать штрафы за превышение скорости — им четыре года, и они справляются даже с примитивным ИИ.

Останется узкая сфера индивидуальных кейсов, где будут работать люди.

То же самое касается педагогов и психотерапии.

На мой взгляд, почти 100% «помогающих» профессий идут к интеграции с ИИ. Когда я читаю эмоциональные возражения — мол, человек важнее — это наивные попытки убежать от реальности.

Но специфика в том, что все эти сервисы будут давать стандартный подход. И вопрос в том, будет ли он удовлетворять лично вас. Если будет — нет смысла тратить время на разработку своего. Если нет — тогда все будут собирать своё.

Смысл в том, что главное отличие текущей эпохи — ИИ резко снижает барьер для входа. Я сегодня об этом статью выложил. У огромного количества людей есть идеи для бизнеса, но нет навыков, например, программирования. Это был барьер, отделявший их от реализации. Сейчас этот барьер стремительно исчезает. На первое место выходят не те, кто умеет кодить, а те, кто видит проблему и знает, как её решить. А упаковать решение можно с помощью ИИ — инструментов, которые будут становиться всё лучше.

Поэтому ситуация сейчас такая: если условно мы берём какую-то стандартную задачу — 20 лет назад, чтобы дать людям решение, нужно было иметь как минимум полмиллиона долларов и команду из 20 квалифицированных специалистов. Пять лет назад — 50 тысяч долларов и трое квалифицированных людей. А сейчас вы можете реализовать это решение в одиночку, имея 100 баксов. И сразу делать глобальный продукт. Понимаете идею?

И вообще не факт, что если собрать девять беременных женщин в одной комнате, они родят гения. Скорее всего, получится девять середнячков.

Ещё один интересный момент — думайте об искусственном интеллекте как об очень умном человеке с высокой когнитивной способностью. Но качество ответа зависит не только от его “ума”, а и от той базы знаний, на которую он опирается.

— Это понятно. Я ограничивала его поиск: давала чёткий список сайтов, документов, первоисточников.
— Я понял, что вы поняли. Смотрите: большие модели берут знания из стандартных источников. А корпоративные модели — из закрытых. Это означает, что если вы и все остальные пользуетесь одной общей моделью, то на одни и те же вопросы вы получите примерно одни и те же ответы. Ну да, возможны какие-то отклонения, но в целом — так.

Почему так? Потому что модель одна и база одна.

А если у вас есть уникальная база знаний — своя, и вы не делитесь ею с другими, то вы создаёте модель, которая даёт ответы, недоступные остальным. Это и есть ценность. Люди пойдут не к крупной корпорации, а туда, где получают уникальный ответ. Потому что когда вы ищете решение в интернете — вас не интересует, кто даёт ответ, важно, чтобы решалась именно ваша боль, ваша конкретная проблема.

То же самое и с людьми. Людей с эрудицией стало много — университеты штампуют выпускников. В Индии — 250 миллионов с высшим образованием, в Китае — 300 миллионов. Но умных, просветлённых, вроде меня, всё равно мало. Прямой связи с уровнем эрудиции нет.

Когда модели стандартные и база данных стандартная — это становится коммунитетом. Не имеет ценности, потому что это доступно всем. А ценность — в уникальности. Понимаете? Суть не в моделях и не в объёме ресурсов, а в обладании уникальностью. Эта уникальность может быть закрытой или защищённой авторскими правами.

Вот, например, я когда-то написал книжечку «Теория касторолей». Ничего особенного. И, скажем, у меня есть идея сделать агента, который на её основе будет отвечать на вопросы. Потому что мне постоянно пишут одно и то же, и я уже устал отвечать вручную. Теоретически текст везде на пиратских сайтах. Теоретически любой может на нём сделать что-то. За исключением одного — я его засужу до смерти. Понимаете? Потому что это моя собственность. В России или Украине — всем плевать, конечно. А вот в США — по полной. Мы говорим о цивилизованном мире.

Так что выгода не в создании самой модели — это скоро будет элементарно. А в том, чтобы сделать что-то уникальное. Люди и корпорации готовы за это платить, потому что они не могут получить это больше нигде. Это очень круто. Это даёт рычаг умным и талантливым. И корпорации в этом смысле уже не имеют преимущества. Раньше имели — а сейчас нет.

Вот это круто. Огромное спасибо. Спасибо за такой интересный ответ.

— Да, это правда. Давайте на следующий раз отложим.
— Окей. Я понимаю, что могу мозги кому угодно забить.
— Нет-нет-нет, спасибо огромное. Очень-очень приятно. Спасибо вам.

Так. Хорошо. Я на всякий случай извиняюсь, что я всё время немного троллю, с элементами сарказма. Среди своих я и матом могу. У меня был когда-то научный руководитель — Николай Львович Мусхилишвили. А у него научным руководителем был Мамардашвили. Мусхилишвили — очень крутой. Думаю, ещё жив, но уже пожилой. Кандидат физико-математических и доктор психологических наук. Сидел в Курчатнике (это курчатовский институт, что ядерную энергию изучает — кто в Москве знает — это монстр). Очень продвинутый, умный, квалифицированный, авторитетный человек. Иезуит, кстати. Настоящий, с посвящением. Сын его тоже иезуит.

И он, по известному выражению, не ругался матом — он просто на нём разговаривал. Вообще, я встречал таких продвинутых людей — они очень простые в быту. И они меня, увы, плохому научили. Я теперь никак от этого не избавлюсь. Жена, конечно, ругается.

Я стараюсь не ругаться матом — по возможности, особенно в публичном пространстве. Только когда сильно припрёт. Но, понимаете, пока под доходчивость ничего лучше не придумали. Sorry, guys. Так у нас всё и работает.

— Так, сейчас… А в чём заключается цензура? Я прослушал, напишите, пожалуйста, кратко.
— Цензура — в том, что у корпораций есть policy: на что искусственный интеллект может реагировать, а на что — нет. Если вы задаёте вопрос, который попадает под цензуру, он просто отказывается отвечать.

Например, если вы попросите ChatGPT нарисовать, как Трамп целуется в дёсны с Путиным — скорее всего, получите отказ. Или, скажем, многие публичные генераторы видео и изображений не позволяют создавать порно. А вот у нецензурированных генераторов — пожалуйста: хоть извращение, хоть что. Вот и вся разница.

— Возможно, этот вопрос уже задавался. В голосовом диалоге в окне бывают два варианта: голубой кружочек и чёрный. В этих двух вариантах Chat говорит разными голосами, и различие не только в голосах — как будто вообще два разных человека. Причём мне больше нравится чёрный кружочек: он и шутит, и эмоциональнее, и как-то живее. Когда открываешь новый чат, всегда включается голубой, и в чёрный не переключиться. А старые чаты работают только в чёрном. Что это такое?

— Это не две разные модели. Это одна модель, просто с разными режимами. Голубой кружочек — это более «фулл-дуплексный» режим, в котором вы общаетесь в реальном времени: можете перебивать, останавливать. А чёрный работает больше пошагово. Но основа у них общая.

То, как они отвечают, определяется метапромптом. Иногда голубой удобен — особенно для быстрого диалога, но он многословен. Чёрный — более лаконичен, и у него есть крутая фишка: когда он начинает отвечать, можно нажать «стоп» — и сразу появляется весь текст. Очень удобно. Голубой так не умеет — если нажать «стоп», ответа не будет.

Например, у меня десктопное приложение в голубом режиме работает плохо — там какие-то проблемы. А с чёрным — всё чётко. Поэтому для текстовых задач чёрный гораздо эффективнее. Голубой — удобен на мобиле, когда хочется быстро поговорить. Но там нужно уметь перебивать, иначе он снова начнёт растекаться мыслью по древу.

Я, когда с ним работаю, сразу задаю жёсткий метапромпт: «Отвечай только “да” или “нет”, не расплывайся, если не просят». Он вроде бы соглашается, и в 80% случаев следует, но в 20% всё равно тянет бороду за уши. Ну и добавляет стандартную фразу про «если вам нужно что-то ещё…». Это всё определяется метапромптом.

Думаю, не только я на это жалуюсь — и вы не первый. Постепенно всё это отладят. Но для быстрых диалогов голубой режим — топ. Особенно на мобиле, когда связь хорошая. А если нужно задать вопрос голосом, а получить длинный текстовый ответ — то чёрный работает идеально. Я задаю вопрос голосом, он начинает отвечать — я сразу жму стоп, читаю ответ, корректирую. Эффективно.

— Спасибо, это очень просветляет. Я сижу в прострации. Как вы думаете, что знают владельцы OpenAI, Маск и прочие? Они ведь используют ИИ без цензуры?

— Да, конечно. Там периодически утечки случаются. У них для внутренних задач используются расширенные метапромпты. Недавно, кстати, была утечка по поводу Grok — на GitHub случайно выложили репозиторий, там около 60 метапромптов для внутренних целей. Быстро закрыли, но народ успел увидеть.

Поймите, у них супермощная технология. И в первую очередь они используют её для себя. У них есть спецрежимы, внутренние агенты. А мы, что называется, в «публичной песочнице». Полный доступ — это власть. А власть, как известно, просто так не раздают.

— Так, а где эти голубые и чёрные модели? Как их переключать, можете показать на демонстрации?
— Сейчас покажу. Вот у нас GPT. Здесь я перехожу в обычный режим…

И, как вы видите, внизу справа — такая чёрная кнопочка, она переводит в другой режим. Так, мне сейчас нужно по-другому включить демонстрацию. Секунду. Надо расширить — выбрать часть экрана. Вот теперь вы будете видеть не окно, а часть экрана. Смотрите, я нажимаю — и видите, она переходит в другой режим.

— Эй, привет, ты меня слышишь?
— Привет.
— Рада слышать!

Видите, в приложении она работает не очень хорошо, не знаю почему. Голос ломается, и ничего не происходит. Но если я, допустим, начну с ней общаться — она не отвечает. Давайте я попробую ещё раз нажать — всё равно голубой кружочек, потому что мы начали в этом режиме.

Сейчас приведу другой пример. Возьму какой-нибудь старый чат — проверим. Нет, снова голубой. Но вообще, иногда она переходит в чёрный режим, и тогда работать удобнее. Возможно, потому что у меня платная версия. Кстати, в проектах она, как правило, всегда в чёрном режиме. Вот сейчас проверим.

Вот, видите? Она в чёрном режиме.
— Привет, я просто пытаюсь показать, как ты работаешь, для студентов. Скажи пару слов.
— Привет, я умею превращать…

Я его остановил, но он всё равно выдал ответ. Это очень удобно. Потому что если вопрос фундаментальный, не хочется слушать всё — просто нажимаешь «стоп» и читаешь. Иногда я прямо говорю: «Не проговаривай, просто напиши». Это сильно экономит время. Попрактикуйтесь — и станет понятно.

Так, что у нас ещё? Секунду… Давайте заканчивать, а то уже ночь. У нас сколько? Полночь уже.

— Объясните, пожалуйста… Возможно, вопрос уже был.
— Так, это уже проговорили. Всё более-менее понятно. На все вопросы вы ответили.

Постепенно будет всё больше практики. Я начну давать задания, вы будете их делать. Естественно, поначалу ничего не будет получаться. Будете задавать вопросы — и со временем начнёте вливаться. Сейчас я даю концептуальную основу, без которой двигаться дальше будет тяжело — будете смотреть, как баран на новые ворота.

— Есть ли смысл сделать агента, который анализирует загруженный диалог?

— Что значит, есть ли смысл? Это вам решать. Почему нет? Это несложно. Я, например, иногда сохраняю диалог в файл — если он важен — и потом загружаю и прошу проанализировать. Главное — правильно поставить задачу. Вы должны чётко указать, что именно хотите проанализировать.

Для этого даже агента не нужно — всё элементарно. Сейчас покажу. Вот, допустим, какой-то диалог — к примеру, обсуждали регулярные выражения. Этот диалог мне важен. Я его сохраняю, выделяю, копирую, вставляю в редактор, делаю файл — и загружаю сюда. Всё. Попросить проанализировать — две минуты.

Так… Всё, вроде бы вопросы исчерпаны. Тогда на сегодня всё. Дам вам 10 секунд: если есть вопрос — задавайте, если нет — значит, всё ясно.

— Вы говорите про библиотеки — в каком смысле?
— Библиотеки, чтобы читать книжки, когда вас нет? Вы это имеете в виду? Формулируйте с контекстом.

Да, конечно, я всегда делаю записи. Давайте покажу, где они лежат. Вот сайт. Заходите на курс. Быстрый переход к разделам. Вот тут — живые стримы, регистрация. А вот — предыдущие сессии. Я сюда всё добавляю: само видео, плюс расшифровка.

Расшифровку я делаю с помощью того пайплайна, о котором говорил: сначала MacWhisper, потом — предварительное редактирование. Поскольку нет задачи делать дословно, у меня вариант упрощённый — смысл передаётся, структура понятна. Иногда я упоминаю сервисы, забываю дать ссылку — просто напомните, и я её добавлю.

Есть даже отдельный раздел «Важные ссылки» — всё, что упоминается, туда кидаю. Вы всегда можете найти, пересмотреть, перечитать.

— Кроме Notion, что используете для заметок? Obsidian — но пока не настроил синхронизацию.

Раньше был Evernote, но когда перешёл на Notion, практически перестал пользоваться другими. Всё устраивает. Единственное — поскольку я много пишу, использую ещё Scrivener. Это не сервис, а программа для писателей — очень удобно, когда много текста. У меня там порядка 7000 текстов, и есть удобный менеджер.

Так что у меня базовая ОС — это Notion + Scrivener.

Всё, коллеги. Всем вам благ. Вопросы можно задавать и после. До свидания. Сегодня всё выложу — но вы уже, наверное, будете спать.

Задать вопрос

Прокрутить вверх