Публикации по теме 'large-language-models'


Простая оболочка OpenAI API
Я разработал простую оболочку Python для API OpenAI, специально предназначенную для личного использования. Оболочка ориентирована на простое получение желаемого результата из моделей OpenAI, а также обеспечивает гибкость определения формата вывода. Давайте разберем, что делает каждая часть кода: Обзор классов и методов __init__ : Инициализирует класс LLM (возможно, модель изучения языка?) с помощью ключа API, имени модели (по умолчанию «gpt-3.5-turbo») и параметра температуры,..

TrainingFlow и поиск знаний для LLM
Когда Алан Тьюринг придумал тест Тьюринга в 1950 году, это была проверка способности машины демонстрировать разумное поведение, неотличимое от поведения человека. Тьюринг предположил, что компьютер обладает искусственным интеллектом (ИИ), если он может создавать человеческие ответы на вопросы. Благодаря большим языковым моделям мы сейчас находимся в точке, когда компьютеры могут писать текст практически на любую тему, которую мы им даем, и по большей части это очень убедительно и..

Общество разума — преодоление галлюцинаций в больших языковых моделях
Улучшите свои ответы с помощью Mindstorm нескольких больших языковых моделей Недавно я наткнулся на интересную статью на arxiv.org от Zhuge, et al. охватывающий новый подход к улучшению результатов больших языковых моделей. Изучение ответов современных крупных языковых моделей, таких как ChatGPT от OpenAI, Llama от Meta и других, показывает отсутствие возможностей в определенных областях ответов на вопросы . Особенно, если спрашивающий упускает контекст и полагается на нулевые..

Заполнение больших языковых моделей — Примеры с Llama 2
Лучшие практики для создания обучающих примеров для каузальных LLM Заполнение — один из наиболее малодокументированных аспектов больших языковых моделей (LLM). Почему? Просто потому, что LLM обычно предварительно обучаются без заполнения. Тем не менее, для точной настройки LLM на пользовательских наборах данных необходимо заполнение. Неправильное заполнение обучающих примеров может привести к различного рода неожиданному поведению: потеря нулей или потеря бесконечности во время..

Тонкая настройка вашего LLM без максимального использования графического процессора
Как вы можете точно настроить свои LLM с ограниченным оборудованием и ограниченным бюджетом Спрос на индивидуальные LLM С успехом ChatGPT мы стали свидетелями всплеска спроса на заказные большие языковые модели. Однако на пути к усыновлению возникло препятствие. Поскольку эти модели настолько велики, компаниям, исследователям или любителям со скромным бюджетом было сложно настроить их для своих собственных наборов данных. Теперь, благодаря инновациям в методах тонкой настройки с..

База данных Vector — хранение вложений LLM, ClipX и BlipX для использования в вашем бизнесе.
В последние годы люди стали одержимы способностью машин понимать визуальные элементы на фотографиях, генерировать превосходный письменный контент и создавать потрясающе красивые произведения искусства. Несколько известных имен, таких как LLM, CLIPx, BLIPx и Segment Everything, обеспечивают производительность самых успешных в мире систем искусственного интеллекта. Конечно, это все продукты IT-бегемотов, таких как Meta, Google, OpenAI, Salesforce, Microsoft и других. Я буду обсуждать не..

Внутри DSPy: новая языковая модель программирования, о которой вам нужно знать
Эта платформа, созданная исследователями из Стэнфорда, представляет собой интересную альтернативу LangChain или LlamaIndex. Недавно я запустил образовательный информационный бюллетень, посвященный искусственному интеллекту, у которого уже более 160 000 подписчиков. TheSequence — это информационный бюллетень без всякой ерунды (то есть без шумихи, новостей и т. д.), ориентированный на машинное обучение, чтение которого занимает 5 минут. Цель — держать вас в курсе проектов,..