Публикации по теме 'large-language-models'


Как работает GPT: метафорическое объяснение ключа, значения, запроса во внимании с использованием рассказа о зелье
Как работает GPT: метафорическое объяснение ключа, значения, запроса во внимании с использованием рассказа о зелье Основой ChatGPT является модель GPT, созданная с использованием архитектуры Transformer . Основой Трансформера является механизм Внимания . Для многих самое сложное для понимания понятие «Внимание» — это ключ, значение и запрос . В этом посте я буду использовать аналогию с зельем, чтобы усвоить эти понятия. Даже если вы уже понимаете математику трансформатора..

Введение в генеративный ИИ: изучите GenAI с нуля с помощью Python
Введение Привет, ребята! Добро пожаловать в серию «Изучаем генеративный ИИ с нуля с помощью Python». Эта серия охватывает все о генеративном ИИ, что может знать специалист по данным и инженер-программист и начать свое путешествие в этой фантастической области GenAI. Я расскажу вам все: от Python до машинного обучения, затем глубокого обучения, а затем обработки естественного языка и генеративных моделей, таких как генеративно-состязательные сети (GAN), вариационные автоэнкодеры (VAE) и..

Как повысить эффективность работы с помощью Chatgpt
Вы чувствуете, что на вашем рабочем месте дела идут медленнее, чем обычно? То, как мы сейчас взаимодействуем и общаемся друг с другом, сильно изменилось за последние несколько лет. С развитием технологий появляются более эффективные способы выполнять работу как можно быстрее. Вы уже слышали о Chatgpt? Это революционно новый способ для команд сотрудничать и повышать эффективность работы с помощью чат-ботов и искусственного интеллекта! В этой записи блога я расскажу, как команды могут..

Остерегайтесь ненадежных данных при оценке модели: тематическое исследование быстрого выбора LLM с Flan-T5
Вы можете выбрать неоптимальные подсказки для вашего LLM (или сделать другой неоптимальный выбор с помощью оценки модели), если вы не очистите свои тестовые данные. Авторы: Крис Маук, Джонас Мюллер Надежная оценка модели лежит в основе MLops и LLMops, помогая принимать важные решения, например, какую модель или приглашение развертывать (и следует ли развертывать вообще). В этой статье мы подсказываем FLAN-T5 LLM от Google Research различными подсказками, пытаясь..

Риски вреда от больших языковых моделей: дискриминация, исключение и токсичность
Эти модели, разработанные для имитации человеческого языка, могут непреднамеренно продвигать стереотипы, усиливать исключающие нормы, генерировать токсичный язык и демонстрировать дискриминационные действия в разных социальных группах. Недавний всплеск исследований LM направлен на увеличение размера этих моделей как с точки зрения параметров, так и данных обучения, что может непреднамеренно усилить этот вред. Риски возникают из-за того, что LM точно отражает естественную речь, включая..

Темная конвергенция ИИ: модели биологического оружия и мошеннического языка
Темная конвергенция ИИ: модели биологического оружия и мошеннического языка Высвобождение ящика Пандоры: как ИИ может вооружить новое поколение биологической войны Введение Два недавних события подчеркивают острую необходимость надежного регулирования ИИ. Свидетельские показания Дарио Амодеи в Конгрессе перед Подкомитетом Судебного комитета по конфиденциальности, технологиям и закону предупреждали о неправильном использовании ИИ в биологических процессах. В то же время..

Пользовательский интерфейс чата Huggingface — ваш собственный ChatGPT, часть 2
Обслуживание большой языковой модели и чат-бот В предыдущей статье мы развернули пользовательский интерфейс Huggingface Chat с моделями Huggingface. Что делать, если модели, которую вы хотите развернуть, нет в Huggingface, например локально настроенную модель или вы хотите применить собственную логику к входным и выходным данным модели. К счастью, пользовательский интерфейс Chat поддерживает модели, обслуживаемые с использованием вывода генерации текста Huggingface или даже после..