Публикации по теме 'natural-language'


Обработка естественного языка для программистов: модели мира
Применение порядка к процедурной вселенной НЛП глубоко занимается языковыми моделями: системами, которые пытаются представить человеческий язык через статистические отношения и / или формальные логические грамматики. Языковые модели обычно не пытаются представить семантику или иным образом связать язык с реальным миром. Программисты могут далеко зайти, рассматривая язык как абстрактную логическую головоломку, но если вы потратите какое-то время на процедурную генерацию или понимание..

Естественный язык AutoML
AutoML Natural Language позволяет создавать и развертывать пользовательские модели машинного обучения, которые анализируют документы, классифицируют их, идентифицируют сущности в них или оценивают отношения внутри них. Если вам не нужно решение для пользовательской модели, Cloud Natural Language API предоставляет классификацию контента, анализ сущностей и настроений и многое другое. Руководство для начинающих по AutoML Natural Language Представьте, что у вашей компании на сайте..

Уроки искусственного интеллекта, которые мы извлекли в 2018 году
(Примечание редактора: версия этого интервью ранее публиковалась в нашем блоге на OrangeSV.com .) Искусственный интеллект - одна из самых прибыльных областей для технических талантов в Кремниевой долине прямо сейчас, и компании из разных отраслей и секторов ищут все преимущества, чтобы продвинуться вперед. Уже в 2018 году Orange Silicon Valley провела обучающее мероприятие на тему ИИ в кадровых операциях , обсудила влияние голосовых интерфейсов ИИ на предприятии и оценила..

Сверточные сети на уровне символов для классификации текста
Одной из распространенных проблем понимания естественного языка является классификация текста. За последние несколько десятилетий исследователи машинного обучения перешли от простейшей модели «мешка слов» к более сложным моделям классификации текста. Модель мешка слов использует только информацию о том, какие слова используются в тексте. Добавление TFIDF в набор слов помогает отслеживать релевантность каждого слова документу. Пакет n-граммов позволяет использовать частичную информацию о..

Возможности BERT InterBERTible?
Краткий анализ интерпретируемости контекстных словесных представлений BERT. От BOW до BERT Мы прошли долгий путь в области встраивания слов с момента появления Word2Vec (Миколов и др.) В 2013 году. В наши дни кажется, что каждый практикующий машинное обучение может повторять мантру «король минус мужчина плюс женщина равняется королеве». . В настоящее время эти интерпретируемые вложения слов стали неотъемлемой частью многих систем НЛП, основанных на глубоком обучении. Ранее в..

Стартапы «ИИ для X» (часть 1)
Технологические стартапы в сфере искусственного интеллекта 2016–2017 годы будут известны как годы, которые вызвали революцию в области ИИ. Когда в последние годы у нас был всплеск стартапов, заимствующих принципы «Uber для X» / «Airbnb для Y», мы внезапно стали рассматривать внедрение «ИИ для X». Количество стартапов, использующих методы искусственного интеллекта (машинное обучение, глубокое обучение, NLP, NLG и т. д.) для уникальных вариантов использования, постоянно растет как..

Объяснение анализа настроений Афинн
Изучая анализ настроений Афинна, я наткнулся на сообщение Переполнение стека с таким простым запросом: Я хочу понять код afinn from afinn import Afinn from nltk.corpus import gutenberg import textwrap afinn = Afinn() sentences = (" ".join(wordlist) for wordlist in gutenberg.sents('austen-sense.txt')) scored_sentences = ((afinn.score(sent), sent) for sent in sentences) sorted_sentences = sorted(scored_sentences) print("\n".join(textwrap.wrap(sorted_sentences[0][1], 70))) Это..