Если сначала у вас ничего не получится, попробуйте, попробуйте еще раз.

Это отличная жизненная философия, но хороша ли она для машинного обучения? Рамтин Серадж не уверен. Он считает, что глубокое обучение - вид машинного обучения, который в настоящее время предпочитают такие компании, как Google и IBM, позволяющий компьютерам учиться самостоятельно, - должен избегать задач, требующих безупречной точности. На этой неделе он сел с нами, чтобы объяснить, почему.

Google недавно объявил, что они обучают алгоритмы шифрования текстовых сообщений с целью автоматизации как шифрования, так и дешифрования. Это высокая цель, и, несомненно, потребуется много времени, прежде чем они достигнут 100% точности в этих испытаниях. Проблема возникает, если они никогда не достигают этой 100% отметки.

Microsoft недавно объявила, что достигла более высоких результатов в распознавании речи. Это удивительно, но люди на самом деле достигают только 80% точности. Для голосовых команд это большая погрешность. В конце концов, если компьютер считает, что не понял вас, он может делать то же, что и Siri: «Извините, я не уверен. Я понимаю."

Но что, если перед компьютером стоит задача, в которой нет права на ошибку? Что, если алгоритмы выполняют операции без посторонней помощи или обрабатывают конфиденциальные данные? В таких случаях точность 20% может быть буквально фатальной.

Как объясняет Рамтин: Хотя маловероятно, что Google решит эти алгоритмы шифрования без доказательства того, что они работают, это доказательство очень трудно получить. Использование тестовых данных для обучения или проверки ваших моделей машинного обучения означает вы не можете доказать, что это сработает для будущих невидимых данных или дел . По сути - вы никогда не узнаете наверняка, пока он не будет запущен. Вот почему вы получаете экземпляры вроде Microsoft’s Tay, которые так хорошо работали в закрытой среде, но не смогли выжить, столкнувшись с человеческим фактором.

Но в этой зарождающейся области есть много потерять в войне общественного мнения.

Если крупное общедоступное испытание шифрования не удастся и все данные будут потенциально раскрыты, это может вызвать серьезные проблемы для глубокого обучения как модного слова, что может привести к потере финансирования проектов глубокого обучения и повлиять на машинное обучение как отрасль.

Так как же решить эту проблему? Серадж рекомендует избегать задач, требующих 100% точности - по крайней мере, на данный момент. Дайте машинному обучению шанс развиваться.

Или он может так и не дожить до взрослой жизни.

— —

Написано Реном Хэндманом для Leviathan.ai