TL;DR:

– Ведущее сообщество исследователей, разработчиков и практиков ИИ. 3 Лауреаты премии Тьюринга Йошуа Бенжио, Джеффри Хинтон и Янн ЛеКун по-разному отреагировали на открытое письмо с просьбой замедлить разработку ИИ. Хинтон хотел действовать медленнее, Бенжио выразил озабоченность по поводу письма, а ЛеКун избегал принимать чью-либо сторону. Подпишитесь на информационный бюллетень AI, чтобы быть в курсе исследований, проектов и идей для стартапов, продуктов и услуг AI. Вкратце: 3 лауреата премии Тьюринга по-разному отреагировали на открытое письмо с просьбой замедлить разработку ИИ; подпишитесь на информационный бюллетень ИИ, чтобы быть в курсе последних исследований и идей для стартапов, продуктов и услуг ИИ.
Отказ от ответственности: в этой статье для генерации текста используется Cohere.

Краткое содержание:

Йошуа Бенжио, Джеффри Хинтон и Янн ЛеКун, трое самых влиятельных компьютерных ученых и исследователей искусственного интеллекта в мире, были совместно удостоены премии Тьюринга 2018 года за их вклад в глубокое обучение, подмножество искусственного интеллекта. Недавно они были в новостях, поскольку ответили на открытое письмо, которое подписали многие ученые и влиятельные люди с просьбой замедлить разработку моделей за пределами GPT-4, в стремлении предвидеть и смягчить потенциальный вред таких «умных». системы обработки естественного языка (NLP) и универсальные (AGI). Хинтон, британско-канадский ученый-компьютерщик и когнитивный психолог, считается «крестным отцом» глубокого обучения и одним из самых влиятельных и известных исследователей в этой области. Он считает, что исследования в области ИИ должны проводиться с чувством ответственности, и что разработчики должны учитывать этические последствия своей работы и потенциальный вред, который она может принести. Напротив, ЛеКун, французский ученый-компьютерщик, считает, что регулирование и замедление исследований ИИ — неправильный подход. Он придерживается более оптимистичной точки зрения, утверждая, что потенциальные преимущества ИИ намного перевешивают потенциальные риски и что потенциальный вред от ИИ может быть повышен. Лекун. Хотя их позиции различались, все они согласились с тем, что разработка ИИ должна осуществляться осторожно и с соблюдением правильных мер безопасности. Ясно, что ИИ может быть очень разрушительным и должен разрабатываться ответственно. Имея это в виду, важно, чтобы разработка ИИ осуществлялась в соответствии с этическими принципами, с соответствующими правилами и контролем.

Откройте для себя полную историю, первоначально опубликованную в разделе Навстречу ИИ.
Присоединяйтесь ко мне в этом невероятном путешествии по генеративному ИИ и станьте частью революции. Стать участником или Купить мне кофе. Следите за обновлениями и идеями о генеративном ИИ, подписываясь на меня в Twitter, Linkedin или мой сайт. Ваша поддержка действительно ценится!

Рекомендации ресурсов для начала работы с генеративным ИИ:

Учебники, руководства и демонстрации по генеративному ИИ

Генеративный ИИ с Python и Tensorflow 2

Трансформеры для обработки естественного языка

Изучение GPT-3