Публикации по теме 'responsible-ai'


Регулирование ИИ — это возможность, поэтому не ставьте галочку в поле «Соответствие»
Рори Кинг Организации могут рассматривать регулирование ИИ как цену, которую необходимо вынести, или как возможность получить конкурентное преимущество. Мы уже видели этот фильм. В 2000-х годах правительства по всему миру ввели в действие правила экологической и социальной ответственности, такие как директива ЕС об ограничении использования опасных веществ (RoHS) или, в США, правила в Законе Додда-Франка в отношении отчетности о компонентах, содержащих такие вещества. называются..

Использование искусственного интеллекта для общественного блага на Google Next '23
Подготовка к сеансу Google Cloud Next Использование искусственного интеллекта для общественного блага на Google Next '23 Я рад быть в Сан-Франциско на Google Cloud Next ’23. Креативные плакаты на тему искусственного интеллекта, например, иллюстрирующие потенциал искусственного интеллекта в открытии жизни в космосе, демонстрируют дух инноваций мероприятия. Моя сессия будет посвящена столь же серьезной проблеме здесь, на Земле: разработке инклюзивного, ответственного ИИ, который..

Объяснение предвзятости в ваших данных
Углубленный анализ причин несправедливости За последние пять лет несправедливость в машинном обучении превратилась из почти неизвестной в частые заголовки, и часто обнаруживаются новые случаи нежелательной предвзятости, вносимой в автоматизированные процессы. Однако до сих пор не существует универсального стандартного инструмента машинного обучения для предотвращения и оценки такой предвзятости. В этой статье мы разберемся, как объяснить несправедливость в алгоритме машинного обучения...

Как говорить об ИИ со своими заинтересованными сторонами (и не умереть, пытаясь)?
Поскольку ИИ часто считают чем-то загадочным, он может вызывать опасения, сомнения и даже опасения (некоторые обоснованные, а некоторые основаны на научной фантастике) у заинтересованных сторон. Как и во многих других коммуникационных усилиях, целевая аудитория является ключом к правильной и подходящей доставке сообщения, так же как и когда мы хотим раскрыть какие-либо подробности о решениях ИИ. Здесь я предлагаю вам 3 совета, которые следует учитывать, если вы собираетесь говорить..

Ответственный ИИ
Ответственный ИИ Разработка прогностических моделей для добрых намерений в отношении сообщества является жизненно важной задачей. Развитие машинного обучения и искусственного интеллекта привело к появлению сложных технологий, таких как распознавание лиц. Распознавание лиц используется в различных явлениях, от безопасности до других сервисных услуг. Однако эта технология далека от совершенства, поскольку очевидно, что она плохо работает, когда речь идет о цветных людях..

Как использовать инструменты Spark для отладки ваших моделей и интеграции ответственных элементов ИИ в ваше машинное обучение…
Авторы Марта Лагуна , Кашьяп Патель , Елена Жердева и Джейсон Ван При построении ответственной модели ИИ важно, чтобы мы понимали, как ведут себя наши данные, на каких функциях наша модель основывает свой прогноз и как модель ведет себя в нескольких группах населения. Эта статья является первой из серии. В рамках общего сценария серии мы показываем, как использовать несколько аспектов ответственных инструментов ИИ, которые помогают отладке моделей и повышают прозрачность и оценку,..

Итак, насколько справедлив ваш ИИ?
О проблеме правильного достижения цели справедливости Использование искусственного интеллекта (ИИ) породило новые этические и юридические проблемы. В моей предыдущей статье я показал, почему удаление конфиденциальной информации из обучающих данных не способствует справедливости, а скорее наоборот. Эта статья посвящена определению наиболее подходящего определения честности для приложения ИИ. Индивидуальный инструмент был первоначально представлен в исследовательской статье ,..