Публикации по теме 'responsible-ai'


ПочемуLabs признана CB Insights GenAI 50 одним из самых инновационных стартапов в области генеративного искусственного интеллекта
CB Insights включилаWhyLabs в свой первый ежегодный рейтинг GenAI 50, список 50 самых инновационных компаний мира, разрабатывающих генеративные приложения и инфраструктуру искусственного интеллекта в различных отраслях. Что особенно примечательно, так это то, что наблюдаемость модели сразу же признается важной категорией, имеющей решающее значение для успеха приложений LLM. Как пионеры в этой категории, мы гордимся работой, которую проделали командаWhyLabs и сообщество ML/AI, чтобы..

Помимо точности: как обеспечить ответственную разработку ИИ с помощью Amazon SageMaker
Простое в использовании подробное руководство по разработке менее предвзятой модели и объяснению результатов с помощью AWS для набора табличных данных розничных банковских услуг. Модели искусственного интеллекта (ИИ) становятся все более и более сложными. Google T5-XXL может похвастаться впечатляющими 11 миллиардами параметров, в то время как OpenAI GPT-3 поднимает планку с колоссальными 175 миллиардами параметров. В погоне за еще более высокой точностью GPT-4 раздвигает границы еще..

Сообщения, которые мы отправляем: аргументы против «развертывания» машинного обучения
Почему изменение нашего языка делает ИИ более ответственным В жизненном цикле модели машинного обучения мы обычно называем внедрение моделей в продукты «развертыванием» моделей. Несмотря на широкое признание, слово «развертывание» закреплено за властью и милитаризацией. Язык, на котором мы говорим об ИИ, невероятно важен, в том числе с технической точки зрения. Один из самых больших недостатков обсуждения машинного обучения и искусственного интеллекта - это термины, которые мы..

PoP (подтверждение личности)
Так так так…! ИИ повсюду, и угадайте, кто сейчас этим занимается? правительство. (Вау и почему одновременно!! LOL) Не веришь мне, а?! см. это: ФАКТЫ: Администрация Байдена-Харриса обеспечивает добровольные обязательства ведущих искусственных… Добровольные обязательства, подчеркивающие безопасность, защищенность и доверие, знаменуют собой важный шаг на пути к развитию ответственных… em>www.whitehouse.gov Да! Это верно!..

Пять ответственных прогнозов искусственного интеллекта на 2021 год
Внедрение ИИ ускорилось в 2020 году, но случаи широко разрекламированных проблем ИИ превзошли те, что были в предыдущие годы. От TikTok и OpenAI до Twitter и Zoom компании все чаще сталкиваются с проблемами PR, возникающими из-за отсутствия прозрачности и строгости в их разработке ИИ - все это в конечном итоге повлияло на доверие клиентов. Быстрая реакция пользователей подтолкнула к быстрым исправлениям и возросшему осознанию важности подотчетности в ИИ. 2021 год станет годом,..

Оставить Google на конвергенции
Оставить Google на конвергенции Размышляя об 11 годах и дарах ответственного искусственного интеллекта Я начинаю каждую работу, которую когда-либо выполнял, с одними и теми же двумя целями: выработать себя без работы и уйти до того, как закончу. Достижение комбинации «у меня есть» и «пора» означает, что неудивительно, что глава закрывается. 2 марта, через 11 лет и 2 недели после получения моего «Добро пожаловать в Google!» письмо, я сдал свой значок и попрощался с организацией,..

Конфиденциальность и безопасность ML (против) Конфиденциальность и безопасность с использованием ML
Конфиденциальность и безопасность машинного обучения сильно отличаются от конфиденциальности и безопасности с использованием машинного обучения, и в следующем блоге делается попытка пролить свет на перекрывающиеся и непересекающиеся компоненты машинного обучения. В статье не будет подробно объясняться каждый аспект машинного обучения. темы, а скорее указать направление для читателей, чтобы они поняли и увидели, как ML можно использовать для конфиденциальности и безопасности, имея при..