Публикации по теме 'responsible-ai'
ПочемуLabs признана CB Insights GenAI 50 одним из самых инновационных стартапов в области генеративного искусственного интеллекта
CB Insights включилаWhyLabs в свой первый ежегодный рейтинг GenAI 50, список 50 самых инновационных компаний мира, разрабатывающих генеративные приложения и инфраструктуру искусственного интеллекта в различных отраслях. Что особенно примечательно, так это то, что наблюдаемость модели сразу же признается важной категорией, имеющей решающее значение для успеха приложений LLM. Как пионеры в этой категории, мы гордимся работой, которую проделали командаWhyLabs и сообщество ML/AI, чтобы..
Помимо точности: как обеспечить ответственную разработку ИИ с помощью Amazon SageMaker
Простое в использовании подробное руководство по разработке менее предвзятой модели и объяснению результатов с помощью AWS для набора табличных данных розничных банковских услуг.
Модели искусственного интеллекта (ИИ) становятся все более и более сложными. Google T5-XXL может похвастаться впечатляющими 11 миллиардами параметров, в то время как OpenAI GPT-3 поднимает планку с колоссальными 175 миллиардами параметров. В погоне за еще более высокой точностью GPT-4 раздвигает границы еще..
Сообщения, которые мы отправляем: аргументы против «развертывания» машинного обучения
Почему изменение нашего языка делает ИИ более ответственным
В жизненном цикле модели машинного обучения мы обычно называем внедрение моделей в продукты «развертыванием» моделей. Несмотря на широкое признание, слово «развертывание» закреплено за властью и милитаризацией.
Язык, на котором мы говорим об ИИ, невероятно важен, в том числе с технической точки зрения. Один из самых больших недостатков обсуждения машинного обучения и искусственного интеллекта - это термины, которые мы..
PoP (подтверждение личности)
Так так так…! ИИ повсюду, и угадайте, кто сейчас этим занимается? правительство. (Вау и почему одновременно!! LOL) Не веришь мне, а?!
см. это:
ФАКТЫ: Администрация Байдена-Харриса обеспечивает добровольные обязательства ведущих искусственных… Добровольные обязательства, подчеркивающие безопасность, защищенность и доверие, знаменуют собой важный шаг на пути к развитию ответственных… em>www.whitehouse.gov
Да! Это верно!..
Пять ответственных прогнозов искусственного интеллекта на 2021 год
Внедрение ИИ ускорилось в 2020 году, но случаи широко разрекламированных проблем ИИ превзошли те, что были в предыдущие годы. От TikTok и OpenAI до Twitter и Zoom компании все чаще сталкиваются с проблемами PR, возникающими из-за отсутствия прозрачности и строгости в их разработке ИИ - все это в конечном итоге повлияло на доверие клиентов. Быстрая реакция пользователей подтолкнула к быстрым исправлениям и возросшему осознанию важности подотчетности в ИИ.
2021 год станет годом,..
Оставить Google на конвергенции
Оставить Google на конвергенции
Размышляя об 11 годах и дарах ответственного искусственного интеллекта
Я начинаю каждую работу, которую когда-либо выполнял, с одними и теми же двумя целями: выработать себя без работы и уйти до того, как закончу. Достижение комбинации «у меня есть» и «пора» означает, что неудивительно, что глава закрывается. 2 марта, через 11 лет и 2 недели после получения моего «Добро пожаловать в Google!» письмо, я сдал свой значок и попрощался с организацией,..
Конфиденциальность и безопасность ML (против) Конфиденциальность и безопасность с использованием ML
Конфиденциальность и безопасность машинного обучения сильно отличаются от конфиденциальности и безопасности с использованием машинного обучения, и в следующем блоге делается попытка пролить свет на перекрывающиеся и непересекающиеся компоненты машинного обучения. В статье не будет подробно объясняться каждый аспект машинного обучения. темы, а скорее указать направление для читателей, чтобы они поняли и увидели, как ML можно использовать для конфиденциальности и безопасности, имея при..