По прогнозам, ИИ станет одним из ведущих сегментов облачных вычислений. Однако AIaaS и SaaS не могли быть более разными.

* Привет всем, я буду запускать несколько удаленных идейных вдохновителей AI / ML, чтобы люди в AI / ML могли обмениваться мыслями и оставаться на связи. Если вам интересно, зарегистрируйтесь здесь, чтобы получить больше информации.

Согласно недавнему опросу Gartner Survey, более 40% компаний планируют развернуть AI-решения до конца этого года. Однако высокие затраты на инфраструктуру и потребности в опыте в области ИИ / машинного обучения пугают большинство организаций. Вот почему начали появляться AIaaS (AI-as-a-service) или MLaaS.

Более 40% компаний планируют развернуть AI-решения до конца этого года - Gartner.

SaaS, популярный в Salesforce, относится к модели лицензирования, при которой программное обеспечение размещается централизованно, чтобы клиенты могли получить к нему доступ через браузер. Компании SaaS также иногда предлагают бесплатные пробные версии (freemium), чтобы стимулировать принятие.

Регулярный доход и снижение затрат делают бизнес-модель SaaS более предсказуемой, прибыльной и масштабируемой. Таким образом, она стала чрезвычайно привлекательной моделью как для предпринимателей, так и для инвесторов.

С тех пор, как Salesforce стала публичной в 2004 году, было проведено более 70 IPO SaaS. В среднем компании SaaS значительно опережают рынок. Компании SaaS, как правило, имеют более высокую валовую прибыль и более низкие расходы на исследования и разработки, потому что им не нужно поддерживать несколько версий или стеков технологий.

Точно так же AIaaS позволяет компаниям использовать готовые решения AI вместо того, чтобы создавать свои собственные команды и инфраструктуры с нуля. AIaaS обеспечивает лучшую масштабируемость и гибкость для пользователей за счет минимизации первоначальных вложений.

К 2023 году ИИ увеличится в 5 раз по сравнению с 2019 годом.

Энтузиасты искусственного интеллекта также ожидают, что бизнес-модель AIaaS поможет стимулировать внедрение и рентабельность. Прогноз Gartner о том, что облачный ИИ вырастет в 5 раз по сравнению с 2019 годом к 2023 году, похоже, подтверждает эту тенденцию.

Компании от технологических гигантов, таких как Amazon и Microsoft, до стартапов начали предлагать AIaaS, включая чат-ботов, цифровых помощников, когнитивные API и фреймворки машинного обучения. Использование этих сервисов может упростить сложный процесс и уменьшить вычислительную нагрузку при развертывании ИИ.

AIaaS кажется волшебной таблеткой для решения всех ваших проблем. Он обеспечивает быстрое и экономичное развертывание ИИ, поэтому компаниям не нужно полагаться на штатных экспертов по ИИ, которых в настоящее время не хватает повсюду. Размещение моделей в облаке, чтобы они могли постоянно улучшаться с увеличением объема данных, также раскрывает самые большие преимущества машинного обучения.

Однако в действительности развертывание AIaaS создает гораздо больше проблем, чем SaaS. И вот почему.

Что хуже, чем «мусор на входе, мусор на выходе»?

В информатике, мусор на входе, мусор на выходе (или GIGO) означает, что даже в эффективной системе ее результат может быть настолько хорош, насколько хороша введенная в нее информация. Эта концепция, кажется, применима к машинному обучению. Без качественных данных модели не будут работать. Однако эта концепция едва ли отражает серьезность проблем с качеством данных в машинном обучении.

Вместо того, чтобы быть явно запрограммированными для выполнения задач, модели машинного обучения учатся на данных обучения. Процесс обучения должен находиться под жестким контролем. Плохие данные в обучающих наборах могут испортить весь пул результатов. Даже если впоследствии вы обучите модель с хорошими данными, производительность может не восстановиться. Это похоже на образование: мы не можем просто забыть то, чему нас учили. Некорректный ввод не просто приводит к бессмысленному выводу, он разрушает модели.

Размытая линия

AIaaS полагается на клиентов, которые предоставляют данные для обучения. Но клиенты не всегда знают, как создавать подходящие наборы данных. Когда системы не работают, они склонны винить модели. Компаниям, занимающимся ИИ, необходимо уделять много времени обучению и работе вместе с пользователями, чтобы настроить конвейер данных и обеспечить качество данных.

Фактически компании тратили более 80% времени на инженерию данных. Даже после обучения клиентов компаниям, занимающимся ИИ, по-прежнему необходимо (вручную) проверять все входящие данные от клиентов, чтобы гарантировать целостность данных. Вот почему AIaaS существенно отличается от SaaS.

Машинное обучение стирает грань между клиентом и провайдером машинного обучения, делая общую ответственность за производительность. Это больше не четкий вызов API. Если модели не работают хорошо, данные виноваты не меньше, чем модели, если не больше.

Что скрывается под водой?

Как уже говорилось в моей предыдущей статье, обучение модели - это только верхушка айсберга. Большинство компаний не учли скрытые затраты на сбор, очистку, хранение, агрегирование и маркировку наборов данных, а также на создание инфраструктуры.

Вот почему модель freemium не работает для стартапов AI, поскольку даже PoC (Proof of Concept) требует обширного сбора данных и обучения, чтобы продемонстрировать ценность. И как упоминалось выше, это более 80% работы.

Прелесть модели SaaS заключается в ее масштабируемости и снижении затрат, что на самом деле неприменимо к машинному обучению. И обучение модели, и логический вывод требуют вычислений. Непрерывное обучение усложняет вычисления и еще больше увеличивает затраты.

Обработка крайних случаев

ML не идеален. Это может помочь нам автоматизировать большинство повторяющихся задач, но почти всегда есть крайние случаи, требующие вмешательства человека. По мере того, как на местах развертывается все больше систем машинного обучения, мы видим, что все больше компаний сосредотачиваются на показателях надежности, чтобы минимизировать вмешательство человека.

Однако люди по-прежнему должны быть в курсе, по крайней мере, в ближайшем будущем. Даже при правильно спроектированном процессе передачи обслуживания и интерфейсе это все равно влияет на общую масштабируемость.

Многие исследователи решают проблемы универсальности с помощью машинного обучения. Большой прогресс был достигнут в трансферном обучении и мета-обучении. Однако до тех пор, пока мы не сможем полностью решить проблему универсальности, масштабируемость остается ключевой проблемой для (узкого) ИИ. Мы должны тщательно выбирать варианты использования и стараться как можно больше сосредоточиться на стандартном предложении продукта.

Давайте подключимся! Если вам нравится читать эту статью, пожалуйста, подпишитесь на мой личный блог здесь!

Бастиан Хуанг (Bastiane Huang) - менеджер по продукту OSARO, стартапа из Сан-Франциско, создающего робототехнику, определяемую искусственным интеллектом. Она работала в Amazon в группе Alexa и в Harvard Business Review, а также в университетской программе Future of Work Initiative. Она пишет о машинном обучении, робототехнике и управлении продуктами. Следуйте за ней здесь .