Мой личный опыт за последнее десятилетие позволил мне стать свидетелем повсеместного внедрения искусственного интеллекта (ИИ) как на потребительском, так и на корпоративном уровне в Европе и Азии. Эти наблюдения полезны, чтобы понять текущую шумиху вокруг систем контента, генерируемых ИИ (AIGC), таких как ChatGPT, Stable Diffusion и Co. Кроме того, в этой статье определяются возможности и проблемы, которые ждут впереди в области ИИ.

Широкое распространение ИИ переживало периоды подъема и спада. Запуск ChatGPT в ноябре 2022 года вызвал невиданный ранее бум общественного интереса к ИИ, в результате чего система OpenAI достигла 1 миллиона пользователей всего за пять дней и 100 миллионов пользователей в течение двух месяцев. В то время как энтузиасты видят конец превосходства человека над разумными машинами надвигающимся; пессимисты ставят под сомнение способность ChatGPT и других систем решать базовые задачи, требующие не более чем здравого смысла, а третьи считают их просто помощниками для письма.

Стоит отметить, что область ИИ была создана как академическая дисциплина почти 70 лет назад. От теоретических концепций до мощных систем, используемых миллионами людей, прогрессу способствовали достижения в трех ключевых областях: алгоритмы, данные и аппаратное обеспечение. Поэтому в этой части сначала будут рассмотрены эти три строительных блока современных систем искусственного интеллекта. Затем он проанализирует, как искусственный интеллект проник в нашу повседневную жизнь за последнее десятилетие из первых рук. Наконец, он завершится важными уроками для нынешнего бума ИИ и конкретными областями, представляющими интерес в будущем.

От Алана Тьюринга до ChatGPT

ChatGPT был разработан компанией OpenAI, которая была основана и изначально финансировалась Сэмом Альтманом, Грегом Брокманом, Илоном Маском, Ильей Суцкевером и Питером Тилем в 2015 году. Целью компании является продвижение дружественного ИИ при проведении исследований и патенты в открытом доступе. Первоначально некоммерческая OpenAI превратилась в коммерческую организацию с ограниченным лимитом в 2019 году. Этот переход стал поворотным моментом для компании, приведшим к созданию таких систем, как GPT-3 (2020 г.), языковая модель, обученная на наборы интернет-данных и DALL-E (2021), модель, которая генерирует изображения из текста.

Однако именно выпуск ChatGPT в конце ноября 2022 года вызвал нынешний ажиотаж вокруг ИИ. В отличие от многих своих предшественников, ChatGPT был выпущен не как исследовательская работа или API, а скорее как продукт, интерфейс типа чат-бота, который позволил миллионам людей испытать искусственный интеллект из первых рук. Эта инновация посредством распространения продемонстрировала потенциал ИИ широкой публике, что стало важной вехой в развитии технологии ИИ.

Еще в 1950 году ученый-компьютерщик Алан Тьюринг разработал тест, чтобы проверить, сможет ли машина демонстрировать интеллектуальное поведение, подобное человеческому, или, другими словами, ИИ. В тестовой установке Тьюринга оценщик-человек ведет текстовые беседы с двумя агентами и должен определить, кто из них является машиной. Если оценщик не может отличить машину от человека, машина прошла испытание. Таким образом, многие проекты в последующие годы, в том числе Watson от IBM (развившийся из исследовательского проекта DeepQA), а теперь и ChatGPT от OpenAI, были сосредоточены на том, чтобы показать, что взаимодействие с машиной может ощущаться человеком. Поскольку ChatGPT, возможно, сможет пройти тест Тьюринга, мы, возможно, наконец достигли точки, когда взаимодействие с системами ИИ будет неотличимо от взаимодействия с человеком.

Однако то, что на первый взгляд кажется исключительным достижением, на самом деле является результатом многолетнего прогресса во многих областях, прежде всего в алгоритмах, данных и оборудовании.

Более сложные и адаптированные системные архитектуры

За последнее десятилетие в области машинного обучения произошли значительные изменения в типах используемых моделей. В то время как традиционные линейные модели, такие как линейная регрессия и k-ближайший сосед, могли обнаруживать закономерности в данных, теперь акцент сместился на искусственные нейронные сети (ИНС). ИНС существуют с 1940-х годов и в общих чертах моделируются по образцу человеческого мозга с нейронами и синапсами, соединяющими их через слои. Способность ИНС к самообучению на основе данных примера является ключевой особенностью, особенно когда они построены с несколькими скрытыми слоями, известными как глубокое обучение. Различные формы и архитектуры ИНС были разработаны для конкретных случаев использования. Например, сверточные нейронные сети (CNN) эффективны для распознавания изображений, а рекуррентные нейронные сети (RNN) с долговременной кратковременной памятью (LSTM) идеально подходят для распознавания речи. Более поздней и важной разработкой являются модели глубокого обучения Трансформер, представленные в 2017 году командой Google Brain, которые заменили RNN в области обработки естественного языка (NLP). Эти модели составляют основу таких систем, как GPT-3, которая имеет более 170 миллиардов параметров. Модели ANN и Transformer, в частности, являются первыми ключевыми столпами, обеспечивающими Chat-GPT. Однако режимы обучения для этих моделей, такие как контролируемое и неконтролируемое обучение, могут различаться и в настоящее время используются по-разному на разных этапах разработки системы, например, предварительное обучение или точная настройка. Это иллюстрирует универсальность и потенциал ИНС для создания более сложных и адаптированных системных архитектур.

Океан данных

Когда ИНС были впервые концептуализированы в 1940-х годах, их создатели едва ли могли представить себе цифровой мир, в котором мы живем сегодня. Для текста, аудио, изображений, видео и других мультимедийных материалов цифра оказалась наиболее удобным способом хранения информации, заменив большую часть аналоговых технологий. Потребительский Интернет, IoT и другие технологии еще больше ускорили эту тенденцию, поскольку каждый день регистрируются триллионы цифровых взаимодействий и сигналов. Поэтому только в этом году человечество, вероятно, создаст и сохранит больше данных, чем за все 2010–2017 годы вместе взятые. Современные системы искусственного интеллекта, такие как ChatGPT, Stable Diffusion и DALL-E, в частности, были обучены на крупномасштабных (помеченных) общедоступных наборах данных, взятых из Интернета (например, Getty Images в качестве обучающего набора данных для точной настройки системы Stable Diffusion). . При этом данные стали двигателем нынешнего бума ИИ и представляют собой вторую ключевую опору современных систем ИИ.

Более дешевое специализированное оборудование

Текущий бум искусственного интеллекта, основанный на десятилетиях общего проектирования микросхем, основан на графических процессорах (GPU). Построенные с параллельной архитектурой, графические процессоры более подходят, чем центральные процессоры (ЦП), поскольку математические матричные операции ИНС очень похожи на операции, необходимые для вычисления графики. В частности, серия Nvidia A100 оказалась мощным чипом в этом отношении. Эти чипы графического процессора вместе с реконфигурируемыми программируемыми вентильными матрицами (FPGA) обеспечивают более чем в 100 раз более высокую скорость обучения моделей глубокого обучения по сравнению с традиционными процессорами, которые обычно были реализованы только после 2009 года. Кроме того, в последние несколько лет наблюдается рост числа приложений. специализированные интегральные схемы (ASIC), такие как Tensor Processing Unit от Google (доступен для внешнего использования с 2018 года), которые имеют более конкретную конструкцию и, таким образом, еще больше ускоряют вычислительные задачи, связанные с ML. Хотя эти достижения позволили добиться огромного прогресса в области искусственного интеллекта, обучение и обслуживание больших систем машинного обучения по-прежнему обходятся дорого. OpenAI, например, по сообщениям, первоначально потратил более 1 миллиарда долларов США на создание ChatGPT и до сих пор тратит 1 миллион долларов США в день только на аппаратные расходы для его обслуживания. В заключение можно сказать, что более адаптированная и более дешевая ИТ-инфраструктура может считаться третьим ключевым элементом, обеспечивающим нынешний бум ИИ.

Благодаря вышеупомянутым достижениям в алгоритмах, данных и оборудовании ChatGPT и другие системы AIGC демонстрируют выдающийся прогресс, достигнутый в таких областях, как НЛП, рассуждения и представление знаний. Однако помимо этого ChatGPT и компания также являются достижениями в области взаимодействия человека с компьютером (HCI). Действительно, эти системы устанавливают новую форму беспрепятственного взаимодействия людей с компьютером посредством интерактивных диалогов.

Массовое внедрение ИИ среди потребителей и предприятий: личное путешествие

За последнее десятилетие я лично был свидетелем того, как ключевые разработки, описанные выше, привели к повсеместному внедрению ИИ в потребительские и корпоративные продукты.

IBM: аналитика появляется на повестке дня генерального директора (2011 г.)

Когда я пришел в IBM более 10 лет назад, компания считалась пионером в области искусственного интеллекта. IBM заработала эту репутацию, главным образом, благодаря тому, что ИИ стал более широко известен общественности после победы системы ИИ IBM Deep Blue над ведущим шахматистом Гарри Каспаровым в открытом матче в 1996/1997 годах. Опираясь на эту репутацию, IBM в 2008 году запустила кампанию Smarter Planet, демонстрирующую, как информационные технологии и аналитика могут сделать принятие решений предприятиями и правительствами умнее. Успех новых линеек продуктов IBM Advanced Analytics и Облако показал, как осмысление данных и удовлетворение растущих потребностей в гибкой, стабильной и экономичной ИТ-инфраструктуре (AWS все еще бизнес с доходом около 0,5 млрд долларов США против 60 млрд долларов США + сегодня) были ключевыми тенденциями в то время и, возможно, остаются таковыми до сегодняшнего дня. Крупный прорыв последовал в 2011 году, когда новейшая система искусственного интеллекта IBM, Watson, победила в американской викторине Jeopardy! против самых высокооплачиваемых участников Кена Дженнингса и Брэда Раттера. Это считалось таким крупным прорывом, потому что Jeopardy! требует, чтобы участники рассуждали в обратном направлении от данных (юмористических) ответов до постановки правильного вопроса.

После успеха игрового шоу IBM запустила крупный набор систем машинного обучения, предназначенных для различных отраслей и вариантов использования. На какое-то время Watson стал синонимом ИИ, и IBM использовала сильный бренд, удовлетворяя растущий спрос на внедрение машинного обучения во все аспекты жизни предприятия, анонсировав первые внедрения в лечении рака легких в онкологическом центре имени Слоуна-Кеттеринга. В то время как Watson был внешним бизнесом, обслуживающим клиентов IBM, я какое-то время работал с внутренней группой прикладной аналитики под названием Business Performance Services (BPS). В BPS мы были группой аналитиков, работающих с руководителями высшего звена, с одной стороны, и IBM Research, с другой. Задача группы заключалась в разработке систем (часто построенных на моделях машинного обучения) и оптимизации процессов для решения ключевых бизнес-задач в таких областях, как эффективность продаж, планирование ресурсов предприятия и реализация проектов. Это была захватывающая рабочая среда с длительными проектами, часто требующими как обширного мышления, так и интенсивного управления заинтересованными сторонами. Действительно, группа смогла внести значительный вклад в повышение производительности предприятия в IBM.

Эти разработки ясно показали мне, что, решая серьезные задачи, такие как победа над человеком-чемпионом в определенной игре, исследователям гораздо легче демонстрировать ощутимые достижения в области ИИ. Кроме того, я считаю, что те годы стали отправной точкой для гораздо более широкого интереса предприятий к ML/AI. Наконец, мой собственный опыт в BPS показал мне, что для реализации ML требуется гораздо больше, чем просто хорошие алгоритмы.

McKinsey & Company: Автоматизация и осмысление данных становится мейнстримом (2014 г.)

Придя в McKinsey в 2014 году из IBM, я продолжал наблюдать за тенденцией, которая началась в IBM с линий услуг Advanced Analytics и Watson, т. е. компаний, собирающих постоянно растущие объемы данных и пытаясь понять это. Примерно в это же время DeepMind от Google совершил следующий прорыв в области искусственного интеллекта, когда система AlphaGo обыграла Ли Седоля, одного из лучших игроков в го, в высококлассной серии из пяти матчей, которая транслировалась в прямом эфире.

За время моего пребывания в McKinsey я сделал ряд замечаний относительно меняющихся потребностей клиентов: обслуживания; б) McKinsey также приобрела британскую фирму по анализу данных QuantumBlack в 2015 году, когда в ней работало около 50 человек, но в последующие годы значительно расширила практику, наняв более 500 специалистов по данным, консультантов и инженеров по машинному обучению; и, наконец, в) McKinsey оснастила всех своих консультантов новыми инструментами визуализации данных и моделирования, такими как Tableau и Alteryx. Кроме того, были проведены учебные занятия, чтобы консультанты могли предоставить клиентам больше информации, используя данные, моделирование и визуализацию. В заключение: тот факт, что McKinsey, обслуживающая все типы крупных традиционных предприятий, в том числе с низкими расходами на ИТ (в отличие от IBM), оптимизировала свою внутреннюю организацию описанными выше способами, показал, что данные и аналитика стали основным направлением деятельности даже для традиционных предприятий. .

Я понял, что аналитика / наука о данных / машинное обучение (термины, которые часто используются взаимозаменяемо) все чаще становятся предметом интереса и для более традиционных компаний. Однако, несмотря на инструменты, которыми мы располагали, ценность, которую мы могли создать как консультанты, по-прежнему часто ограничивалась экспериментальными вариантами использования, учитывая временные ограничения и ограниченную готовность предприятия с точки зрения общего набора клиентов, которых мы обслуживали.

Mobvoi: вывод на рынок потребительского продукта с искусственным интеллектом (2017 г.)

Однако технологические достижения в области ИИ коснулись не только крупных корпораций. Он распространился на более мелкие предприятия, и в то же время новые стартапы раздвигали границы. Mobvoi — пионер искусственного интеллекта в Китае, поддерживаемый некоторыми ведущими венчурными фирмами и даже Google, который разработал передовые технологии в НЛП, преобразовании речи в текст и других. Mobvoi внедрила свою технологию в ряд потребительских аппаратных продуктов, таких как смарт-часы и умная домашняя колонка, конкурируя с Huawei, OPPO, Xiaomi и т. д. Однако, как оказалось, хотя изначально потребителям было интересно взаимодействовать с такими продукт, основанный на искусственном интеллекте, в долгосрочной перспективе трудно продавался в высококонкурентной среде, где не было четких вариантов использования и уникальных приложений/контента. Более того, планы по монетизации с помощью контента и сторонних приложений так и не были полностью реализованы. Фактически, то же самое позже произошло с Amazon, который, по-видимому, потерял миллиарды долларов со своим подразделением Alexa и, наконец, объявил о крупных сокращениях в 2021/2022 годах.

В то же время Mobvoi искала другие способы вывести технологию на рынок. Среди них — после инвестиций Volkswagen (VW) — разработка голосового помощника в салоне автомобиля совместно с VW. В конце концов, технология Movboi стала доступна в автомобилях серии Passat в Китае — и, наконец, последовало полное приобретение устройства (VW-Mobvoi) компанией VW (затем интегрированной в CARIAD).

Мой опыт работы в Mobvoi показал ограничения ИИ как основной функции продукта. Скорее, продукт должен плавно включать ИИ в более широкий набор ключевых отличий — по крайней мере, в потребительских продуктах — чтобы действительно убедить клиентов не только покупать, но и продолжать использовать его.

JD.com: Сверхспособности ИИ и персонализированный фид товаров (2018 г.)

От Mobvoi до JD.com, одной из крупнейших китайских интернет-компаний и игроков в области электронной коммерции, 2018 год также стал годом, когда Ли Кайфу выпустил свою книгу Сверхспособности ИИ, которая вызвала новые споры и интерес к ИИ. Независимо от этого, но в том же духе, несколько месяцев назад JD.com объявила о своей стратегии ABC : A для искусственного интеллекта, B для больших данных и C для Облака. После запуска этой стратегии были наняты три новых руководителя высшего звена и созданы крупные отделы. Однако в последующие годы стратегия лишь частично достигла своей цели — глубокого внедрения трех основных технологий в бизнес как внутри компании, так и за ее пределами.

В качестве технического менеджера по продукту в более традиционном для того времени отделе поиска и рекомендаций я участвовал в ликвидации последствий серьезного изменения продукта, которое компания только что провела: переход от курируемого выбора продуктов на главной странице приложения к бесконечному рекомендуемый фид продуктов, включенный в модель глубокого обучения. Это изменение было вдохновлено лентой контента, которую Douyin (TikTok) успешно запустил, а Alibaba позже скопировала в приложении Taobao. Это не только изменило взаимодействие с пользователем, но и вызвало изменение в поведении клиентов, поскольку после внесения изменений доля трафика, поступающего из рекомендаций, теперь увеличивается.

Важный вывод в то время заключался в том, что встраивание машинного обучения в существующие продукты может коренным образом изменить поведение пользователей — мы были свидетелями этого на JD.com, когда доля трафика сместилась с поиска (линейная модель) на рекомендации. Однако «черный ящик» глубокого обучения также создал для нас определенные проблемы внутри компании. В частности, бизнес-пользователи и бренды задавали вопросы о том, почему модель делает то, что она делает, и действительно трудно дать сложные ответы на вопрос, почему ИНС делает то, что она делает.

Picus Capital: Pre-AIGC, ChatGPT и далее (2021 г.)

В 2021 году я присоединился к Picus Capital в качестве партнера, чтобы инвестировать в стартапы на ранней стадии в регионе Большого Китая. Примерно в то же время DeepMind от Google добился нового прорыва в своей работе по предсказанию белковых структур с помощью AlphaFold 2 и впоследствии опубликовал статью Nature, OSS и базу данных с возможностью поиска. С тех пор мы инвестировали в ряд интересных компаний, занимающихся ML/AI и связанными с ними технологиями. Среди прочего, к ним относятся BodyPark, который представляет собой онлайн-сервис групповых тренировок с поддержкой ИИ; Натуробот, который позволяет предприятиям автоматизировать повторяющиеся процессы с использованием ИИ и других технологий; и недавно TensorChord, который создает инструменты для инженеров машинного обучения, чтобы повысить эффективность их работы.

С прошлого года, после запуска систем AIGC, таких как DALL-E и Stable Diffusion, мы наблюдаем всплеск числа предпринимателей, создающих приложения на основе этих моделей для конкретных областей, например, дизайна игр или создания контента для маркетинговых целей. Кроме того, безусловно, возобновился интерес к созданию набора инструментов / уровня инфраструктуры, чтобы обеспечить лучший опыт для инженеров ML (MLOPs). Однако с ChatGPT мы также наблюдаем наплыв предпринимателей, сосредоточенных на создании локальных версий больших языковых моделей (например, Ван Хуэйвэнь, один из соучредителей Meituan, и Ли Чжифэй, генеральный директор/соучредитель Mobvoi) и участие крупных технологических игроков, таких как Baidu. Создание локальной версии ChatGPT, очевидно, является гораздо более масштабным мероприятием, но вдохновляет видеть, что и давние предприниматели, и инвесторы теперь обладают уверенностью и видением, чтобы поддерживать такие крупные предпринимательские проекты.

Что я могу наблюдать в своей работе сейчас, так это то, что машинное обучение стало неотъемлемой частью многих цифровых потребительских и корпоративных продуктов. Следовательно, часто даже нет необходимости упоминать его как определяющую черту, поскольку он просто встроен в предложение. Он также показывает, как эти основные циклы бума помогают направлять ресурсы, таланты и деньги в пространство ИИ для достижения амбициозных целей.

Ключевые выводы и выводы

После более десяти лет, проведенных в различных компаниях и регионах, мне стало ясно, что ML/AI стали неотъемлемой частью нашей повседневной жизни, как в качестве потребителей, так и в корпоративном мире. На протяжении всего своего пути я узнал, что задачи создания и развертывания систем ML/AI сложны и многогранны и выходят далеко за рамки чисто технических вопросов. Многие выводы из моего личного путешествия за последнее десятилетие могут оказаться более универсальными, чем можно было бы подумать, и, несомненно, некоторые из этих выводов применимы к нынешнему буму ИИ, вызванному запуском Chat-GPT и других систем AIGC в прошлом году.

Урок 1. Определение ИИ меняется по мере усложнения систем

За последнее десятилетие наше понимание ИИ быстро изменилось. Когда Алан Тьюринг предложил тест Тьюринга в 1950 году, перфокарты были передовой технологией обработки данных. Сегодня мы поражены генеративной работой систем AIGC, таких как ChatGPT, Stable Diffusion и DALL-E, которые раздвигают границы того, что мы считаем ИИ (иногда это также называют эффектом ИИ). Поскольку машины продолжают учиться на данных, автоматизировать задачи, делать прогнозы и становиться генеративными агентами, мы, несомненно, продолжим переопределять ИИ и поднимать планку.

Урок 2. Развитие ИИ на самом деле не проходит через взлеты и падения

Ажиотаж вокруг ИИ часто вызван громкими прорывами, такими как Watson от IBM, AlphaGo и AlphaFold от DeepMind и ChatGPT от OpenAI. Однако за заголовками скрывается долгосрочный процесс создания более умных машин, обусловленный достижениями в области алгоритмов, сбора данных и аппаратного обеспечения. Хотя значительные прорывы могут происходить волнообразно, важно осознавать постоянный прогресс, который шаг за шагом продвигает возможности ИИ вперед.

Урок 3. ИИ становится все более доступным для всех

По мере распространения ИИ доступ к технологии машинного обучения становится проще. Одним из ключевых факторов является растущая доступность МООК и программ онлайн-обучения, которые облегчают людям приобретение необходимых навыков. Кроме того, платформы и алгоритмы с открытым исходным кодом, поддерживаемые большими сообществами, упростили разработку и развертывание моделей машинного обучения. Кроме того, большие коллекции размеченных данных легко доступны для целей обучения. Наконец, оборудование для разработки, обучения и обслуживания моделей AI/ML (например, графические процессоры, FPGA и ASIC) может быть доступно через облачные вычисления общим способом, поэтому физическое владение оборудованием больше не требуется.

Урок 4. ИИ — это функция, а не сам продукт

Когда речь идет о сценариях B2C и B2B, наибольшее значение имеет пользовательский опыт, обеспечиваемый продуктом или услугой, а не технология, используемая для их создания. Пользователь может не различать обработку данных / автоматизацию / аналитику / машинное обучение / сгенерированный контент или даже людей в серверной части, выполняющих определенные задачи как таковые. Хотя продукты с поддержкой ИИ могут первоначально привлекать пользователей из любопытства, они будут продолжать использовать их только в том случае, если они обеспечивают плавную интеграцию технологии с другими функциями. На самом деле, реклама того, что продукт ориентирован на ИИ, может быть не лучшим подходом. В духе этого обучения приятно видеть, как Microsoft и OpenAI быстро интегрировали ChatGPT в Bing.

Урок 5. Использование преждевременного стека ограничивает ценность, извлекаемую из проектов ИИ

Чтобы по-настоящему использовать возможности ИИ, компаниям необходимо создавать специализированные системы на основе передового стека, глубоко интегрированного с их бизнес-процессами и инфраструктурой. Критически важными предпосылками являются такие компоненты, как оборудование, инфраструктура данных, кадры и корпоративные процессы, включающие информацию из систем машинного обучения. Напротив, построение поверх преждевременного стека без правильной инфраструктуры ограничивает ценность, извлекаемую из ИИ. В результате предприятиям требуется стратегический подход к внедрению систем ИИ в их внутренние процессы и внешние продукты, который учитывает долгосрочные цели организации и создает дорожную карту для достижения успеха.

Урок 6. ИИ может изменить способ использования продукта

Одним из наиболее значительных преимуществ использования систем на основе машинного обучения является их способность выполнять задачи более эффективно и результативно, чем люди. Однако преобразующая сила ИИ выходит за рамки этого. Внедряя алгоритмы, основанные на машинном обучении, компании могут коренным образом изменить то, как используются их продукты. Например, рекомендательная система на основе машинного обучения может резко изменить и увеличить трафик и продажи веб-сайта. Важно понимать влияние таких изменений и внедрять системы машинного обучения шаг за шагом, внимательно отслеживая ключевые показатели эффективности, чтобы убедиться, что они соответствуют бизнес-целям.

Урок 7. Проблема объяснимости реальна

ИНС, такие как ChatGPT, способны изучать и уточнять параметры своей модели на основе огромных объемов входных данных, чтобы давать очень сложные ответы на запросы. Тем не менее, эти ответы иногда могут быть неожиданными и труднообъяснимыми, поскольку источники не могут быть идентифицированы напрямую, что создает проблемы как для сценариев B2C, так и для сценариев B2B. Пока эта проблема (часто называемая проблемой объяснимости) не будет решена, пользователи могут сомневаться в целесообразности внедрения ИИ в критически важных приложениях.

В свете этих знаний я чрезвычайно взволнован тем, что нынешнее поколение основателей создает в постоянно развивающемся пространстве ML/AI и связанных областях, таких как данные, аналитика и автоматизация. Заглядывая в будущее, мы в Picus Capital с особым энтузиазмом относимся к новым проектам ML/AI, которые: а) используют такие системы, как ChatGPT и Stable Diffusion, для разработки глубоких предметно-ориентированных реализаций («прикладной уровень»); б) создавать уровни оркестровки для приложений, которые используют несколько генеративных моделей для настраиваемых реализаций и обслуживания («LLMOps», другие); или c) создавать инструменты и наборы инструментов, которые позволяют инженерам оптимизировать разработку и развертывание своих систем машинного обучения, снижая требования к навыкам и затраты («MLOps & infra»).

О себе: Я являюсь партнером Picus Capital, где я возглавляю Китай. Ранее я был директором JD.com, одной из крупнейших китайских компаний электронной коммерции. До этого я работал в Mobvoi, китайской компании по искусственному интеллекту, McKinsey & Company и IBM. Мнения в этой статье отражают только мои собственные взгляды. Свяжитесь с нами, если вы являетесь предпринимателем, отраслевым специалистом или коллегой-инвестором.