Эта статья перепечатана из интервью с главным редактором @Analyticsindiam «https://analyticsindiamag.com/in-conversation-with-ai-scientist-dr-ganapathi-pulipaka-on-gallium-nitride-processors-for-future- исследование космического пространства/"

AIM берет интервью у доктора Ганапати Пулипаки о процессорах на основе нитрида галлия для будущих космических исследований, глубоком поиске искусственного интеллекта, алгоритмах глубокого обучения, обучении с подкреплением и высокопроизводительных вычислениях.

Процессоры G на основе нитрида аллия (GaN) призваны обеспечить основу для полупроводниковой промышленности следующего поколения, которая произведет революцию в освоении космоса. Соединение нитрида галлия использовалось в создании светоизлучающих диодов (LED), и оно очень эффективно проводит электроны в 1000 раз лучше, чем кремниевый материал. В настоящее время они исследуются для создания высокотемпературных микропроцессоров для космических приложений.

Интегральные схемы с питанием от кремния начинают работать со сбоями, как только они достигают 300 градусов по Цельсию. Однако материал GaN обладает высокой химической стабильностью в условиях высокой радиации и температуры. До сих пор ведутся многочисленные исследования в области разработки транзисторов металл-оксид-полупроводник. Транзисторы GaN и архитектура кристаллов GaN намного сложнее, чем кремниевые чипы. На самом деле НАСА ведет исследования по созданию GaN-процессора, способного эффективно работать при температуре выше 500 градусов по Цельсию. Процессоры GaN могут выдерживать различные космические миссии в высокотемпературных планетах, таких как Венера, Меркурий, Юпитер, Сатурн, Уран или Нептун.

Журнал Analytics India Magazine взял интервью у доктора Ганапати Пулипаки, чтобы понять некоторые аспекты машинного обучения, глубокого обучения и математики, необходимые для практиков. Опытный инженер данных и архитектор данных, ставший специалистом по данным, доктор Пулипака много постирует о тенденциях в области науки о данных, информируя аудиторию о самой последней информации. Он подробно рассмотрел несколько тем, связанных с OpenAI, глубокими нейронными сетями и фрактальной геометрией, и это лишь некоторые из них. На данный момент доктор Пулипака написал две книги, и в октябре будет опубликована новая книга.

«Пока у нас не будет бесконечной вычислительной мощности машин, мы не сможем производить нужные нам результаты» — GP

Отредактированный отрывок —

AIM: В нескольких интервью и в журналах вы упомянули, что самостоятельно собрали свой первый компьютер в 16 лет, и назвали это точкой отсчета вашей страсти к технологиям. Вы всегда планировали сделать это, чтобы иметь возможность программировать и создавать аппаратные и программные приложения? Кроме того, почему вы решили собрать свой компьютер?

ГП: Ну, я не планировал делать это раньше. Это было то, что мой мозг сказал мне сделать, и я исследовал перспективу создания машины. Итог и результаты были потрясающими.

В 16 лет у многих были ноутбуки, но не у меня. Ноутбуки в те времена были немного дорогими. Самый простой способ — собрать свой собственный компьютер. Если вы сможете собрать все компоненты, вы сможете собрать компьютер, поэтому я и начал его собирать.

В современном мире еще сложнее обновить оперативную память на Macbook Air, Macbook Pro или iMac, поскольку оперативная память припаяна к материнской плате. Хотя некоторые инженеры-электронщики успешно выполнили такие обновления, это было бы слишком рискованно и привело бы к аннулированию гарантии, поскольку принудительное удаление исходного припаянного оборудования с материнской платы может вызвать проблемы совместимости с операционной системой. Получить другую батарею или SSD было бы гораздо проще.

Я также очень интересовался математикой и статистикой, что важно для решения уравнений науки о данных, таких как обыкновенные дифференциальные уравнения и уравнения с частными производными, линейной алгебры и задач прогнозирования. Например, многие компании хотят построить траекторию работы по разным требованиям или по разным производственным площадкам. Есть много исторических данных, которые они могут собрать и построить эти модели прогнозирования временных рядов. Я реализовал еще несколько проектов для этих компаний, о которых расскажу в другом интервью.

В 1996 году я работал фрилансером в другой компании, где построил полную систему прогнозирования временных рядов и запустил ее в жизнь. Создание этой системы заставило меня больше интересоваться математическими моделями и статистическими моделями. Кроме того, мне было интересно понять, как работать со всей гаммой ландшафтов, инфраструктуры и архитектур и как интегрировать все эти системы.

AIM: Не могли бы вы рассказать о других проектах, над которыми вы работали до сих пор?

Я занимаюсь исследованиями более десяти лет. Именно тогда я больше заинтересовался глубоким обучением и машинным обучением. До этого я занимался проектированием данных, программированием, архитектурой данных в базах данных SQL, NoSQL, наукой о данных, математикой и т. д.

Я также работал со многими клиентами, например, над интеграцией IoT в аэрокосмической отрасли, где важно знать или прогнозировать, когда что-то выйдет из строя, например, при осмотре моста, чтобы предотвратить обрушение. В самолете вы не знаете, когда панель сломается. Здесь есть акустическая эмиссия, и если вы измерите акустическую эмиссию с помощью фрактальной геометрии, это может точно сказать нам, когда происходит изменение между предыдущим состоянием этой панели и текущим состоянием. Существуют различные факторы, которые можно рассчитать и предоставить различные параметры. Это был еще один интересный проект для работы.

ЦЕЛЬ: Давайте немного поговорим о ваших исследовательских проектах.

Что касается исследовательской стороны, я реализовал практически все алгоритмы. И есть книга, которая выходит вместе с моим исследованием — «Большой фонд для машиностроения: отличительные черты великого запредельного в TensorFlow, R, PyTorch и Python», где я освещаю все, что я поднял и что я думал, будет полезно для других людей в этой области. Он включает в себя Python, TensorFlow, все алгоритмы машинного обучения в Python, а также множество статистических прогнозов и других вещей, созданных с использованием Python.

Обучение с подкреплением также является очень интересной областью, потому что многие люди увлекаются искусственным общим интеллектом (AGI). Обучение с подкреплением в первую очередь меняет парадигму контролируемого, неконтролируемого и полуконтролируемого машинного обучения/глубокого обучения. Это приводит нас к совершенно иному подходу, чем когда-то в Bellman.

Обычно я включаю много программ на естественном языке, используя NLTK, Gensim и ряд других библиотек Python. Я думаю, что в будущем у НЛП будет значительный прогресс, что, возможно, будет GPT-4. Вся сингулярность GPT-4 зависит от недавнего исследования AGI, основанного на 999 исследователях ИИ, где все они утверждают, что к 2060 году можно достичь сингулярности.

AIM: Можете ли вы выделить некоторые ключевые аспекты, упомянутые в вашей будущей книге?

Инструментарий естественного языка (NLTK) — это прежде всего набор нескольких библиотек для обработки текста и обработки естественного языка в Python. Университет Пенсильвании разработал эту библиотеку, которая позволяет пользователю выполнять несколько операций НЛП, таких как разделение текстов и предложений на несколько абзацев, определение того, является ли утверждение вопросом или ответом, определение части речи слов и разделение нескольких слов. слова. Вы можете найти множество таких реализаций НЛП в моей будущей книге о Python.

Я начинаю с принципиально очень простых алгоритмов, таких как линейная и логистическая регрессия, чтобы читатели могли понять концепции. Затем они могут перейти к продвинутым концепциям, таким как обучение с подкреплением.

Мне пришла в голову эта идея, когда я попытался провести несколько обучающих видеоуроков по обучению с подкреплением с помощью программ книжного издательства Packt и QuickStart. Хотя мне доставляли образовательные программы по машинному обучению, облачным вычислениям, математике и статистике, у некоторых людей были проблемы, потому что они сразу приступили к обучению с подкреплением, не зная, что такое машинное обучение. Итак, именно тогда я начал знакомить с основами, прежде чем перейти к продвинутым концепциям. В книге я исследую некоторые части истории, например, как она началась со всеми элементами, как она развивалась и где мы находимся сейчас.

Выходящая книга на 80% представляет собой не что иное, как мою диссертацию по глубокому обучению в высокопроизводительных вычислительных средах, а также некоторые другие работы, которые я выполнял в течение многих лет.

AIM: Расскажите, пожалуйста, о ваших следующих проектах в области высокопроизводительных вычислений?

Мои следующие проекты будут посвящены высокопроизводительным вычислениям (HPC), потому что они будут полностью отличаться от моих предыдущих диссертаций по инженерии данных, анализу больших данных и вычислениям в памяти. Например, у нас есть многопроцессорная обработка для MPI (интерфейс передачи сообщений — стандарт библиотеки с открытым исходным кодом для распараллеливания распределенной памяти), доступная на C. Нам также необходимо разработать возможности параллельной обработки для HPC. Python и Java имеют свои собственные неофициальные привязки для MPI, но большинство научно-технических лабораторий используют его в C. Технология MPI сталкивается с задержками при обработке миллионов задач посредством коллективных вызовов, сопровождающихся сбоями операционной системы и ошибками из-за к перегрузкам памяти масштабируемости. MPI реализуются в основном в виде библиотек посредством вычислений с распределенной памятью для высокопроизводительных вычислений.

Вот где вам нужно разбить блоки — так же, как мы используем Apache Hadoop с методами отображения, перемешивания и сокращения — используйте кластеры облачных вычислений, чтобы разбить данные и обработать кучу математических уравнений, собрать данные обратно, прежде чем вы получите обратно в свой проект. MapReduce — это метод, принятый Apache Hadoop для обработки различных высокопроизводительных вычислительных приложений, в которых большие данные размером в петабайты находятся на узлах вычислительных машин. Каждая выделенная единица хранения в кластере вычислительных узлов выполняет Hadoop, YARN с интенсивным вводом-выводом, интенсивным использованием ЦП, интенсивным использованием графического процессора.

Исследования по КВД в турбулентности ядерной плазмы уже говорят о транспортировке ядерного оружия. На самом деле Sandia National Laboratories разрабатывает для него знаковые алгоритмы высокопроизводительных вычислений. Это все алгоритмы параллельной обработки, и они будут интенсивными, но именно такими я вижу себя в будущем.

«Мозг управляет всем одновременно, так что это совершенно другой тип механизма. Если мы сможем понять это, мы придумаем более инновационные модели».

использованная литература

Чен, Р. Т., Рубанова, Ю., Бетанкур, Дж., и Дювено, Д. (2019). Нейронные обыкновенные дифференциальные уравнения. Получено с https://arxiv.org/pdf/1806.07366.pdf

Коллинз, доктор медицины, доктор философии, Ф.С. и Финк, Л. (1995). Проект генома человека. NCBI — Национальная медицинская библиотека США, Национальные институты здравоохранения, Национальные институты здоровья, 19(3)(), 190–195. Получено с https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6875757/

Дильмегани, К. (2017). Достигнет ли ИИ сингулярности к 2060 году? 995 экспертов? мнения об АГИ. Получено с https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/

ДК, П. (2015). Высокопроизводительное глубокое обучение (HiDL) — Университет штата Огайо. Получено с http://hidl.cse.ohio-state.edu

Ду, К., и Ли, X. (2013, 13 октября). Ли З., Шен Х., Дентон Дж. и Лигон В. (2016 г., 8 декабря 2016 г.). Сравнение производительности приложений на платформах Hadoop на основе HPC с локальным хранилищем и выделенным хранилищем. Международная конференция IEEE по большим данным (Big Data). http://dx.doi.org/10.1109/BigData.2016.7840609. Материалы IEEE 3-й Международной конференции по компьютерным наукам и сетевым технологиям, 2013 г.. http://dx.doi.org/10.1109/ICCSNT.2013.6967143

Хао, К. (2019). Вычислительная мощность, необходимая для обучения ИИ, теперь растет в семь раз быстрее, чем когда-либо прежде. Получено с «https://www.technologyreview.com/2019/11/11/132004/the-computing-power-needed-to-train-ai-is-now-rising-seven-time-faster-than-ever -до/"

Ли З., Шен Х., Дентон Дж. и Лигон В. (2016 г., 8 декабря 2016 г.). Сравнение производительности приложений на платформах Hadoop на основе HPC с локальным хранилищем и выделенным хранилищем. Международная конференция IEEE по большим данным (Big Data). http://dx.doi.org/10.1109/BigData.2016.7840609

Новаковский, Т. (2017). Процессор из нитрида галлия — технология нового поколения для освоения космоса. физ.орган. Получено с https://phys.org/news/2017-12-gallium-nitride-processornext-generation-technology-space.html

Пуллман, Г. (2021). Библия ИИ: гигантская кладка на великом фундаменте машинного обучения. Ридерз Дайджест. Получено с https://www.readersdigest.co.uk/inspire/down-to-business/the-ai-bible-a-gigantic-masonry-on-a-greater-foundation-of-machine-learning-engineering.