Итак, это был март 2019 года, когда я по-настоящему натолкнулся на «ИИ». Я слышал об этом повсюду от друзей, в новостных статьях и в социальных сетях, но никогда не пытался исследовать глубину этого. В конце концов, я решил так поступить, и теперь, похоже, я сильно зависим от этого. Не к «ИИ», а к внутреннему миру, который использует математику, да, я думаю, я так это скажу.

Машинное обучение

Первое, что я сделал, когда узнал о предпосылках ИИ, - это улучшил свою математику, чтобы довести ее до необходимого уровня. Что я сделал? Я взял какой-то pdf-файл по линейной алгебре и полностью его пробежал. Затем я взял книгу вероятностей со времен учебы в колледже и пробежался по ней, и тогда я был уверен, что смогу заняться ИИ, так как мои вычисления были очень сильными, и я также улучшил свои остальные математические навыки. Но я ошибался в уверенности в своих математических способностях. Всякий раз, когда я сталкивался с новой техникой обучения или новым методом оптимизации, я чувствовал определенные лазейки в моем понимании математики, будь то используемые обозначения, подход к решаемой проблеме или иногда то, как ее следует интерпретировать, по мнению автора. . Были дни, когда я проходил через темы, полностью понимая математическую часть, но были также дни, когда я либо отказывался от определенной темы, например, от векторных машин поддержки, потому что казалось, что математический подход просто прошел мимо меня, либо мне приходилось искать свою слабость в определенная математическая концепция для лучшего понимания темы, как в случае выпуклых и невыпуклых функций потерь. Основная проблема, возникающая при работе с уравнениями, заключается в том, что когда мы решали их на лекциях по математике или статистике, мы в основном просто помещали значения в формулы, а затем получали требуемые ответы. Но когда мы используем эти формулы в AI, их решение является лишь частью процесса, но что становится наиболее важным, так это то, что мы понимаем, как формула работает в конкретном алгоритме или почему конкретная формула дает преимущество при решении проблемы с использованием алгоритм. В заключение я хотел бы сказать, что понимание математики, связанной с алгоритмами, является важной частью при инвестировании в изучение ИИ.

Оптимизация, выпуклые функции, подгонка, смещение и дисперсия

Теперь давайте поговорим о слоне в комнате, о машинном обучении, над которым работает ИИ. Мы просто продолжаем говорить, что ИИ изменит это, а ИИ изменит это, но мы не рассматриваем то, что лежит в основе всего этого, а именно машинное обучение. Машинное обучение, или что это такое, «использование методов научить компьютер выполнять определенную задачу после его обучения» - это то, чем сейчас занимаются все. Искусственный интеллект - это просто классное слово, чтобы сделать концепцию интересной. Поэтому, когда я коснулся машинного обучения, я сначала сослался на курсы Эндрю Нга, но математика там была слишком утомительной.

Как мы можем видеть из приведенного выше фрагмента, когда я наткнулся на видео с этим уравнением, я даже не знал, что такое функция стоимости, представленная буквой J на ​​фотографии выше. Когда я изучал нейронные сети в колледже, я просто знал, что есть функция ошибок, на которой мы выполняли обратное распространение и обновляли веса в итерации. Я не знал, что функция ошибок - это функция стоимости, которую нужно было оптимизировать. Из-за того, что у меня были такие слабые концепции, я покинул Coursera и начал с нуля. Сначала я познакомился с терминами, которые появлялись повсюду в машинном обучении, например, контролируемое, неконтролируемое обучение и обучение с подкреплением, оптимизация, функции стоимости, градиентный спуск, теорема Байеса, нейронные сети, смещение и дисперсия, выбор и разделение набора данных, классификация и регрессия, эвристика и мета. эвристический подход… ..и еще много терминов здесь и там, и, наконец, я вернулся на Coursera, хе-хе…. просто шутя, я пришел к Medium, чтобы понять контролируемые и неконтролируемые алгоритмы, и закончил их от регрессии (линейной, логистической), SVM, деревьев решений и случайных лесов… ..в контролируемой области до анализа основных компонентов и K- Означает кластеризацию… в неконтролируемом домене.

Я не касался обучения с подкреплением, потому что считаю, что это относится к темным искусствам, и подумал о том, чтобы вернуться к нему позже.

Глубокое обучение (Святой Грааль ИИ)

Помимо алгоритмов машинного обучения, я также изучал интересные темы, связанные с машинным обучением, такие как методы оптимизации, которые используются в разных случаях, а также читал о выпуклых функциях, которые являются распространенной функцией потерь в машинном обучении.

Кроме того, я очень глубоко изучил концепцию подгонки (переобучения и неполной подгонки), которая является серьезной проблемой, с которой мы сталкиваемся при работе с наборами данных в моделях машинного обучения. Наряду со всем этим я также исследовал эффекты смещения и дисперсии в наборах данных и их связь с проблемой подгонки. Черт возьми, клянусь Богом, эти два плохих парня (biasbuoi и variancedenscence) действительно создают беспорядок в наборах данных и не могут хорошо ладить.

Обучение с подкреплением (Темные искусства)

Обучение с подкреплением - это область ИИ, которая, как мне кажется, очень пугающая. RL похожа на шахматы, которые величественны и загадочны. Это дает мне ощущение, что либо это приведет к чему-то революционному в искусственном интеллекте, либо это останется всего лишь теоретической концепцией. В любом случае, что касается меня, я использовал «Обучение с подкреплением:
Введение
» Саттона и Барто для чтения RL. Я не понимал, но после завершения книги я узнал, что книга довольно продвинута в RL, и я думаю, что мой RL случайно стал сильной стороной. Так приятно осваивать темные искусства. Итак, вкратце, что я узнал о RL, так это то, что жадность - не всегда лучший ответ. RL - это состояния и вознаграждения, и, хотя кажется, что он решает некоторые стратегически сложные вопросы, монотонная концепция, лежащая в его основе, не позволяет RL расширяться. В любом случае изучать RL - это весело, потому что термины звучат так, будто я скоро стану элитой (Монте-Карло, Политики и Актеры-Критики).

Мои текущие начинания в области искусственного интеллекта

В настоящее время я занимаюсь изучением модели ИИ черного ящика, которая связана с моделями глубокого обучения. Модель черного ящика в основном основана на идее, что, поскольку исследователи все еще не могут полностью проанализировать, как работает DNN, по сути, DNN визуализируется как компактный черный ящик, который работает с входными данными и выдает нам выходные данные. Нам не нужно заботиться о том, что происходит внутри. Я предполагаю, что эта концепция черного ящика хороша для представления DL в СМИ и для объяснения простых концепций, но когда дело доходит до академических кругов, я думаю, что черный ящик не следует поощрять, потому что он ограничивает интерес к изучению внутренней работы DL, который поразил исследователей. Я рекомендую всем, кто интересуется моделью черного ящика, они могут прочитать эту статью под названием «Метафора« черный ящик »в машинном обучении», чтобы лучше понять тему.

Заключительные примечания

Всхлипывает… истерически плачет… Итак, мы наконец дошли до конца. Конец статьи, очевидно, потому что мое путешествие по машинному обучению определенно не закончится. Когда я натолкнулся на эту тему, я даже не ожидал, что меня так зацепят за нее. Когда я начал копаться в искусственном интеллекте, я подумал, что, возможно, мне будет интересно в течение месяца или около того, но я думаю, это становится все более и более захватывающим, и, кажется, нет конца. Я не знаю, что меня серьезно зацепляет. Это математическая часть или потому, что я считаю, что не знаю об аспектах такими, какие они есть на самом деле? Не знаю, что меня так интересует. Думаю, что бы это ни было, мне не следует так сильно на этом акцентировать внимание, потому что мне действительно нравится это путешествие, и я каждый день с энтузиазмом читаю новую статью, исследовательскую работу или подтему в этой области. В один прекрасный день я пытаюсь понять Эндрю Нг, а в другой раз глубоко погрузюсь в новую модель глубокого обучения… и это продолжается, продолжается и продолжается.

использованная литература

Хотя я очень увлекался изучением этого предмета, мой подход к его изучению неправильный. У всех тем, которые я изучил, есть еще много других вещей, о которых я не знаю. Я чувствую, что мой подход мог бы быть намного лучше и терпеливее, чем то, что было раньше. Однако, когда я рассматриваю свою отстраненность от руководства, которое доступно для правильного изучения этого предмета, я думаю, что я прошел долгий путь. В любом случае я написал эту статью, потому что хотел поделиться своим подходом к изучению этой темы. Я надеюсь, что мой подход может так или иначе помочь учащимся в расширении их знаний.

Я завершаю эту статью, наконец, сказав, что лучшим созданием в области ИИ был перцептрон Фрэнка Розенблатта, и вы не можете передумать. Парень был абсолютной легендой.

Прощай и приятного обучения !!

Ниже приведен упомянутый мною материал по различным частям ИИ, упомянутым в статье.

Анализ случайных сигналов (RSA) проф. Kumbhojkar для таких тем, как теорема Байеса, распределения вероятностей и математическое ожидание переменной. (Математика)

Мой путь к машинному обучению

  1. Линейная алгебра для машинного обучения от Саргура Н. Шрихари для необходимых условий линейной алгебры, таких как собственные значения и векторы, SVD, линейная зависимость и независимость, векторы, скаляры, матрицы, тензоры и т. д. (Maths )
  2. Статьи на Medium о Машинном обучении для развития знаний об алгоритмах машинного обучения (контролируемого и неконтролируемого). Ниже приведены некоторые ссылки среднего, которые, на мой взгляд, очень хороши для понимания определенных алгоритмов:
    I) Пошаговое объяснение анализа основных компонентов от «Zakaria Jaadi».
    II) Алгоритмы машинного обучения в терминологии непрофессионала, части 1 и 2 Автор «Одри Лорберфельд».
    III) Деревья принятия решений в машинном обучении «Прашант Гупта» .
    IV) Машина опорных векторов - Введение в алгоритмы машинного обучения от «Рохита Ганди» (Машинное обучение).
  3. Практическое машинное обучение с помощью Scikit-Learn и TensorFlow: концепции, инструменты и методы создания интеллектуальных систем от Орелиен Жерон для практического понимания машинного обучения. (Машинное обучение)
  4. Convex Optimization by Stephen Boyd для теории оптимизации, особенно для выпуклых функций, которые очень распространены в машинном обучении. (Оптимизация, выпуклые функции, подгонка, смещение и дисперсия)
  5. Понимание компромисса между отклонением и отклонением от «Симы Сингх». (Оптимизация, выпуклые функции, подгонка, смещение и дисперсия)
  6. Глубокое обучение Ян Лекун, Йошуа Бенжио и Джеффри Хинтон. (Глубокое обучение)
  7. Прикладной искусственный интеллект с DeepLearning от IBM на Coursera для моделей и фреймворков DL (Deep Learning)
  8. Глубокое обучение, проведенное Яном Гудфеллоу, Йошуа Бенджио, Аароном Курвиллем за хорошее введение в DL (Глубокое обучение).
  9. Обучение с подкреплением: введение Ричарда С. Саттона и Эндрю Дж. Барто о теоретическом освоении концепций RL (Обучение с подкреплением)
  10. Полный словарь по обучению с подкреплением, автор - «Шакед Зихлински». (Обучение с подкреплением)
  11. Метафора черного ящика в машинном обучении от Dallas Card. (Мои нынешние предприятия в области искусственного интеллекта)
  12. Когда я покончил с машинным обучением (слегка), я наконец подошел к самой желанной теме сегодняшнего дня, Юсс глубокому обучению . Самый влиятельный человек, который сегодня находится в DL, доктор Йошуа Бенжио, оказал на меня большое влияние, когда я прочитал о его пути к величию. Он поддерживал эту область в течение стольких лет и до сих пор поддерживает ее с точки зрения академических кругов, хотя ему предлагали много высших должностей в других местах. Итак, я начал глубокое обучение с первой попытки пройти через статью доктора Бенжио "Глубокое обучение ", которую он написал в соавторстве с Дж. Хинтоном и Й. ЛеКуном. Этот документ очень краток, когда речь идет об аспектах подхода глубокого обучения и моделей глубокого обучения. Документ дает хорошее представление о предметной области глубокого обучения и понятен при поверхностных знаниях, связанных с ML и DL. Закончив работу с докладом, я узнал больше о DL от Coursera. Сначала я не пошел к мистеру Нгу, потому что знал, что буду чувствовать себя никчемным, увидев его сложные математические условности. Вместо этого я записался на курс упрощенной теории, который дает введение в DL с практической точки зрения, то есть введение в основы DL. Курс Coursera, на который я записался, назывался Прикладной искусственный интеллект с глубоким обучением, предлагаемый IBM. Курс начинается с теоретического введения в модели DL, такие как LSTM, рекуррентные нейронные сети, сверточные нейронные сети и автоэнкодеры. После того, как модели были объяснены, курс также предлагает понимание структур DL, таких как Tensorflow, Keras, Pytorch, ApacheSystemML и DeepLearning4j. Наконец, курс заканчивается обсуждением приложений DL, таких как обработка естественного языка, обнаружение аномалий, классификация изображений и прогнозирование временных рядов. Курс действительно помог мне легко получить краткое изложение DL, и теперь всякий раз, когда я заглядываю в исследовательские работы в DL или читаю документы, связанные с DL, я чувствую себя достаточно знакомым с материалом, представленным с помощью этих знаний курса. Таким образом, я могу сказать, что этот курс - хорошее введение для новичков в DL, после чего мы можем легко изучить DL без проблем. Единственное, что меня злило в связи с этим курсом, было то, что он не дал толчка для могущественных General Adversarial Networks. GAN очень популярны сейчас в DL, и он также стал моим любимым DNN из-за того, что он работает с использованием генератора и дискриминатора, конкурирующих друг с другом.