Я инженер по обработке и анализу данных, и часть моей работы связана с обучением машин выполнению различных задач, подобных человеческим. Это относится к ветви искусственного интеллекта (ИИ), называемой машинным обучением.

Машинное обучение имеет дело с представлением разнообразной информации о задаче машине и заставлением ее изучать все шаблоны из нее. Мы определяем успех обучения, измеряя способность машины правильно предсказывать результат данных, которые она никогда раньше не видела. Это называется точностью модели.

Я обучал машины обнаруживать утечки газа, обнаруживать аномалии, такие как огонь и дым, и многое другое с помощью видеозаписи с камер видеонаблюдения в реальном времени. Они не точны на 100% (система, которую я обучил, достигла точности около 96%), это означает, что иногда они выдают неверные прогнозы, но все равно отлично справляются с выявлением аномалий.

Означает ли это, что теперь он может думать как люди при выявлении аномалий?

Это вопрос, который я хочу затронуть.

Эти системы ИИ мастерски обобщают заданный набор информации и извлекают закономерности, которые люди не могут увидеть или понять. Это возможно благодаря сложному набору алгоритмов, называемых нейронными сетями, и доступности почти неограниченных вычислительных мощностей для их запуска. Результатом обучения являются специализированные модели, способные достичь уровня точности, близкого к человеческому.

Хотя для некоторых это может показаться пугающим, вы должны понимать, что это не настоящий интеллект, который развивает машина. Это просто представление того, что было представлено ему в процессе обучения. Несомненно, есть место для надежности, но это далеко не то, чего люди могут достичь в отношении диверсифицированного обучения.

Например, если я обучаю свою систему изображениям огня и дыма и происходит утечка газа, система не обнаружит, что это аномалия. Даже не зная заранее обо всех аномалиях, мы, люди, можем воспринимать их как некую угрозу и принимать необходимые меры. Однако эти машины НЕ МОГУТ.

На сегодняшний день искусственный интеллект состоит из тысяч машин, каждая из которых пытается выполнить определенную задачу. Будь то Alpha Go от Google или беспилотные автомобили Tesla, все они — машины, способные быть лучше людей, но только для этой конкретной задачи.

Мы далеки от того, чтобы иметь единую машину, способную думать или подражать шаблонам мышления. ИИ как термин прижился только благодаря компаниям, которые используют его для привлечения клиентов. Прямо сейчас ИИ используется в качестве маркетингового термина точно так же, как в прошлом использовались большие данные и облачные вычисления.

Воспроизведение паттернов человеческого мышления возможно, но мы находимся в нескольких световых годах от этого. Мы можем обсудить это подробнее в моей следующей статье. Итак, следите за обновлениями!

Если вам интересно узнать технические подробности о машинном обучении, то я рекомендую вам больше узнать об этом в статье Что такое машинное обучение? Упрощенное понимание