Трудная реальность выявления моделей машинного обучения

Нет сомнений в том, что ИИ - или то, что люди имеют в виду, когда они безрассудно используют такие слова, как машинное обучение, - будет только набирать популярность как в ближайшем, так и в долгосрочном будущем. Больше областей занимает интеллектуальное программное обеспечение, которое сначала автоматизирует базовые (медленное и утомительное чтение) операции, а затем полностью берет на себя предыдущий подход и реализует новый навык, которому машина научилась, просто наблюдая за данными обучения.

Это удивительные времена для исследователей глубокого обучения, которые все чаще и чаще берут на себя ответственность за создание искусственного интеллекта, который считывает рентгеновские лучи лучше, чем врачи, когда это явно была совокупность операций линейной алгебры.

На фоне безумного энтузиазма в отношении искусственного интеллекта - или того, что некоторые предпочитают называть машинным обучением - необходимо незамедлительно решить несколько проблем. Я кратко коснусь некоторых из них, которые остро нуждаются во вмешательстве организаций (обычно владельцев данных) и сообщества специалистов по данным.

ИИ без идентичности

Если правда, что ИИ скоро автоматизирует критически важные части бизнеса (а мы все в этом уверены), то ИИ должен иметь личность, как у врача, профессора, банкира или офисного служащего.

Идентификация ИИ позволяет пользователям ссылаться на него однозначно, что делает его недействительным, как только ИИ начинает противное поведение. В конце концов, известно, что ИИ (или модели машинного обучения) много раз давали сбой.

По сути, ошибки машинного обучения могут быть вызваны несколькими факторами, такими как низкое качество данных, плохое обучение (или чрезмерная подгонка данных). Они также могут быть подделаны специалистами по данным со злым умыслом.
Нам все еще предстоит столкнуться с эпохой «атак на машинное обучение ради удовольствия и выгоды», и мы определенно не готовы к этому.

Репутация владельцев данных и ученых

Еще одна проблема, которую необходимо решить в ближайшем будущем, - это репутация владельцев данных и специалистов по обработке данных.

Непослушный ИИ, даже если он был идентифицирован, не может и не должен быть отправлен в суд или перед сенаторами Палаты представителей и Сенатом для дачи свидетельских показаний, почему несколько тысяч искусственных нейроны решили раскрыть личные данные 100 миллионов пользователей некоторым брокерам данных, а затем активировали микрофоны своих мобильных устройств в самые интимные моменты их жизни.
И давайте посмотрим правде в глаза, можем ли мы действительно ожидать, что политики преодолеют весь этот технический жаргон?

Репутация данных

Третий вопрос касается репутации данных.
В этом направлении уже были предприняты определенные усилия. Излишне говорить, что любая модель машинного обучения настолько хороша, насколько хороши данные, на которых она была обучена. Мусор на входе и выходе - наиболее краткое объяснение того, насколько важны данные для машинного обучения.

Система репутации данных нуждается в двойной системе: она может доказать, насколько хорош или плох ИИ (или модель машинного обучения); это позволяет стимулировать владельцев данных всякий раз, когда их данные использовались для создания этого ИИ.

В fitchain.io мы разрабатываем строительные блоки для решения вышеупомянутых проблем.
Fitchain - это основанная на блокчейне фабрика машинного обучения, которая позволяет специалистам по данным обучать модели, отслеживая их с самого начала и на протяжении всей их жизни.

Хотя глобального регулятора ИИ нет и, надеюсь, никогда не будет, мы твердо убеждены, что ИИ должен отслеживаться для пользователей.
Поскольку ИИ принадлежит людям, которые его создали, и используют его каждый день для улучшения своей жизни или своего бизнеса. , отслеживаемость и регулирование помогут приблизить безопасный ИИ к реальности и предотвратить распространение злонамеренного или некорректного ИИ.

Присоединяйтесь к нашему делу на fitchain.io