Вы когда-нибудь ловили себя на том, что антропоморфизируете поведение своей модели машинного обучения?

Это случается со мной, когда мы обсуждаем результаты с коллегами. Признаюсь, моей внутренней полиции строгости это не нравится. Чтобы сделать то же самое, необходим более обоснованный статистический анализ.

Обычно наша дискуссия на эту тему за обедом идет в направлении Al vs. ML. Я отсылаю вас к известной тираде Майкла Джордана (профессор Беркли), в которой подчеркивается опасность называть поведение обобщения нейронной сети интеллектом.

Называть модель машинного обучения «это», пожалуй, большее нарушение, связанное не только с интеллектом, но и с предвзятой личностью 😂

Я наткнулся на новый аргумент в разговоре с неожиданным гостем подкаста Джорданом Элленбергом, когда он описывал красоту простых чисел и то, почему теоретики чисел были очарованы ими на протяжении тысячелетий. Как будто кто-то когда-либо сомневался, что простые числа круты!

Вот весь подкаст:

А вот и ролик про простые, свободные воли модели ML!

Он утверждает, что некоторые доказательства и мысленные эксперименты делаются интуитивно понятными, когда появление простых чисел представляется случайным событием. Хотя это определенно не случайно.

Другими словами, как бы ни было больно пуристу думать таким образом, некоторые интуитивные догадки лучше всего передать, **согласившись** принять искажение фактов!

Таким образом, в некоторых случаях мы согласны с тем, что модель обладает некоторым типом интеллекта (в классическом смысле) и действительно пытается построить интуицию на наборе данных, как это делают люди. Хотя это не так.

На мой первоначальный вопрос, помимо неформального представления идей о предвзятости, есть ли другие опасности в таком разговоре о модельном поведении? Конечно, мы можем вызвать наши неявные предубеждения в отношении модели или эксперимента.

Поэтому, если возможно, всегда лучше подкрепить гипотезу статистическим анализом поведения. Мы часто используем небольшую менее сложную модель для анализа этих идей.

Это еще больше усиливается теми из нас, кто работает в областях восприятия, т. е. зрения, языка и речи. Чем и занимается моя команда. Возможно, в более структурированных данных, таких как финансы, человеческая предвзятость может быть полезной!

Могут возникнуть дальнейшие споры, если мы посмотрим на выходные данные модели на целевых данных по сравнению с последующим анализом объяснимости. Это анализ белого/черного ящика, предназначенный для понимания поведения модели. Это действительно зависит от того, как они работают, поэтому сложно сделать общий комментарий.

Если работы Д. Канемана и других говорят нам о чем-то, так это о том, что люди могут быть чрезвычайно предвзятыми. Так может ли предвзятый интеллектуальный агент устранить предвзятость других интеллектуальных агентов? Если бы только модели машинного обучения могли обновляться несколькими примерами так, как это делаем мы! Упс, я столкнулся с фундаментальной проблемой машинного обучения!

Интересно, что значит для теоретического сообщества ML принять или предположить, что модель ML «в целом интеллектуальна». Как и в теории простых чисел, интересно, может ли это привести к провокационным доказательствам или мысленным экспериментам?

Наиболее фундаментальная точка зрения, предполагающая, что люди также являются моделью машинного обучения, рассматривающей одни и те же данные, заключается в том, что мы извлекаем и дополняем функции по-разному, поэтому сравнения или любые предположения об «обосновании прогнозов», вероятно, несовместимы, и их лучше избегать.

Так что, как выразился Джорден Элленберг, в той мере, в какой это позволяет легко передавать и усваивать идеи друг друга, должно быть нормально называть модель «это». Но будьте осторожны, не приписывайте интеллекта, иначе вы разозлите его тезку из Беркли.

Эта статья изначально была развернута здесь: https://threadreaderapp.com/thread/1409151606273187847.html.

Сингулярность ИИ

Окончательная загадка здесь на самом деле заключается в том, если вы создаете модель ИИ, теорию, практику, перестройку, постепенное построение, исследования, фундаментальные или прикладные, чем бы вы ни занимались!, вы создаете интеллект?

Недавно я наткнулся на довольно наводящую на размышления статью в Salon, прочитанную в увлекательном приложении, которое я использую больше во время тренировок: Curio.

https://www.salon.com/2021/04/30/why-artificial-intelligence-research-might-be-going-down-a-dead-end/

Сингулярность ИИ — это представление о том, как мы, скорее всего, придем к созданию общего интеллекта (ОИИ) таким образом, что мы все согласны с тем, что он разумен, и формулируется следующим образом: Привлекательность, потому что она строится на наихудшей сложности.

Вы (типичный исследователь ИИ/МО), возможно, идете по наихудшему пути создания ОИИ, вам нужно только достичь той точки, где скорость прогресса, достигнутая автоматическим обнаружением улучшений самим ИИ, станет больше или равна вашей собственной. скорость прогресса.

Например, отказ от всего вдохновения из биологии может быть наихудшим из возможных путей (что делает антропоморфные аргументы неверными на данный момент), но в конечном итоге может достичь ОИИ почти с той же скоростью прогресса…

если в каждую эпоху развития ИИ мы автоматизируем (или тщательно изучаем) все больше аспектов ИИ и работаем (строим интуицию или теорию) на все более и более высоком уровне абстракции.