СОВЕТ ДЛЯ ПРОФЕССИОНАЛОВ. Дополнительные статьи, истории, код и исследования по искусственному интеллекту и машинному обучению можно найти на моем веб-сайте по адресу: www.theapemachine.com

Итак, исследователи Facebook отключили свой алгоритм машинного обучения, который, насколько я могу судить, использовался в качестве экспериментальной программы чат-бота. быстро связать это с замечаниями Илона Маска и Марка Цукерберга, отчаянно пытаясь использовать это в качестве корма, чтобы определить, кто из них прав, а кто нет.
Кстати, ответ на последнюю часть , is: Оба, и ни один.

Это безумие: я не могу поверить в то количество шумихи, которое это получает в данный момент, и кажется, что вы даже не можете отвернуться в течение пяти минут в данный момент, или где-то начнется новый медиа-взрыв с недостоверной информацией об искусственном интеллекте. .

И когда я говорю об искусственном интеллекте, я, очевидно, имею в виду неправильное использование термина искусственный интеллект.

Конечно, если вы копнете достаточно глубоко, вы можете найти настоящих исследователей машинного обучения и, возможно, даже людей, непосредственно связанных с этим проектом, более уравновешенно говорящих об этом конкретном предмете, но давайте будем честными, большинство людей получают свою информацию. с крупных медиа-сайтов.
Вы знаете, те, кто не очень разбирается в теме, а вместо этого просто переписывает статьи со своих коллег.

В любом случае, я хотел рассказать об этом, потому что многие мои друзья в социальных сетях, которые знают, что я работаю в этом секторе, в данный момент делятся со мной этой историей, и я также могу получить свои 2 цента, поэтому я не нужно отвечать на каждую акцию.

Начало шутки примерно такое: два чат-бота заходят в исследовательскую лабораторию…

Давайте быстро посмотрим, как два бота общались друг с другом.

Боб: я могу все остальное . . . . . . . . . . . . . .

Алиса: шарики ноль ко мне ко мне ко мне ко мне ко мне ко мне ко мне ко мне к

Боб: ты и все остальное . . . . . . . . . . . . . .

Алиса: шарики есть мяч ко мне ко мне ко мне ко мне ко мне ко мне ко мне

Боб: я могу все остальное . . . . . . . . . . . . . .

Алиса: шарики есть мяч ко мне ко мне ко мне ко мне ко мне ко мне ко мне

Боб: я . . . . . . . . . . . . . . . . . . .

Алиса: шарики ноль ко мне ко мне ко мне ко мне ко мне ко мне ко мне ко мне к

Боб: ты я я я я все остальное . . . . . . . . . . . . . .

Алиса: шарики есть 0 ко мне ко мне ко мне ко мне ко мне ко мне ко мне ко мне к

Боб: ты я я все остальное . . . . . . . . . . . . . .

Алиса: шарики ноль ко мне ко мне ко мне ко мне ко мне ко мне ко мне ко мне к

Приведенный выше журнал должен показаться знакомым любому, кто когда-либо экспериментировал с рекуррентными нейронными сетями на уровне символов, и является явным признаком либо недостаточного обучения, либо ошибки в том, как алгоритм отслеживает/строит контекст внутри предложения.
Этот тип повторяющегося шаблона хорошо задокументирован в средствах отслеживания проблем многих примеров кода рекуррентной нейронной сети на уровне символов.

На самом деле все зависит от того, какова цель алгоритма, и если вы позволите мне сделать здесь несколько обоснованное предположение, я думаю, что они могут экспериментировать с чат-ботом, который динамически обучается, то есть он должен улучшаться со временем, но, конечно, при этом необходимо преодолеть одно очень большое препятствие, последствия которого можно увидеть здесь.

Видите ли, ни один алгоритм машинного обучения не достиг 100% точности, и всегда будет некоторая погрешность в прогнозируемых выходных данных, поэтому, если вы допускаете такую ​​неточность в своих тренировочных циклах, со временем эти коэффициенты ошибок начнут накапливаться. Я считаю, что это то, что мы действительно видим здесь, составной эффект неточности в сети и динамическое обучение сети с использованием этих данных.

Вполне логично, что довольно быстро может показаться, что алгоритм машинного обучения «изобретает» свой собственный язык, поскольку это всего лишь «естественный» способ для сети решать свои проблемы, и на самом деле в этом нет ничего страшного или странного. тот.

Нейронная сеть предназначена для того, чтобы находить баланс внутри себя и (надеюсь) достаточно стабилизироваться, чтобы стать эффективными в выполнении задачи, и это именно то, что она пытается здесь сделать.
Тем не менее, мы не должны даже говорить о « попытки», потому что даже это вызывает в воображении слишком много индивидуальности для чего-то, что, в конце концов, является просто сложной функцией, довольно простой математикой, если честно, которая через общую сложность, построенную из многих относительно простых элементов, достигает чего-то, что кажется гораздо более впечатляющим, чем есть на самом деле.

Причина, по которой исследователи отключили его, вероятно, имеет очень мало общего с тем фактом, что он отклонялся от курса, понятного человеческому языку, или с тем, что это пугающая перспектива (до тех пор, пока мы все еще можем отключить эти вещи). но еще больше с тем фактом, что будет сложно изучать и устранять проблемы в сети, если люди не могут понять, где что-то не так.
Нам нужно понимать нейронные сети на основе естественного языка, чтобы иметь возможность видеть, что не так. , и где сделать улучшения.

Дело в том, что естественный язык является очень сложной темой для четкого отражения в современных технологиях машинного обучения, и потребуется некоторое время, прежде чем это начнет значительно улучшаться, поэтому ожидайте, что в ближайшие несколько лет появится гораздо больше сенсационных статей, поскольку исследователи пытаются решить эту проблему.

Первоначально опубликовано на www.theapemachine.com.