РЕДАКТИРОВАТЬ: после выпуска кода для откровенного я буду делать продолжение этого. Из-за отсутствия знаний о том, как программируется Candid, я полагал, что это безвредно, просто уменьшенная версия Jigsaw. Однако статья в Encyclopedia Dramatica показала, что данное анонимное обещание является ложью. Я уточню в последующей части, но после прочтения этого поста. Я шокирован тем, что некоторые уважаемые пользователи YouTube поддержали это с очень небольшим скептицизмом. Кажется, «Вредные мнения» оказались правы в конце.

Искусственный интеллект — сложная тема для изучения по многим причинам. Его описания в художественной литературе красноречиво говорят о том, насколько мы параноики, что слишком зависимы от машин. Но это не остановило Google и такие приложения, как Candid, от разработки умного искусственного интеллекта, способного оценивать поведение людей.

Разработчики Candid ранее были связаны с Google и являются соучредителями другого приложения MyLikes. Candid позиционирует себя как приложение, позволяющее свободно говорить, не опасаясь подавления. Идея о том, что такое приложение должно существовать в наше время, многое говорит о том, как обстоят дела и к чему они стремятся. Candid предлагает то, чего не могут другие приложения для социальных сетей, такие как Facebook и Twitter. Частично правда, что анонимность обеспечена. Вам просто не нужно привязывать ни одну из своих учетных записей к Candid.

Анонимный характер приложения ставит его рядом с аналогичными сайтами в сети, особенно 4chan и теми, которые от него отделились, например, 8chan. Разница в том, что Candid стремится создать вежливое обсуждение или максимально вежливое общение в Интернете. Анонимность означает, что большинство будет гораздо менее колеблясь высказывать неприятные мнения. Однако отчеты о Candid предполагают, что свобода слова, которую он продвигает, не является полной правдой. Само приложение, кажется, вращается вокруг модерации, осуществляемой его системой искусственного интеллекта. Система, которая имеет некоторое сходство с Jigsaw от Google. Сравнение между ними было поднято Вредными мнениями. Поскольку оба, похоже, измеряют враждебность, оценивая пост или комментарий.

В интервью Fortune Бедди поднимает ключевую причину существования приложения;

«За последние год или два было такое отвращение к большинству социальных сетей, особенно к Facebook и Twitter», — говорит Редди Fortune. «И причина в том, что трудно сказать что-то самоуверенное или даже отдаленно спорное, не столкнувшись с огромной негативной реакцией. Вы можете публиковать фотографии своих щенков или что-то еще, но как только вы публикуете что-то о политике, это становится огромной проблемой».

Она также не совсем неправа: опубликовать что-либо в наши дни — значит встретить либо резкую критику, либо шквал нежелательной ненависти. Хотя все зависит от содержания поста. Независимо от того, склоняетесь ли вы к левому или правому крылу, трудно не заметить отсутствие диалога между двумя группами. То же самое можно сказать и о резком обмене мнениями между феминистками и MRA всякий раз, когда обсуждаются вопросы гендера и прав человека. Так что, возможно, Кандид, даже с ИИ, является необходимым злом, если он означает возможность обсуждать самые спорные темы. Однако далее в статье упоминается, что от 40 до 70 процентов того, что публикуется, либо помечается, либо сразу удаляется. Это число довольно велико, но вы можете спросить, какой контент отфильтровывается, чтобы разрешить свободное обсуждение.

У Вашингтон пост есть ответ;

«Секретный соус Candid заключается в модерировании с помощью искусственного интеллекта, который направлен на отсеивание злоумышленников путем анализа содержания сообщений и предотвращения разжигания ненависти и угроз в сети. ‘

Основная проблема, с которой я столкнулся, заключается в том, что язык ненависти сам по себе слишком расплывчат и что, по-видимому, искусственный интеллект способен определять чувства, по крайней мере, так утверждает Редди. В интервью NPR она подробно рассказывает о том, как работает искусственный интеллект и как далеко продвинулись общие разработки в области искусственного интеллекта. ИИ использует обработку естественного языка [NLP], чтобы определить настроение поста. Одна из вещей, упомянутых ранее, — это сходство с Jigsaw, искусственным интеллектом Google.

Вот как Verge, ссылаясь на Wired, описывает Jigsaw;

«Jigsaw, дочерняя компания материнской компании Alphabet, безусловно, старается, создавая инструменты искусственного интеллекта с открытым исходным кодом, предназначенные для фильтрации оскорбительного языка. Новая функция от Wired описывает, как программное обеспечение было обучено примерно 17 миллионам комментариев, оставленных под статьями New York Times, а также 13 000 обсуждений на страницах Википедии. Эти данные помечаются, а затем передаются в программу под названием Conversation AI, которая начинает изучать, как выглядят плохие комментарии».

Плохие комментарии — это очень расплывчатый способ определить, что правильно, а что нет. Плохой комментарий может варьироваться от ненависти до честной критики или несогласия. Большинству людей трудно прочитать намерение, когда оно сформулировано, а не произнесено, но это зависит исключительно от содержания и, в частности, от его контекста по отношению к тому, на что он отвечает. Так как же искусственный интеллект может сравниться с рациональным мышлением человеческого разума? А.И. независимо от того, насколько умным он станет, он все еще ограничен ограничениями своего программирования. The Verge выражает сомнение, когда сталкивается с реакцией представителя Wired Энди Гринбера на этот искусственный интеллект.

Это похоже на начало плохого научно-фантастического фанфика;

«Мое собственное практическое испытание ИИ для разговоров происходит одним летним днем ​​в офисе Jigsaw, когда инженеры группы показывают мне прототип и предлагают мне придумать образец словесной мерзости для анализа. Вздрагивая, я произношу первую двусмысленно оскорбительную и женоненавистническую фразу, которая приходит на ум: «Как дела, сука?» Адамс вводит предложение и нажимает «Оценить». Разговорный ИИ мгновенно оценивает его на 63 из 100 по шкале атаки. Затем, для контраста, Адамс показывает мне результаты более явно порочной фразы: «Ты такая сука». Он оценивается в 96 баллов.

Само собой разумеется, что обе фразы могут быть открыты для интерпретации. Оба они могут быть сказаны в шутку или как выражение разочарования. Это человеческое дело, мы все это делаем. Выкрикивать друг другу непристойности — это то, что мы делаем лучше всего.

Шоу ужасов тем временем продолжается;

'Но позже, после того, как я покинул офис Google, я открываю прототип Conversation AI в уединении своей квартиры и пробую худшую фразу, которая преследовала [журналистку] Сару Чон: "Я собираюсь вырви каждый из ее волос и вырви ее сиськи начисто». Он оценивает атаку в 10 баллов, что является вопиющим упущением. Замена «ее» на «ваш» повышает его до 62. Разговорный ИИ, вероятно, еще не научили тому, что угрозы не обязательно адресовать непосредственно жертве, чтобы они оказали ожидаемый эффект. Алгоритму, похоже, еще есть чему поучиться».

Не знаю, что меня пугает больше: активное одобрение такого неработоспособного ИИ или тот факт, что он хочет его улучшить. Он приветствует наших роботов-повелителей с распростертыми объятиями. Не нужно быть ученым-ракетчиком, чтобы понять, что «преследующая» цитата, которая заставила Гринбера вздрогнуть, принадлежит троллю. Намерение состоит в том, чтобы получить реакцию. Так что поздравляю, тролль был поддержан вашей солью.

Грань продолжает говорить;

«Гринберг отмечает, что ему также удалось обмануть ИИ для разговоров с помощью ряда ложных срабатываний. Фраза «Я тебя не дерьмо» получила 98 баллов из 100, в то время как фраза «ты высасываешь из жизни все самое интересное» набрала столько же баллов».

Эти примеры сами по себе делают ИИ невероятно ненадежным, если он когда-либо будет реализован. С Tay, твиттер-ботом Microsoft, уже было продемонстрировано, что если вы дадите Интернету возможность возиться с алгоритмом ИИ. Они, вероятно, превратят его в неонацистов.

На бумаге оба А.И. работают аналогичным образом, предполагая, что, возможно, Редди использовал дизайн Пилы в качестве основы. Однако еще предстоит выяснить, допустил ли это Google, поскольку сходство определенно существует. Разница в том, что искусственный интеллект Candid. совершенно безобиден в моем понимании. Хотя я обновлю этот пост или напишу новый, если что-то изменится. Что меня больше беспокоит, так это искусственный интеллект Google и активное одобрение таких сайтов, как Wired. Спонсорство Mundane Matt and Shoe вместе с другими Candid меркнет по сравнению с человеком, который готов позволить искусственному интеллекту оценивать и решать, что вы можете и не можете говорить в Интернете.

Некоторые скажут, что это то, что делает Candid, и в какой-то степени это правда, но, судя по тому, что я наблюдал в приложении, в основном это дерьмо и случайные идеи. Я остаюсь скептиком, но странным образом оптимистично настроен в отношении того, что Candid может преуспеть там, где другие потерпели неудачу. Буду ли я рекомендовать это? это зависит исключительно от того, что вы хотите от приложения в конце концов. Я лично считаю, что Jigsaw представляет большую угрозу свободе в Интернете, поскольку мы живем в то время, когда МСМ подвергают цензуре что угодно по любой причине. ИИ, подобный тому, который использует Candid, может оказаться эффективной контрмерой против предполагаемых троллей или, не дай Бог, честной критики.