Давайте признаем: Твиттер токсичен. Twitter, популярная платформа для краткого контента, с момента своего создания была площадкой для многих споров. Популярность платформы и ее противоречивый характер проистекают из одного корня: нефильтрованное, немодерируемое и очень заметное выражение. Почти каждый день в Твиттере появляются миллионы троллей и ботов, нацеленных на отдельных людей, сообщества и даже страны. Эти армии троллей редко подвергаются цензуре и почти никогда не сталкиваются с последствиями.

Теперь, когда мы установили, что с троллями мало что можно сделать, мы можем помочь только одной стороне: жертвам. Такая ненависть к отдельным людям или даже сообществам может подтолкнуть людей к крайним шагам. Таким образом, если кто-то не популярен, их положение почти никогда не признается. Было несколько случаев, когда люди твитили о своем самоубийстве, не говоря уже о сотнях показательных твитов до этого.

Многие из этих людей, возможно, отказались бы искать помощи. Но что, если им не нужно было обращаться за помощью? Что, если бы им не нужно было просить о помощи? Что, если бы к ним пришла помощь? Что, если бы им не нужно было умирать, чтобы мы признали их существование и чувства? Один ответ: Твитбот.

Так что же такое TweetBot?

Проще говоря, TweetBot — это бот, который я разработал с помощью Python и который обнаруживает суицидальные твиты.

Используя API разработчика Twitter, он транслирует все твиты на локальное устройство в прямом эфире. Затем эти твиты обрабатываются для преобразования их в текстовые строки. Затем эти строки компилируются в быструю базу данных. Направляя данные через базу данных, они загружаются в таблицу значений, разделенных запятыми. Затем эти значения передаются через модель анализа тональности. Эта модель имеет одну из самых высоких точности даже на международном уровне и была обучена на высококачественных данных. Эта модель предсказывает, является ли твит положительным или отрицательным по своей природе. После этого все негативные твиты проверяются на полный список слов и фраз. Результаты этого алгоритма проверки, в свою очередь, предсказывают, является ли твит суицидальным или показательным.

При обнаружении таких твитов из любой конкретной учетной записи алгоритм извлекает последние 20 твитов из соответствующей учетной записи. Каждый из этих твитов также проходит через вышеупомянутую процедуру. Когда количество таких твитов превышает пороговое значение, алгоритм может предпринять ряд действий.

Прежде чем перейти к этому, я хотел бы показать вам, какие данные извлекает, обрабатывает и визуализирует мой алгоритм.

Эти визуализации данных могут быть полезны как властям, так и вспомогательным организациям.

Возвращаясь к Что дальше? При таком обнаружении в настоящее время бот может только отправить пользователю личное сообщение и/или ответить на его твиты. Однако при содействии соответствующих организаций и даже государственных организаций этот механизм можно значительно усовершенствовать. Алгоритм обладает потенциалом предупреждать назначенных лиц, которые затем могут лично помочь человеку в опасной ситуации. Однако для этого требуется поддержка вышеупомянутых организаций. Если кто-то может помочь в этом, пожалуйста, обращайтесь: здесь или здесь :)

Я не буду вдаваться в математику и вычисления, по крайней мере, в этой статье. Впрочем, найти его можно здесь.

Потенциал

Хотя алгоритм в его нынешнем состоянии достаточно мощный, он также обладает огромным потенциалом. В основном, возможность автоматизировать обновление фраз поиска и обнаружения с использованием модели машинного обучения. Он также может собирать океан данных от пользователя, которые можно использовать для оптимизации и повышения эффективности поисковой системы. Государственное сотрудничество может обеспечить его реализацию в гораздо большем масштабе, отчасти благодаря его масштабируемости.