Я был очень взволнован, чтобы присоединиться к моему первому хакатону, а также к моему первому соревнованию Kaggle, я немного растерялся в начале, я задал организатору несколько глупых вопросов, таких как «должен ли я принести свой ланч-бокс» и т. д..

Я пошел на улицу Гергера, 400, центр Microsoft, и после того, как увидел, что большинство людей уже в команде, чтобы присоединиться к этому соревнованию, я немного беспокоюсь, что никто не присоединится к моей команде, поскольку я совсем новичок, когда Амит и Шон спросили меня, могут ли они сидеть рядом со мной, я был очень счастлив. Поговорив с ними, я узнал, что я не один, Амит работает в летном центре, а Шон учится на первом курсе дантиста в UQ, Цзя Цю учится на втором курсе докторантуры в Куте, никто из нас не имеет большого опыта в этом, пусть только машинное обучение. Оказывается, на самом деле большинство участников заявили, что они новички в области ИИ, хотя некоторые из них имеют большой опыт работы в области ИТ.

Есть некоторые проблемы с настройкой виртуальной машины Microsoft в начале, пока Крист работает над ней, Лекс кратко рассказал нам о конкурсе Kaggle и о том, как приступить к созданию первой модели линейной регрессии.

Я только что поиграл на веб-сайте Kaggle и обнаружил, что на панели обсуждения есть много руководств. Теперь я немного не нервничаю, когда знаю, что могу что-то сделать. После обсуждения с членами моей команды мы решили начать соревнование, просто подписавшись на одну гильдию и переварив ее. Шон нашел один хороший с помощью Lassa, мы только что прошли его в первый день. после этого я провел небольшое исследование и обнаружил, что XGboost довольно хорош с точки зрения точности. Я подошел к кожаной доске и щелкнул имя топ-20 одно за другим, ища их учебник, и нашел это (ссылка). Я попробовал его код без части обработки данных, так как я чувствовал, что эта часть для меня непосильна. оказалось, что оценка очень низкая и дала мне рейтинг 2000 из 4000 заявок. Я думал, что это не настроенные параметры, так как мы знали, что XGboost имеет множество параметров. Я нашел это введение очень полезным.

Закончив читать, я попробовал внести несколько изменений и обнаружил, что сделал только хуже. Я решил оставить часть моделирования нетронутой и работать над обработкой данных, и, наконец, получил довольно хороший результат, ранг 400. О, yellllll…

Второй день днем, я немного устал и решил идти медленно. Я понял, что визуализация данных очень полезна, и начал изучать Matplotlib и Seaborn и т. д.

В конце дня, к нашему удивлению, мы обнаружили, что команда, набравшая наибольшее количество очков, на самом деле является самой высокой, и выиграла хакатон, что очень меня порадовало.

В общем, очень весело участвовать в хакатоне, чтобы осваивать новые навыки и знакомиться с новыми людьми. наши команды решили поработать вместе над некоторыми другими проектами в будущем, чего я очень жду.