Если вы пропустили это, пожалуйста, не стесняйтесь прочитать Главу 1.

Глава 2. Netflix и Traffic-on-the-Hill: прогнозы в реальном мире

Как отмечает профессор Стэнфорда Ларри Кьюбан в своем блоге, ориентированном на образование [3], алгоритмы не ограничиваются только разрекламированными или разрекламированными образовательными технологическими приложениями. Мы все ежедневно используем алгоритмы и прогнозы: едем на работу, решаем, стоит ли остановиться в Starbucks, принимаем решения в своей профессиональной жизни. Мы следуем нашим внутренним инструкциям (алгоритмам) в какой-то момент нашего дня.

Наши человеческие алгоритмы все больше дополняются компьютерными алгоритмами. Наше стремление к работе может быть основано на алгоритме Waze. Мы смотрим видео по рекомендации Netflix [4]. Мы заказываем товары на Amazon из-за алгоритма рекомендаций. Facebook, Apple, LinkedIn, Twitter, Instagram используют свои собственные алгоритмы. Наш внутренний алгоритм проверки нашего телефона соблюдается и находится под влиянием компьютерных алгоритмов [5].

Предиктивная аналитика работает следующим образом: данные собираются. Он подвергается статистическому анализу. Анализ дает прогноз. Рождается алгоритм. Смывать. Повторение.

Компьютеры делают это быстро. В прогностической аналитике правило времени и вероятности, нюансы имеют значение, а неудача — это опыт обучения, а не тупик. Прогнозы созданы, чтобы становиться лучше.

Эти часто незамеченные повседневные алгоритмы прогнозирования имеют различные последствия. Они варьируются от просмотра плохого фильма до более длинного маршрута на работу и, возможно, чтения фейковых новостей.

В школах K-12 континуум результатов такой же. Как компьютерные, так и человеческие алгоритмы прогнозирования влияют на все: от невкусных обедов до изменения нашего образовательного мировоззрения K-12 и влияния на жизнь наших учеников.

В Главе 3 мы рассмотрим предсказания К-12 в овечьей шкуре.

Сноски
[3] Профессор Стэнфордского университета Ларри Кьюбан написал серию статей об алгоритмах в образовании, состоящую из двух частей: https://larrycuban.wordpress.com/2016/07/27/consumer-choice -алгоритмы-в-школе-и-персонализированное-обучение, часть 1/

[4] Хорошо прочитанный алгоритм рекомендаций Netflix: http://delivery.acm.org/10.1145/2850000/2843948/a13-gomez-uribe.pdf?ip=173.72.8.193&id=2843948&acc=OA&key=4D4702B0C3

[5] Алгоритмы (и люди) также могут быть причиной нашей зависимости от технологий. Во многом это происходит из-за нашей компульсивной природы, чтобы проверить, вызвало ли сообщение лайки. Он вырабатывает дофамин — тот же самый гормон, который мы получаем, когда покупаем вещи, употребляем алкоголь или развлекаемся, как бы мы его ни определяли. Тристан Харрис — бывший сотрудник Google — стремится продвигать умеренность и баланс, когда дело доходит до взаимодействия с нашими телефонами/приложениями. Харрис приводит убедительные доводы: http://www.theatlantic.com/magazine/archive/2016/11/the-binge-breaker/501122/ (статья) и http://www.pbs.org/newshour /bb/phone-trying-control-life/ (видео).