Да и. К сожалению, текущее состояние ИИ невозможно проверить, поскольку мы действительно не до конца понимаем, с чем коррелируют наборы весов нейронов в реальном мире. «Программист выбрасывает обучающие данные в сеть и указывает желаемые результаты. Веса, которые работают лучше всего, сохраняются, а те, которые работают плохо, отбрасываются. Производительность ИИ настолько хороша, насколько хорош предоставленный ему тренировочный набор. ИИ также плохо справляется с легионами крайних случаев. Если Apple должна была обеспечить «аудируемость, ей нужно было бы раскрыть свои критерии обучения ИИ. В прошлом такие компании, как Google, были более прозрачными со своим (поисковым) алгоритмом. Целая индустрия возникла, чтобы играть с системой, пока Google не был вынужден скрыть то, как он ранжирует страницы. Apple должна сделать то же самое, чтобы соискатели не обманывали свой алгоритм. Я предполагаю, что у Apple также есть различные корпоративные / деловые программы, которые они не хотят выдавать в качестве государственной политики.

Короче говоря, я думаю, что проблема в использовании ИИ для такого рода алгоритмов в первую очередь. Если нельзя сказать, каковы критерии или как было принято решение, то как оно может быть «справедливым»? ИИ умеет быстро делать выводы, и именно поэтому его так заманчиво использовать в такого рода приложениях. Если ИИ управляет автомобилем и несет единоличную ответственность за водителя и других участников дорожного движения, кто виноват, если он столкнется с чем-то, чего не было в обучающих данных? Когда, если вообще когда-либо, можно будет сказать, что этот ИИ на 100% подотчетен и надежен? Насколько лучше человека, которого он заменяет, мы должны передать метафорические ключи?

Кому и насколько мы доверяем, чтобы решить, какое доверие мы заслуживаем? Является ли ИИ «справедливым или он придаёт несправедливое значение какой-то непредвиденной причуде в данных. Откуда мы знаем наверняка?