• Использует странно большое количество эпох (10 000!) для MINST без объяснения причин.
  • Передискретизация наиболее надежной стратегии, но не объясняет, почему. Увеличение данных должно тривиально сделать модели более надежными, что неудивительно, что эта стратегия работает, но было бы интересно более глубокое обоснование того, почему это лучше, чем нормализация с априорными классами в функции стоимости.
  • В то время как последняя стратегия кажется хрупкой, она также кажется формально более элегантной, если нейронные сети эффективны при реконструкции байесовских апостериорных вероятностей.
  • Классификация на определенном уровне дисбаланса становится проблемой обнаружения аномалий. Очевидно, но интересно с точки зрения порога.