В целом, отличное объяснение, но этот раздел не совсем правильный. Ценность теста основана на ценности информации; если у нас есть тест, который, как мы знаем, имеет 10% ложноотрицательных результатов и 0,001% ложноположительных результатов, положительный результат скажет нам огромное количество информации, а отрицательный можно интерпретировать как слабое доказательство.

Формально [нейтральная к риску] ценность информации равна E(Решение с тестом) - E(Решение без теста). Это означает, что, например, если наше решение без теста обычно состоит в том, чтобы ничего не делать, поскольку у большинства людей нет рака, недорогой тест с высоким уровнем ложноотрицательных результатов является значительным незначительным улучшением.

Концептуальная ошибка здесь проста; есть разница между несовершенным тестом, который считается безошибочным, и тестом, который используется разумно. В машинном обучении это различие, как правило, игнорируется, поскольку текущее состояние дел заключается в использовании показателя, созданного тестом, в качестве показателя принятия решения, но это проблематично во многих других отношениях, как я обсуждал как постоянный блогер на Ribbonfarm подробно здесь, а затем здесь.