Обычно мотивация логистической регрессии как функции правдоподобия на самом деле не обсуждается. Нам просто говорят, что мы должны это сделать. Однако настоящей причиной этого является насыщение ошибок: вы никогда не сможете получить ошибку более 1,0, используя стандартные методы, потому что у вас есть ограниченное пространство (либо 0, либо 1 в Y-направление) данных. Это плохо, и вы можете убедиться в этом с помощью мысленного эксперимента: предположим, что данные линейно разделимы, тогда логистическая кривая будет бесконечно крутой при z=0. Теперь поместите другую точку данных в данные, которые расходятся: ее ошибка будет…