Я пытаюсь реализовать регрессию Кокса в theano.
Я использую учебник по логистической регрессии (http://deeplearning.net/tutorial/logreg.html) в качестве основы и замены функции логистического логарифмического правдоподобия (LL) функцией LL регрессии Кокса (https://en.wikipedia.org/wiki/Proportional_hazards_model#The_partial_likelihood).
Вот что у меня есть до сих пор:
class CoxRegression(object):
def __init__(self, x, n_in):
self.W = theano.shared(value=numpy.zeros(n_in,dtype=theano.config.floatX), name='W',borrow=True)
self.b = theano.shared(numpy.cast['float64'](0), borrow=True)
self.theta = T.dot(x, self.W) + self.b
self.exp_theta = T.exp(self.theta)
self.params = [self.W, self.b]
self.x = x
def negative_log_likelihood(self, ytime, ystatus):
LL_i = T.switch(T.eq(ystatus[i],1), self.theta - T.log(T.sum(self.exp_theta * T.gt(ytime, ytime[i]))),0)
По сути, мне нужно суммировать LL_i (где i от 0 до ytime.shape - 1). Но я не уверен, как это сделать. Должен ли я использовать функцию сканирования?