рандомизированное лассо в R

Я пытался создать функцию рандомизированного лассо в R, но, похоже, она не дает тех же результатов, что и функция рандомизированного лассо Python sklearn. Я применяю ту же философию здесь, но не мог понять разницу. Код был изменен на основе этого кода: рандомизированная функция лассо в R.

Вот код и примеры данных:

# generate synthetic data
set.seed(100)
size = 750
x = matrix(runif(14*size),ncol=14)
y = 10 * sin(pi*X[,1]*X[,2]) + 20*(X[,3]-0.5)**2 + 10*X[,4] + 5*X[,5] + runif(1,0,1)
nbootstrap = 200
nsteps = 20
alpha = 0.2

dimx <- dim(x)
n <- dimx[1]
p <- dimx[2]
halfsize <- as.integer(n/2)
freq <- matrix(0,1,p)

for (i in seq(nbootstrap)) {

  # Randomly reweight each variable
  xs <- t(t(x)*runif(p,alpha,1))

  # Ramdomly split the sample in two sets
  perm <- sample(dimx[1])
  i1 <- perm[1:halfsize]
  i2 <- perm[(halfsize+1):n]

  # run the randomized lasso on each sample and check which variables are selected
  cv_lasso <- lars::cv.lars(xs[i1,],y[i1],plot.it=FALSE, mode = 'step')
  idx <- which.max(cv_lasso$cv - cv_lasso$cv.error <= min(cv_lasso$cv))
  coef.lasso <- coef(lars::lars(xs[i1,],y[i1]))[idx,]
  freq <- freq + abs(sign(coef.lasso))

  cv_lasso <- lars::cv.lars(xs[i2,],y[i2],plot.it=FALSE, mode = 'step')
  idx <- which.max(cv_lasso$cv - cv_lasso$cv.error <= min(cv_lasso$cv))
  coef.lasso <- coef(lars::lars(xs[i1,],y[i1]))[idx,]
  freq <- freq + abs(sign(coef.lasso))
  print(freq)
}

# normalize frequence in [0,1]
freq <- freq/(2*nbootstrap)

Результаты должны быть сопоставимы с аналогичными результатами, показанными в этой таблице (стабильность) стабильность в python. Однако этот подход и исходный код R, показанный в первой ссылке на гиперссылку, не нашли коррелированные функции с X11 по X14. Не уверен, какая часть не работает должным образом в моем коде R.


person Kuang Liang    schedule 24.04.2017    source источник
comment
Конечно. Буду читать руководство для будущих вопросов.   -  person Kuang Liang    schedule 25.04.2017


Ответы (1)


Во-первых, спасибо за размещение этого вопроса. Мне понравилось узнавать о выборе стабильности, просматривая ваш код и ссылки. Во-вторых, вы, вероятно, ударите себя ногой, когда увидите этот ответ. Я думаю, что ваш код действителен, но вы забыли создать сильно коррелированные функции «набора данных регрессии Friedamn # 1». Код Python из вашей второй ссылки выглядит следующим образом:

#"Friedamn #1” regression problem
Y = (10 * np.sin(np.pi*X[:,0]*X[:,1]) + 20*(X[:,2] - .5)**2 +
     10*X[:,3] + 5*X[:,4] + np.random.normal(0,1))
#Add 3 additional correlated variables (correlated with X1-X3)
X[:,10:] = X[:,:4] + np.random.normal(0, .025, (size,4))

Ваш код не включает второй шаг. Следовательно, все признаки, кроме первой пары, являются шумом и правильно исключены из вашего алгоритма выбора стабильности.

person Ian Wesley    schedule 25.04.2017
comment
Замечательно. Вы спасли мой день. Я корю себя сейчас. - person Kuang Liang; 25.04.2017