x <- rnorm(30) y <- 2*x -3 + rnorm(30) plot(x,y) # linear model: (lináris) regresszió lm(y ~ 1 + x) # ez: y = a + bx + hiba alakban illeszt függvényt lm(y ~ x) # implicit: beveszi a konstans tagot lm(y ~ 0 + x) # explicit: kizárjuk a konstansot reg1 <- lm(y ~ x) reg1 reg1$coef # coefficients coef(reg1) plot(x,y) # regressziós egyenes: abline(reg1$coef) # becsült értékek: reg1$fitted points(x,reg1$fitted) reg1$resid # residuals, hibák # modell "velidálása", ellenőrzése: # hibák normális eloszlás-e? qqnorm(reg1$resid) qqline(reg1$resid) # x_i, h_i függetlenek: plot(x,reg1$resid) plot(reg1$fitted,reg1$resid) # itt: teljesen véletlenszerű pontfelhőt kéne látni # néhány beépített diagnosztikai ábra: plot(reg1) z <- rnorm(30) # független az x-től reg2 <- lm(z ~ x) reg2 plot(x,z) abline(reg2$coef) summary(reg2) # coefficients táblázat: # utolsó 2 oszlop: t-test # H0: egüttható = 0, H1: együttható =/= 0 # nagy p-value: H0: az ehó 0 akar lenni # lent: R^2: korreláció jellegű mérőszám, ha nagy, # akkor van tényleges összefüggés a változók között # F-stat, p-value: F-próba # H0: illesztett modell ekvivalens z = mean(z) + hiba # modellel; H1: illesztett modell jobb # z = mean(z) + hiba modellnél. # nagy p-value: H0. # F-próba nagy p-value, vagy kis R^2 jelzi, hogy # a modell igazából nem ér semmit # együtthatóra t-test jelzi, hogy szükség van-e # az adott együtthatóra