x <- rnorm(30) y <- -2*x+1 + rnorm(30) plot(x,y) lm(y ~ x) # linear model # implicit konstans! lm(y ~ x + 1) # explicit konstans lm(y ~ x + 0) # konstans kizárása reg1 <- lm(y ~ x) reg1 reg1$coef abline(reg1$coef) reg1$fitted # fitted(reg1) reg1$resid points(x,reg1$fitted,col="red") # feltételek ellenőrzése: # hibák függetlensége: plot(x,reg1$resid) plot(reg1$fitted,reg1$resid) # rendszertelen, egyenletesen szétszórt # pontfelhő kéne legyen # ha valami görbét követ: akkor nem # a+bx, hanem komplexebb f(x) formában # kell majd keresni y-t # hibák normális eo.-e: qqnorm(reg1$resid) # beépített diagnosztikai ábrák: plot(reg1) summary(reg1) # coefficient táblázatban t-próba: # t-value: statisztika, Pr(..) p-value # H0: adott együttható 0 akar lenni, # H1: nem 0 ; kis p-value esetén H1. # lent: R^2: kb. korrelációs együttható # F-stat, p-value: F-próba, adott modellt # az y = mean(y) + hiba modellel veti össze # H0: gyakorlatilag ekvivalens a 2, azaz a # regressziós modell haszontalan; # H1: lényegesen jobb a modellünk, mint # az y = mean(y)+ hiba becslés # ha független változóval próbálunk regressziót v <- rnorm(30) reg2 <- lm(v ~ x) plot(x,v) reg2 abline(reg2$coef) # nagy eséllyel: kb vízszintes egyenes summary(reg2) # látszik t-tesztekből, R^2-ből, F tesztből is: # v nem függ x-től, ennek a regressziós # modellnek nem sok értelme van.