library(tidyverse) # Wickham H, Averick M, Bryan J, Chang W, McGowan LD, François R, Grolemund G, Hayes A, Henry L, Hester J, Kuhn M, Pedersen TL, Miller E, # Bache SM, Müller K, Ooms J, Robinson D, Seidel DP, Spinu V, Takahashi K, Vaughan D, Wilke C, Woo K, Yutani H (2019). “Welcome to the # tidyverse.” _Journal of Open Source Software_, *4*(43), 1686. doi:10.21105/joss.01686 . library(lavaan) # Yves Rosseel (2012). lavaan: An R Package for Structural Equation Modeling. Journal of Statistical Software, 48(2), 1-36. # https://doi.org/10.18637/jss.v048.i02 library(openxlsx) # Schauberger P, Walker A (2023). _openxlsx: Read, Write and Edit xlsx Files_. R package version 4.2.5.2, # . library(psych) # William Revelle (2023). _psych: Procedures for Psychological, Psychometric, and Personality Research_. Northwestern University, Evanston, # Illinois. R package version 2.3.3, library(nFactors) # Raiche G, Magis D (2022). _nFactors: Parallel Analysis and Other Non Graphical Solutions to the Cattell Scree Test_. R package version # 2.4.1.1, . library(knitr) # Yihui Xie (2023). knitr: A General-Purpose Package for Dynamic Report Generation in R. R package version 1.42. library(MBESS) # Kelley K (2022). _MBESS: The MBESS R Package_. R package version 4.9.2, . library(imputeTS) # Moritz S, Bartz-Beielstein T (2017). “imputeTS: Time Series Missing Value Imputation in R.” _The R Journal_, *9*(1), 207-218. # doi:10.32614/RJ-2017-009 . library(pastecs) # Grosjean P, Ibanez F (2018). _pastecs: Package for Analysis of Space-Time Ecological Series_. R package version 1.3.21, # . library(epiDisplay) # Chongsuvivatwong V (2022). _epiDisplay: Epidemiological Data Display Package_. R package version 3.5.0.2, # . library(writexl) # Ooms J (2023). _writexl: Export Data Frames to Excel 'xlsx' Format_. R package version 1.4.2, . library(lsr) # Navarro, D. J. (2015) Learning statistics with R: A tutorial for psychology students and other beginners. (Version 0.6) University of New South Wales. Sydney, Australia library(reshape) # H. Wickham. Reshaping data with the reshape package. Journal of Statistical Software, 21(12), 2007. library(ez) # Lawrence, M.A. (2016). _ez: Easy Analysis and Visualization of Factorial Experiments_. R package version 4.4-0, library(tidySEM) # van Lissa, CJ (2022). _tidySEM: Tidy Structural Equation Modeling_. R package version 0.2.3, . library(MVN) # Korkmaz, S., Goksuluk, D., Zararsiz, G. MVN: An R Package for Assessing Multivariate Normality. The R Journal. 2014 6(2):151-162. library(olsrr) # Hebbali A (2020). _olsrr: Tools for Building OLS Regression Models_. R package version 0.5.3, . #Funktionen #Funktion zur Erstellung eines Datenframes mit desktriptiven Kennwerten für ordinale Items descriptiveSummaryOrdinal <- function(x) { Quantile <- t(quantile(x, probs=c(0.25, 0.5, 0.75), na.rm = TRUE)) Table <- as.vector(table(x)) Table <- na_replace(Table,0) summaryMatrix <- t(round(stat.desc(x, basic = TRUE, norm =TRUE),digits = 2)) #Ergebnisse der Funktion gerundet und transponiert in Matrix DS_age speichern N = summaryMatrix[1] Min = summaryMatrix[4] Q25 = Quantile[1] Mdn = summaryMatrix[8] Q75 = Quantile[3] Max = summaryMatrix[5] #Interquartilsabstand = IQR(x,na.rm = TRUE) # Spannweite =summaryMatrix[6] Schiefe = summaryMatrix[15] Schiefe2SE = ifelse(summaryMatrix[16]>1, "rechts",ifelse(summaryMatrix[16]< -1,"links", "normal")) Kurtosis = summaryMatrix[17] Kurtosis2SE = ifelse(summaryMatrix[18]>1, "spitz",ifelse(summaryMatrix[18]< -1,"flach", "normal")) pm = round(((Table[1]*1*1+Table[2]*2*2+Table[3]*3*3+Table[4]*4*4+Table[5]*5*5)/(5*5*sum(Table))), digits = 2) summaryData <- data.frame(N, Min, Q25, Mdn, Q75, Max,Schiefe, Schiefe2SE, Kurtosis, Kurtosis2SE,pm) } #Daten einlesen excel <- read.xlsx("DigiLeG_Stud_20_21_Rodaten.xlsx") stud1.data <- data.frame(excel) #Daten inspizieren names(stud1.data) #--------- Item- und Skalenanalysen Nutzungsverhalten --------# #Kriterien: # Itemschwierigkeit (.15 < pm < .85) /Antwortverteilung (Schiefe/Kurtosis) # Trennschärfe > .3 # Reliabilität (interne Konsistenz) nach Itemausschluss < Reliabilität vor Itemausschluss # Nutzung im Studium # Itembatterie Computernutzung in der Freizeit (B9) stud1.data.USEREC_STUD <- stud1.data[,c("B9_Nachrichten", "B9_BücherZeitungen","B9_Musik","B9_Filme", "B9_Ausflusziele","B9_Produktbewertung", "B9_Spielen")] names(stud1.data.USEREC_STUD) <- c("B9_01", "B9_03", "B9_04", "B9_05", "B9_06", "B9_07", "B9_08") #Häufigkeiten USERECS<-lapply(stud1.data.USEREC_STUD, table) %>% bind_rows(.id = "Item") USERECS<- na_replace(USERECS,0) USERECS<- mutate (USERECS, 'NA' = nrow(stud1.data)-(USERECS$'1'+USERECS$'2'+USERECS$'3'+USERECS$'4'+USERECS$'5')) USERECS<- USERECS[, c("Item","1", "2","3", "4", "5", "NA")] knitr::kable(USERECS) #Deskriptive Statistik für ordinale Items USERECS2<-lapply(stud1.data.USEREC_STUD,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") # Item B9_08: antwortpoption "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .06 USERECS2$pm[7] <- 0.06 knitr::kable(USERECS2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data.USEREC_STUD, select = c("B9_01", "B9_03", "B9_04", "B9_05", "B9_06", "B9_07", "B9_08"))) # Items B9_04/B9_06/B9_07/B9_08: extreme Schwierigkeit (<= .15; zu schwer): eignen sich nicht zur Erfassung des # Studienbezogenen Nutzungsverhaltens in der vorliegenden studentischen Stichprobe, da sie innerhalb des Merkmalsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren # Items B9_01/B9_08: niedrige Trennschärfe (< .3), Trennschärfen insgesamt < .5, aber heterogenes Konstrukt # interne Konsistenz fragwürdig (~ ICILS [.66]), profitiert vom Ausschluss des Items B9_01 # Itembatterie Nutzung spezifischer IT-Anwendungen (B11) stud1.data.USEAPP_STUD <- stud1.data[,c("B11_Lernprogramme", "B11_TexteErstellen","B11_Präsentationen","B11_multimedialePräsentationen", "B11_Tabellenkalkulationen", "B11_Grafikprogramme", "B11_Audioprogramme", "B11_Videobearbeitung", "B11_ComputerprogrammeSchreiben")] names(stud1.data.USEAPP_STUD) <- c("B11_01", "B11_02", "B11_03", "B11_04", "B11_05", "B11_06", "B11_07", "B11_08", "B11_17") #Häufigkeiten USEAPPS<-lapply(stud1.data.USEAPP_STUD, table) %>% bind_rows(.id = "Item") USEAPPS<- na_replace(USEAPPS,0) USEAPPS<- mutate (USEAPPS, 'NA' = nrow(stud1.data)-(USEAPPS$'1'+USEAPPS$'2'+USEAPPS$'3'+USEAPPS$'4'+USEAPPS$'5')) USEAPPS<- USEAPPS[, c("Item","1", "2","3", "4", "5", "NA")] knitr::kable(USEAPPS) #Deskriptive Statistik für ordinale Items USEAPPS2<-lapply(stud1.data.USEAPP_STUD,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") # Item B11_08: Antwortoption "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .14 # Item B11_02: Antwortoption "1" ("nie") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .75 # Item B11_03: Antwortoption "1" ("nie") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .43 USEAPPS2$pm[2] <- 0.75 USEAPPS2$pm[3] <- 0.43 USEAPPS2$pm[8] <- 0.14 knitr::kable(USEAPPS2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data.USEAPP_STUD, select = c("B11_01", "B11_02", "B11_03", "B11_04", "B11_05", "B11_06", "B11_07", "B11_08", "B11_17"))) # Items B11_05/B11_06/B11_07/B11_08/B11_17: extreme Schwierigkeit (<= .15; zu schwer): eignen sich nicht zur Erfassung des # Studienbezogenen Nutzungsverhaltens in der vorliegenden studentischen Stichprobe, da sie innerhalb des Merkmalsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren # Items B11_01/B11_02/B11_17: niedrige Trennschärfe (< .3), Trennschärfen insgesamt < .5, aber heterogenes Konstrukt # interne Konsistenz fragwürdig (< ICILs [.79]), profitiert geringfügig vom Ausschluss des Items B11_01 # Itembatterie Computernutzung für den Informationsaustausch (B9, B11) stud1.data.USEINF_STUD <- stud1.data[,c("B9_Nachschlagewerke", "B11_FragenForen","B11_AntwortenForen","B11_Wikibeiträge", "B11_BlogsSchreiben", "B11_Webseiten")] names(stud1.data.USEINF_STUD) <- c("B9_02", "B11_09", "B11_10", "B11_11", "B11_13", "B11_18") #Häufigkeiten USEINFS<-lapply(stud1.data.USEINF_STUD, table) %>% bind_rows(.id = "Item") USEINFS<- na_replace(USEINFS,0) USEINFS<- mutate (USEINFS, 'NA' = nrow(stud1.data)-(USEINFS$'1'+USEINFS$'2'+USEINFS$'3'+USEINFS$'4'+USEINFS$'5')) USEINFS<- USEINFS[, c("Item","1", "2","3", "4", "5", "NA")] knitr::kable(USEINFS) #Deskriptive Statistik für ordinale Items USEINFS2<-lapply(stud1.data.USEINF_STUD,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") # Item B11_11: Antwortoption "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .07 # Item B11_13: Antwortoption "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .05 # Item B11_18: Antwortoptionen "3" ("monatlich") - "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .05 USEINFS2$pm[4] <- 0.07 USEINFS2$pm[5] <- 0.05 USEINFS2$pm[6] <- 0.05 knitr::kable(USEINFS2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data.USEINF_STUD, select = c("B9_02", "B11_09", "B11_10", "B11_11", "B11_13", "B11_18"))) # Items B11_10/B11_11/B11_13/B11_18: extreme Schwierigkeit (<= .15; zu schwer): eignen sich nicht zur Erfassung des # Studienbezogenen Nutzungsverhaltens in der vorliegenden studentischen Stichprobe, da sie innerhalb des Merkmalsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren # Items B9_02/B11_13/B11_18: niedrige Trennschärfe (< .3) # interne Konsistenz fragwürdig (< ICILs [.70]), profitiert geringfügig vom Ausschluss der Items B9_02, B11_18 # Itembatterie Computernutzung für soziale Kommunikation (B11) stud1.data.USECOM_STUD <- stud1.data[,c("B11_BlogsKommentieren", "B11_hochladen","B11_Videokonferenzsoftware","B11_SozialeNetwerke")] names(stud1.data.USECOM_STUD) <- c("B11_12", "B11_14", "B11_15", "B11_16") #Häufigkeiten USECOMS<-lapply(stud1.data.USECOM_STUD, table) %>% bind_rows(.id = "Item") USECOMS<- na_replace(USECOMS,0) USECOMS<- mutate (USECOMS, 'NA' = nrow(stud1.data)-(USECOMS$'1'+USECOMS$'2'+USECOMS$'3'+USECOMS$'4'+USECOMS$'5')) USECOMS<- USECOMS[, c("Item","1", "2","3", "4", "5", "NA")] knitr::kable(USECOMS) #Deskriptive Statistik für ordinale Items USECOMS2<-lapply(stud1.data.USECOM_STUD,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") # Item B11_12: Antwortoption "4" ("wöchentlich") & "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .06 # Item B11_14: Antwortoption "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .06 USECOMS2$pm[1] <- 0.06 USECOMS2$pm[2] <- 0.06 knitr::kable(USECOMS2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data.USECOM_STUD, select = c("B11_12", "B11_14", "B11_15", "B11_16"))) # Items B11_12/B11_14: extreme Schwierigkeit (<= .15; zu schwer): eignen sich nicht zur Erfassung des # Studienbezogenen Nutzungsverhaltens in der vorliegenden studentischen Stichprobe, da sie innerhalb des Merkmalsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren # Items B11_12/B11_14/B11_15/B11_16: niedrige Trennschärfe (<< .3) # interne Konsistenz nicht vorhanden (.23), keine Skala (<< ICILs [.72]) # Zwischenfazit: # - Subskalen, welche die Häufigkeit der Nutzung digitaler Werkzeuge respektive der Durchführung digitaler Aktivitäten für das Studium erfragen, weisen insgesamt schlechte Item- und Skalenkennwerte auf # - Dabei insbesondere inhaltlich problematisch: # - für viele Aktivitäten Anwendungsszenarien im Studium schwer vorstellbar oder zumindest sehr selten # - Gemeinsame Betrachtung von Aktivitäten, die unterschiedliche Basishäufigkeiten haben #----------------------------------------------------------------------------------------------------------------------# # Private Nutzung names(stud1.data) # Itembatterie Computernutzung in der Freizeit (B10) stud1.data.USEREC_PRIV <- stud1.data[,c("B10_Nachrichten", "B10_BücherZeitungen","B10_Musik","B10_Filme", "B10_Ausflugsziele", "B10_Produktbewertung", "B10_Spielen")] names(stud1.data.USEREC_PRIV) <- c("B10_01", "B10_03", "B10_04", "B10_05", "B10_06", "B10_07", "B10_08") #Häufigkeiten USERECP<-lapply(stud1.data.USEREC_PRIV, table) %>% bind_rows(.id = "Item") USERECP<- na_replace(USERECP,0) USERECP<- mutate (USERECP, 'NA' = nrow(stud1.data)-(USERECP$'1'+USERECP$'2'+USERECP$'3'+USERECP$'4'+USERECP$'5')) USERECP<- USERECP[, c("Item","1", "2","3", "4", "5", "NA")] knitr::kable(USERECP) #Deskriptive Statistik für ordinale Items USERECP2<-lapply(stud1.data.USEREC_PRIV,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") knitr::kable(USERECP2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data.USEREC_PRIV, select = c("B10_01", "B10_03", "B10_04", "B10_05", "B10_06", "B10_07", "B10_08"))) # Items B10_01: extreme Schwierigkeit (>= .85; zu leicht): eignen sich nicht zur Erfassung des # Studienbezogenen Nutzungsverhaltens in der vorliegenden studentischen Stichprobe, da sie innerhalb des Merkmalsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren # konsistent niedrige Trennschärfen (<= .3) # interne Konsistenz schlecht (< ICILS [.66]), profitiert vom Ausschluss des Items B10_08 # Itembatterie Nutzung spezifischer IT-Anwendungen (B12) stud1.data.USEAPP_PRIV <- stud1.data[,c("B12_Lernprogramme", "B12_TexteErstellen","B12_Präsentationen","B12_multimedialePräsentationen", "B12_Tabellenkalkulationen", "B12_Grafikprogramme", "B12_Audioprogramme", "B12_Videobearbeitung", "B12_ComputerprogrammeSchreiben")] names(stud1.data.USEAPP_PRIV) <- c("B12_01", "B12_02", "B12_03", "B12_04", "B12_05", "B12_06", "B12_07", "B12_08", "B12_17") #Häufigkeiten USEAPPP<-lapply(stud1.data.USEAPP_PRIV, table) %>% bind_rows(.id = "Item") USEAPPP<- na_replace(USEAPPP,0) USEAPPP<- mutate (USEAPPP, 'NA' = nrow(stud1.data)-(USEAPPP$'1'+USEAPPP$'2'+USEAPPP$'3'+USEAPPP$'4'+USEAPPP$'5')) USEAPPP<- USEAPPP[, c("Item","1", "2","3", "4", "5", "NA")] knitr::kable(USEAPPP) #Deskriptive Statistik für ordinale Items USEAPPP2<-lapply(stud1.data.USEAPP_PRIV,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") knitr::kable(USEAPPP2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data.USEAPP_PRIV, select = c("B12_01", "B12_02", "B12_03", "B12_04", "B12_05", "B12_06", "B12_07", "B12_08", "B12_17"))) # Items B12_04/B12_07/B12_17: extreme Schwierigkeit (<= .15; zu schwer): eignen sich nicht zur Erfassung des # Studienbezogenen Nutzungsverhaltens in der vorliegenden studentischen Stichprobe, da sie innerhalb des Merkmalsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren # Items B12_17: niedrige Trennschärfe (< .3) # interne Konsistenz akzeptabel (~ ICILs [.79]), profitiert nicht von Itemausschlüssen # Itembatterie Computernutzung für den Informationsaustausch (B10, B12) stud1.data.USEINF_PRIV <- stud1.data[,c("B10_Nachschlagewerke", "B12_FragenForen","B12_AntwortenForen","B12_Wikibeiträge", "B12_BlogsSchreiben", "B12_Webseiten")] names(stud1.data.USEINF_PRIV) <- c("B10_02", "B12_09", "B12_10", "B12_11", "B12_13", "B12_18") #Häufigkeiten USEINFP<-lapply(stud1.data.USEINF_PRIV, table) %>% bind_rows(.id = "Item") USEINFP<- na_replace(USEINFP,0) USEINFP<- mutate (USEINFP, 'NA' = nrow(stud1.data)-(USEINFP$'1'+USEINFP$'2'+USEINFP$'3'+USEINFP$'4'+USEINFP$'5')) USEINFP<- USEINFP[, c("Item","1", "2","3", "4", "5", "NA")] knitr::kable(USEINFP) #Deskriptive Statistik für ordinale Items USEINFP2<-lapply(stud1.data.USEINF_PRIV,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") # Item B12_11: Antwortoptionen "3" ("monatlich") - "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .05 # Item B12_13: Antwortoption "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .06 # Item B12_18: Antwortoption "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .05 USEINFP2$pm[4] <- 0.05 USEINFP2$pm[5] <- 0.06 USEINFP2$pm[6] <- 0.05 knitr::kable(USEINFP2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data.USEINF_PRIV, select = c("B10_02", "B12_09", "B12_10", "B12_11", "B12_13", "B12_18"))) # Items B10_02/B12_10/B12_11/B12_13/B12_18: extreme Schwierigkeit (<= .15; zu schwer): eignen sich nicht zur Erfassung des # Studienbezogenen Nutzungsverhaltens in der vorliegenden studentischen Stichprobe, da sie innerhalb des Merkmalsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren # Items B10_02/B12_11/B12_13/B12_18: niedrige Trennschärfe (< .3) # interne Konsistenz schlechr (< ICILs [.70]), profitiert geringfügig vom Ausschluss des Items B10_02 # Itembatterie Computernutzung für soziale Kommunikation (B12) names(stud1.data) stud1.data.USECOM_PRIV <- stud1.data[,c("B12_BlogsKommentieren", "B12_hochladen","B12_Videokonferenzsoftware","B12_SozialeNetzwerke")] names(stud1.data.USECOM_PRIV) <- c("B12_12", "B12_14", "B12_15", "B12_16") #Häufigkeiten USECOMP<-lapply(stud1.data.USECOM_PRIV, table) %>% bind_rows(.id = "Item") USECOMP<- na_replace(USECOMP,0) USECOMP<- mutate (USECOMP, 'NA' = nrow(stud1.data)-(USECOMP$'1'+USECOMP$'2'+USECOMP$'3'+USECOMP$'4'+USECOMP$'5')) USECOMP<- USECOMP[, c("Item","1", "2","3", "4", "5", "NA")] knitr::kable(USECOMP) #Deskriptive Statistik für ordinale Items USECOMP2<-lapply(stud1.data.USECOM_PRIV,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") # Item B12_14: Antwortoption "5" ("täglich") nicht ausgewählt, Schwierigkeitsindex manuell berechnen: pm = .21 USECOMP2$pm[2] <- 0.21 knitr::kable(USECOMP2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data.USECOM_PRIV, select = c("B12_12", "B12_14", "B12_15", "B12_16"))) # Items B12_12: extreme Schwierigkeit (<= .15; zu schwer): eignen sich nicht zur Erfassung des # Studienbezogenen Nutzungsverhaltens in der vorliegenden studentischen Stichprobe, da sie innerhalb des Merkmalsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren # konsiostent niedrige Trennschärfen (<= .3) # interne Konsistenz nicht vorhanden (.40), keine Skala (<< ICILs [.72]) #Zwischenfazit # - Subskalen, welche die Häufigkeit der privaten Nutzung digitaler Werkzeuge respektive der Durchführung digitaler Aktivitäten erfragen, weisen mehrheitlich schlechte Item- und Skalenkennwerte auf # - mit Ausnahme von USEAPP_PRIV keine angemessene Skalenbildung möglich # - viele Items gehen schwierigkeitsbedingt verloren #Konfirmatorische Faktorenanalysen (Replikation der Faktrorenstruktur nach ICILS? 2013) #Nutzung im Studium #Data frame mit den Items erstellen, welche das Nutzungsverhalten zu Studienzwecken erfassen stud1.data_Nutzung_S <- stud1.data[,c("B9_Nachrichten","B9_Nachschlagewerke", "B9_BücherZeitungen", "B9_Musik", "B9_Filme", "B9_Ausflusziele", "B9_Produktbewertung", "B9_Spielen", "B11_Lernprogramme", "B11_TexteErstellen", "B11_Präsentationen", "B11_multimedialePräsentationen", "B11_Tabellenkalkulationen", "B11_Grafikprogramme", "B11_Audioprogramme", "B11_Videobearbeitung", "B11_FragenForen", "B11_AntwortenForen", "B11_Wikibeiträge", "B11_BlogsKommentieren", "B11_BlogsSchreiben", "B11_hochladen", "B11_Videokonferenzsoftware", "B11_SozialeNetwerke","B11_ComputerprogrammeSchreiben" ,"B11_Webseiten")] #Data frame zur Nutzung im Studium auf Korrektheit prüfen View(stud1.data_Nutzung_S) #Variablennamen im data frame anpassen names(stud1.data_Nutzung_S) <- c("B9_1", "B9_2", "B9_3", "B9_4", "B9_5", "B9_6", "B9_7", "B9_8", "B11_1", "B11_2", "B11_3", "B11_4", "B11_5", "B11_6", "B11_7", "B11_8", "B11_9", "B11_10", "B11_11", "B11_12", "B11_13", "B11_14", "B11_15", "B11_16", "B11_17", "B11_18") #Namensänderung prüfen View(stud1.data_Nutzung_S) #Modellspezifikation (nach ICILs 2013, Gerick et al. 2018, S. 189) Nutz_Stud <- 'USEREC =~ B9_1 + B9_4 + B9_5 + B9_6 + B9_7 USEAPP =~ B11_1 + B11_2 + B11_3 + B11_4 + B11_5 + B11_6 + B11_17 USEINF =~ B11_9 + B11_10 + B11_13 + B11_18 USECOM =~ B11_12 + B11_14 + B11_15 + B11_16' #Modellschätzung fit.Nutz_Stud_MLM <- sem(model = Nutz_Stud, data = stud1.data_Nutzung_S, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.Nutz_Stud_MLM, fit.measures = TRUE, standardized = TRUE) #N = 204; X²(164) = 239.029, X²/df = 1.5; p < .001; CFI (robust) = .84; TLI (robust) = .81; RMSEA (robust) = .051 [.036, .065], p RMSEA <= .05 = .428, p RMSEA >= .080 < .001 SRMR = .081 # globaler Fit: CFI/TLI unzureichend, RMSEA/SRMR adäquat (Grenzwerte nach Hu & Bentler, 1999; Bühner, 2011) # sehr schlechter lokaler Fit, zahlreiche unreliable Items (sehr geringe Ladungen, teils n.s.) mi <- modindices(fit.Nutz_Stud_MLM) mi <- mi[order(-mi$mi),] mi[mi$mi > 4,] #zahlreiche nicht-redundante Modifikationsindizes (Doppelladungen, korrelierte Residuen) #Annahme: fehlspezifiziertes Modell, unreliable manifeste Indikatoren senken die Teststärke des Chi-Quadrat-Modell-Tests sowie der Fit-Indizes # (siehe z.B. Bühner, 2011, S. 428) #-----------------------# #Private Nutzung #Data frame mit den Items erstellen, welche das Nutzungsverhalten zu Studienzwecken erfassen stud1.data_Nutzung_P <- stud1.data[,c("B10_Nachrichten","B10_Nachschlagewerke", "B10_BücherZeitungen", "B10_Musik", "B10_Filme", "B10_Ausflugsziele", "B10_Produktbewertung", "B10_Spielen", "B12_Lernprogramme", "B12_TexteErstellen", "B12_Präsentationen", "B12_multimedialePräsentationen", "B12_Tabellenkalkulationen", "B12_Grafikprogramme", "B12_Audioprogramme", "B12_Videobearbeitung", "B12_FragenForen", "B12_AntwortenForen", "B12_Wikibeiträge", "B12_BlogsKommentieren", "B12_BlogsSchreiben", "B12_hochladen", "B12_Videokonferenzsoftware", "B12_SozialeNetzwerke","B12_ComputerprogrammeSchreiben" ,"B12_Webseiten")] #Data frame zur Nutzung im Studium auf Korrektheit prüfen View(stud1.data_Nutzung_P) #Variablennamen im data frame anpassen names(stud1.data_Nutzung_P) <- c("B10_1", "B10_2", "B10_3", "B10_4", "B10_5", "B10_6", "B10_7", "B10_8", "B12_1", "B12_2", "B12_3", "B12_4", "B12_5", "B12_6", "B12_7", "B12_8", "B12_9", "B12_10", "B12_11", "B12_12", "B12_13", "B12_14", "B12_15", "B12_16", "B12_17", "B12_18") #Namensänderung prüfen View(stud1.data_Nutzung_P) #Modellspezifikation Nutz_Priv <- 'USEREC =~ B10_1 + B10_4 + B10_5 + B10_6 + B10_7 USEAPP =~ B12_1 + B12_2 + B12_3 + B12_4 + B12_5 + B12_6 + B12_17 USEINF =~ B12_9 + B12_10 + B12_13 + B12_18 USECOM =~ B12_12 + B12_14 + B12_15 + B12_16' #Modellschätzung fit.Nutz_Priv_MLM <- sem(model = Nutz_Priv, data = stud1.data_Nutzung_P, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.Nutz_Priv_MLM, fit.measures = TRUE, standardized = TRUE) #X²(164) = 304.938, X²/df = 1.9; p < .001; CFI (robust) = .82; TLI (robust) = .79; RMSEA (robust) = .067 [.055, .079], p RMSEA <= .050 = .010, p RMSEA >= .080 = .034, SRMR = .092 # CFI/TLI unzureichend, SRMR/RMSEA adäquat (Grenzwerte nach Hu & Bentler, 1999; Bühner, 2011) # sehr schlechter lokaler Fit, zahlreiche unreliable Items (sehr geringe Ladungen, teils n.s.) mi <- modindices(fit.Nutz_Stud_MLM) mi <- mi[order(-mi$mi),] mi[mi$mi > 4,] #zahlreiche nicht-redundante Modifikationsindizes (Doppelladungen, korrelierte Residuen) #Annahme: fehlspezifiziertes Modell, unreliable manifeste Indikatoren senken die Teststärke des Chi-Quadrat-Modell-Tests sowie der Fit-Indizes #(siehe z.B. Bühner, 2011, S. 428) #Fazit: Modell in dieser Form für vorliegende Stichprobe verwerfen, exploratives Vorgehen anstreben # Explorative Faktorenanalyse # Nutzung im Studium # Voraussetzungsprüfung: Iteminterkorrelationen # Polychorische Korrelationsmatrix berechnen (alle Variablen als Ordinal betrachten, daher alle Variablennamen spezifiziert unter "ordered") Nutz_Stud_Matrix <-lavaan::lavCor(stud1.data_Nutzung_S, ordered = c("B9_1", "B9_2", "B9_3", "B9_4", "B9_5", "B9_6", "B9_7", "B9_8", "B11_1", "B11_2", "B11_3", "B11_4", "B11_5", "B11_6","B11_7", "B11_8", "B11_9", "B11_10", "B11_11", "B11_12", "B11_13", "B11_14", "B11_15", "B11_16", "B11_17", "B11_18"), missing = "listwise", output = "cor") View(Nutz_Stud_Matrix) # 48% (B9_6) bis 100% (B11_1) redundante ( < .3) polychorische Interitemkorrelationen (Im Durchschnitt 77%) # Voraussetzung für Extraktion einer bedeutungsvollen Faktorenstruktur nicht gegeben (siehe z.B. Field, 2018, Prinzip "garbage in, garbage out") # Private Nutzung # Voraussetzungsprüfung: Iteminterkorrelationen # Polychorische Korrelationsmatrix berechnen (alle Variablen als Ordinal betrachten, daher alle Variablennamen spezifiziert unter "ordered") Nutz_Priv_Matrix <-lavaan::lavCor(stud1.data_Nutzung_P, ordered = c("B10_1", "B10_2", "B10_3", "B10_4", "B10_5", "B10_6", "B10_7", "B10_8", "B12_1", "B12_2", "B12_3", "B12_4", "B12_5", "B12_6","B12_7", "B12_8", "B12_9", "B12_10", "B12_11", "B12_12", "B12_13", "B12_14", "B12_15", "B12_16", "B12_17", "B12_18"), missing = "listwise", output = "cor") View(Nutz_Priv_Matrix) # 52% (B11_17/18) bis 100% (B10_3/4) redundante ( < .3) polychorische Interitemkorrelationen (Im Durchschnitt 82%) # Voraussetzung für Extraktion einer bedeutungsvollen Faktorenstruktur nicht gegeben (siehe z.B. Field, 2018, Prinzip "garbage in, garbage out") # Dichotomisierung der Items in Excel # Deskriptive Statistik (nach Dichotomisierung) # Itemebene #HARDWARE STUDIUM stud1.data_Studium_Hardware <- stud1.data[,c("B3_PC_Stud","B3_NotebookLaptop_Stud","B3_Smartphone_Stud", "B3_Handy_Stud", "B3_TabletIPad_Stud", "B3_Drucker_Stud","B3_Scanner_Stud","B3_USBStick_Stud", "B3_externeFestplatte_Stud", "B3_Speicherkarte_Stud", "B3_MP3MP4PlayerIpod_Stud", "B3_DVDPlayer_Stud", "B3_Radio_Stud", "B3_Fernseher_Stud", "B3_digitaleFotokamera_Stud", "B3_digitaleVideokamera_Stud", "B3_Spielkonsole_Stud")] View(stud1.data_Studium_Hardware) names(stud1.data_Studium_Hardware) <- c("PC","Notebook/Laptop","Smartphone", "Handy", "Tablet/iPad", "Drucker","Scanner","USB-Stick", "Externe Festplatte","Speicherkarte","MP3-Player, MP4-Player,iPod, ...","DVD-Player","Radio","Fernseher", "Digitale Fotokamera","Digitale Videokamera","Spielekonsole") F4Freq <-lapply(stud1.data_Studium_Hardware, table) %>% bind_rows(.id = "column") F4Freq <- na_replace(F4Freq,0) lauf4 <-1 while (lauf4 < 18) { N = (F4Freq$'1'[lauf4] + F4Freq$'0'[lauf4]) F4Freq$'Relative Häufigkeit'[lauf4] <- round((F4Freq$'1'[lauf4]/N)*100, digits = 1) lauf4 = lauf4 +1 } F4Freq <- F4Freq[,c(1,3:4)] names(F4Freq) <- c("Digitales Werkzeug", "Absolute Häufigkeit", "Relative Häufigkeit (%)") kable(F4Freq, caption = "Zu Studienzwecken genutzte digitale Werkzeuge im Bereich Hardware") #HARDWARE PRIVAT stud1.data_Privat_Hardware <- stud1.data[,c("B3_PC_Priv","B3_NotebookLaptop_Priv","B3_Smartphone_Priv", "B3_Handy_Priv", "B3_TabletIPad_Priv", "B3_Drucker_Priv","B3_Scanner_Priv","B3_USBStick_Priv", "B3_externeFestplatte_Priv", "B3_Speicherkarte_Priv", "B3_MP3MP4PlayerIpod_Priv", "B3_DVDPlayer_Priv", "B3_Radio_Priv", "B3_Fernseher_Priv", "B3_digitaleFotokamera_Priv", "B3_digitaleVideokamera_Priv", "B3_Spielkonsole_Priv")] View(stud1.data_Privat_Hardware) names(stud1.data_Privat_Hardware) <- c("PC","Notebook/Laptop","Smartphone", "Handy", "Tablet/iPad", "Drucker","Scanner","USB-Stick", "Externe Festplatte","Speicherkarte","MP3-Player, MP4-Player,iPod, ...","DVD-Player","Radio","Fernseher", "Digitale Fotokamera","Digitale Videokamera","Spielekonsole") F4Freq <-lapply(stud1.data_Privat_Hardware, table) %>% bind_rows(.id = "column") F4Freq <- na_replace(F4Freq,0) lauf4 <-1 while (lauf4 < 18) { N = (F4Freq$'1'[lauf4] + F4Freq$'0'[lauf4]) F4Freq$'Relative Häufigkeit'[lauf4] <- round((F4Freq$'1'[lauf4]/N)*100, digits = 1) lauf4 = lauf4 +1 } F4Freq <- F4Freq[,c(1,3:4)] names(F4Freq) <- c("Digitales Werkzeug", "Absolute Häufigkeit", "Relative Häufigkeit (%)") kable(F4Freq, caption = "Zu privaten Zwecken genutzte digitale Werkzeuge im Bereich Hardware") #SOFTWARE #STUDIUM stud1.data_Studium_Software <- stud1.data[,c("B4_Lernplattform_Stud", "B4_OfficeSoftware_Stud", "B4_Apps_Stud", "B11_Stud_D_Videokonferenzsoftware", "B11_Stud_D_Stud_D_Lernprogramme", "B11_Stud_D_Videobearbeitung","B11_Stud_D_Grafikprogramme", "B11_Stud_D_Audioprogramme")] names(stud1.data_Studium_Software) <- c("Lernplattform (z. B. Opal,moodle, ...)","Office-Software (Schreibprogramm,Tabellen, Präsentation, ...)", "Apps","Videokonferenzsoftware","Lernprogrammme","Bild- und Videobearbeitungsprogamme", "Zeichen-, Mal- und Grafikprogramme","Audioprogramme/Musikbearbeitungssoftware") F4Freq <-lapply(stud1.data_Studium_Software, table) %>% bind_rows(.id = "column") F4Freq <- na_replace(F4Freq,0) lauf4 <-1 while (lauf4 < 9) { N = (F4Freq$'1'[lauf4] + F4Freq$'0'[lauf4]) F4Freq$'Relative Häufigkeit'[lauf4] <- round((F4Freq$'1'[lauf4]/N)*100, digits = 1) lauf4 = lauf4 +1 } F4Freq <- F4Freq[,c(1,3:4)] names(F4Freq) <- c("Digitales Werkzeug", "Absolute Häufigkeit", "Relative Häufigkeit (%)") kable(F4Freq, caption = "Zu Studienzwecken genutzte digitale Werkzeuge im Bereich Software") #PRIVAT stud1.data_Privat_Software <- stud1.data[,c("B4_Lernplattform_Priv", "B4_OfficeSoftware_Priv", "B4_Apps_Priv", "B12_Priv_D_Videokonferenzsoftware", "B12_Priv_D_Lernprogramme", "B12_Priv_D_Videobearbeitung","B12_Priv_D_Grafikprogramme", "B12_Priv_D_Audioprogramme")] names(stud1.data_Privat_Software) <- c("Lernplattform (z. B. Opal,moodle, ...)","Office-Software (Schreibprogramm,Tabellen, Präsentation, ...)", "Apps","Videokonferenzsoftware","Lernprogrammme","Bild- und Videobearbeitungsprogamme", "Zeichen-, Mal- und Grafikprogramme","Audioprogramme/Musikbearbeitungssoftware") F4Freq <-lapply(stud1.data_Privat_Software, table) %>% bind_rows(.id = "column") F4Freq <- na_replace(F4Freq,0) lauf4 <-1 while (lauf4 < 9) { N = (F4Freq$'1'[lauf4] + F4Freq$'0'[lauf4]) F4Freq$'Relative Häufigkeit'[lauf4] <- round((F4Freq$'1'[lauf4]/N)*100, digits = 1) lauf4 = lauf4 +1 } F4Freq <- F4Freq[,c(1,3:4)] names(F4Freq) <- c("Digitales Werkzeug", "Absolute Häufigkeit", "Relative Häufigkeit (%)") kable(F4Freq, caption = "Zu privaten Zwecken genutzte digitale Werkzeuge im Bereich Software") #MEDIEN #AKTIV #STUDIUM stud1.data_Studium_Aktiv <- stud1.data[,c("B5_Nachachlagewerke_Stud_A", "B5_Hoerspiele_Stud_A", "B5_Podcasts_Stud_A", "B5_Ler0videosTutorials_Stud_A", "B11_Stud_D_AntwortenForen.1", "B11_Stud_D_Webseiten.1", "B11_Stud_D_BlogsSchreiben.1", "B11_Stud_D_hochladen.1")] names(stud1.data_Studium_Aktiv) <- c("Nachschlagewerke","Hörspiele","Podcasts","Lernvideos/Tutorials/Erklärvideos","Foren","Webseiten", "Blogs", "Online-Profile/Social Media") F4Freq <-lapply(stud1.data_Studium_Aktiv, table) %>% bind_rows(.id = "column") F4Freq <- na_replace(F4Freq,0) lauf4 <-1 while (lauf4 < 9) { N = (F4Freq$'1'[lauf4] + F4Freq$'0'[lauf4]) F4Freq$'Relative Häufigkeit'[lauf4] <- round((F4Freq$'1'[lauf4]/N)*100, digits = 1) lauf4 = lauf4 +1 } F4Freq <- F4Freq[,c(1,3:4)] names(F4Freq) <- c("Digitales Werkzeug", "Absolute Häufigkeit", "Relative Häufigkeit (%)") kable(F4Freq, caption = "Zu Studienzwecken aktiv genutzte digitale Werkzeuge im Bereich Multimedia") #PRIVAT stud1.data_Privat_Aktiv <- stud1.data[,c("B6_Nachachlagewerke_Priv_A", "B6_Hoerspiele_Priv_A", "B6_Podcasts_Priv_A", "B6_Ler0videosTutorials_Priv_A", "B12_Priv_D_AntwortenForen.1", "B12_Priv_D_Webseiten.1", "B12_Priv_D_BlogsSchreiben.1", "B12_Priv_D_hochladen.1")] names(stud1.data_Privat_Aktiv) <- c("Nachschlagewerke","Hörspiele","Podcasts","Lernvideos/Tutorials/Erklärvideos","Foren","Webseiten", "Blogs", "Online-Profile/Social Media") F4Freq <-lapply(stud1.data_Privat_Aktiv, table) %>% bind_rows(.id = "column") F4Freq <- na_replace(F4Freq,0) lauf4 <-1 while (lauf4 < 9) { N = (F4Freq$'1'[lauf4] + F4Freq$'0'[lauf4]) F4Freq$'Relative Häufigkeit'[lauf4] <- round((F4Freq$'1'[lauf4]/N)*100, digits = 1) lauf4 = lauf4 +1 } F4Freq <- F4Freq[,c(1,3:4)] names(F4Freq) <- c("Digitales Werkzeug", "Absolute Häufigkeit", "Relative Häufigkeit (%)") kable(F4Freq, caption = "Zu privaten Zwecken aktiv genutzte digitale Werkzeuge im Bereich Multimedia") #PASSIV STUDIUM stud1.data_Studium_Passiv <- stud1.data[,c("B5_Nachachlagewerke_Stud_P", "B5_Hoerspiele_Stud_P", "B5_Podcasts_Stud_P", "B5_Ler0videosTutorials_Stud_P", "B11_Stud_D_FragenForen.1", "B9_1_6_7_Kombi_Webseiten.1", "B11_Stud_D_BlogsKommentieren.1", "B11_Stud_D_Sozialenetwerke.1")] names(stud1.data_Studium_Passiv) <- c("Nachschlagewerke","Hörspiele","Podcasts","Lernvideos/Tutorials/Erklärvideos","Foren","Webseiten", "Blogs", "Online-Profile/Social Media") F4Freq <-lapply(stud1.data_Studium_Passiv, table) %>% bind_rows(.id = "column") F4Freq <- na_replace(F4Freq,0) lauf4 <-1 while (lauf4 < 9) { N = (F4Freq$'1'[lauf4] + F4Freq$'0'[lauf4]) F4Freq$'Relative Häufigkeit'[lauf4] <- round((F4Freq$'1'[lauf4]/N)*100, digits = 1) lauf4 = lauf4 +1 } F4Freq <- F4Freq[,c(1,3:4)] names(F4Freq) <- c("Digitales Werkzeug", "Absolute Häufigkeit", "Relative Häufigkeit (%)") kable(F4Freq, caption = "Zu Studienzwecken passiv genutzte digitale Werkzeuge im Bereich Multimedia") #PRIVAT stud1.data$B10_1_6_7_Kombi_Webseiten.1 stud1.data_Privat_Passiv <- stud1.data[,c("B6_Nachachlagewerke_Priv_P", "B6_Hoerspiele_Priv_P", "B6_Podcasts_Priv_P", "B6_Ler0videosTutorials_Priv_P", "B12_Priv_D_FragenForen.1", "B10_1_6_7_Komb_Webseiten.1", "B12_Priv_D_BlogsKommentieren.1", "B12_Priv_D_Sozialenetzwerke.1")] names(stud1.data_Privat_Passiv) <- c("Nachschlagewerke","Hörspiele","Podcasts","Lernvideos/Tutorials/Erklärvideos","Foren","Webseiten", "Blogs", "Online-Profile/Social Media") F4Freq <-lapply(stud1.data_Privat_Passiv, table) %>% bind_rows(.id = "column") F4Freq <- na_replace(F4Freq,0) lauf4 <-1 while (lauf4 < 9) { N = (F4Freq$'1'[lauf4] + F4Freq$'0'[lauf4]) F4Freq$'Relative Häufigkeit'[lauf4] <- round((F4Freq$'1'[lauf4]/N)*100, digits = 1) lauf4 = lauf4 +1 } F4Freq <- F4Freq[,c(1,3:4)] names(F4Freq) <- c("Digitales Werkzeug", "Absolute Häufigkeit", "Relative Häufigkeit (%)") kable(F4Freq, caption = "Zu privaten Zwecken passiv genutzte digitale Werkzeuge im Bereich Multimedia") #Skalenebene #Privat #Hardware HP <- tab1(stud1.data$Hardware_Summe_Privat) HP <- as.data.frame(HP$output.table) HP <- HP[,c(1:2)] names(HP) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(HP, caption = "Anzahl privat genutzter digitaler Werkzeuge im Bereich Hardware") describe(stud1.data$Hardware_Summe_Privat) # M = 11.07, SD = 2.55, SE = 0.18 #Software SP <- tab1(stud1.data$Software_Summe_Privat) SP <- as.data.frame(SP$output.table) SP <- SP[,c(1:2)] names(SP) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(SP, caption = "Anzahl privat genutzter digitaler Werkzeuge im Bereich Software") describe(stud1.data$Software_Summe_Privat) # M = 4.94, SD = 1.50, SE = 0.10 #Medien aktiv MaP <- tab1(stud1.data$Medien_aktiv_Summe_Privat) MaP <- as.data.frame(MaP$output.table) MaP <- MaP[,c(1:2)] names(MaP) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(MaP, caption = "Anzahl privat genutzter digitaler Werkzeuge im Bereich Medienproduktion") describe(stud1.data$Medien_aktiv_Summe_Privat) # M = 1.06, SD = 0.90, SE = 0.06 #Medien passiv MpP <- tab1(stud1.data$Medien_passiv_Summe_Privat) MpP <- as.data.frame(MpP$output.table) MpP <- MpP[,c(1:2)] names(MpP) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(MpP, caption = "Anzahl privat genutzter digitaler Werkzeuge im Bereich Medienkonsum") describe(stud1.data$Medien_passiv_Summe_Privat) # M = 5.34, SD = 1.38, SE = 0.10 #Studium #Hardware HSt <- tab1(stud1.data$Hardware_Summe_Studium) HSt <- as.data.frame(HSt$output.table) HSt <- HSt[,c(1:2)] names(HSt) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(HSt, caption = "Anzahl zu Studienzwecken genutzter digitaler Werkzeuge im Bereich Hardware") describe(stud1.data$Hardware_Summe_Studium) # M = 7.80, SD = 2.23, SE = 0.16 #Software SSt <- tab1(stud1.data$Software_Summe_Studium) SSt <- as.data.frame(SSt$output.table) SSt <- SP[,c(1:2)] names(SSt) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(SSt, caption = "Anzahl zu Studienzwecken genutzter digitaler Werkzeuge im Bereich Software") describe(stud1.data$Software_Summe_Studium) # M = 6.09, SD = 1.41, SE = 0.10 #Medien aktiv MaSt <- tab1(stud1.data$Medien_aktiv_Summe_Studium) MaSt <- as.data.frame(MaSt$output.table) MaSt <- MaSt[,c(1:2)] names(MaSt) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(MaSt, caption = "Anzahl zu Studienzwecken genutzter digitaler Werkzeuge im Bereich Medienproduktion") describe(stud1.data$Medien_aktiv_Summe_Studium) # M = 0.80, SD = 0.93, SE = 0.07 #Medien passiv MpSt <- tab1(stud1.data$Medien_passiv_Summe_Studium) MpSt <- as.data.frame(MpSt$output.table) MpSt <- MpSt[,c(1:2)] names(MpSt) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(MpSt, caption = "Anzahl zu Studienzwecken genutzter digitaler Werkzeuge im Bereich Medienkonsum") describe(stud1.data$Medien_passiv_Summe_Studium) # M = 5.06, SD = 1.34, SE = 0.09 #Vergleiche zwischen Nutzungskontexten & Art der digitalen Werkzeuge --> t-Tests für abhängige Stichproben # Hardwarenutzung: Privat vs. Studium # Deskriptive Voranalyse describe(stud1.data$Hardware_Summe_Privat) describe(stud1.data$Hardware_Summe_Studium) # t-Test t.H <- t.test(stud1.data$Hardware_Summe_Privat, stud1.data$Hardware_Summe_Studium, paired = TRUE) t.H t.H$stderr # Standardfehler der mittleren Differenz angeben #t (203) = 19.11, p < .001, p adjustiert < .001 (Bonferroni) #mittlere Differenz: 3.27 (SE = 0.17), 95%CI [2.93, 3.61] #Effektgröße berechnen cohensD(stud1.data$Hardware_Summe_Privat, stud1.data$Hardware_Summe_Studium, method = "paired") #1.34 --> großer Effekt #Die Studierenden nutzen zu privaten Zwecken im Mittel signfikant mehr digitale Werkzeuge im Bereich Hardware, es handelt sich um einen großen Effekt. # Softwarenutzung: Privat vs. Studium # Deskriptive Voranalyse describe(stud1.data$Software_Summe_Privat) describe(stud1.data$Software_Summe_Studium) # t-Test t.S <- t.test(stud1.data$Software_Summe_Privat, stud1.data$Software_Summe_Studium, paired = TRUE) t.S t.S$stderr # Standardfehler der mittleren Differenz angeben #t (203) = -11.10, p < .001, p adjustiert < .001 (Bonferroni) #mittlere Differenz: -1.15 (SE = 0.10), 95%CI [-1.36, -0.95] #Effektgröße berechnen cohensD(stud1.data$Software_Summe_Privat, stud1.data$Software_Summe_Studium, method = "paired") #0.78 --> moderater Effekt #Die Studierenden nutzen zu privaten Zwecken im Mittel signfikant weniger digitale Werkzeuge im Bereich Software, es handelt sich um einen moderaten Effekt. # Aktive Mediennutzung: Privat vs. Studium # Deskriptive Voranalyse describe(stud1.data$Medien_aktiv_Summe_Privat) describe(stud1.data$Medien_aktiv_Summe_Studium) # t-Test t.Ma <- t.test(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Medien_aktiv_Summe_Studium, paired = TRUE) t.Ma t.Ma$stderr # Standardfehler der mittleren Differenz angeben #t (203) = 3.59, p = .0004214, p adjustiert = .0016856 (Bonferroni) #mittlere Differenz: 0.26 (SE = 0.07), 95%CI [0.12, 0.41] #Effektgröße berechnen cohensD(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Medien_aktiv_Summe_Studium, method = "paired") #0.25 --> kleiner Effekt #Die Studierenden nutzen zu privaten Zwecken im Mittel signfikant mehr digitale Werkzeuge im Bereich Medien aktiv (Medienproduktion), es handelt sich um einen kleinen Effekt. # Passive Mediennutzung: Privat vs. Studium # Deskriptive Voranalyse describe(stud1.data$Medien_passiv_Summe_Privat) describe(stud1.data$Medien_passiv_Summe_Studium) # t-Test t.Mp <- t.test(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Medien_passiv_Summe_Studium, paired = TRUE) t.Mp t.Mp$stderr # Standardfehler der mittleren Differenz angeben #t (203) = 2.68, p = .008031, p adjustiert = .32124 (Bonferroni) #mittlere Differenz: 0.28 (SE = 0.10), 95%CI [0.07, 0.49] #Effektgröße berechnen cohensD(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Medien_passiv_Summe_Studium, method = "paired") #0.19 --> kleiner Effekt #Die Studierenden nutzen zu privaten Zwecken im Mittel signfikant mehr digitale Werkzeuge im Bereich Medien passiv (Medienkonsum), es handelt sich um einen kleinen Effekt. #--------- Item- und Skalenanalysen Selbstkonzept --------# #Kriterien: # Itemschwierigkeit (.15 < pm < .85) /Antwortverteilung (Schiefe/Kurtosis) # Trennschärfe > .3 # Reliabilität (interne Konsistenz) nach Itemausschluss < Reliabilität vor Itemausschluss #Computerbezogenes Engagement (ICILS: ?,k = 8) stud1.data.Engage <- stud1.data[,c("B7_01", "B7_02","B7_03","B7_04", "B7_05","B7_06", "B7_07", "B7_08")] #Häufigkeiten ENGAGE<-lapply(stud1.data.Engage, table) %>% bind_rows(.id = "Item") ENGAGE<- na_replace(ENGAGE,0) ENGAGE<- mutate (ENGAGE, 'NA' = nrow(stud1.data)-(ENGAGE$'1'+ENGAGE$'2'+ENGAGE$'3'+ENGAGE$'4')) ENGAGE<- ENGAGE[, c("Item","1", "2","3", "4", "NA")] knitr::kable(ENGAGE) #Deskriptive Statistik für ordinale Items ENGAGE2<-lapply(stud1.data.Engage,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") knitr::kable(ENGAGE2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data, select = c("B7_01", "B7_02","B7_03","B7_04", "B7_05","B7_06", "B7_07", "B7_08"))) # Items B7_05/B7_06/B7_08: Ausschluss aufgrund der extremen Schwierigkeit (< .15; zu schwer): eignen sich nicht zur Erfassung des # computerbezogenen Engagements in der vorliegenden studentischen Stichprobe, da sie innerhalb des Fähigkeitsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren #Interesse/Vergnügen beim Umgang mit IT/digitalen Werkzeugen (ICILS: S_INTRST,k = 11) stud1.data.Int <- stud1.data[,c("B8_01", "B8_02","B8_03","B8_04", "B8_05","B8_06","B8_07","B8_08", "B8_09","B8_10","B8_11")] #Häufigkeiten INTRST<-lapply(stud1.data.Int, table) %>% bind_rows(.id = "Item") INTRST<- na_replace(INTRST,0) INTRST<- mutate (INTRST, 'NA' = nrow(stud1.data)-(INTRST$'1'+INTRST$'2'+INTRST$'3'+INTRST$'4')) INTRST<- INTRST[, c("Item","1", "2","3", "4", "NA")] knitr::kable(INTRST) #Deskriptive Statistik für ordinale Items INTRST2<-lapply(stud1.data.Int,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") INTRST2$pm[2] <- .68 #B8_02, Antwortkategorie "stimme gar nicht zu" nicht ausgewählt --> Berechnung pm manuell: pm = .68 knitr::kable(INTRST2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data, select = c("B8_01", "B8_02","B8_03","B8_04", "B8_05","B8_06","B8_07","B8_08", "B8_09","B8_10","B8_11"))) #Ausschluss des Items B8_11 (Trennschärfe, d.h. korrigierte Item-Skalen-Korrelation r.drop <= .3;Zuwachs der Reliabilitätsschätzung #bei Ausschluss,inhaltliche Diskrepanz zu übrigen Items, Fokus "Internet" anstatt "digitale Werkzeuge") #Computerbezogene Selbstwirksamkeitserwartung, basale Fähigkeiten (ICILS: S_BASEFF,k = 6) stud1.data.Selbst1 <- stud1.data[,c("B14_01", "B14_03","B14_05","B14_06", "B14_12","B14_13")] #Häufigkeiten BASEFF<-lapply(stud1.data.Selbst1, table) %>% bind_rows(.id = "Item") BASEFF<- na_replace(BASEFF,0) BASEFF<- mutate (BASEFF, 'NA' = nrow(stud1.data)-(BASEFF$'1'+BASEFF$'2'+BASEFF$'3'+BASEFF$'4')) BASEFF<- BASEFF[, c("Item","1", "2","3", "4", "NA")] knitr::kable(BASEFF) #Deskriptive Statistik für ordinale Items BASEFF2<-lapply(stud1.data.Selbst1,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") #Item B14_06, Antwortkategorie "stimme eher nicht zu" nicht ausgewählt --> Berechnung pm manuell: pm = .96 #Item B14_13, Antwortkategorie "stimme gar nicht zu" nicht ausgewählt --> Berechnung pm manuell: pm = .81 BASEFF2$pm[4] <- .96 BASEFF2$pm[6] <- .81 knitr::kable(BASEFF2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data, select = c("B14_01", "B14_03","B14_05","B14_06", "B14_12","B14_13"))) # Items B14_1/B14_5/B14_6: Ausschluss aufgrund der extremen Schwierigkeit (> . 85; zu leicht): eignen sich nicht zur Erfassung der # computerbezogenen Selbstwirksamkeitserwartung in der vorliegenden studentischen Stichprobe, da sie innerhalb des Fähigkeitsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren #Computerbezogene Selbstwirksamkeitserwartung, fortgeschrittene Fähigkeiten (ICILS: S_ADVEFF,k = 7) stud1.data.Selbst2 <- stud1.data[,c("B14_02", "B14_04","B14_07","B14_08", "B14_09","B14_10", "B14_11")] #Häufigkeiten ADVEFF<-lapply(stud1.data.Selbst2, table) %>% bind_rows(.id = "Item") ADVEFF<- na_replace(ADVEFF,0) ADVEFF<- mutate (ADVEFF, 'NA' = nrow(stud1.data)-(ADVEFF$'1'+ADVEFF$'2'+ADVEFF$'3'+ADVEFF$'4')) ADVEFF<- ADVEFF[, c("Item","1", "2","3", "4", "NA")] knitr::kable(ADVEFF) #Deskriptive Statistik für ordinale Items ADVEFF2<-lapply(stud1.data.Selbst2,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") #Item B14_10, Antwortkategorie "stimme voll zu" nicht ausgewählt --> Berechnung pm manuell: pm = .14 ADVEFF2$pm[6] <- .14 knitr::kable(ADVEFF2) #Reliabilitätsanalyse psych::alpha(subset(stud1.data, select = c("B14_02", "B14_04","B14_07","B14_08", "B14_09","B14_10", "B14_11"))) # Item B14_10: Ausschluss aufgrund der extremen Schwierigkeit (< .15; zu schwer);eignet sich nicht zur Erfassung der # computerbezogenen Selbstwirksamkeitserwartung in einer studentischen Stichprobe, da es innerhalb des Fähigkeitsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenziert #Technologiebezogene Kompetenzeinschätzung (ICILS: T_TEFF,k = 7) stud1.data.Komp <- stud1.data[,c("B14_02", "B14_04","B14_07","B14_08", "B14_09","B14_10", "B14_11")] #Häufigkeiten TEFF<-lapply(stud1.data.Komp, table) %>% bind_rows(.id = "Item") TEFF<- na_replace(TEFF,0) TEFF<- mutate (TEFF, 'NA' = nrow(stud1.data)-(TEFF$'1'+TEFF$'2'+TEFF$'3'+TEFF$'4')) TEFF<- TEFF[, c("Item","1", "2","3", "4", "NA")] knitr::kable(TEFF) #Deskriptive Statistik für ordinale Items TEFF<-lapply(stud1.data.Komp,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") #Item B14_14, Antwortkategorie "stimme gar nicht zu" nicht ausgewählt --> Berechnung pm manuell: pm = .97 #Item B14_15, Antwortkategorie "stimme gar nicht zu" nicht ausgewählt --> Berechnung pm manuell: pm = .96 #Item B14_16, Antwortkategorie "stimme gar nicht zu" nicht ausgewählt --> Berechnung pm manuell: pm = .94 TEFF$pm[1] <- .97 TEFF$pm[2] <- .96 TEFF$pm[3] <- .94 knitr::kable(TEFF) #Reliabilitätsanalyse psych::alpha(subset(stud1.data, select = c("B14_02", "B14_04","B14_07","B14_08", "B14_09","B14_10", "B14_11"))) # # Items B14_14/B14_15/B14_16/B14_18: Ausschluss aufgrund der extremen Schwierigkeit (> . 85; zu leicht): eignen sich nicht zur Erfassung der # computerbezogenen Selbstwirksamkeitserwartung in der vorliegenden studentischen Stichprobe, da sie innerhalb des Fähigkeitsbereichs der # Zielpopulation auf dem latenten Konstrukt nicht hinreichend differenzieren # Einzelne Itembatterien (BASEFF, ADVEFF, TEFF) mit vgl. geringer Reliabilität und jeweils Abdeckung eines begrenzten Schwierigkeitsbereichs, Kombination zu gemeinsamer Itembatterie? stud1.data_kombi <- stud1.data[,c("B14_02", "B14_03", "B14_04","B14_07","B14_08", "B14_09","B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20")] #Häufigkeiten KOMBI<-lapply(stud1.data_kombi, table) %>% bind_rows(.id = "Item") KOMBI<- na_replace(KOMBI,0) KOMBI<- mutate (KOMBI, 'NA' = nrow(stud1.data)-(KOMBI$'1'+KOMBI$'2'+KOMBI$'3'+KOMBI$'4')) KOMBI<- KOMBI[, c("Item","1", "2","3", "4", "NA")] knitr::kable(KOMBI) #Deskriptive Statistik für ordinale Items KOMBI2<-lapply(stud1.data_kombi,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") #Item B14_13, Antwortkategorie "stimme gar nicht zu" nicht ausgewählt --> Berechnung pm manuell: pm = .81 KOMBI2$pm[9] <- .81 knitr::kable(KOMBI2) #Abdeckung eines breiten Schwierigkeitsbereiches .18 -.81 #Reliabilitätsanalyse psych::alpha(subset(stud1.data, select = c("B14_02", "B14_03", "B14_04","B14_07","B14_08", "B14_09","B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20"))) #angemessene Reliabilität & Trennschärfen # Fazit Item- und Skalenanalysen: k = 39 ---> k = 27 # - Einige Items aus den ICILS-Fragebögen für Schüler und Lehrer differenzieren in Fähigkeitsbereichen, die durch die vorliegenden studentische Stichprobe nicht abgedeckt werden # - Items aus dem Schülerfragebogen sind für Studenten, die schon mehr computer- und technikbezogene Kompetenzen erwerben konnten als Schüler der 8. Klasse, teils zu leicht # - Items aus dem Lehrerfragebogen sind für Studenten, die im Gegensatz zur Mehrheit der Lehrenden, der Generation der „digital natives“ angehören, teils zu leicht # - Items aus dem Schülerfragebogen, welche das computer-/DW-bezogene Engagement erfragen, sind für Studierende eines wenig technischen/informatischen Studiengangs teils zu schwer # - Itempool weicht von der EFA im Rahmen von ICILS 2013 deutlich ab --> exploratives Vorgehen anstreben # ----- Explorative Faktorenanalyse ------# # Voraussetzungsprüfung # 1. Iteminterkorrelationen dataKonzept27 <- stud1.data[,c("B7_01", "B7_02", "B7_03", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_03", "B14_04", "B14_07","B14_08", "B14_09", "B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20")] KonzeptMatrix27 <-lavaan::lavCor(dataKonzept27, ordered = c("B7_01", "B7_02", "B7_03", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_03", "B14_04", "B14_07","B14_08", "B14_09", "B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "cor") KonzeptMatrixInfo27 <-lavaan::lavCor(dataKonzept27, ordered = c("B7_01", "B7_02", "B7_03", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_03", "B14_04", "B14_07","B14_08", "B14_09", "B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "fit") # Iterativer Ausschluss der Items: # 1. B7_03: 88% Iteminterkorrelationen < .3 dataKonzept26 <- stud1.data[,c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_03", "B14_04", "B14_07","B14_08", "B14_09", "B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20")] KonzeptMatrix26 <-lavaan::lavCor(dataKonzept26, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_03", "B14_04", "B14_07","B14_08", "B14_09", "B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "cor") KonzeptMatrixInfo26 <-lavaan::lavCor(dataKonzept26, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_03", "B14_04", "B14_07","B14_08", "B14_09", "B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "fit") # 2. B14_09: 80% Iteminterkorrelationen < .3 dataKonzept25 <- stud1.data[,c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_03", "B14_04", "B14_07","B14_08","B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20")] KonzeptMatrix25 <-lavaan::lavCor(dataKonzept25, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_03", "B14_04", "B14_07","B14_08","B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "cor") KonzeptMatrixInfo25 <-lavaan::lavCor(dataKonzept25, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_03", "B14_04", "B14_07","B14_08","B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "fit") # 3. B14_03: 75% Iteminterkorrelationen < .3 dataKonzept24 <- stud1.data[,c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_04", "B14_07","B14_08","B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20")] KonzeptMatrix24 <-lavaan::lavCor(dataKonzept24, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_04", "B14_07","B14_08","B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "cor") KonzeptMatrixInfo24 <-lavaan::lavCor(dataKonzept24, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_04", "B14_07","B14_08","B14_11", "B14_12", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "fit") # 4. B14_04/B14_12: 74% Iteminterkorrelationen < .3 dataKonzept22 <- stud1.data[,c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_07","B14_08","B14_11", "B14_13", "B14_17", "B14_19", "B14_20")] KonzeptMatrix22 <-lavaan::lavCor(dataKonzept22, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_07","B14_08","B14_11", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "cor") KonzeptMatrixInfo22 <-lavaan::lavCor(dataKonzept22, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_07","B14_08","B14_11", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "fit") # 5. B14_11: 71% Iteminterkorrelationen < .3 dataKonzept21 <- stud1.data[,c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_07","B14_08", "B14_13", "B14_17", "B14_19", "B14_20")] KonzeptMatrix21 <-lavaan::lavCor(dataKonzept21, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_07","B14_08", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "cor") KonzeptMatrixInfo21 <-lavaan::lavCor(dataKonzept21, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_07","B14_08","B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "fit") # kein weiteres Item mit >70% Iteminterkorrelationen <.3 #------- Explorative Faktorenanalyse Selbstkonzept --------# # 2. Bartlett-Test cortest.bartlett(KonzeptMatrix21,n = 204) #X²(210) = 3008.161, p < .001 # 3. KMO berechnen und ausgeben, für Einzelitems in Tabelle KMOinfo = KMO(KonzeptMatrix21) #global print (KMOinfo$MSA, digits = 2) #.85 #lokal knitr::kable(KMOinfo$MSAi, digits = 2) #.77 -.91 # Faktorenextraktion # Anzahl der zu extrahierenden Faktoren bestimmen # Parallelanalyse, Kaisers Kriterium, Scree-Plot ev <- eigen(KonzeptMatrix21) ap <- parallel(subject = 204, var=21, rep=100, cent = 0.05) nS <- nScree(x=ev$values,aparallel=ap$eigen$qevpea, cor = TRUE) plotnScree(nS) # Screeplot:uneindeutig, da unterschiedliche Meinungen zum Ein-/Ausschluss des Faktors im "Knick" (2/3); Parallelanalyse: 2 Faktoren, Kaisers Criterion: 4 Faktoren # mit nFactors, d.h. u.a. mit MAP-Test # n = 4 siehe Kaisers Kriterium (Eigenwerte), Faktorenzahl zwischen 2 und 4 # hier mit Oblimin-Rotation (Erwartung hinreichend korrelierter Faktoren, siehe Schwanzer et al.2005; Field, 2018) # und wls-Faktorenanalyse (Weightes Least Squares,siehe Barendse, Oort, und Timmermann 2015) nfactors(KonzeptMatrix21, n.obs = 204, n = 4, rotate = "oblimin", fm = "wls") #Velicer MAP/Empirical BIC: 3 Faktoren #Durchführung mit 3 Faktoren #Durchführung WLS-EFA mit k = 21, Vorgabe: Extraktion 3 Faktoren, zahlreiche unterschiedliche zufällige Startpunkte (n.rotations) # und Iterationen (max.iter) um Konvergenz zu lokalen Minima zu verhindern (siehe Nguyen & Waller, 2022) EFA_Konzept_WLS_3 <-fa(KonzeptMatrix21,nfactors = 3, n.obs = 204, rotate = "oblimin", warnings = T,oblique.scores = TRUE, fm = "wls", cor = "poly", n.rotations = 2000, max.iter = 15000) print(EFA_Konzept_WLS_3, digits = 2, cut = .3) #Eigenwerte (nach Extraktion & Rotation) und erklärte Varianz ausgeben kable(EFA_Konzept_WLS_3$Vaccounted, digits = 2) # 3 Faktoren; Varianzaufklärung: 55% (20/19/15%); moderat interkorreliert #Kommunalitäten ausgeben knitr::kable(EFA_Konzept_WLS_3$communality, digits = 2) # .23-.97 #Ausschluss Item B14_07: Kommunalität << .3 dataKonzept20 <- stud1.data[,c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_08", "B14_13", "B14_17", "B14_19", "B14_20")] KonzeptMatrix20 <-lavaan::lavCor(dataKonzept20, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_08", "B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "cor") KonzeptMatrixInfo20 <-lavaan::lavCor(dataKonzept20, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_01", "B8_02", "B8_03", "B8_04", "B8_05", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_08","B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "fit") EFA_Konzept_WLS_3_20 <-fa(KonzeptMatrix20,nfactors = 3, n.obs = 204, rotate = "oblimin", warnings = T,oblique.scores = TRUE, fm = "wls", cor = "poly", n.rotations = 2000, max.iter = 15000) print(EFA_Konzept_WLS_3_20, digits = 2, cut = .3) #Eigenwerte (nach Extraktion & Rotation) und erklärte Varianz ausgeben kable(EFA_Konzept_WLS_3_20$Vaccounted, digits = 2) # 3 Faktoren; Varianzaufklärung: 56% (21/21/15%); moderat interkorreliert #Kommunalitäten ausgeben knitr::kable(EFA_Konzept_WLS_3_20$communality, digits =2) #Ladungen ausgeben (Pattern Matrix) #zunächst Ladungen aus Liste Spaltenweise zu Data.frames umwandeln l <-data.frame(EFA_Konzept_WLS_3_20$loadings[,1]) l1<-data.frame(EFA_Konzept_WLS_3_20$loadings[,2]) l2<-data.frame(EFA_Konzept_WLS_3_20$loadings[,3]) #Data.frames zusammenfügen loadEFA <- l %>% bind_cols(l1) loadEFA <- loadEFA %>% bind_cols(l2) #Ladungen als Tabelle ausgeben kable(loadEFA, digits = 2) #Interpretation der Ladungen (ab r = .4/ R² = 16%, Field, 2018) # Faktor: Interesse/Vergnügen/Engagement im Umgang mit digitalen Werkzeugen (konativ/motivational)? # B7_01: Ich unterhalte mich gern mit Freunden über aktuelle Entwicklungen von digitalen Werkzeugen. # B7_02: Ich bin sehr interessiert, wenn mir Freunde neue Dinge von digitalen Werkzeugen zeigen. # B8_10: Ich suche oft nach neuen Möglichkeiten, Dinge mit digitalen Werkzeugen zu erledigen. # B8_08: Es gefällt mir, neue Dinge im Umgang mit digitalen Werkzeugen zu lernen. # B8_06: Ich benutzte digitale Werkzeuge, weil mich die Technik sehr interessiert. # B7_07: Um neues über Computer- und Videospiele zu erfahren, unterhalte ich mich im Freundeskreis gern darüber. # B7_04: Wenn ich ein neues Mobiltelefon habe, erkläre ich anderen gern, was es alles kann. # --> alle Ladungen >= .4; stichprobenunabhängig stabil mit 4 Ladungen > .6 # Faktor: Computerbezogene Selbstwirksamkeitserwartung ? (kognitiv-evaluativ, aufgabenspezifisch) # B14_19: Zusammenarbeit mit anderen mit Hilfe von gemeinsam genutzten Ressourcen (z.B. Google Docs). # B14_20: Programme/Software installieren. # B14_02: Software benutzen, um Viren zu finden und zu beseitigen. # B14_17: In einem Diskussionsforum/einer Benutzergruppe im Internet (z.B. Wiki oder Blog) mitmachen. # B14_08: Die Einstellungen am Computer ändern, um ihn funktionsfähiger zu machen oder Probleme zu beheben. #[ B14_13: Texte, Bilder oder Videos auf ein Online-Profil hochladen.] #---> 5 Ladungen > .4, Item B14_13 lädt nur mit .3 auf Faktor Selbstwirksamkeit, aber bezogen auf die Zielgruppe inhaltlich bedeutsames Item (vorerst Einschluss) # Faktor: Kompetenz im Umgang mit digitalen Werkzeugen ? # B8_02: Es fällt mir leicht, den Umgang mit neuen digitalen Werkzeugen zu lernen. # B8_04: Ich konnte schon immer gut mit digitalen Werkzeugen arbeiten. # B8_09: Ich kann anderen helfen, wenn sie Probleme mit digitalen Werkzeugen haben. # B8_07: Ich schätze mich im Umgang mit digitalen Werkzeugen kompetenter ein als die meisten meiner Kommilitonen. # B8_01: Es ist sehr wichtig für mich, mit digitalen Werkzeugen zu arbeiten. # B8_03: Mir macht die Nutzung digitaler Medien Spaß. # B8_05:Es macht mir mehr Spaß, meine Arbeit mit digitalen Werkzeugen zu erledigen als ohne. #--> Konfundierung kognitiv-evluativer und motivationaler Aspekte, Items B8_01, B8_03 und B8_05 zeigen dementsprechend auch Doppelladungen > .3 auf Interesse/Vergnügen (konativ-motivationale Facette) # Intuitiv: inhaltlich motivierte Zuordnung der Items zu Interesse/Vergnügen (trotz niedriger Ladung), aber gleichzeitig Frage nach inhaltlicher Passung der Items B8_05 und B8_01? # Erweitern Skala, die mutmaßlich Interesse/Vergnügen im Umgang mit digitalen Werkzeugen erfasst, um weitere Aspekte (Arbeitskontext, Wichtigkeit) # Mutmaßlich nicht trennscharf/eindimensional # Ausschluss der Items B8_01 und B8_5 # Wiederholung mit K =3/k = 18 # Datenauswahl: Computerbezogenes Selbstkonzept dataKonzept18 <- stud1.data[,c("B7_01", "B7_02", "B7_04", "B7_07", "B8_02", "B8_03", "B8_04", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_08","B14_13", "B14_17", "B14_19", "B14_20")] View(dataKonzept18) #Polychorische Korrelationsmatrizen berechnen (alle Variablen als Ordinal betrachten, daher alle Variablennamen spezifiziert unter "ordered") KonzeptMatrix18 <-lavaan::lavCor(dataKonzept18, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_02", "B8_03", "B8_04", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_08","B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "cor") # Lavaan-Objekt generieren, enthält unter anderem Sample Statistics wie Ntotal (Fallzahl, hier N = 204) KonzeptMatrixInfo18 <-lavaan::lavCor(dataKonzept18, ordered = c("B7_01", "B7_02", "B7_04", "B7_07", "B8_02", "B8_03", "B8_04", "B8_06", "B8_07", "B8_08", "B8_09", "B8_10", "B14_02", "B14_08","B14_13", "B14_17", "B14_19", "B14_20"), missing = "listwise", output = "fit") EFA_Konzept_WLS_3_18 <-fa(KonzeptMatrix18,nfactors = 3, n.obs = 204, rotate = "oblimin", warnings = T,oblique.scores = TRUE, fm = "wls", cor = "poly", n.rotations = 2000, max.iter = 15000) print(EFA_Konzept_WLS_3_18, digits = 2, cut = .3) #Eigenwerte (nach Extraktion & Rotation) und erklärte Varianz ausgeben kable(EFA_Konzept_WLS_3_18$Vaccounted, digits = 2) # 3 Faktoren; Varianzaufklärung: 57% (21/21/16%); mittel bis hoch korreliert #Kommunalitäten ausgeben knitr::kable(EFA_Konzept_WLS_3_18$communality, digits = 2) # .31-.92 #Ladungen ausgeben (Pattern Matrix) #zunächst Ladungen aus Liste Spaltenweise zu Data.frames umwandeln l <-data.frame(EFA_Konzept_WLS_3_18$loadings[,1]) l1<-data.frame(EFA_Konzept_WLS_3_18$loadings[,2]) l2<-data.frame(EFA_Konzept_WLS_3_18$loadings[,3]) #Data.frames zusammenfügen loadEFA <- l %>% bind_cols(l1) loadEFA <- loadEFA %>% bind_cols(l2) #Ladungen als Tabelle ausgeben kable(loadEFA, digits = 2) # Faktor: Kompetenz im Umgang mit digitalen Werkzeugen (kogntiv-evaluativ, global/aufgabenunspezifisch) # B8_02: Es fällt mir leicht, den Umgang mit neuen digitalen Werkzeugen zu lernen. # B8_04: Ich konnte schon immer gut mit digitalen Werkzeugen arbeiten. # B8_09: Ich kann anderen helfen, wenn sie Probleme mit digitalen Werkzeugen haben. # B8_07: Ich schätze mich im Umgang mit digitalen Werkzeugen kompetenter ein als die meisten meiner Kommilitonen. # --> alle Ladungen > .4, 3 Ladungen > .6 (nächstgrößte Ladung: .55) # Faktor: Interesse/Vergnügen im Umgang mit digitalen Werkzeugen (konativ-motivational) # B7_01: Ich unterhalte mich gern mit Freunden über aktuelle Entwicklungen von digitalen Werkzeugen. # B7_02: Ich bin sehr interessiert, wenn mir Freunde neue Dinge von digitalen Werkzeugen zeigen. # B8_10: Ich suche oft nach neuen Möglichkeiten, Dinge mit digitalen Werkzeugen zu erledigen. # B8_08: Es gefällt mir, neue Dinge im Umgang mit digitalen Werkzeugen zu lernen. # B8_06: Ich benutzte digitale Werkzeuge, weil mich die Technik sehr interessiert. # B7_07: Um neues über Computer- und Videospiele zu erfahren, unterhalte ich mich im Freundeskreis gern darüber. # B8_03: Mir macht die Nutzung digitaler Medien Spaß. # B7_04: Wenn ich ein neues Mobiltelefon habe, erkläre ich anderen gern, was es alles kann. # ---> 4 Ladungen > .6, B8_08 Doppelladung auf Kompetenzfaktor, inhaltlich Interesse/Vergnügen zuzuordnen, Ladungsverhältnis Interesse/Vergnügen = 2*Kompetenz --> finale Zuordnung Interesse/Vergnügen; # ---> Doppelladung B8_03, inhaltliche Zuordnung Interesse/Vergnügen trotz ungünstigerem Ladungsverhältnis; insgesamt 8 Ladungen, davon 2 knapp unter der Grenze von .4 # Faktor: Computerbezogene Selbstwirksamkeitserwartung (kognitiv-evaluativ, aufgabenspezifisch) # B14_20: Programme/Software installieren. # B14_19: Zusammenarbeit mit anderen mit Hilfe von gemeinsam genutzten Ressourcen (z.B. Google Docs). # B14_02: Software benutzen, um Viren zu finden und zu beseitigen. # B14_17: In einem Diskussionsforum/einer Benutzergruppe im Internet (z.B. Wiki oder Blog) mitmachen. # B14_08: Die Einstellungen am Computer ändern, um ihn funktionsfähiger zu machen oder Probleme zu beheben. # B14_13: Texte, Bilder oder Videos auf ein Online-Profil hochladen. # --> alle Ladungen > .4, 3 Ladungen > .6 (nächstgrößte Ladung .58) # Vgl. mit 2-Faktor-Lösung EFA_Konzept_WLS_2_18 <-fa(KonzeptMatrix18,nfactors = 2, n.obs = 204, rotate = "oblimin", warnings = T,oblique.scores = TRUE, fm = "wls", cor = "poly", n.rotations = 2000, max.iter = 15000) kable(resMatrix_K_3_18 <- EFA_Konzept_WLS_3_18$residual) # 26% nicht-redundante Residuen (>0.05) kable(resMatrix_K_2_18 <- EFA_Konzept_WLS_2_18$residual) # 41% nicht-redundante Residuen (>0.05) # --> Hoher Anteil nicht-redundanter Residuen bei der 2-Faktor-Lösung deutet auf Extraktion zu weniger Faktoren hin, 3-Faktor-Lösung annehmen #Factorscores berechnen (Methode nach tenBerge, siehe Ten Berge et al., 1999) fscores <-factor.scores(x=dataKonzept18,f=EFA_Konzept_WLS_3_18, method="tenBerge",missing= FALSE, impute = "none") #Factorscores ausgeben fscores$scores #Factorscores dem Data.frame hinzufügen, Reihenfolge der Ausgabe beachten!! WLS2<-data.frame(fscores$scores[,1]) WLS3<-data.frame(fscores$scores[,2]) WLS1<-data.frame(fscores$scores[,3]) names(WLS1) <- c("Kompetenz") names(WLS2) <- c("Interesse") names(WLS3) <- c("Selbstwirksamkeit") stud1.data$Selbstwirksamkeit <- WLS3$Selbstwirksamkeit stud1.data$Interesse <- WLS2$Interesse stud1.data$Kompetenz <- WLS1$Kompetenz #Umbenennung überprüfen head(stud1.data) # Reliabilitätsanalysen Selbstkonzept # Subskala Computerbezogene Selbstwirksamkeitserwartung #Prüfung: tau-kongenerisch? #Modellspezifikation tau_kon_Selbst <- 'Selbst =~ B14_02 + B14_08 + B14_13 + B14_17 + B14_19 + B14_20' #Modellschätzung fit.Selbst <- sem(model = tau_kon_Selbst, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.Selbst, fit.measures = TRUE, standardized = TRUE) #exakter Fit, X²(9)= 6.835, p = .654, tau-kongenerische Skala #Prüfung: tau-äquivalent? #Modellspezifikation tau_ä_Selbst <- 'Selbst =~ 1*B14_02 + 1*B14_08 + 1*B14_13 + 1*B14_17 + 1*B14_19 + 1*B14_20' #Modellschätzung fit.Selbst1 <- sem(model = tau_ä_Selbst, data = stud1.data, estimator ="MLM") #Modellevaluation summary(fit.Selbst1, fit.measures = TRUE, standardized = TRUE) #KEIN exakter Fit, X²(14)= 35.655, p = .001, KEINE tau-äquivalente Skala #Reliabilitätsanalyse (Schätzung der Untergrenze der tatsächlichen Reliabiliät) psych::alpha(subset(stud1.data, select = c("B14_02", "B14_08", "B14_13", "B14_17", "B14_19", "B14_20"))) ci.reliability(stud1.data[, c("B14_02", "B14_08", "B14_13", "B14_17", "B14_19", "B14_20")], type = 'omega', interval.type = 'ml') # Cronbachs Alpha = .76;SE = 0.02;95%CI[.71,.81], hinreichend für 6-Item-Skala?, aber: Schätzung der Untegrenze der tatsächlichen Reliabilität # Angemessenheit Cronbachs Alpha? Items hinreichend homogen (siehe average_r), aber Ordinalskalenniveau # für tau-kongenerische Skalen angemessener: MC Donalds Omega:.77;SE = 0.03; 95%CI[.72,.82] (Interpretation unverändert "akzeptabel") # keine Erhöhung der Reliabilitätsschätzung bei Itemausschluss # Trennschärfen >= .4 stud1.data$MW_SELBST <- rowMeans(stud1.data[, c("B14_02", "B14_08", "B14_13", "B14_17", "B14_19", "B14_20")]) describe(stud1.data$MW_SELBST) # M = 2.98, SD = 0.56, SE = 0.04 # Subskala Interesse/Vergnügen im Umgang mit digitalen Werkzeugen #Prüfung: Tau-Kongenerisch? #Modellspezifikation tau_kon_Int <- 'Int =~ B7_01 + B7_02 + B7_04 + B7_07 + B8_03 + B8_06 + B8_08 + B8_10' #Modellschätzung fit.Int <- sem(model = tau_kon_Int, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.Int, fit.measures = TRUE, standardized = TRUE) # KEIN exakter Fit, X²(20)= 58.028, p < .001, KEINE tau-kongenerische Skala, Skala NICHT eindimensional #Reliabilitätsanalyse (ungenaue Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("B7_01", "B7_02", "B7_04", "B7_07" ,"B8_03", "B8_06", "B8_08", "B8_10"))) ci.reliability(stud1.data[, c("B7_01", "B7_02", "B7_04", "B7_07" ,"B8_03", "B8_06", "B8_08", "B8_10")], type = 'omega', interval.type = 'ml') # Cronbachs Alpha = .85;SE = 0.02;95%CI[.82,.88], angemessen für 8-Item-Skala, aber KEINE reliable Schätzung der tatsächlichen Reliabilität (Über- und Unterschätzung möglich) # Angemessenheit Cronbachs Alpha? Items hinreichend homogen (siehe average_r), aber Ordinalskalenniveau # keine Erhöhung der Reliabilitätsschätzung bei Itemausschluss # Trennschärfen > .5 # MC Donalds Omega:.85;SE = 0.02; 95%CI[.82,.88] (Interpretation unverändert "gut") stud1.data$MW_INT <- rowMeans(stud1.data[, c("B7_01", "B7_02", "B7_04", "B7_07", "B8_03", "B8_06", "B8_08", "B8_10")]) describe(stud1.data$MW_INT) # M = 2.44, SD = 0.56, SE = 0.04 # Subskala Kompetenz im Umgang mit digitalen Werkzeugen #Prüfung: Tau-kongenerisch? #Modellspezifikation tau_kon_Komp <- 'Komp =~ B8_02 + B8_04 + B8_07 + B8_09' #Modellschätzung fit.Komp <- sem(model = tau_kon_Komp, data = stud1.data, std.lv = TRUE, estimator ="MLM") #Modellevaluation summary(fit.Komp, fit.measures = TRUE, standardized = TRUE) #kein exakter Fit, X²(2) = 16.991, p < .001, KEIN tau-kongenerisches Modell, Alpha = KEINE reliablen Schätzungen der Reliabilität #Reliabilitätsanalyse (ungenaue Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("B8_02", "B8_04", "B8_07", "B8_09"))) ci.reliability(stud1.data[, c("B8_02", "B8_04", "B8_07", "B8_09")], type = 'omega', interval.type = 'ml') # Cronbachs Alpha = .85;SE = 0.02;95%CI[.82,.89], sehr gut für 4-Item-Skala, aber KEINE reliable Schätzung der tatsächlichen Reliabilität (Über- und Unterschätzung möglich) # Angemessenheit Cronbachs Alpha? Items hinreichend homogen (siehe average_r), aber Ordinalskalenniveau # keine Erhöhung der Reliabilitätsschätzung bei Itemausschluss # Trennschärfen > .5 # MC Donalds Omega:.85;SE = 0.02; 95%CI[.82,.89] (Interpretation unverändert "gut") stud1.data$MW_KOMP <- rowMeans(stud1.data[, c("B8_02", "B8_04", "B8_07", "B8_09")]) describe(stud1.data$MW_KOMP) # M = 2.76, SD = 0.62, SE = 0.04 #Gesamtskala stud1.data$MW_KONZEPT <- rowMeans(stud1.data[,c("MW_INT", "MW_SELBST", "MW_KOMP")]) describe(stud1.data$MW_KONZEPT) # M = 2.73, SD = 0.49, SE = 0.03 #FAZIT: Optimierung der Skalen im Rahmen der nächsten Studierendenbefragung erforderlich #-------------------------------------------------------------------------------------------------------------------------------------# #-------------------- Berufsspezifische ICT-Einstellungen (Wichtigkeit) & Kompetenzen (Vermittlungsfähigkeit) ------------------------# #------------------------------------------ Item-und Skalenanalysen -------------------------------------------------------------------# #Vermittlungsfähigkeit digitaler Kompetenzen an Grundschulkinder (KMK,k = 20) stud1.data.Vermittlung <- stud1.data[,c("V_01", "V_02", "V_03","V_04", "V_05","V_06", "V_07", "V_08", "V_09", "V_10", "V_11", "V_12", "V_13", "V_14", "V_15", "V_16", "V_17", "V_18", "V_19", "V_20")] #Häufigkeiten KMKV<-lapply(stud1.data.Vermittlung, table) %>% bind_rows(.id = "Item") KMKV<- na_replace(KMKV,0) KMKV<- mutate (KMKV, 'NA' = nrow(stud1.data)-(KMKV$'1'+KMKV$'2'+KMKV$'3'+KMKV$'4')) KMKV<- KMKV[, c("Item","1", "2","3", "4", "NA")] knitr::kable(KMKV) #Deskriptive Statistik für ordinale Items KMKV2<-lapply(stud1.data.Vermittlung,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") knitr::kable(KMKV2) # angemessene Schwierigkeiten, Ausnahme V_02: mit pm = .87 geringfügig zu leicht #Reliabilitätsanalyse psych::alpha(subset(stud1.data, select = c("V_01", "V_02", "V_03","V_04", "V_05","V_06", "V_07", "V_08", "V_09", "V_10", "V_11", "V_12", "V_13", "V_14", "V_15", "V_16", "V_17", "V_18", "V_19", "V_20"))) # kein Item extrem auffällig, Analyse angesichts der Itemzahl und der mutmaßlichen Mehrdimensionalität jedoch zunächst nicht übermäßig aussagekräftig # aus Gründen der Inhaltsvalidität ohnehin kein Itemausschluss gewünscht #Wichtigkeit digitaler Kompetenzen für Grundschulkinder (KMK,k = 20) stud1.data.Wichtigkeit <- stud1.data[,c("W_01", "W_02", "W_03","W_04", "W_05","W_06", "W_07", "W_08", "W_09", "W_10", "W_11", "W_12", "W_13", "W_14", "W_15", "W_16", "W_17", "W_18", "W_19", "W_20")] #Häufigkeiten KMKW<-lapply(stud1.data.Wichtigkeit, table) %>% bind_rows(.id = "Item") KMKW<- na_replace(KMKW,0) KMKW<- mutate (KMKW, 'NA' = nrow(stud1.data)-(KMKW$'1'+KMKW$'2'+KMKW$'3'+KMKW$'4')) KMKW<- KMKW[, c("Item","1", "2","3", "4", "NA")] knitr::kable(KMKW) #Deskriptive Statistik für ordinale Items KMKW2<-lapply(stud1.data.Wichtigkeit,descriptiveSummaryOrdinal) %>% bind_rows(.id = "Item") # Item W_11: Antwortoption "ist mir gar nicht wichtig" nicht ausgewählt, manuelle Berechnung des Schwierigkeitsindex pm = .93 KMKW2$pm[11] <- .93 knitr::kable(KMKW2) # angemessene Schwierigkeiten, Ausnahme W_10/11/18: mit pm > .85 zu leicht #Reliabilitätsanalyse psych::alpha(subset(stud1.data, select = c("W_01", "W_02", "W_03","W_04", "W_05","W_06", "W_07", "W_08", "W_09", "W_10", "W_11", "W_12", "W_13", "W_14", "W_15", "W_16", "W_17", "W_18", "W_19", "W_20"))) # kein Item extrem auffällig, Analyse angesichts der Itemzahl und der mutmaßlichen Mehrdimensionalität jedoch zunächst nicht übermäßig aussagekräftig # aus Gründen der Inhaltsvalidität ohnehin kein Itemausschluss gewünscht #----------------------------------------------- Konfirmatorische Faktorenanalyse ----------------------------------------------------# # Basis: Faktorenstruktur, welche durch den KMK-Kompetenzrahmen (KMK, 2016) impliziert wird KMK_V <- 'SVA =~ V_01 + V_17 + V_02 KuK =~ V_03 + V_04 + V_05 + V_06 PuP =~ V_07 + V_08 + V_09 SuS =~ V_10 + V_11 + V_18 PuH =~ V_12 + V_13 + V_14 + V_15 + V_16 AuR =~ V_19 + V_20 V =~ SVA + KuK + PuP + SuS + PuH + AuR' #Modellschätzung fit.KMK_V_MLM <- sem(model = KMK_V, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.KMK_V_MLM, fit.measures = TRUE, standardized = TRUE) #X²(164) = 368.217, X²/df = 2.2; p < .001; CFI (robust) = .88; TLI (robust) = .86; RMSEA (robust) = .083 [.072, .094], pclose < .001, p RMSEA <= .08 = .683 SRMR = .070 #CFI/TLI/RMSEA unzureichend,SRMR hinreichend #nach Bühner: keine Interepretation des lokalen Fits bei unzureichendem globalen Fit KMK_W <- 'SVA =~ W_01 + W_17 + W_02 KuK =~ W_03 + W_04 + W_05 + W_06 PuP =~ W_07 + W_08 + W_09 SuS =~ W_10 + W_11 + W_18 PuH =~ W_12 + W_13 + W_14 + W_15 + W_16 AuR =~ W_19 + W_20 W =~ SVA + KuK + PuP + SuS + PuH + AuR' #Modellschätzung fit.KMK_W_MLM <- sem(model = KMK_W, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.KMK_W_MLM, fit.measures = TRUE, standardized = TRUE) #X²(164) = 367.550, X²/df = 2.2; p < .001; CFI (robust) = .83; TLI (robust) = .80; RMSEA (robust) = .084 [.072, .095], pclose < .001, p RMSEA <= .080 = .715 SRMR = .086 #sehr schlechter lokaler Fit, zahlreiche unreliable Items (sehr geringe Ladungen, teils n.s.) #CFI/TLI/RMSEA unzureichend,SRMR hinreichend #nach Bühner: keine Interepretation des lokalen Fits bei unzureichendem globale Fit #Implizierte Faktorenstruktur des KMK-Kompetenzrahmens konnte nicht repliziert werden, exploratives Vorgehen anstreben #------------------------------------------------- Explorative Faktorenanalysen --------------------------- ----------------------------# # Voraussetzungsprüfung: Iteminterkorrelationen #Polychorische Korrelationsmatrizen berechnen (alle Variablen als Ordinal betrachten, daher alle Variablennamen spezifiziert unter "ordered") Matrix_V <-lavaan::lavCor(stud1.data.Vermittlung, ordered = c("V_01", "V_02", "V_03", "V_04", "V_05", "V_06", "V_07", "V_08", "V_09", "V_10", "V_11", "V_12", "V_13", "V_14","V_15", "V_16", "V_17", "V_18", "V_19", "V_20"), missing = "listwise", output = "cor") # Lavaan-Objekt generieren, enthält unter anderem Sample Statistics wie Ntotal (Fallzahl, hier N = 203) MatrixInfo_V <-lavaan::lavCor(stud1.data.Vermittlung, ordered = c("V_01", "V_02", "V_03", "V_04", "V_05", "V_06", "V_07", "V_08", "V_09", "V_10", "V_11", "V_12", "V_13", "V_14", "V_15", "V_16", "V_17", "V_18", "V_19", "V_20"), missing = "listwise", output = "fit") # Anteil (zu) niedriger (< .3) oder hoher (> .8) Iteminterkorrelationen vernachlässigbar #Polychorische Korrelationsmatrizen berechnen (alle Variablen als Ordinal betrachten, daher alle Variablennamen spezifiziert unter "ordered") Matrix_W <-lavaan::lavCor(stud1.data.Wichtigkeit, ordered = c("W_01", "W_02", "W_03", "W_04", "W_05", "W_06", "W_07", "W_08", "W_09", "W_10", "W_11", "W_12", "W_13", "W_14","W_15", "W_16", "W_17", "W_18", "W_19", "W_20"), missing = "listwise", output = "cor") # Lavaan-Objekt generieren, enthält unter anderem Sample Statistics wie Ntotal (Fallzahl, hier N = 203) MatrixInfo_W <-lavaan::lavCor(stud1.data.Wichtigkeit, ordered = c("W_01", "W_02", "W_03", "W_04", "W_05", "W_06", "W_07", "W_08", "W_09", "W_10", "W_11", "W_12", "W_13", "W_14", "W_15", "W_16", "W_17", "W_18", "W_19", "W_20"), missing = "listwise", output = "fit") # Anteil (zu) hoher (> .8) Iteminterkorrelationen vernachlässigbar, Anteil (zu) niedriger Iteminterkorrelationen deutlich höher als bei "Vermittlungsfähigkeit" # höchste Anteile: Items W_10/W_11 --> 53% Interkorrelationen < .3, unter der Annahme mehrerer Subfaktoren noch angemessen cortest.bartlett(Matrix_V,n = 204) #X²(190) = 3537.251, p < .001 cortest.bartlett(Matrix_W,n = 204) #X²(190) = 3239.846, p < .001 # KMO berechnen und ausgeben, für Einzelitems in Tabelle #Vermittlung KMOinfo_V = KMO(Matrix_V) #global print (KMOinfo_V$MSA, digits = 2) #.82 #lokal knitr::kable(KMOinfo_V$MSAi, digits = 2) # .68 - .93 #Wichtigkeit KMOinfo_W = KMO(Matrix_W) #global print (KMOinfo_W$MSA, digits = 2) #.51 #lokal knitr::kable(KMOinfo_W$MSAi, digits = 2) #.36 - .88 # Anzahl der zu extrahierenden Faktoren bestimmen #Vermittlungsfähigkeit # mit Parallelanalyse ev <- eigen(Matrix_V) ap <- parallel(subject = 204, var=20, rep=100, cent = 0.05) nS <- nScree(x=ev$values,aparallel=ap$eigen$qevpea, cor = TRUE) plotnScree(nS) # Screeplot: uneindeutig (2-5 Faktoren), Kaisers Criterion: 4 Faktoren, Parallelanalyse: 2 Faktoren # mit nFactors, d.h. u.a. mit MAP-Test; n = 5 (Orientierung an Scree-Plot) # hier mit Oblimin-Rotation und pa-Faktorenanalyse (Hauptachsenfaktorenanalyse) nfactors(Matrix_V, n.obs = 204, n = 5, rotate = "oblimin", fm = "wls") #Velicer Map:2 Faktoren, Empirical Bic: 4 Faktoren #Wichtigkeit # mit Parallelanalyse ev <- eigen(Matrix_W) ap <- parallel(subject = 204, var=20, rep=100, cent = 0.05) nS <- nScree(x=ev$values,aparallel=ap$eigen$qevpea, cor = TRUE) plotnScree(nS) # Screeplot: uneindeutig, Kaisers Criterion: 4 Faktoren, Parallelanalyse: 3 Faktoren # mit nFactors, d.h. u.a. mit MAP-Test # hier mit Oblimin-Rotation und pa-Faktorenanalyse (Hauptachsenfaktorenanalyse) nfactors(Matrix_W, n.obs = 204, n = 5, rotate = "oblimin", fm = "wls") #Velicer Map:2 Faktoren, Empirical Bic: 4 Faktoren # Methoden zur Identifikation der Faktorenzahl zeigen uneindeutige Ergebnisse, Zunächst Anwendung des Default-Kriteriums (Eigenwerte > 1 nach Kaiser) # ---> Extraktion von 4 Faktoren #Vermittlung #Durchführung mit 4 Faktoren #Durchführung WLS-EFA mit k = 20, Vorgabe: Extraktion 4 Faktoren, zahlreiche unterschiedliche zufällige Startpunkte (n.rotations) & Iterationen (max.iter) um Konvergenz zu lokalen Minima zu verhindern (siehe Nguyen & Waller, 2022) EFA_V_WLS_4 <-fa(Matrix_V,nfactors = 4, n.obs = 204, rotate = "oblimin", warnings = T, fm = "wls", oblique.scores = TRUE, cor = "poly", n.rotations = 2000, max.iter = 15000) print(EFA_V_WLS_4, digits = 2, cut = .3) #Eigenwerte (nach Extraktion & Rotation) und erklärte Varianz ausgeben kable(EFA_V_WLS_4$Vaccounted, digits = 2) # 4 Faktoren; Varianzaufklärung: 66% (24,17,14,11%); #Kommunalitäten ausgeben knitr::kable(EFA_V_WLS_4$communality, digits = 2) #.54 -.83 #Ladungen ausgeben (Pattern Matrix) #zunächst Ladungen aus Liste Spaltenweise zu Data.frames umwandeln h <-data.frame(EFA_V_WLS_4$loadings[,1]) h1<-data.frame(EFA_V_WLS_4$loadings[,2]) h2<-data.frame(EFA_V_WLS_4$loadings[,3]) h3<-data.frame(EFA_V_WLS_4$loadings[,4]) #Data.frames zusammenfügen CommEFA <- h %>% bind_cols(h1) CommEFA <- CommEFA %>% bind_cols(h2) CommEFA <- CommEFA %>% bind_cols(h3) kable(CommEFA, digits = 2) # Faktor: Gemeinsames Arbeiten mit digitalen Werkzeugen (?) # V01:Suchen und Filtern (z.B. Arbeits- und Suchinteressen klären, Suchstrategien weiterentwickeln, relevante Quellen identifizieren) # V02:Speichern und Abrufen (z.B. Daten sicher und strukturiert speichern, von verschiedenen Orten abrufen) # V03:Interagieren (z.B. Digitale Kommunikationsmöglichkeiten zielgerichtet und situationsgerecht auswählen und nutzen) # V04:Teilen (z.B. von Dateien, Informationen und Links, Quellenangaben) # V05:Zusammenarbeiten (z.B. digitale Werkzeuge bei der Zusammenführung von Informationen, Daten und Ressourcen nutzen) # V06:Umgangsregeln kennen und einhalten (Netiquette, z.B. ethische Prinzipien und kulturelle Vielfalt berücksichtigen) # V07:Entwickeln und Produzieren (z.B. planen, gestalten und präsentieren medialer Produkte) # V08:Weiterverarbeiten und Integrieren (z.B. Inhalte an verschiedenen Formaten bearbeiten) # --> 8 Items, 5 Ladungen > .6, alles Ladungen > .4 # Konglomerat aus "Suchen, Verarbeiten & Aufbewahren" (ohne V_17 "Auswerten & Bewerten"), "Kommunizieren & Kooperieren" # & "Produzieren & Präsentieren" (ohne V_09:"Rechtliche Vorgaben beachten") # V_05 zeigt Nebenladung auf Problemlösen und Handeln, Ladungsverhältnis[AmdW > PuH] & inhaltliche Passung sprechen für Zuordnung zu AmdW # V_07 zeigt Nebenladung auf Schützen & sicheres Agieren, Ladungsverhältnis[AmdW > SusA] & inhaltliche Passung sprechen für Zuordnung zu AmdW #Faktor: Schützen und sicher Agieren # V_09: Rechtliche Vorgaben beachten (z.B. Urheber-, Nutzungs- (Lizenzen), Persönlichkeitsrechte) # V_10: Sicher in digitalen Umgebungen agieren (z.B. Risiken kennen, Strategien zum Schutz entwickeln) # V_11: Persönliche Daten und Privatsphäre schützen (z.B. Datensicherheit, -missbrauch, Jugend- und Verbraucherschutz) # V_18: Gesundheit schützen (z.B. Internetsucht vermeiden, gesundheitsbewusste Nutzung digitaler Werkzeuge) # ---> 4 Items, alle Ladungen > .4, 2 Ladungen > .6 # entspricht ursprünglichem Faktor "Schützen & sicher Agieren" der KMK + Item V_09 ("Rechtliche Vorgaben beachten") # V_18 zeigt Nebenladung auf AmdW, Ladungsverhältnis [SusA > AmdW] und inhaltliche Passung sprechen für Zuordnung zu SusA #Faktor: Problemlösen und Handeln # V_12: Technische Probleme lösen (z.B. Lösungsstrategien entwickeln) # V_13: Werkzeuge bedarfsgerecht einsetzen (z.B. digitale Umgebungen anpassen) # V_14: Digitale Werkzeuge und Medien zum Lernen, Arbeiten und Problemlösen nutzen (z.B. effektive digitale Lernmöglichkeiten finden und nutzen) # V_15: Eigene Defizite ermitteln und nach Lösungen suchen (z.B. Defizite bei der Nutzung digitaler Werkzeuge erkennen) # V_16: Algorithmen erkennen und formulieren (z.B. grundlegende Prinzipien der digitalen Welt kennen) # ---> bildet ursprünglichen Faktor "Problemlösen und Handeln" des KMK-Kompetenzrahmens ab # 5 Items, 3/5 Ladungen > .4, 1 Ladung > .6 # V_16 zeigt Nebenladung auf Analysieren & Reflektieren, Ladungsverhältnis [PuH > AuR] & inhaltliche Passung sprechen für Zuordnung zu PuH # V_14 & V_15 zeigen Nebenladungen auf SusA, trotz der Ladungsverhältnisse (äquivalent respektive zugunsten von SusA) Priorisierung inhaltlicher Aspekte, # d.h. Orientierung an der ursprünglichen Faktorstruktur der KMK # Faktor: Analysieren und Reflektieren # V_17: Auswerten und Bewerten (z.B. [...] digitale Informationen und Daten analysieren, interpretieren und kritisch bewerten) # V_19: Medien analysieren und bewerten (z.B. Gestaltungsmittel und Wirkung von digitalen Werkzeugen kennen) # V_20: Medien [...] verstehen und reflektieren (z.B. Wirtschaftliche Bedeutung der digitalen Werkzeuge kennen) # ---> bildet ursprünglichen Faktor "Analysieren & Reflektieren" des KMK-Kompetenzrahmens ergänzt um Item V_17 "Auswerten & Bewerten" ab # 3 Items, alle Ladungen > .4, 2 Ladungen > .6; keine Nebenladungen resMatrix_KMKV_4 <-EFA_V_WLS_4$residual # 24% nicht-redundante Residuen (>0.05), noch angemessen #Fazit: inhaltlich sinnvolle und an statistischen Kennwerten (Ladungen, Kommunalitäten, Varianzaufklärung, Residuen) gemessen hinreichende Lösung #Factorscores berechnen fscores <-factor.scores(x=stud1.data.Vermittlung,f=EFA_V_WLS_4, method="tenBerge", missing= FALSE, impute = "none") #fscores$scores #Factorscores dem Data.frame hinzufügen #Achtung! Faktorreihenfolge beachten! WLS4<-data.frame(fscores$scores[,1]) WLS1<-data.frame(fscores$scores[,2]) WLS3<-data.frame(fscores$scores[,3]) WLS2<-data.frame(fscores$scores[,4]) names(WLS4) <- c("GADIP_V") names(WLS1) <- c("SuS_V") names(WLS3) <- c("AuR_V") names(WLS2) <- c("PuH_V") stud1.data$GADIP_V <- WLS4$GADIP_V stud1.data$SuS_V <- WLS1$SuS_V stud1.data$AuR_V<- WLS3$AuR_V stud1.data$PuH_V<- WLS2$PuH_V #Umbenennung überprüfen head(stud1.data) #Wichtigkeit #Durchführung mit 4 Faktoren #Durchführung WLS-EFA mit k = 20, Vorgabe: Extraktion 4 Faktoren, zahlreiche unterschiedliche zufällige Startpunkte (n.rotations) & Iterationen (max.iter) um Konvergenz zu lokalen Minima zu verhindern (siehe Nguyen & Waller, 2022) EFA_W_WLS_4 <-fa(Matrix_W,nfactors = 4, n.obs = 204, rotate = "oblimin", warnings = T, fm = "wls", oblique.scores = TRUE, cor = "poly", n.rotations = 2000, max.iter = 15000) print(EFA_W_WLS_4, digits = 2, cut = .3) #Eigenwerte (nach Extraktion & Rotation) und erklärte Varianz ausgeben kable(EFA_W_WLS_4$Vaccounted, digits = 2) # 4 Faktoren; Varianzaufklärung: 60% (17,17,14,12%);gering bis moderat korreliert #Kommunalitäten ausgeben knitr::kable(EFA_W_WLS_4$communality, digits = 2) #.37 -.86 #Ladungen ausgeben (Pattern Matrix) #zunächst Ladungen aus Liste Spaltenweise zu Data.frames umwandeln h <-data.frame(EFA_W_WLS_4$loadings[,1]) h1<-data.frame(EFA_W_WLS_4$loadings[,2]) h2<-data.frame(EFA_W_WLS_4$loadings[,3]) h3<-data.frame(EFA_W_WLS_4$loadings[,4]) EFA_W_WLS_4$loadings #Data.frames zusammenfügen CommEFA <- h %>% bind_cols(h1) CommEFA <- CommEFA %>% bind_cols(h2) CommEFA <- CommEFA %>% bind_cols(h3) kable(CommEFA, digits = 2) # Faktor: Gemeinsames Arbeiten mit digitalen Werkzeugen (?) # W01:Suchen und Filtern (z.B. Arbeits- und Suchinteressen klären, Suchstrategien weiterentwickeln, relevante Quellen identifizieren) # W02:Speichern und Abrufen (z.B. Daten sicher und strukturiert speichern, von verschiedenen Orten abrufen) # W03:Interagieren (z.B. Digitale Kommunikationsmöglichkeiten zielgerichtet und situationsgerecht auswählen und nutzen) # W04:Teilen (z.B. von Dateien, Informationen und Links, Quellenangaben) # W05:Zusammenarbeiten (z.B. digitale Werkzeuge bei der Zusammenführung von Informationen, Daten und Ressourcen nutzen) # W06:Umgangsregeln kennen und einhalten (Netiquette, z.B. ethische Prinzipien und kulturelle Vielfalt berücksichtigen) # W07:Entwickeln und Produzieren (z.B. planen, gestalten und präsentieren medialer Produkte) # W08:Weiterverarbeiten und Integrieren (z.B. Inhalte an verschiedenen Formaten bearbeiten) # --> 8 Items, 5 Ladungen > .6, alles Ladungen > .4 # Konglomerat aus "Suchen, Verarbeiten & Aufbewahren" (ohne W_17 "Auswerten & Bewerten"), "Kommunizieren & Kooperieren" # & "Produzieren & Präsentieren" (ohne W_09:"Rechtliche Vorgaben beachten") # W_01/W_02 zeigen Nebenladung auf Schützen & sicheres Agieren, Ladungsverhältnis[AmdW > SusA] & inhaltliche Passung sprechen für Zuordnung zu AmdW # W_05 zeigt Nebenladung auf Problemlösen und Handeln, Ladungsverhältnis[AmdW > PuH] & inhaltliche Passung sprechen für Zuordnung zu AmdW # W_06 zeigt hohe Nebenladung auf Schützen und sicher Agieren,Ladungsverhältnis SusA > AmdW, Oriertierung an Faktorstruktur der EFA zur Vermittlungsfähigkeit # & der ursprünglichen Struktur des KMK-Rahmens ---> Zuordnung zu AmdW # W_08 zeigt Nebenladung auf Problemlösen & Handeln, Ladungsverhältnis PuH > AmdW,Orientierung an aktorstruktur der EFA zur Vermittlungsfähigkeit # & der ursprünglichen Struktur des KMK-Rahmens ---> Zuordnung zu AmdW #Faktor: Schützen und sicher Agieren # W_09: Rechtliche Vorgaben beachten (z.B. Urheber-, Nutzungs- (Lizenzen), Persönlichkeitsrechte) # W_10: Sicher in digitalen Umgebungen agieren (z.B. Risiken kennen, Strategien zum Schutz entwickeln) # W_11: Persönliche Daten und Privatsphäre schützen (z.B. Datensicherheit, -missbrauch, Jugend- und Verbraucherschutz) # W_18: Gesundheit schützen (z.B. Internetsucht vermeiden, gesundheitsbewusste Nutzung digitaler Werkzeuge) # ---> 4 Items, alle Ladungen > .4, 3 Ladungen > .6 # entspricht ursprünglichem Faktor "Schützen & sicher Agieren" der KMK + Item W_09 ("Rechtliche Vorgaben beachten") # W_09 zeigt Nebenladung auf Problemlösen und Handeln, Ladungsverhältnis [SusA > PuH] und inhaltliche Passung sprechen für Zuordnung zu SusA #Faktor: Problemlösen und Handeln # W_12: Technische Probleme lösen (z.B. Lösungsstrategien entwickeln) # W_13: Werkzeuge bedarfsgerecht einsetzen (z.B. digitale Umgebungen anpassen) # W_14: Digitale Werkzeuge und Medien zum Lernen, Arbeiten und Problemlösen nutzen (z.B. effektive digitale Lernmöglichkeiten finden und nutzen) # W_15: Eigene Defizite ermitteln und nach Lösungen suchen (z.B. Defizite bei der Nutzung digitaler Werkzeuge erkennen) # W_16: Algorithmen erkennen und formulieren (z.B. grundlegende Prinzipien der digitalen Welt kennen) # ---> bildet ursprünglichen Faktor "Problemlösen und Handeln" des KMK-Kompetenzrahmens ab # 5 Items, alle Ladungen > .4, 3 Ladungen > .6 # W_16 zeigt Nebenladung auf Analysieren & Reflektieren, Ladungsverhältnis [PuH > AuR] & inhaltliche Passung sprechen für Zuordnung zu PuH # Faktor: Analysieren und Reflektieren # W_17: Auswerten und Bewerten (z.B. [...] digitale Informationen und Daten analysieren, interpretieren und kritisch bewerten) # W_19: Medien analysieren und bewerten (z.B. Gestaltungsmittel und Wirkung von digitalen Werkzeugen kennen) # W_20: Medien [...] verstehen und reflektieren (z.B. Wirtschaftliche Bedeutung der digitalen Werkzeuge kennen) # ---> bildet ursprünglichen Faktor "Analysieren & Reflektieren" des KMK-Kompetenzrahmens ergänzt um Item W_17 "Auswerten & Bewerten" ab # 3 Items, alle Ladungen > .4, 2 Ladungen > .6; keine Nebenladungen # Erwartungsgemäß starke Parallelen zur Faktorstruktur der Vermittlungsfähigkeit # Auffällig: AmdW instabiler, PuH stabiler kable(resMatrix_KMKW_4 <-EFA_W_WLS_4$residual) # 34% nicht-redundante Residuen, grenzwertig, aber ohnehin Orientierung an Faktorenstruktur der Vermittlungsfähigkeit (bessere Datengrundlage) # Fazit: akzeptable Faktorenstruktur, Unterschiede zwischen Vermittlungsfähigkeit & Wichtigkeit diskutieren? #Factorscores berechnen fscores <-factor.scores(x=stud1.data.Wichtigkeit,f=EFA_W_WLS_4, method="tenBerge", missing= FALSE, impute = "none") fscores$scores #Factorscores dem Data.frame hinzufügen, Achtung! Faktorreihenfolge beachten! WLS1<-data.frame(fscores$scores[,1]) WLS4<-data.frame(fscores$scores[,2]) WLS3<-data.frame(fscores$scores[,3]) WLS2<-data.frame(fscores$scores[,4]) names(WLS1) <- c("PuH_W") names(WLS4) <- c("SuS_W") names(WLS3) <- c("GADIP_W") names(WLS2) <- c("AuR_W") stud1.data$PuH_W <- WLS1$PuH_W stud1.data$SuS_W <- WLS4$SuS_W stud1.data$GADIP_W <- WLS3$GADIP_W stud1.data$AuR_W <- WLS2$AuR_W #Umbenennung überprüfen head(stud1.data) #Reliabilität #Bestimmung auf Subskalenebene #Vermittlungsfähigkeit #AmdW : (GEMEINSAMES) ARBEITEN MIT DIGITALEN WERKZEUGEN #Tau-Kongenerisch tau_kon_AmdW <- 'AmdW =~ V_01 + V_02 + V_03 + V_04 + V_05 + V_06 + V_07 + V_08' #Modellschätzung fit.AmdW <- sem(model = tau_kon_AmdW , data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.AmdW , fit.measures = TRUE, standardized = TRUE) #KEIN exakter Fit, X²(20)= 65.377, p < .001; KEINE tau-kongenerische Skala, Skala mehrdimensional #nur ungenaue Schätzung der Reliabilität möglich (Überschätzung/Unterschätzung möglich) #Reliabilitätsanalyse (ungenaue Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("V_01", "V_02", "V_03", "V_04", "V_05", "V_06", "V_07", "V_08"))) #Cronbachs Alpha = .87, Se = 0.01, 90%CI [.85, .90] #Trennschärfen > .5, kein Zuwachs der Reliabilitätschätzung bei Itemausschluss #gut-sehr gut, aber: keine verlässliche Schätzung stud1.data$MW_V_AmdW <- rowMeans(stud1.data[, c("V_01", "V_02", "V_03", "V_04", "V_05", "V_06", "V_07", "V_08")]) describe(stud1.data$MW_V_AmdW) # M = 3.30, SD = 0.47, SE = 0.03 #naheliegend: Aufspaltung in zugrundeliegende Sub-Subskalen nach KMK-Kompetenzrahmen #Suchen & Aufbewahren (keine Aussage über Gültigkeit der Reliabilitätschätzung möglich, Modell mit k = 2 nicht identifizierbar) psych::alpha(subset(stud1.data, select = c("V_01", "V_02"))) #Cronbachs Alpha = .69, SE = .04, 90%CI [.61, .78] # Trennschärfe > .5 ABER --> keine Aussage über Gültigkeit der Schätzung stud1.data$MW_V_SuA <- rowMeans(stud1.data[, c("V_01", "V_02")]) describe(stud1.data$MW_V_SuA) # M = 3.54, SD = 0.48, SE = 0.03 #Produzieren und Präsentieren (keine Aussage über Gültigkeit der Reliabilitätschätzung möglich, Modell mit k = 2 nicht identifizierbar) psych::alpha(subset(stud1.data, select = c("V_07", "V_08"))) #Cronbachs Alpha = .76, SE = .03, 90%CI [.69, .82] # Trennschärfe > .5 --> keine Aussage über Gültigkeit der Schätzung stud1.data$MW_V_PuP <- rowMeans(stud1.data[, c("V_07", "V_08")]) describe(stud1.data$MW_V_PuP) # M = 3.07, SD = 0.65, SE = 0.05 #Kommunizieren und Kooperieren #Modellspezifikation #Tau-Kongenerisch tau_kon_KuK <- 'KuK =~ V_03 + V_04 + V_05 + V_06' #Modellschätzung fit.KuK <- sem(model = tau_kon_KuK, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.KuK, fit.measures = TRUE, standardized = TRUE) #exakter Fit, X²(2)= 3.283, p = .194, tau-kongenerische Skala #Tau-Äquivalent tau_ä_KuK <- 'KuK =~ 1*V_03 + 1*V_04 + 1*V_05 + 1*V_06' #Modellschätzung fit.KuK1 <- sem(model = tau_ä_KuK, data = stud1.data,estimator ="MLM") #Modellevaluation summary(fit.KuK1, fit.measures = TRUE, standardized = TRUE) #exakter Fit, X²(5)= 7.764, p = .170, tau-äquivalente Skala --> exakte Schätzung der Reliabilität #Reliabilitätsanalyse (exaktie Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("V_03", "V_04", "V_05", "V_06"))) # Cronbachs Alpha = .80; SE = 0.02; 95%CI[.75,.84] # Trennschärfen > .5, kein Zuwachs der Reliabilitätschätzung bei Itemausschluss angemessen # akzeptabel- gut: angemessen für 4-Item-Skala, reliable Schätzung der tatsächlichen Reliabilität stud1.data$MW_V_KuK <- rowMeans(stud1.data[, c("V_03", "V_04", "V_05", "V_06")]) describe(stud1.data$MW_V_KuK) # M = 3.30, SD = 0.51, SE = 0.04 #SusA: SCHÜTZEN UND SICHER AGIEREN #Modellspezifikation #Tau-Kongenerisch tau_kon_SusA <- 'SusA =~ V_09 + V_10 + V_11 + V_18' #Modellschätzung fit.SusA <- sem(model = tau_kon_SusA, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.SusA, fit.measures = TRUE, standardized = TRUE) #exakter Fit, X²(2)= 1.436, p = .488, tau-kongenerische Skala #Tau-Äquivalent tau_ä_SusA <- 'SusA =~ 1*V_09 + 1*V_10 + 1*V_11 + 1*V_18' #Modellschätzung fit.SusA1 <- sem(model = tau_ä_SusA, data = stud1.data,estimator ="MLM") #Modellevaluation summary(fit.SusA1, fit.measures = TRUE, standardized = TRUE) #KEIN exakter Fit, X²(5)= 47.619, p < .001, KEINE tau-äquivalente Skala --> KEINE exakte Schätzung der Reliabilität #Reliabilitätsanalyse (Schätzung der Untergrenze der Reliabilität) psych::alpha(subset(stud1.data, select = c("V_09", "V_10", "V_11", "V_18"))) ci.reliability(stud1.data[, c("V_09", "V_10", "V_11", "V_18")], type = 'omega', interval.type = 'ml') # Cronbachs Alpha = .82; SE = 0.02; 95%CI[.77,.86], McDonalds Omega = .83; SE = 0.02; 95%CI[.79,.87] [angemessener bei tau-kongenerischen Skalen] # Trennschärfen >= .5, vernachlässigbarer Zuwachs der Reliabilitätschätzung bei Itemausschluss V_18 # akzeptabel- gut: angemessen für 4-Item-Skala, Schätzung der Untergrenze der tatsächlichen Reliabilität stud1.data$MW_V_SusA <- rowMeans(stud1.data[, c("V_09", "V_10", "V_11", "V_18")]) describe(stud1.data$MW_V_SusA) # M = 3.07, SD = 0.60, SE = 0.04 #PuH: PROBLEMLÖSEN UND HANDELN #Modellspezifikation #Tau-Kongenerisch tau_kon_PuH <- 'PuH =~ V_12 + V_13 + V_14 + V_15 + V_16' #Modellschätzung fit.PuH <- sem(model = tau_kon_PuH, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.PuH, fit.measures = TRUE, standardized = TRUE) #exakter Fit, X²(5)= 9.967, p = .076, tau-kongenerische Skala #Tau-Äquivalent tau_ä_PuH <- 'PuH =~ 1*V_12 + 1*V_13 + 1*V_14 + 1*V_15 + 1* V_16' #Modellschätzung fit.PuH1 <- sem(model = tau_ä_PuH, data = stud1.data,estimator ="MLM") #Modellevaluation summary(fit.PuH1, fit.measures = TRUE, standardized = TRUE) # exakter Fit, X²(9)= 12.000, p = .213, tau-äquivalente Skala --> exakte Schätzung der Reliabilität #Reliabilitätsanalyse (exakte Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("V_12", "V_13", "V_14", "V_15","V_16"))) # Cronbachs Alpha = .83; SE = 0.02; 95%CI[.78,.86] # Trennschärfen > .5, kein Zuwachs der Reliabilitätschätzung bei Itemausschluss # gut: angemessen für 5-Item-Skala, reliable Schätzung der tatsächlichen Reliabilität stud1.data$MW_V_PuH <- rowMeans(stud1.data[, c("V_12", "V_13", "V_14", "V_15", "V_16")]) describe(stud1.data$MW_V_PuH) # M = 2.72, SD = 0.55, SE = 0.04 #AuR: ANALYSIEREN UND REFLEKTIEREN #Modellspezifikation #Tau-Kongenerisch tau_kon_AuR <- 'AuR =~ V_17 + V_19 + V_20' #Modellschätzung fit.AuR <- sem(model = tau_kon_AuR, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.AuR, fit.measures = TRUE, standardized = TRUE) # Modell nicht identifizierbar, keine Informationen zum Fit #Tau-Äquivalent tau_ä_AuR <- 'AuR =~ 1*V_17 + 1*V_19 + 1*V_20' #Modellschätzung fit.AuR1 <- sem(model = tau_ä_AuR, data = stud1.data,estimator ="MLM") #Modellevaluation summary(fit.AuR1, fit.measures = TRUE, standardized = TRUE) # KEIN exakter Fit, X²(9)= 14.575, p = .001, KEINE tau-äquivalente Skala --> KEINE exakte Schätzung der Reliabilität #Reliabilitätsanalyse (ggf. ungenaue Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("V_17", "V_19", "V_20"))) # Cronbachs Alpha = .79; SE = 0.03; 95%CI[.74,.84] #Trennschärfen > .5, Zuwachs der Reliabilitätschätzung bei Itemausschluss V_17 #akzeptabel-gut, angemessen für 3-Item-Skala, keine Aussage zur Reliabilität der Reliabilitätsschätzung möglich stud1.data$MW_V_AuR <- rowMeans(stud1.data[, c("V_17", "V_19", "V_20")]) describe(stud1.data$MW_V_AuR) # M = 2.92, SD = 0.62, SE = 0.04 #Gesamtskala stud1.data$MW_V_All <- rowMeans(stud1.data[, c("MW_V_AmdW", "MW_V_SusA", "MW_V_PuH", "MW_V_AuR")]) describe(stud1.data$MW_V_All) # M = 3.00, SD = 0.47, SE = 0.04 #WICHTIGKEIT #AmdW: (GEMEINSAMES) ARBEITEN MIT DIGITALEN WERKZEUGEN #Tau-Kongenerisch tau_kon_AmdW <- 'AmdW =~ W_01 + W_02 + W_03 + W_04 + W_05 + W_06 + W_07 + W_08' #Modellschätzung fit.AmdW <- sem(model = tau_kon_AmdW, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.AmdW, fit.measures = TRUE, standardized = TRUE) #KEIN exakter Fit, X²(20)= 86.176, p < .001; KEINE tau-kongenerische Skala #Reliabilitätsanalyse (ungenaue Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("W_01", "W_02", "W_03", "W_04", "W_05", "W_06", "W_07", "W_08"))) #Cronbachs Alpha = .82; SE = 0.03; 95%CI[.78,.86] #Trennschärfen >= .5, kein Zuwachs der Reliabilitätschätzung bei Itemausschluss #akzeptabel-gut, ausbaubar für 8-Item-Skala, ungenaue Schätzung der Reliabilität stud1.data$MW_W_AmdW <- rowMeans(stud1.data[, c("W_01", "W_02", "W_03", "W_04", "W_05", "W_06", "W_07", "W_08")]) describe(stud1.data$MW_W_AmdW) # M = 3.26, SD = 0.45, SE = 0.03 #naheliegend: Aufspaltung in zugrundeliegende Sub-Subskalen nach KMK-Kompetenzrahmen #Suchen & Aufbewahren (keine Aussage über Gültigkeit der Reliabilitätschätzung möglich, Modell mit k = 2 nicht identifizierbar) psych::alpha(subset(stud1.data, select = c("W_01", "W_02"))) #Cronbachs Alpha = .72, SE = .04, 90%CI [.63, .79] #Trennschärfe > .5 #fragwürdig-akzeptabel, gut für 2-Item-Skala, ABER --> keine Aussage über Gültigkeit der Schätzung stud1.data$MW_W_SuA <- rowMeans(stud1.data[, c("W_01", "W_02")]) describe(stud1.data$MW_W_SuA) # M = 3.61, SD = 0.49, SE = 0.03 #Produzieren und Präsentieren (keine Aussage über Gültigkeit der Reliabilitätschätzung möglich, Modell mit k = 2 nicht identifizierbar) psych::alpha(subset(stud1.data, select = c("W_07", "W_08"))) #Cronbachs Alpha = .71, SE = .04, 90%CI [.62, .78] #Trennschärfe > .5 #fragwürdig-akzeptabel, gut für 2-Item-Skala, ABER --> keine Aussage über Gültigkeit der Schätzung stud1.data$MW_W_PuP <- rowMeans(stud1.data[, c("W_07", "W_08")]) describe(stud1.data$MW_W_PuP) # M = 2.96, SD = 0.63, SE = 0.04 #Kommunizieren und Kooperieren #Modellspezifikation #Tau-Kongenerisch tau_kon_KuK <- 'KuK =~ W_03 + W_04 + W_05 + W_06' #Modellschätzung fit.KuK <- sem(model = tau_kon_KuK, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.KuK, fit.measures = TRUE, standardized = TRUE) #exakter Fit, X²(2)= 1.578, p = .454, tau-kongenerische Skala #Tau-Äquivalent tau_ä_KuK <- 'KuK =~ 1*W_03 + 1*W_04 + 1*W_05 + 1*W_06' #Modellschätzung fit.KuK1 <- sem(model = tau_ä_KuK, data = stud1.data,estimator ="MLM") #Modellevaluation summary(fit.KuK1, fit.measures = TRUE, standardized = TRUE) #KEIN exakter Fit, X²(5)= 43.846, p < .001, KEINE tau-äquivalente Skala --> KEINE exakte Schätzung der Reliabilität #Reliabilitätsanalyse (Schätzung der Untergrenze der tatsächlichen Reliabilität) psych::alpha(subset(stud1.data, select = c("W_03", "W_04", "W_05", "W_06"))) # Cronbachs Alpha = .75; SE = 0.02; 95%CI[.69,.80] # Trennschärfen > .5 (außer W_06), geringfügiger Zuwachs der Reliabilitätschätzung bei Itemausschluss W_06 # akzeptabel- gut: angemessen für 4-Item-Skala stud1.data$MW_W_KuK <- rowMeans(stud1.data[, c("W_03", "W_04", "W_05", "W_06")]) describe(stud1.data$MW_W_KuK) # M = 3.24, SD = 0.53, SE = 0.04 #SusA: SCHÜTZEN UND SICHER AGIEREN #Modellspezifikation #Tau-Kongenerisch tau_kon_SusA <- 'SusA =~ W_09 + W_10 + W_11 + W_18' #Modellschätzung fit.SusA <- sem(model = tau_kon_SusA, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.SusA, fit.measures = TRUE, standardized = TRUE) #exakter Fit, X²(2)= 1.633, p = .442, tau-kongenerische Skala #Tau-Äquivalent tau_ä_SusA <- 'SusA =~ 1*W_09 + 1*W_10 + 1*W_11 + 1*W_18' #Modellschätzung fit.SusA1 <- sem(model = tau_ä_SusA, data = stud1.data,estimator ="MLM") #Modellevaluation summary(fit.SusA1, fit.measures = TRUE, standardized = TRUE) # exakter Fit, X²(5)= 10.930, p = .053, tau-äquivalente Skala --> exakte Schätzung der Reliabilität #Reliabilitätsanalyse (exakte Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("W_09", "W_10", "W_11", "W_18"))) #Cronbachs Alpha = .72; SE = 0.03; 95%CI[.65,.77] #Trennschärfen >= .5, Zuwachs der Reliabilitätschätzung bei Itemausschluss W_09, W_18 (letzeres geringfügig, nur für stand. alpha) #fragwürdig- akzeptabel, verbesserungswürdig für 4-Item-Skala, #aber potenziell vgl. heterogenes Konzept (physisches Gesundheit, Datenschutz, Schutz des eigenen und fremden geistigen Eigentums) stud1.data$MW_W_SusA <- rowMeans(stud1.data[, c("W_09", "W_10", "W_11", "W_18")]) describe(stud1.data$MW_W_SusA) # M = 3.66, SD = 0.44, SE = 0.03 #PuH: PROBLEMLÖSEN UND HANDELN #Modellspezifikation #Tau-Kongenerisch tau_kon_PuH <- 'PuH =~ W_12 + W_13 + W_14 + W_15 + W_16' #Modellschätzung fit.PuH <- sem(model = tau_kon_PuH, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.PuH, fit.measures = TRUE, standardized = TRUE) #exakter Fit, X²(5)= 9.604, p = .087, tau-kongenerische Skala #Tau-Äquivalent tau_ä_PuH <- 'PuH =~ 1*W_12 + 1*W_13 + 1*W_14 + 1*W_15 + 1*W_16' #Modellschätzung fit.PuH1 <- sem(model = tau_ä_PuH, data = stud1.data,estimator ="MLM") #Modellevaluation summary(fit.PuH1, fit.measures = TRUE, standardized = TRUE) # exakter Fit, X²(9)= 16.762, p = .053, tau-äquivalente Skala --> exakte Schätzung der Reliabilität #Reliabilitätsanalyse (exakte Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("W_12", "W_13", "W_14", "W_15", "W_16"))) #Cronbachs Alpha = .80; SE = 0.02; 95%CI[.75,.84] #Trennschärfen >.5, kein Zuwachs der Reliabilitätschätzung bei Itemausschluss #akzeptabel- gut, akzeptabel für 5-Item-Skala stud1.data$MW_W_PuH <- rowMeans(stud1.data[, c("W_12", "W_13", "W_14", "W_15", "W_16")]) describe(stud1.data$MW_W_PuH) # M = 2.88, SD = 0.57, SE = 0.04 #AuR: ANALYSIEREN UND REFLEKTIEREN #Modellspezifikation #Tau-Kongenerisch tau_kon_AuR <- 'AuR =~ W_17 + W_19 + W_20' #Modellschätzung fit.AuR <- sem(model = tau_kon_AuR, data = stud1.data, std.lv=TRUE, estimator ="MLM") #Modellevaluation summary(fit.AuR, fit.measures = TRUE, standardized = TRUE) # Modell nicht identifizierbar, keine Informationen zum Fit #Tau-Äquivalent tau_ä_AuR <- 'AuR =~ 1*W_17 + 1*W_19 + 1*W_20' #Modellschätzung fit.AuR1 <- sem(model = tau_ä_AuR, data = stud1.data,estimator ="MLM") #Modellevaluation summary(fit.AuR1, fit.measures = TRUE, standardized = TRUE) # exakter Fit, X²(9)= 2.098, p = .350, KEINE tau-äquivalente Skala --> KEINE exakte Schätzung der Reliabilität #Reliabilitätsanalyse (Schätzung der Untergrenze der Reliabilität) ci.reliability(stud1.data[, c("W_17", "W_19", "W_20")], type = 'alpha', interval.type = 'ml') #Reliabilitätsanalyse (ggf. ungenaue Schätzung der Reliabilität) psych::alpha(subset(stud1.data, select = c("W_17", "W_19", "W_20"))) #Cronbachs Alpha = .76; SE = 0.02; 95%CI[.75,.84] #Trennschärfen >.5, kein Zuwachs der Reliabilitätschätzung bei Itemausschluss #akzeptabel- gut, gut für 3-Item-Skala, keine Informationen über Genauigkeit der Reliabilitätsschätzung stud1.data$MW_W_AuR <- rowMeans(stud1.data[, c("W_17", "W_19", "W_20")]) describe(stud1.data$MW_W_AuR) # M = 2.98, SD = 0.69, SE = 0.05 #Gesamtskala stud1.data$MW_W_All <- rowMeans(stud1.data[, c("MW_W_AmdW", "MW_W_SusA", "MW_W_PuH", "MW_W_AuR")]) describe(stud1.data$MW_W_All) # M = 3.19, SD = 0.42, SE = 0.03 # Vergleich der Kompetenzbereiche (AmdW vs. SusA vs. PuH vs. AuR) und Fragekontexte (Vermittlungsfähigkeit vs. Wichtigkeit) # Zweifaktorielle Varianzanalyse mit Messwiederholung # Teildatenset erstellen stud1.data_KMK <- stud1.data[,c("id", "MW_V_AmdW", "MW_W_AmdW", "MW_V_SusA", "MW_W_SusA", "MW_V_AuR", "MW_W_AuR", "MW_V_PuH", "MW_W_PuH")] # Teildatenset in long-Format formatieren stud1.data_KMK_long <- melt(stud1.data_KMK, id = "id", measured = c("MW_V_AmdW", "MW_W_AmdW", "MW_V_SusA", "MW_W_SusA", "MW_V_AuR", "MW_W_AuR", "MW_V_PuH", "MW_W_PuH")) names(stud1.data_KMK_long) <- c("ID", "Gruppen", "Zustimmung") stud1.data_KMK_long$Kompetenzbereich <- gl(4, 408, labels = c("AmdW", "SusA", "AuR", "PuH")) stud1.data_KMK_long$Fragekontext <- gl(2, 204, 1632, labels = c("Vermittlungsfähigkeit", "Wichtigkeit")) # Deskriptive Voranalyse by(stud1.data_KMK_long$Zustimmung, list(stud1.data_KMK_long$Kompetenzbereich, stud1.data_KMK_long$Fragekontext), pastecs::stat.desc, basic = FALSE) # rm ANOVA KMKmodel <- ezANOVA(data = stud1.data_KMK_long, dv =.(Zustimmung), wid = .(ID), within = .(Kompetenzbereich, Fragekontext), type = 3, detailed = TRUE) KMKmodel #Haupteffekt Fragekontext: F (1,203) = 31.84, p < .001, generalisiertes Eta-Quadrat = 0.03, Sphärizität gegeben, da nur 2 Level #Haupteffekt Kompetenzbereich:F (2.55, 518.33) = 144.50, p <.001, η2G = 0.15, moderate Verletzung der Sphärizität, Korrektur nach Huynh-Feldt #Interaktionseffekt: F (2.91, 590.83) = 90.51, p < .001, generalisiertes Eta-Quadrat = 0.04, moderate Verletzung der Sphärizität, Korrektur nach Huynh-Feldt # Post-Hoc-Tests pairwise.t.test(stud1.data_KMK_long$Zustimmung, stud1.data_KMK_long$Gruppen, paired = TRUE, p.adjust.method = "bonferroni") #------ Datenset mit (Sub-)Skalenmittelwerten und Faktorscores speichern ------# #write_xlsx(stud1.data, path = "DigiLeG_Stud_20_21_Daten.xlsx") #------ Datenset mit Faktorscores einlesen ------# stud1.data <- read.xlsx("DigiLeG_Stud_20_21_Daten.xlsx") stud1.data <- as.data.frame(stud1.data) stud1.data <- stud1.data[,1:(ncol(stud1.data)-1)] #----------Datenaufbeitung -------------------------# stud1.data$Vermittlungsfaehigkeit <- rowMeans(stud1.data[, c("GADIP_V", "SuS_V", "AuR_V", "PuH_V")]) # Mittelwert aus Faktorscores berechnen stud1.data$Wichtigkeit <- rowMeans(stud1.data[, c("GADIP_W", "SuS_W", "AuR_W", "PuH_W")]) # Mittelwert aus Faktorscores berechnen #----------------------- Modellannahmen ------------------# # Das Selbstkozept (die subjektiven Einschätzungen des Interesses/Vergnügens am Umgang mit digitalen Werkzeugen,der computerbezogenen Selbstwirksamkeitserwartung und # der Kompetenz im Umgang mit digitalen Werkzeugen) werden durch das Nutzungsverhalten beeinflusst (tägliche Erfahrungen/Verhalten --> unterste Ebene des Selbstkonzepts) # --> hier insbesondere interessant: Unterschiede in der Vorhersagekraft zwischen den Nutzungskontexten Studium/Privat # und zwischen den digitalen Werkzeugen (Hardware/Software/Medien (aktiv/passiv)) # weitere potenzielle Einflussgrößen auf das Selbstkonzept: soziodemografische Variablen (Alter, Geschlecht), ABER: Stichprobe überwiegend jung & weiblich # Die subjektiven Einschätzungen der Vermittlungsfähigkeit & Wichtigkeit der Kompetenzen in der digitalen Welt werden durch das Selbstkonzept beeinflusst # --> hier insbesondere interessant: Unterschiede in der Vorhersagekraft bzw. Vorhersagbarkeit zwischen den Subskalen des Selbstkonzepts dem Fragekontext # weitere potenzielle Einflussgröße auf die Kompetenzen & Einstellungen bezüglich digitaler Werkzeuge in der Grundschule: Semester, ABER: curriculare Änderungen, # die auf Erhöhung der computer- und informationsbezogenen Kompetenzen un deren Vermittlung abzielen, noch nicht in Kraft, höhere Semester nicht zwingend im Vorteil #Kovarianzen; die Subskalen des Selbstkonzepts sind moderat bis hoch interkorreliert #---------- Deskriptive Statistik ------------------# # (potenzielle) Unabhängige Variablen # SOZIODEMOGRAPHIE # ALTER descriptives(stud1.data$Alter) tab1(stud1.data$Alter) # 18-44, Drei Vietel der(74,5%) der Studierenden sind 25 oder jünger # Stichprobe erwartungsgemäß homogen bezüglich des Alters attach(stud1.data) plot(Alter, Selbstwirksamkeit) # grafische Bewertung des Zsmgs. durch unterschiedliche Altersgruppenhäufigkeiten erschwert; quadratischer Zshg. angedeutet, Varianz im Bereich 25-30 geringer plot(Alter, Interesse) # grafische Bewertung des Zsmgs. durch unterschiedliche Altersgruppenhäufigkeiten erschwert; Varianz im Bereich 25-30 geringer plot(Alter, Kompetenz) # grafische Bewertung des Zsmgs. durch unterschiedliche Altersgruppenhäufigkeiten erschwert; Varianz im Bereich 25-30 geringer plot(Alter, Vermittlungsfaehigkeit) # grafische Bewertung des Zsmgs. durch unterschiedliche Altersgruppenhäufigkeiten erschwert; quadratischer Zshg. angedeutet, Varianz im Bereich 25-30 geringer plot(Alter, Wichtigkeit)# grafische Bewertung des Zsmgs. durch unterschiedliche Altersgruppenhäufigkeiten erschwert;Varianz im Bereich 25-30 geringer # das Alter erscheint nicht als geeigneter linearer Prädiktor der interessierenden linearen Variablen # Vermutung zur Wirkmechanismus? # GESCHLECHT # % einschließlich NA (N = 204) stud1.data <- stud1.data %>% mutate(Geschlecht = recode(Geschlecht, "-1"= "Divers", "1"="Weiblich", "2"="Männlich")) Geschlecht <- tab1(stud1.data$Geschlecht) Geschlecht <- as.data.frame(Geschlecht$output.table) Geschlecht <- Geschlecht[,c(1:2)] row.names(Geschlecht) <- c("Divers", "Männlich", "Weiblich", "NA", "Gesamt") names(Geschlecht) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(Geschlecht) # % ohne NA (N = 199) stud1.dataG <- stud1.data %>% drop_na(Geschlecht) Geschlecht1 <- tab1(stud1.dataG$Geschlecht) Geschlecht1 <- as.data.frame(Geschlecht1$output.table) Geschlecht1 <- Geschlecht1[,c(1:2)] row.names(Geschlecht1) <- c("Divers", "Männlich", "Weiblich","Gesamt") names(Geschlecht1) <- c("Absolute Häufigkeit","Relative Häufigkeit (%)") kable(Geschlecht1) plot(Geschlecht, Selbstwirksamkeit) # grafische Bewertung durch die unterschiedlichen Gruppengrößen erschwert, Einzelwerte für divers/männlich höher, aber MW? describeBy(stud1.data$Selbstwirksamkeit, group = stud1.data$Geschlecht) # MW: D > M > W plot(Geschlecht, Interesse) # grafische Bewertung durch die unterschiedlichen Gruppengrößen erschwert, Einzelwerte für divers/männlich höher, aber MW?, Extremwert für M? describeBy(stud1.data$Interesse, group = stud1.data$Geschlecht) #MW: D > M > W plot(Geschlecht, Kompetenz) # grafische Bewertung durch die unterschiedlichen Gruppengrößen erschwert, Einzelwerte für divers/männlich höher, aber MW? describeBy(stud1.data$Kompetenz, group = stud1.data$Geschlecht) #MW: D > M = W plot(Geschlecht, Vermittlungsfaehigkeit) # grafische Bewertung durch die unterschiedlichen Gruppengrößen erschwert, Einzelwerte für divers/männlich höher, aber MW?, Extremwerte für W im unteren Skalenbereich describeBy(stud1.data$Vermittlungsfaehigkeit, group = stud1.data$Geschlecht) #MW: D > M = W# grafische Bewertung durch die unterschiedlichen Gruppengrößen erschwert, Einzelwerte für divers/männlich höher, aber MW? plot(Geschlecht, Wichtigkeit)# grafische Bewertung durch die unterschiedlichen Gruppengrößen erschwert, Einzelwerte für divers/männlich höher, aber MW?, Extremwert für W im unteren Skalenbereich describeBy(stud1.data$Wichtigkeit, group = stud1.data$Geschlecht) #MW: D > W > M # Modellannahme: Selbstkonzept bei Männern vs. Frauen höher ausgeprägt, durch deskriptive Statistik für Selbstwirksamkeit & Interesse gestützt # zunächst keine Hypothesen für diverse Personen, hier: deutlich höhere, positivere Einschätzungen als männlich/weibliche Personen, aber Aussagekraft bei n = 5? # sehr hoher Anteil weiblicher Studierenden mit breit gestreuten Einschätzungen des Selbstkonzepts bzw. der Kompetenzen und Einstellungen bezüglic DWGS # keine sozialdemografisch zielgruppenspezifische Interventionen gewünscht, sondern Berücksichtigung heterogener Fähigkeits-/Erfahrungsniveaus # soziodemografie verdeutlicht Bedeutsamkeit curricularer Änderungen für weiblich domninierten Studiengang # NUTZUNGSVERHALTEN # STUDIUM # HARDWARE descriptives(stud1.data$Hardware_Summe_Studium) #mögliche Spannweite 0-17, tatsächliche Spannweite 3-15, Mehrheit: 6-9 Geräte tab1(stud1.data$Hardware_Summe_Studium) plot(Hardware_Summe_Studium, Selbstwirksamkeit)#kein Zusammenhang, Extemwert? plot(Hardware_Summe_Studium, Interesse) # leicht linear, Extremwert plot(Hardware_Summe_Studium, Kompetenz) # kein Zusammenhang plot(Hardware_Summe_Studium, Vermittlungsfaehigkeit) # leicht linear, Extremwerte plot(Hardware_Summe_Studium, Wichtigkeit) #kein Zusammenhang, Extremwert cor(Hardware_Summe_Studium, Selbstwirksamkeit)# kein Zusammenhang r = .09 cor(Hardware_Summe_Studium, Interesse) # geringer Zusammenhang r = .17 ----> weiter cor(Hardware_Summe_Studium, Kompetenz) # kein Zusammenhang r = -.02 cor(Hardware_Summe_Studium, Vermittlungsfaehigkeit) # kein Zusammenhang r = .06 cor(Hardware_Summe_Studium, Wichtigkeit) # kein Zusammenhang r = 0.06 reg.fit.H1 <- lm(data = stud1.data, Selbstwirksamkeit ~ Hardware_Summe_Studium) reg.fit.H2 <- lm(data = stud1.data, Interesse ~ Hardware_Summe_Studium) reg.fit.H3 <- lm(data = stud1.data, Kompetenz ~ Hardware_Summe_Studium) reg.fit.H4 <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Hardware_Summe_Studium) reg.fit.H5 <- lm(data = stud1.data, Wichtigkeit ~ Hardware_Summe_Studium) ols_plot_resid_lev(reg.fit.H1) ols_plot_resid_lev(reg.fit.H2) # Extremwert 18, 129 ols_plot_resid_lev(reg.fit.H3) # Extremwert 18, 165 ols_plot_resid_lev(reg.fit.H4) # Extremwert 18 ols_plot_resid_lev(reg.fit.H5) # Extremwert 165 stud2.data <- stud1.data[c(-18,-129,-165),] # Korrelationen durch einflussreiche Extremwerte beeinflusst? --> nein cor(stud2.data$Hardware_Summe_Studium, stud2.data$Selbstwirksamkeit)# kein Zusammenhang r = .08 cor(stud2.data$Hardware_Summe_Studium, stud2.data$Interesse) # geringer Zusammenhang r = .20 ----> weiter cor(stud2.data$Hardware_Summe_Studium, stud2.data$Kompetenz) # kein Zusammenhang r = .01 cor(stud2.data$Hardware_Summe_Studium, stud2.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .02 cor(stud2.data$Hardware_Summe_Studium, stud2.data$Wichtigkeit) # kein Zusammenhang r = 0.05 # die Hardwarenutzung im Studium erscheint nicht als geeigneter linearer Prädiktor der interessierenden endogenen Variablen # ausschließlich geringe lineare Zusammenhänge zum Interesse/Vergnügen am Umgang mit digitalen Werkzeugen # SOFTWARE descriptives(stud1.data$Software_Summe_Studium) #mögliche Spannweite 0-8, tatsächlich 2-8, Mehrheit 5-8 tab1(stud1.data$Software_Summe_Studium) plot(stud1.data$Software_Summe_Studium, stud1.data$Selbstwirksamkeit)#kein Zusammenhang plot(stud1.data$Software_Summe_Studium, stud1.data$Interesse) #geringer Zusammenhang plot(stud1.data$Software_Summe_Studium, stud1.data$Kompetenz) #kein Zusammenhang plot(stud1.data$Software_Summe_Studium, stud1.data$Vermittlungsfaehigkeit) #kein Zusammenhang plot(stud1.data$Software_Summe_Studium, stud1.data$Wichtigkeit) #kein Zusammenhang cor(stud1.data$Software_Summe_Studium, stud1.data$Selbstwirksamkeit)# kein Zusammenhang r = .09 cor(stud1.data$Software_Summe_Studium, stud1.data$Interesse) # geringer Zusammenhang r = .23 ---> weiter cor(stud1.data$Software_Summe_Studium, stud1.data$Kompetenz) # kein Zusammenhang r = .03 cor(stud1.data$Software_Summe_Studium, stud1.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .03 cor(stud1.data$Software_Summe_Studium, stud1.data$Wichtigkeit) # geringer Zusammenhang r = 0.14 ---> weiter reg.fit.H1 <- lm(data = stud1.data, Selbstwirksamkeit ~ Software_Summe_Studium) reg.fit.H2 <- lm(data = stud1.data, Interesse ~ Software_Summe_Studium) reg.fit.H3 <- lm(data = stud1.data, Kompetenz ~ Software_Summe_Studium) reg.fit.H4 <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Software_Summe_Studium) reg.fit.H5 <- lm(data = stud1.data, Wichtigkeit ~ Software_Summe_Studium) ols_plot_resid_lev(reg.fit.H1) # Extremwert 50 ols_plot_resid_lev(reg.fit.H2) ols_plot_resid_lev(reg.fit.H3) # Extremwert 50 ols_plot_resid_lev(reg.fit.H4) # Extremwert 50 ols_plot_resid_lev(reg.fit.H5) stud2.data <- stud1.data[c(-50),] # Korrelationen durch einflussreiche Extremwerte beeinflusst? --> nein, Interpretation der Zshg. bleibt gleich cor(stud2.data$Software_Summe_Studium, stud2.data$Selbstwirksamkeit)# kein Zusammenhang r = .05 cor(stud2.data$Software_Summe_Studium, stud2.data$Interesse) # geringer Zusammenhang r = .22 ----> weiter cor(stud2.data$Software_Summe_Studium, stud2.data$Kompetenz) # kein Zusammenhang r = .00 cor(stud2.data$Software_Summe_Studium, stud2.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = -.02 cor(stud2.data$Software_Summe_Studium, stud2.data$Wichtigkeit) # geringer Zusammenhang r = 0.12 ----> weiter # die Softwarenutzung im Studium erscheint als schwacher linearer Prädiktor des Intresses/Vergnügens & der Wichtigkeitseinschätzung # MEDIEN AKTIV descriptives(stud1.data$Medien_aktiv_Summe_Studium) #mögliche Spannweite 0-8, tatsächlich 0-4 tab1(stud1.data$Medien_aktiv_Summe_Studium) # Mehrheit 0-1 plot(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Selbstwirksamkeit)#leicht linear, Extremwerte? plot(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Interesse) # kein Zshg. plot(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Kompetenz) # leicht linear plot(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Vermittlungsfaehigkeit) # leicht linear, Extremwert? plot(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Wichtigkeit) # kein Zusammenhang cor(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Selbstwirksamkeit)# geringer Zusammenhang r = .15 ---> weiter cor(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Interesse) # kein Zusammenhang r = .08 cor(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Kompetenz) # kein Zusammenhang r = .09 cor(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .04 cor(stud1.data$Medien_aktiv_Summe_Studium, stud1.data$Wichtigkeit) # kein Zusammenhang r = -0.04 reg.fit.H1 <- lm(data = stud1.data, Selbstwirksamkeit ~ Medien_aktiv_Summe_Studium) reg.fit.H2 <- lm(data = stud1.data, Interesse ~ Medien_aktiv_Summe_Studium) reg.fit.H3 <- lm(data = stud1.data, Kompetenz ~ Medien_aktiv_Summe_Studium) reg.fit.H4 <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Medien_aktiv_Summe_Studium) reg.fit.H5 <- lm(data = stud1.data, Wichtigkeit ~ Medien_aktiv_Summe_Studium) ols_plot_resid_lev(reg.fit.H1) # Extremwert 35,40 ols_plot_resid_lev(reg.fit.H2) # Extremwert 97 ols_plot_resid_lev(reg.fit.H3) ols_plot_resid_lev(reg.fit.H4) # Extremwert 35 ols_plot_resid_lev(reg.fit.H5) # Extremwert 35, 159 stud2.data <- stud1.data[c(-35,-40,-97,-159),] # Korrelationen durch einflussreiche Extremwerte beeinflusst? --> ja, Zusammenhänge für Kompetenz & Wichtigkeit instabil cor(stud2.data$Medien_aktiv_Summe_Studium, stud2.data$Selbstwirksamkeit)# geringer Zusammenhang r = .20 ---> weiter cor(stud2.data$Medien_aktiv_Summe_Studium, stud2.data$Interesse) # kein Zusammenhang r = .09 cor(stud2.data$Medien_aktiv_Summe_Studium, stud2.data$Kompetenz) # kein Zusammenhang r = .08 cor(stud2.data$Medien_aktiv_Summe_Studium, stud2.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .09 cor(stud2.data$Medien_aktiv_Summe_Studium, stud2.data$Wichtigkeit) # geringer Zusammenhang r = 0.10 ---> weiter??? # die aktive Mediennutzung zu Studienzwecken erscheint als schwacher linearer Prädiktor der computerbezogenen Selbstwirksamkeitserwartung # MEDIEN PASSIV descriptives(stud1.data$Medien_passiv_Summe_Studium) #mögliche Spannweite 0-8, tatsächlich 0-8 tab1(stud1.data$Medien_passiv_Summe_Studium) plot(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Selbstwirksamkeit)# kein zusammenhang plot(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Interesse) # leicht linear, Extremwerte? plot(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Kompetenz) # leicht linear, Extremwerte? plot(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Vermittlungsfaehigkeit) # kein zusammenhang, Extremwerte? plot(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Wichtigkeit) # kein zusammenhang, Extremwerte? cor(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Selbstwirksamkeit)# geringer Zusammenhang r = .13 ---> weiter cor(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Interesse) # geringer Zusammenhang r = .28 ---> weiter cor(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Kompetenz) # geringer Zusammenhang r = .14---> weiter cor(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .07 cor(stud1.data$Medien_passiv_Summe_Studium, stud1.data$Wichtigkeit) # kein Zusammenhang r = 0.08 reg.fit.H1 <- lm(data = stud1.data, Selbstwirksamkeit ~ Medien_passiv_Summe_Studium) reg.fit.H2 <- lm(data = stud1.data, Interesse ~ Medien_passiv_Summe_Studium) reg.fit.H3 <- lm(data = stud1.data, Kompetenz ~ Medien_passiv_Summe_Studium) reg.fit.H4 <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Medien_passiv_Summe_Studium) reg.fit.H5 <- lm(data = stud1.data, Wichtigkeit ~ Medien_passiv_Summe_Studium) ols_plot_resid_lev(reg.fit.H1) # Extremwert 40,50 ols_plot_resid_lev(reg.fit.H2) ols_plot_resid_lev(reg.fit.H3) ols_plot_resid_lev(reg.fit.H4) # Extremwert 35, 50 ols_plot_resid_lev(reg.fit.H5) # Extremwert 35 stud2.data <- stud1.data[c(-35,-40,-50),] # Korrelationen durch einflussreiche Extremwerte beeinflusst? --> Zshg. durch Extremwerte leicht gedämpft, für Sebstkonzept nur geringfügig cor(stud2.data$Medien_passiv_Summe_Studium, stud2.data$Selbstwirksamkeit)# geringer Zusammenhang r = .14 ---> weiter cor(stud2.data$Medien_passiv_Summe_Studium, stud2.data$Interesse) # geringer/mittlerer Zusammenhang r = .30 --> weiter cor(stud2.data$Medien_passiv_Summe_Studium, stud2.data$Kompetenz) # geringer Zusammenhang r = .13 ----> weiter cor(stud2.data$Medien_passiv_Summe_Studium, stud2.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .09 cor(stud2.data$Medien_passiv_Summe_Studium, stud2.data$Wichtigkeit) # geringer Zusammenhang r = 0.15 ----> weiter? # die passive Mediennutzung zu Studienzwecken erscheint als schwacher bis moderater linearer Prädiktor der Subskalen des Selbstkonzepts und der Einschätzung der Wichtigkeit # PRIVAT # HARDWARE descriptives(stud1.data$Hardware_Summe_Privat) #mögliche Spannweite 0-17, tatsächlich 2-16 , Mehrheit 10-15 Geräte tab1(stud1.data$Hardware_Summe_Privat) plot(stud1.data$Hardware_Summe_Privat, stud1.data$Selbstwirksamkeit)#leicht linear, Extemwert? plot(stud1.data$Hardware_Summe_Privat, stud1.data$Interesse) # kein Zusammenhang, Extremwert? plot(stud1.data$Hardware_Summe_Privat, stud1.data$Kompetenz) # kein Zusammenhang, Extremwerte? plot(stud1.data$Hardware_Summe_Privat, stud1.data$Vermittlungsfaehigkeit) # kein Zusammenhang, Extremwerte plot(stud1.data$Hardware_Summe_Privat, stud1.data$Wichtigkeit) # kein zusammenhang cor(stud1.data$Hardware_Summe_Privat, stud1.data$Selbstwirksamkeit)# geringer Zusammenhang r = .14 ---> weiter cor(stud1.data$Hardware_Summe_Privat, stud1.data$Interesse) # kein Zusammenhang r = .09 cor(stud1.data$Hardware_Summe_Privat, stud1.data$Kompetenz) # kein Zusammenhang r = .03 cor(stud1.data$Hardware_Summe_Privat, stud1.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .05 cor(stud1.data$Hardware_Summe_Privat, stud1.data$Wichtigkeit) # kein Zusammenhang r = -0.03 reg.fit.H1 <- lm(data = stud1.data, Selbstwirksamkeit ~ Hardware_Summe_Privat) reg.fit.H2 <- lm(data = stud1.data, Interesse ~ Hardware_Summe_Privat) reg.fit.H3 <- lm(data = stud1.data, Kompetenz ~ Hardware_Summe_Privat) reg.fit.H4 <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Hardware_Summe_Privat) reg.fit.H5 <- lm(data = stud1.data, Wichtigkeit ~ Hardware_Summe_Privat) ols_plot_resid_lev(reg.fit.H1) # Extremwert 130 ols_plot_resid_lev(reg.fit.H2) ols_plot_resid_lev(reg.fit.H3) ols_plot_resid_lev(reg.fit.H4) # Extremwert 134 ols_plot_resid_lev(reg.fit.H5) # Extremwert 100, 130 ######ACHTUNG stud2.data <- stud1.data[c(-100,-130,-134),] # Korrelationen durch einflussreiche Extremwerte beeinflusst? --> jein, Zshge.gedämpft, Interpretation gleich cor(stud2.data$Hardware_Summe_Privat, stud2.data$Selbstwirksamkeit)# kein Zusammenhang r = .10 cor(stud2.data$Hardware_Summe_Privat, stud2.data$Interesse) # geringer Zusammenhang r = .06 cor(stud2.data$Hardware_Summe_Privat, stud2.data$Kompetenz) # kein Zusammenhang r = -.00 cor(stud2.data$Hardware_Summe_Privat, stud2.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .02 cor(stud2.data$Hardware_Summe_Privat, stud2.data$Wichtigkeit) # kein Zusammenhang r = -0.08 # die private Hardwarenutzung erscheint nicht als geeigneter linearer Prädiktor der interessierenden endogenen Variablen # ausschließlich geringfügiger Zshg. der Selbstwirksamkeitserwartung # potenziell mit Abfrage "klassischer" Geräte zu begründen? # SOFTWARE descriptives(stud1.data$Software_Summe_Privat) #mögliche Spannweite 0-8, tatsächlich 1- 8, Mehrheit 4-6 tab1(stud1.data$Software_Summe_Privat) plot(stud1.data$Software_Summe_Privat, stud1.data$Selbstwirksamkeit)#leicht linear plot(stud1.data$Software_Summe_Privat, stud1.data$Interesse) # leicht linear plot(stud1.data$Software_Summe_Privat, stud1.data$Kompetenz) # leicht linear plot(stud1.data$Software_Summe_Privat, stud1.data$Vermittlungsfaehigkeit) # leicht linear, Extremwert? plot(stud1.data$Software_Summe_Privat, stud1.data$Wichtigkeit) # leicht linear, Extremwerte? plot(stud1.data$Software_Summe_Privat, stud1.data$Sinnhaftigkeit) # Bewertung durch ordinalskaliertes Kriterium erschwert, kein Zshg. erkennbar cor(stud1.data$Software_Summe_Privat, stud1.data$Selbstwirksamkeit)# geringer Zusammenhang r = .18 ---> weiter cor(stud1.data$Software_Summe_Privat, stud1.data$Interesse) # geringer Zusammenhang r = .24 ---> weiter cor(stud1.data$Software_Summe_Privat, stud1.data$Kompetenz) # geringer Zusammenhang r = .16---> weiter cor(stud1.data$Software_Summe_Privat, stud1.data$Vermittlungsfaehigkeit) # geringer Zusammenhang r = .11 ---> weiter cor(stud1.data$Software_Summe_Privat, stud1.data$Wichtigkeit) # geringer Zusammenhang r = 0.12 ---> weiter reg.fit.H1 <- lm(data = stud1.data, Selbstwirksamkeit ~ Software_Summe_Privat) reg.fit.H2 <- lm(data = stud1.data, Interesse ~ Software_Summe_Privat) reg.fit.H3 <- lm(data = stud1.data, Kompetenz ~ Software_Summe_Privat) reg.fit.H4 <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Software_Summe_Privat) reg.fit.H5 <- lm(data = stud1.data, Wichtigkeit ~ Software_Summe_Privat) ols_plot_resid_lev(reg.fit.H1) # Extremwert 50, 117 ols_plot_resid_lev(reg.fit.H2) ols_plot_resid_lev(reg.fit.H3) ols_plot_resid_lev(reg.fit.H4) # Extremwert 4, 50 ols_plot_resid_lev(reg.fit.H5) # Extremwert 71 stud2.data <- stud1.data[c(-4,-50,-71,-117),] # Korrelationen durch einflussreiche Extremwerte beeinflusst? --> ja, keine Zusammenhänge nach Ausschluss für Vermittlung/Wichtigkeit!, cor(stud2.data$Software_Summe_Privat, stud2.data$Selbstwirksamkeit)# geringer Zusammenhang r = .13 cor(stud2.data$Software_Summe_Privat, stud2.data$Interesse) # geringer Zusammenhang r = .24 cor(stud2.data$Software_Summe_Privat, stud2.data$Kompetenz) # kein Zusammenhang r = .14 cor(stud2.data$Software_Summe_Privat, stud2.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .08 cor(stud2.data$Software_Summe_Privat, stud2.data$Wichtigkeit) # kein Zusammenhang r = 0.08 # die private Softwarenutzung erscheint als schwacher linearer Prädiktor der Subskalen des Selbstkonzepts # MEDIEN AKTIV descriptives(stud1.data$Medien_aktiv_Summe_Privat) #mögliche Spannweite 0-8, tatsächlich 0-4 tab1(stud1.data$Medien_aktiv_Summe_Privat) # Mehrheit 1+ plot(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Selbstwirksamkeit)#leicht linear, Extremwerte? plot(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Interesse) # leicht linear, Extremwerte plot(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Kompetenz) # leicht linear, Extremwert plot(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Vermittlungsfaehigkeit) # leicht linear, Extremwert? plot(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Wichtigkeit) # kein Zusammenhang, Extremwerte? cor(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Selbstwirksamkeit)# geringer Zusammenhang r = .19 ---> weiter cor(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Interesse) # geringer Zusammenhang r = .21 ---> weiter cor(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Kompetenz) # geringer Zusammenhang r = .21---> weiter cor(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Vermittlungsfaehigkeit) # geringer Zusammenhang r = .12 ---> weiter cor(stud1.data$Medien_aktiv_Summe_Privat, stud1.data$Wichtigkeit) # kein Zusammenhang r = -0.02 reg.fit.H1 <- lm(data = stud1.data, Selbstwirksamkeit ~ Medien_aktiv_Summe_Privat) reg.fit.H2 <- lm(data = stud1.data, Interesse ~ Medien_aktiv_Summe_Privat) reg.fit.H3 <- lm(data = stud1.data, Kompetenz ~ Medien_aktiv_Summe_Privat) reg.fit.H4 <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Medien_aktiv_Summe_Privat) reg.fit.H5 <- lm(data = stud1.data, Wichtigkeit ~ Medien_aktiv_Summe_Privat) ols_plot_resid_lev(reg.fit.H1) # Extremwert 40 ols_plot_resid_lev(reg.fit.H2) ols_plot_resid_lev(reg.fit.H3) # Extremwert 23 ols_plot_resid_lev(reg.fit.H4) ols_plot_resid_lev(reg.fit.H5) # Extremwert 23 stud2.data <- stud1.data[c(-23,-40),] # Korrelationen durch einflussreiche Extremwerte beeinflusst? --> jein, Zusammenhänge durch Extremwerte leicht gedämpft, Interpretation bleibt jedoch gleich cor(stud2.data$Medien_aktiv_Summe_Privat, stud2.data$Selbstwirksamkeit)# geringer Zusammenhang r = .25 ----> weiter cor(stud2.data$Medien_aktiv_Summe_Privat, stud2.data$Interesse) # geringer Zusammenhang r = .24 ----> weiter cor(stud2.data$Medien_aktiv_Summe_Privat, stud2.data$Kompetenz) # geringer Zusammenhang r = .25 ----> weiter cor(stud2.data$Medien_aktiv_Summe_Privat, stud2.data$Vermittlungsfaehigkeit) # geringer Zusammenhang r = .13 ----> weiter cor(stud2.data$Medien_aktiv_Summe_Privat, stud2.data$Wichtigkeit) # kein Zusammenhang r = 0.02 # die aktive Mediennutzung zu privaten #Zwecken erscheint als schwacher bis moderater linearer Prädiktor der Subskalen des Selbstkonzepts und der Einschätzung der Vermittlungsfähigkeit # MEDIEN PASSIV descriptives(stud1.data$Medien_passiv_Summe_Privat) #mögliche Spannweite 0-8, tatsächlich 1-8 tab1(stud1.data$Medien_passiv_Summe_Privat) # Mehrheit 4-7 plot(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Selbstwirksamkeit)#leicht linear plot(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Interesse) # leicht linear plot(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Kompetenz) # kein zusammenhang plot(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Vermittlungsfaehigkeit) # leicht linear, Extremwert? plot(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Wichtigkeit) # kein Zusammenhang cor(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Selbstwirksamkeit)# geringer Zusammenhang r = .19 ---> weiter cor(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Interesse) # geringer Zusammenhang r = .18 ---> weiter cor(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Kompetenz) # kein Zusammenhang r = .09 cor(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Vermittlungsfaehigkeit) # geringer Zusammenhang r = .16 ---> weiter cor(stud1.data$Medien_passiv_Summe_Privat, stud1.data$Wichtigkeit) # kein Zusammenhang r = 0.09 reg.fit.H1 <- lm(data = stud1.data, Selbstwirksamkeit ~ Medien_passiv_Summe_Privat) reg.fit.H2 <- lm(data = stud1.data, Interesse ~ Medien_passiv_Summe_Privat) reg.fit.H3 <- lm(data = stud1.data, Kompetenz ~ Medien_passiv_Summe_Privat) reg.fit.H4 <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Medien_passiv_Summe_Privat) reg.fit.H5 <- lm(data = stud1.data, Wichtigkeit ~ Medien_passiv_Summe_Privat) ols_plot_resid_lev(reg.fit.H1) # Extremwert 40, 81, 117 ols_plot_resid_lev(reg.fit.H2) # Extremwert 129 ols_plot_resid_lev(reg.fit.H3) # Extremwert 23 ols_plot_resid_lev(reg.fit.H4) ols_plot_resid_lev(reg.fit.H5) # Extremwert 23, 71, 159 stud2.data <- stud1.data[c(-23,-40,-71, -81, -117, -129, -159),] # Korrelationen durch einflussreiche Extremwerte beeinflusst? --> ja, geringfügig, Interpretation bleibt jedoch cor(stud2.data$Medien_passiv_Summe_Privat, stud2.data$Selbstwirksamkeit)# geringer Zusammenhang r = .20 ----> weiter cor(stud2.data$Medien_passiv_Summe_Privat, stud2.data$Interesse) # geringer Zusammenhang r = .16 ----> weiter cor(stud2.data$Medien_passiv_Summe_Privat, stud2.data$Kompetenz) # kein Zusammenhang r = .10 ---> weiter cor(stud2.data$Medien_passiv_Summe_Privat, stud2.data$Vermittlungsfaehigkeit) # kein Zusammenhang r = .12 ----> weiter cor(stud2.data$Medien_passiv_Summe_Privat, stud2.data$Wichtigkeit) # kein Zusammenhang r = 0.09 # die passive Mediennutzung zu privaten Zwecken erscheint als schwacher Prädiktor der Selbstwirksamkeitserwartung/des Interesse/Vergnügens am Umgang mit digitalen Werkzeugen # und Einschätzungen der Sinnhaftigkeit und Vermittlungsfaehigkeit # SELBSTWIRKSAMKEIT descriptives(stud1.data$Selbstwirksamkeit) hist(stud1.data$Selbstwirksamkeit, breaks=seq(-4,4,length=20)) plot(stud1.data$Selbstwirksamkeit, stud1.data$Vermittlungsfaehigkeit) # linear plot(stud1.data$Selbstwirksamkeit, stud1.data$Wichtigkeit) # leicht linear cor(stud1.data$Selbstwirksamkeit, stud1.data$Vermittlungsfaehigkeit) # moderater Zusammenhang r = .49 ----> weiter cor(stud1.data$Selbstwirksamkeit, stud1.data$Wichtigkeit) # geringer Zusammenhang r = .27 ----> weiter reg.fit.V <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Selbstwirksamkeit) reg.fit.W <- lm(data = stud1.data, Wichtigkeit ~ Selbstwirksamkeit) ols_plot_resid_lev(reg.fit.V) # Extremwert 50, 175 ols_plot_resid_lev(reg.fit.W) # Extremwert 112, 175 stud2.data <- stud1.data[c(-50, -112, -175),] # Zusammenhänge durch einflussreiche Extremwerte beeinflusst: nein cor(stud2.data$Selbstwirksamkeit, stud2.data$Vermittlungsfaehigkeit) # moderater/hoher Zusammenhang r = .48 ----> weiter cor(stud2.data$Selbstwirksamkeit, stud2.data$Wichtigkeit) # geringer/moderator Zusammenhang r = .30 ----> weiter # Die computerbezogene Selbstwirksamkeitserwartung erscheint als geringer bis moderater Prädiktor der Einschätzungen der Vermittlungsfähigkeit (moderat), # und Wichtigkeit (gering/moderat) # INTERESSE descriptives(stud1.data$Interesse) hist(stud1.data$Interesse, breaks=seq(-4,4,length=20)) plot(stud1.data$Interesse, stud1.data$Vermittlungsfaehigkeit) # leicht linear plot(stud1.data$Interesse, stud1.data$Wichtigkeit) # leicht linear cor(stud1.data$Interesse, stud1.data$Vermittlungsfaehigkeit) # geringer Zusammenhang r = .17 ----> weiter cor(stud1.data$Interesse, stud1.data$Wichtigkeit) # geringer Zusammenhang r = .21 ----> weiter reg.fit.V <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Interesse) reg.fit.W <- lm(data = stud1.data, Wichtigkeit ~ Interesse) ols_plot_resid_lev(reg.fit.V) # Extremwert 18 ols_plot_resid_lev(reg.fit.W) # Extremwert 18 stud2.data <- stud1.data[c(-18),] # Zusammenhänge durch einflussreiche Extremwerte beeinflusst: nein cor(stud2.data$Interesse, stud2.data$Vermittlungsfaehigkeit) # geringer Zusammenhang r = .20 ----> weiter cor(stud2.data$Interesse, stud2.data$Wichtigkeit) # geringer Zusammenhang r = .24 ----> weiter # Das Interesse/Vergnügen am Umgang mit digitalen Werkzeugen erscheint als geringer Prädiktor der Einschätzungen der Vermittlungsfähigkeit und Wichtigkeit # KOMPETENZ descriptives(stud1.data$Kompetenz) hist(stud1.data$Kompetenz, breaks=seq(-4,4,length=20)) plot(stud1.data$Kompetenz, stud1.data$Vermittlungsfaehigkeit) # linear plot(stud1.data$Kompetenz, stud1.data$Wichtigkeit) # kein Zshg. cor(stud1.data$Kompetenz, stud1.data$Vermittlungsfaehigkeit) # moderater Zusammenhang r = .33 ----> weiter cor(stud1.data$Kompetenz, stud1.data$Wichtigkeit) # geringer Zusammenhang r = .10 ----> weiter reg.fit.V <- lm(data = stud1.data, Vermittlungsfaehigkeit ~ Kompetenz) reg.fit.W <- lm(data = stud1.data, Wichtigkeit ~ Kompetenz) ols_plot_resid_lev(reg.fit.V) # Extremwert 18, 50 ols_plot_resid_lev(reg.fit.W) # Extremwert 18, 23 stud2.data <- stud1.data[c(-18, -23, -50),] # Zusammenhänge durch einflussreiche Extremwerte beeinflusst: nein cor(stud2.data$Kompetenz, stud2.data$Vermittlungsfaehigkeit) # moderater Zusammenhang r = .34 ----> weiter cor(stud2.data$Kompetenz, stud2.data$Wichtigkeit) # geringer Zusammenhang r = .10 ----> weiter? # Die computerbezogene Kompetenzserwartung erscheint als geringer bis moderater Prädiktor der Einschätzungen der Vermittlungsfähigkeit (moderat), # und Wichtigkeit (sehr gering) # VERMITTLUNGSFAEHIGKEIT descriptives(stud1.data$Vermittlungsfaehigkeit) hist(stud1.data$Vermittlungsfaehigkeit, breaks=seq(-4,4,length=20)) # WICHTIGKEIT descriptives(stud1.data$Wichtigkeit) hist(stud1.data$Wichtigkeit, breaks=seq(-4,4,length=20)) #----------------------- Modellspezifikation ------------------# # Das Selbstkozept (die subjektiven Einschätzungen des Interesses/Vergnügens am Umgang mit digitalen Werkzeugen,der computerbezogenen Selbstwirksamkeitserwartung und # der Kompetenz im Umgang mit digitalen Werkzeugen) werden durch das Nutzungsverhalten beeinflusst (tägliche Erfahrungen/Verhalten --> unterste Ebene des Selbstkonzepts) # --> hier insbesondere interessant: Unterschiede in der Vorhersagekraft zwischen den Nutzungskontexten Studium/Privat # und zwischen den digitalen Werkzeugen (Hardware/Software/Medien (aktiv/passiv)) # Die subjektiven Einschätzungen der Sinnhaftigkeit des Einsatzes digitaler Werkzeuge in der Grundschule sowie der Vermittlungsfähigkeit & Wichtigkeit der Kompetenzen # in der digitalen Welt werden durch das Selbstkonzept beeinflusst # --> hier insbesondere interessant: Unterschiede in der Vorhersagekraft bzw. Vorhersagbarkeit zwischen den Subskalen des Selbstkonzepts dem Fragekontext #Kovarianzen; die Subskalen des Selbstkonzepts sind moderat bis hoch interkorreliert Pfad_Stud <- ' Selbstwirksamkeit ~ Hardware_Summe_Studium + Hardware_Summe_Privat + Software_Summe_Studium + Software_Summe_Privat + Medien_aktiv_Summe_Studium + Medien_aktiv_Summe_Privat + Medien_passiv_Summe_Studium + Medien_passiv_Summe_Privat Interesse ~ Hardware_Summe_Studium + Hardware_Summe_Privat + Software_Summe_Studium + Software_Summe_Privat + Medien_aktiv_Summe_Studium + Medien_aktiv_Summe_Privat + Medien_passiv_Summe_Studium + Medien_passiv_Summe_Privat Kompetenz ~ Hardware_Summe_Studium + Hardware_Summe_Privat + Software_Summe_Studium + Software_Summe_Privat + Medien_aktiv_Summe_Studium + Medien_aktiv_Summe_Privat + Medien_passiv_Summe_Studium + Medien_passiv_Summe_Privat Vermittlungsfaehigkeit ~ Selbstwirksamkeit + Interesse + Kompetenz Wichtigkeit ~ Selbstwirksamkeit + Interesse + Kompetenz Interesse ~~ Kompetenz Selbstwirksamkeit ~~ Interesse Selbstwirksamkeit ~~ Kompetenz Vermittlungsfaehigkeit ~~ Wichtigkeit ' #------------------- Vorraussetzungsprüfung ---------------------# # Einflussreiche Extremwerte reg.fit.Selbst <- lm(data = stud1.data, Selbstwirksamkeit ~ Hardware_Summe_Studium + Hardware_Summe_Privat + Software_Summe_Studium + Software_Summe_Privat + Medien_aktiv_Summe_Studium + Medien_aktiv_Summe_Privat + Medien_passiv_Summe_Studium + Medien_passiv_Summe_Privat) reg.fit.Int <- lm(data = stud1.data, Interesse ~ Hardware_Summe_Studium + Hardware_Summe_Privat + Software_Summe_Studium + Software_Summe_Privat + Medien_aktiv_Summe_Studium + Medien_aktiv_Summe_Privat + Medien_passiv_Summe_Studium + Medien_passiv_Summe_Privat) reg.fit.Komp <- lm(data = stud1.data, Kompetenz ~ Hardware_Summe_Studium + Hardware_Summe_Privat + Software_Summe_Studium + Software_Summe_Privat + Medien_aktiv_Summe_Studium + Medien_aktiv_Summe_Privat + Medien_passiv_Summe_Studium + Medien_passiv_Summe_Privat) reg.fit.Vermittlung <-lm(data = stud1.data, Vermittlungsfaehigkeit ~ Selbstwirksamkeit + Interesse + Kompetenz) reg.fit.Wichtigkeit <-lm(data = stud1.data, Wichtigkeit ~ Selbstwirksamkeit + Interesse + Kompetenz) ols_plot_resid_lev(reg.fit.Selbst) # 35,40,117 ols_plot_resid_lev(reg.fit.Int) # keine ols_plot_resid_lev(reg.fit.Komp) # keine ols_plot_resid_lev(reg.fit.Vermittlung) # 18, 175,(50) ols_plot_resid_lev(reg.fit.Wichtigkeit) # 21, 175 stud2.data <- stud1.data[c(-18, -21,-35, -40, -50, -117,-175),] # Fallausschluss nach OLD für N = 204 --> N = 197 reg.fit.Selbst2 <- lm(data = stud2.data, Selbstwirksamkeit ~ Hardware_Summe_Studium + Hardware_Summe_Privat + Software_Summe_Studium + Software_Summe_Privat + Medien_aktiv_Summe_Studium + Medien_aktiv_Summe_Privat + Medien_passiv_Summe_Studium + Medien_passiv_Summe_Privat) reg.fit.Int2 <- lm(data = stud2.data, Interesse ~ Hardware_Summe_Studium + Hardware_Summe_Privat + Software_Summe_Studium + Software_Summe_Privat + Medien_aktiv_Summe_Studium + Medien_aktiv_Summe_Privat + Medien_passiv_Summe_Studium + Medien_passiv_Summe_Privat) reg.fit.Komp2 <- lm(data = stud2.data, Kompetenz ~ Hardware_Summe_Studium + Hardware_Summe_Privat + Software_Summe_Studium + Software_Summe_Privat + Medien_aktiv_Summe_Studium + Medien_aktiv_Summe_Privat + Medien_passiv_Summe_Studium + Medien_passiv_Summe_Privat) reg.fit.Vermittlung2 <-lm(data = stud2.data, Vermittlungsfaehigkeit ~ Selbstwirksamkeit + Interesse + Kompetenz) reg.fit.Wichtigkeit2 <-lm(data = stud2.data, Wichtigkeit ~ Selbstwirksamkeit + Interesse + Kompetenz) ols_plot_resid_lev(reg.fit.Selbst2) # keine ols_plot_resid_lev(reg.fit.Int2) # keine ols_plot_resid_lev(reg.fit.Komp2) # keine ols_plot_resid_lev(reg.fit.Vermittlung2) # keine ols_plot_resid_lev(reg.fit.Wichtigkeit2) # keine # Linearität (siehe deskriptive Statistik) # Multivariate Normlaverteilung daten_endogen <- stud2.data[,c("Selbstwirksamkeit", "Interesse", "Kompetenz","Vermittlungsfaehigkeit", "Wichtigkeit")] mvn(daten_endogen, mvnTest = "mardia", univariateTest = "SW") # Interesse/Vermittlungsfaehigkeit univariat normalverteilt (Shapiro-Wilk) # gemäß Kurtosis: multivariate NV gegeben # gemäß Schiefe: multivariate NV gegeben # insgesamt: multivariate NV gegeben mvn(data = daten_endogen, multivariatePlot = "qq") # Interesse/Vermittlungsfaehigkeit univariat normalverteilt (Anderson-Darling) # MVN_Abweichungen im QQ-Plot nicht gravierend # Henze-Zirkler-Test: MVN gegeben #----------------- Modellschätzung (nach Fallausschluss N = 197) -------# Pfad_Stud.fit <- sem(data = stud2.data, model = Pfad_Stud, estimator = "MLM") #-------------------- Modellevaluation -------------------------# summary(object = Pfad_Stud.fit, fit.measures = TRUE, standardized = TRUE,rsquare = TRUE) #exakter Fit # X²(16) = 14.19, p = .584, CFI/TLI = 1, RMSEA = .000 [.000, .059], pclose = .904, SRMR = .022 standardizedSolution(Pfad_Stud.fit) mi <- modindices(Pfad_Stud.fit) mi <- mi[order(-mi$mi),] mi[mi$mi > 4,] # keine nicht-redundanten, theoretisch sinnvollen Modifikationsindizes #Literatur # 1) Barendse, Maria Theodora, Frans J. Oort, und Marieke E. Timmerman. 2015. «Using exploratory factor analysis to determine the dimensionality of # discrete responses». Structural Equation Modeling: A Multidisciplinary Journal, 22(1), 87-101. https://doi.org/10.1080/10705511.2014.859510 # 2) Bühner, Markus. 2011. Einführung in die Test- und Fragebogenkonstruktion. München: Pearson Deutschland GmbH. # 3) Field, Andy. 2018. Discovering statistics using IBM SPSS. Los Angeles, London, New Delhi, Singapur, Washington DC, Melbourne: SAGE Publications. # 4) Gerick, Julia, Mario Vennemann, Birgit Eickelmann, Wilfried Bos, und Sina Mews. 2018. ICILS 2013: Dokumentation der Erhebungsinstrumente der # International Computer and Information Literacy Study. Münster, New York: Waxmann Verlag. https://elibrary.utb.de/doi/book/10.31244/9783830989394 # 5) Hu, Li-tze, und Peter M. Bentler. 1999. «Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new # alternatives». Structural Equation Modeling: A Multidisciplinary Journal 6(1): 1-55. https://doi.org/10.1080/10705519909540118 # 6) Nguyen, Hoang V. und Niels G. Waller.2022. «Local Minima and Factor Rotations in Exploratory Factor Analysis.» # Psychological Methods. Advance online publication. http://dx.doi.org/10.1037/met0000467 # 7) Schwanzer, Andrea D., Ulrich Trautwein, Oliver Lüdtke, und Hubert Sydow. 2005. «Entwicklung eines Instruments # zur Erfassung des Selbstkonzepts junger Erwachsener». Diagnostica 51(4): 183-194. https://doi.org/10.1026/0012-1924.51.4.183 # 8) Ten Berge, Jos M. F., Wis P. Krijnen, Tom Wansbeek, und Alexander Shapiro. 1999. «Some new results on correlation-preserving factor scores # prediction methods». Linear Algebra and its Applications 289(1-3): 311-318. https://doi.org/10.1016/S0024-3795(97)10007-6