Fleiss' Kappa in SPSS (Version 26 und später) berechnen - Daten analysieren in SPSS (116)

Поделиться
HTML-код
  • Опубликовано: 5 фев 2025
  • // Fleiss' Kappa in SPSS berechnen //
    Die Interrater-Reliabilität kann mittels Kappa in SPSS ermittelt werden. Fleiss' Kappa ist dafür geeignet zu sehen, wie sehr sich die Einschätzungen von mindestens drei Ratern bzw. Beurteilern ähneln.
    Es können allerdings nur nominal oder bestenfalls ordinal skalierte Daten in der Berechnung verwendet werden.
    Dieses Vorgehen ist seit der SPSS-Version 26 direkt in SPSS implementiert.
    Habt ihr eine alte SPSS-Version, bis einschließlich Version 25, schaut dieses Video: • Fleiss' Kappa in SPSS ...
    Fleiss' Kappa ermöglicht zu prüfen, wie hoch die Interrater-Reliabilität ist. Ein Fleiss' Kappa von 1 steht hierbei für eine perfekte Übereinstimmung der Einschätzungen der Rater. Ein Kappa von 0 repräsentiert genau das Gegenteil einer totalen Uneinigkeit der Einschätzungen der Beurteiler. Landis und Koch (1977) haben weitere Übereinstimmungsintervalle ("slight", "fair", "moderate" und "substantial") definiert, die ich ebenfalls im Video kurz erläutere.
    Ein Beispiel könnten Krankheitsdiagnosen bei mehr als zwei Ärzten sein und wie sehr sie übereinstimmen.
    Bei Fragen und Anregungen zum Berechnen von Fleiss' Kappa, nutzt bitte die Kommentarfunktion. Ob ihr das Video hilfreich fandet, entscheidet ihr mit einem Daumen nach oben oder unten. #statistikampc
    Noch mal zum Nachlesen auf meiner Homepage:
    ========================================
    💡 Fleiss' Kappa in SPSS:
    www.bjoernwalt...
    ⭐Kanalmitglied⭐ werden:
    =======================
    / @statistikampc_bjoernw...
    Kanal unterstützen? 🙌🏼
    ===================
    Paypal-Spende: www.paypal.com...
    Amazon Affiliate-Link: amzn.to/2iBFeG9
    Danke für eure Unterstützung! ♥

Комментарии • 13

  • @StatistikamPC_BjoernWalther
    @StatistikamPC_BjoernWalther  4 года назад

    Bei Fragen und Anregungen zum Berechnen von Fleiss' Kappa, nutzt bitte die Kommentarfunktion.

  • @fleppeR252
    @fleppeR252 3 года назад +3

    Tolles Video, aber eine Frage habe ich: Wie mache ich das Ganze mit mehreren Variablen, wenn also die Rater bspw. 20 Probanden auf 20 Merkmale raten sollen? Muss ich dann für jede Variable einen eigenen Datensatz anelgen?

    • @sinand.3429
      @sinand.3429 Год назад +1

      Hi, hast du das bereits lösen können? Stehe vor dem selben Problem :S

  • @dsavkay
    @dsavkay 10 месяцев назад +1

    Danke schön sehr King

  • @fab5b
    @fab5b 3 года назад +2

    Super Tutorial 👍🏽 wenn ich jetzt mehrer Bewertungskategorien habe, werte ich dann den fleiss kappa für jede einzeln aus oder gibt es eine Möglichkeit einen „gesamten“ fleiss kappa auszurechnen? Beispiel: 5 Rater bewerten für 70 videos 5 verschiedene Kategorien (bezogen auf was in den Videos passiert) vielen Dank 🙏🏽

    • @lucasj.911
      @lucasj.911 Год назад

      Das würde ich auch sehr gerne wissen! Ich muss für 3 Rater Fleiss Kappa über 10 Kategorien hinweg berechnen. Gibt es hierzu mittlerweile eventuell eine Antwort? Danke!

  • @schwachstrahlstrulla
    @schwachstrahlstrulla 4 года назад

    Gibt es eine Möglichkeit bzw. ist es überhaupt sinnvoll, die benötigte Stichprobengröße bei Fleiss Kappa zu berechnen? Ich möchte einen Fragebogen (Ranking von Antwortmöglichkeiten zu verschiedenen ethischen Szenarios) hinsichtlich der Interrater-Reliabilität überprüfen. Das heißt jeder Teilnehmer an der Umfrage ist ein Rater. Vielen Dank für die Hilfe!

  • @m.v.5194
    @m.v.5194 4 года назад

    Gibt es ausgenommen des Skalenniveaus noch weitere Anforderungen an die Primärdaten?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 года назад

      Hallo, nein, nicht wirklich.
      Die Rater müssen wie bei sehr vielen Verfahren auch bei Fleiss' Kappa unabhängig sein. Die Stichprobe sollte mehr oder weniger zufällig sein, die Ausprägungen offensichtlich den gleichen Wertebereich für jeden Probanden haben und überschneidungsfrei sein. Also alles Dinge, die man implizit ohnehin fast immer erfüllt.
      Viele Grüße, Björn

  • @hidayatikardena6338
    @hidayatikardena6338 4 года назад

    is that the value of rater only 0 and 1?what about 2 ,3 and 4?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 года назад

      I have only 3 raters included and the Kappa shown is the agreement across all 3.
      Cheers, Björn.