Gewidmet meiner Familie - OPUS 4Gedruckt mit Erlaubnis der Medizinischen Fakultät der...
Transcript of Gewidmet meiner Familie - OPUS 4Gedruckt mit Erlaubnis der Medizinischen Fakultät der...
Aus der Chirurgischen Klinik mit Poliklinik
Direktor: Prof. Dr. med. Dr. h.c. W. Hohenberger
Abteilung für Kinderchirurgie
Leiter: Prof. Dr. med. H.R. Hümmer
der
Friedrich-Alexander-Universität Erlangen-Nürnberg
Frakturen im Wachstumsalter –
Vergleich der LiLa-Klassifikation nach von Laer
mit der AO-Klassifikation nach Slongo
Inaugural-Dissertation
zur Erlangung der Doktorwürde
der Medizinischen Fakultät
der
Friedrich-Alexander-Universität
Erlangen-Nürnberg
vorgelegt von
Lutz Vogel
aus
Schlema
Gedruckt mit Erlaubnis der
Medizinischen Fakultät der Friedrich-Alexander-Universität
Erlangen-Nürnberg
Dekan: Prof. Dr. Dr. h.c. J. Schüttler
Referent: Priv.- Doz. Dr. Ch. Knorr
Korreferent: Prof. Dr. H.-G. Dörr
Tag der mündlichen Prüfung: 19.März 2012
Gewidmet meiner Familie
Inhaltsverzeichnis
1 Zusammenfassung .............................................................................................. 1
1.1 Hintergrund und Ziele ................................................................................... 1
1.2 Methoden ....................................................................................................... 1
1.3 Ergebnisse ..................................................................................................... 1
1.4 Praktische Schlussfolgerungen ...................................................................... 2
2 Summary ............................................................................................................. 2
2.1 Background ................................................................................................... 2
2.2 Methods ......................................................................................................... 2
2.3 Results ........................................................................................................... 3
2.4 Conclusions ................................................................................................... 3
3 Einleitung ............................................................................................................ 4
3.1 Frakturklassifikationen .................................................................................. 4
3.2 Frakturen im Kindesalter ............................................................................... 4
3.2.1 AO-Klassifikation für Frakturen im Kindesalter ................................... 6
3.2.2 LiLa-Klassifikation ............................................................................... 10
3.3 Grundgedanke ............................................................................................. 14
3.4 Fragestellung ............................................................................................... 14
4 Material und Methode ..................................................................................... 17
4.1 Sichtung und Zusammenstellen von Röntgenbildern .................................. 17
4.2 Erstellen einer Klassifikations-CD .............................................................. 17
4.3 Die Kriterien bei der Wahl der Untersucher................................................ 18
4.4 Aufgabe an die Untersucher ........................................................................ 19
4.5 Eingabe der Daten ....................................................................................... 19
4.6 Auswertung der Daten/ Interobserverreliabilität ......................................... 20
4.7 Auswertung Fragebogen .............................................................................. 21
5 Ergebnis ............................................................................................................ 22
5.1 Interobserverreliabilität der Gruppe der Studenten ..................................... 24
5.1.1 Allgemein.............................................................................................. 24
5.1.2 Vergleich der Kappawerte der Klassifikationen miteinander .............. 24
5.1.3 Vergleich der Kappawerte am Ober- und am Unterarm ..................... 24
5.2 Interobserverreliabilität der Gruppe der Ärzte ............................................ 25
5.2.1 Allgemein.............................................................................................. 25
5.2.2 Vergleich der Kappawerte der Klassifikationen miteinander .............. 26
5.2.3 Vergleich der Kappawerte am Ober- und am Unterarm ..................... 26
5.3 Vergleich der Kappawerte der Ärztegruppe mit der Studentengruppe ....... 27
5.3.1 Untersuchung der 3. Stelle ................................................................... 27
5.3.2 Untersuchung der 3. und 4. Stelle ........................................................ 28
5.3.3 Untersuchung der 3., 4. und 5. Stelle ................................................... 29
5.3.4 Untersuchung der fünften Stelle ........................................................... 31
5.4 Vergleich der Kappawerte der Klassifikationen ......................................... 33
5.5 Vergleich der Kappawerte Unterarm mit Oberarm ..................................... 33
5.6 Fragebogen .................................................................................................. 34
5.7 Zusammenfassung der Ergebnisse .............................................................. 37
6 Diskussion ......................................................................................................... 38
7 Schlußfolgerung ............................................................................................... 45
8 Literaturverzeichnis ......................................................................................... 46
9 Abkürzungsverzeichnis ................................................................................... 52
10 Abbildungsverzeichnis ..................................................................................... 53
11 Tabellenverzeichnis .......................................................................................... 54
12 Anhang .............................................................................................................. 55
13 Danksagung ...................................................................................................... 59
14 Lebenslauf ......................................................................................................... 60
1
1 Zusammenfassung
1.1 Hintergrund und Ziele
An gebräuchlichen Klassifikationen wie z.B. der AO-Klassifikation für Erwachsene
nach Müller stehen seit einigen Jahren nun auch Fraktureinteilungen für das
Wachstumsalter zur Verfügung. Stellvertretend dafür soll die LiLa-Klassifikation
nach von Laer und die pädiatrische AO-Klassifikation nach Slongo in Bezug auf ihre
praktische Anwendung untersucht werden. Ideale Voraussetzungen für einen
Klinikeinsatz wären als objektive Kriterien eine große Übereinstimmung der
Klassifizierungen der verschiedenen Röntgenbilder durch unterschiedliche
Betrachter und das unabhängig von deren Erfahrung. Eine leichte Erlernbarkeit und
eine hohe Effizienz im klinischen Alltag sprächen als weitere subjektive Aspekte
dafür.
1.2 Methoden
Es wurde der Multirater-Kappa nach Fleiss 1979 [15] für Klassifizierungen von
Frakturen getrennt nach Oberarm und Unterarm durch 8 Studenten und 6 Ärzte
bestimmt. Zur Befundung standen 52 ausgewählte Röntgenbilder von Patienten (< 18
Jahren; mit erkennbarer Epiphysenfuge) mit Frakturen der oberen und unteren
Extremität. Die Klassifizierung erfolgte nach der AO-Klassifikation nach Slongo
[40] als auch nach der LiLa-Klassifikation nach v. Laer [45, 46]. Des Weiteren
füllten die Teilnehmer einen Fragebogen aus, welcher den Aufwand des Erlernens
und Anwendens sowie die subjektive Meinung über den Nutzen der
Fraktureinteilung erfassen sollte.
1.3 Ergebnisse
Die Studentengruppe erlangte Kappawerte zwischen 0,04 und 0,51, während die
Ärztegruppe einen Übereinstimmungskoeffizienten zwischen 0,19 und 0,85
erreichte. Zwischen den Ergebnissen der zwei Klassifikationen bestand weiterhin
kein signifikanter Unterschied. Eine gesonderte Untersuchung der fünften Stelle
2
beider Klassifikationen ergab Kappawerte bis 0,36. Die vorgeschlagene
Vereinfachung der fünften Stelle in der AO-Klassifikation nach Slongo et al. 2007
[38] führte zu keinem besseren Ergebnis.
1.4 Praktische Schlussfolgerungen
Die Studienteilnehmer befürworten die Anwendung einer Klassifikation von
Frakturen im Wachstumsalter im Klinikalltag. Keine der beiden Klassifikationen
wies einen signifikanten Vorteil für die Anwender auf.
2 Summary
2.1 Background
In the last decade two classification systems for fractures in childhood were
developed. In this study the LiLa-Classification by von Laer [45, 46] and the
paediatric AO-Classification of Slongo [40] were examined for their clinical
application.
2.2 Methods
8 students and 6 surgeons reviewed 52 selected radiographs of paediatric long-bone
fractures (<18, open physis). The participants categorized them according to the
LiLa- and paediatric AO-Classification. The interobserver reliability was evaluated
with the use of the kappa coefficients as described by Fleiss et al. 1979 [15]. The
interpretation of kappa coefficients was based on guidelines provided by Landis and
Koch 1977 [29]. In order to assess the difficulties concerning learning and using
these classifications systems the participants filled out a self developed
questionnaire.
3
2.3 Results
The students achieved kappa coefficients between 0.04 and 0.51. The multirater
coefficients of the group of surgeons, who had more experience, ranged between
0.19 and 0.85. A separate assessment of the fifth position of the two classifications
produced kappas up to 0.36. From the point of view of the participating surgeons a
classification is necessary in the day-to-day clinical work.
2.4 Conclusions
Based on the Multirater-Kappa the two classifications are not satisfactory for clinical
use. With regard to the interobserver agreement both classifications are equal. Due to
the higher agreement of the group of surgeons the experience is an important factor
for classifying. The suggestion of Slongo et al 2007 [38] that the fracture severity
should be distinguish in only two categories does not improve the interobserver
reliability.
4
3 Einleitung
3.1 Frakturklassifikationen
Bereits seit vielen Jahren gibt es Klassifikation für nahezu jeden Bereich in der
Medizin. Sie alle haben gemeinsam, dass sie die Kommunikation des medizinischen
und wissenschaftlich arbeitenden Personals erleichtern. Unumstritten ist auch der
Nutzen in der Wissenschaft. Studien werden vereinfacht und vergleichbar. Daraus
können neue Leitlinien entstehen, die wiederum eine einheitliche und optimale
Behandlung garantieren. Bis hin zum Qualitätsmanagement gibt es zahlreiche
Verwendungen solcher Klassifikationen.
In der Chirurgie findet man für jeden Knochen eine Fraktureinteilung, die meist mit
Eigennamen bezeichnet werden. Demgegenüber steht die universale Klassifikation
der Arbeitsgemeinschaft für Osteosynthesefragen (AO-Klassifikation) nach Müller.
Diese stellt eine weltweite Basis für die Diagnostik und Therapie von Frakturen des
erwachsenen Menschen dar. Die Grundlage ist die Befundung konventionelle
Röntgenbilder in der anterior posterioren und in der seitlichen Ebene.
Klassifikationen sind meist nur in einem relativ engen Einsatzbereich verwendbar,
wie zum Beispiel die Klassifikationen von Epiphysenfrakturen nach Salter-Harris
oder Aitken. Die AO-Klassifikation ist im Gegensatz zu vielen recht vielfältig
einsetzbar. Nicht zuletzt wird dies ermöglicht durch zahlreiche Untergruppierungen,
die bestimmte Frakturen noch genauer beschreiben lassen. Das macht jedoch auch
die Einteilung kompliziert und damit steigt die Gefahr von Missverständnissen. Man
sieht einen wissenschaftlichen Nutzen in diesen Untergruppen, jedoch nicht immer
eine klinische Relevanz [30]. Ein weiterer Aspekt ist, dass die etablierte Müller-
Klassifikation sich nur auf die erwachsenen Patienten anwenden lässt.
3.2 Frakturen im Kindesalter
„Kinder sind keine kleinen Erwachsenen, sondern eigenständige Persönlichkeiten mit
individuellen Vorstellungen, Wünschen und Bedürfnissen“[31]. Zudem hat sich auch
das Verhalten der kleinen Patienten im Laufe der Zeit geändert. „[…] children are
5
traveling and running at higher speeds and the fractures sustained are becoming more
complex. This requires a new ‘code of practice’ to ensure children are correctly
treated in every hospital” [41]. Neben einer kindgerechten ganzheitlichen
Behandlung ist also auch eine angepasste Klassifikation erforderlich.
Da sich Kinder in der Wachstumsphase befinden, ist auf die Unversehrtheit
beziehungsweise korrekte Heilung der Wachstumsfugen zu achten.
Wachstumsstörungen im Sinne einer sistierenden, zu langsamen oder zu schnellen
Längenänderung der Knochen wären tragische Folgen. Aber nicht nur das ist bei den
kleinen Patienten zu berücksichtigen. Weitere anatomische bzw. histologische
Besonderheiten bei Kindern ist ein widerstandsfähiger dicker Periostschlauch, der für
das Entstehen sogenannter Wulst- oder Biegungsfrakturen verantwortlich ist. Dabei
bricht der Knochen, die Knochenhaut bleibt jedoch unverletzt. Das Periost kann aber
auch bei Biegebelastung konvexseitig einreißen und man spricht von einer
Grünholzfraktur. Diese genannten Verletzungen benötigen meist nur eine
konservative Behandlung im Gips. Bedingt auch dadurch, dass die Knochen eine
schnellere Selbstheilung und ein höheres Korrekturvermögen, besonders in Hinblick
auf Längenunterschiede und Achsenfehler, als beim erwachsenen Patienten haben.
Während es bei Erwachsenen vor allem auf dem Funktionserhalt ankommt, spielt
dies für das wachsende Skelett keine entscheidende Rolle: Trotz langer
Immobilisation im Gips kommt es selten zum Versteifen von Gelenken [7].
„[…] Beim Erwachsenen erprobte Osteosynthesetechniken auch bei Kindern und
Jugendlichen einzusetzen, sollte uns nicht hindern, endlich kinderspezifische
Techniken zu entwickeln“[48]. Die moderne Anästhesie mit deren
Schmerzbehandlung und der Einsatz neuer Osteosyntheseverfahren haben die
Behandlung der Frakturen im Laufe der Zeit stark verändert. Heute gibt es zahlreiche
Möglichkeiten der Versorgung von Frakturen im Wachstumsalter mit dem Einsatz
von z.B. intramedullärer Nägeln. Das führte zu einem Anstieg der operativ
versorgten Knochenbrüche auf 40%, während die konservativen Behandlungen
abnahmen [48]. Ein weiterer Vorteil der Operation ist das eine möglichst schnelle
definitive Situation hergestellt wird. Nachfolgende Korrekturen oder
Verfahrenswechsel werden seltener und die Heranwachsenden werden weniger
Stress ausgesetzt, welches eine bessere Lebensqualität zur Folge hat. Doch eine
operative Therapie verhindert etwaige Wachstumsstörungen nicht unbedingt [46].
6
Aus den oben genannten biologischen Aspekten bei Kindern und der Vielfalt der
heutigen Behandlungsmöglichkeiten ist es erforderlich, dass es spezielle
Klassifikationen für Patienten im Wachstumsalter geben muss. Die beiden
existierenden Klassifikationen für kindliche Röhrenknochen sollen in dieser Arbeit
vorgestellt und genauer untersucht werden.
3.2.1 AO-Klassifikation für Frakturen im Kindesalter
Die AO Paediatric Expert Group (PAEG), AO Investigation and Documentation
(AOCID) und die International Working-Group for Paediatric Traumatology
(IAGKT) haben in gemeinsamer Arbeit eine kinderspezifische Abwandlung der AO-
Klassifikation von Müller entwickelt. Die weltweit bekannte Einteilung von
Knochenbrüchen bei Erwachsenen hat sich über Jahrzehnte bewährt und wird in
Bereichen der Klinik, Forschung und Qualitätsmanagement eingesetzt. Dadurch sind
viele Mediziner damit bereits vertraut. Lichtenhahn et al. 1991 [30] schrieb: „[…] ein
Klassifikationssystem ist nur so gut, wie es einfach, verbreitet, reproduzierbar und
damit erkennbar ist.“ Somit bot die AO-Klassifikation nach Müller eine optimale
Grundlage zur Entwicklung einer Version für Kinder. Seit 2001 wurde in mehreren
Entwicklungsphasen eine Einteilung geschaffen, die eine optimale und einheitliche
Versorgung der kleinen Patienten sicher stellen soll. In diesen Interobserver-Studien
wurde bereits erkannt, dass vor allem erfahrene Chirurgen, die oft mit der Müller-
Klassifikation arbeiten, sehr hohe Übereinstimmungsraten (Kappawerte bis 0.9) beim
Klassifizieren von Röntgenbildern haben [39, 40]. Zur Konsolidierung dieser
Ergebnisse und Weiterentwicklung der AO-Klassifikation für Kinder rief Slongo et
al. zu weiteren Untersuchungen und Studien auf.
Wie auch die AO-Klassifikation für Erwachsene ist bei den Kindern der erste Teil
des Codes für die Frakturlokalisation von Bedeutung, während der zweite Abschnitt
die Morphologie beschreibt (Tabelle 1).
Lokalisation Morphologie
Knochen Segment – Typ Frakturmuster Schweregrad (Zusatzcode)
Tabelle 1: Schema des Klassifikationscodes nach der AO-Klassifikation nach Slongo[40].
7
Beispiel-Codierung zur Anschauung:
Unterarmschaftfraktur: 2 2 2 - D / 2. 1
Supracondyläre Humerusfraktur: 1 3 – M/ 3.1 II
Wie in Tabelle dargestellt, benennt die erste Zahl den frakturierten Knochen. Danach
wird an 2. Stelle das betroffene Knochensegment angegeben. Zwischen der 2. und 3.
Stelle kann noch ein Buchstabe stehen. Ist bei paarigen Knochen nur einer betroffen,
so wird dieser mit kleinem Anfangsbuchstabe (r- Radius, u-Ulna, t-Tibia, f-Fibula)
bezeichnet. Falls die Knochen unterschiedlich traumatisiert sind, wird jeder einzeln
klassifiziert. Bei gleichzeitiger Fraktur und Luxation, wie z.B. die Galeazzi- und
Monteggiafrakturen, wird nur der frakturierte Knochen codiert.
Ähnlich der AO-Klassifikation nach Müller wird der 3. Stelle das genaue Segment
zugeordnet, in dem das Frakturzentrum lokalisiert ist. Das wird nach Slongo mit E
(Epiphyse), M (Metaphyse) und D (Diaphyse) bezeichnet. Analog zur LiLa-
Klassifikation wird die Ausdehnung der Metaphyse mit Hilfe eines Quadrates
bestimmt. Die Seitenlänge entspricht der gesamten Länge der Epiphysenfuge in der
anterior posterioren- Ebene, da diese sich immer messen lässt. Bei paarigen Knochen
muss dieses Quadrat beide Knochen einschließen. Außerdem ist auf eine korrekte
a.p. - Ebene zu achten, da bei schräger Projektion das Quadrat kleiner ausfällt und zu
Fehlern beim Klassifizieren führen kann. Sollte das Fragment stark nach dorsal oder
ventral abgekippt sein, so wird die gemessene Seitenlänge in der lateralen Projektion
nach diaphysär abgetragen. Beim proximalen Femur ist zu beachten, dass hier die
Metaphyse sich zwischen Femurkopf und intertrochanterer Linie befindet. Im
Rahmen der Evaluierungsstudien haben sich auf Folien vorgedruckte Quadrate
bewährt. Im Röntgenbild per Hand gemessene und abgetragene Längen führten zu
einer niedrigeren Übereinstimmung der Untersucher [40].
Die 4. Position wird als Kindercode bezeichnet und codiert Frakturformen, die
spezifisch für die einzelnen oben genannten Frakturtypen E, M oder D sind.
Als 5. Stelle wird die Frakturschwere angegeben. Entscheidend sind dabei die
Anzahl der Fragmente und deren Dislokation. Da hier bereits in vorangegangenen
8
Untersuchungen zur pädiatrischen AO-Klassifikation Schwierigkeiten auftraten,
schlug Slongo et al. 2007 die Vereinfachung der 5. Stelle in „einfach“ und
„kompliziert“ vor [38]. Nach entsprechender Validierung soll diese später als
Unterstützung bei einer Therapieentscheidung dienen [39]. In der vorliegenden
Dissertation sollen sowohl die alte als auch die neuere „modifizierte“ Version
untersucht werden.
Die letzte Stelle stellt den Ausnahme- oder Zusatzcode für ausgewählte Frakturen,
die noch weiter differenziert werden müssen, dar. Sie ist somit nicht in jedem Fall
mit anzugeben.
Stelle Bezeichnung Codierung
1 Knochen
(Lokalisation am
Skelett)
1- Humerus
2- Ulna/Radius
3 - Femur
4 - Tibia/Fibula
2a Segment
(Lokalisation am
Knochen)
1 - proximale Epiphyse/Metaphyse
2 - Diaphyse
3 - distale Epiphyse /Metaphyse
2b Zusatz-
bezeichnung bei
paarigen Knochen
r - Radius
u - Ulna
f - Fibula
t - Tibia
3 Typ E - Epiphyse
M - Metaphyse
D - Diaphyse
Tabelle 2: Überblick AO-Klassifikation für Kinder n ach Slongo[40], Fortsetzung auf Seite 9.
9
Stelle Bezeichnung Codierung
4 Frakturmuster Epiphysäre Frakturen
1+2 - Epiphysenlösung nach Salter-Harris I und II
3+4 - Epiphysenfraktur nach Salter-Harris III und
IV
5 – Tillauxfraktur, Übergangsfraktur (two plane)
6 - Übergangsfraktur (tri plane)
7 - epiphysäre Bandausrisse
8 - Flakefractures
9 - andere epiphysäre Frakturen
Metaphysäre Frakturen
2 - Wulst-/ Spiral-/ Grünholzfraktur
3 - komplette Fraktur
7 - Avulsionsverletzungen
Diaphysäre Frakturen
1 - Bowingfracture
2 - Grünholzfraktur
3 - Toddler´s Fracture
4 - komplette Querfraktur wobei der Winkel
zwischen der Frakturlinie und der Senkrecht-
en zum Knochen weniger als 30° betragen soll
5 - komplette Schräg- oder Spiralfraktur (mit den
obengenannten Winkel >30°)
6 - Monteggia-Verletzung
7 - Galeazzi-Verletzung
Tabelle 2: Überblick AO-Klassifikation für Kinder n ach Slongo [40]. Fortsetzung auf Seite 10.
10
Stelle Bezeichnung Codierung
5 Schweregrad 1 - einfache Fraktur
2 - Keilfrakturen bzw. partiell instabile Fraktur-
en mit 3 Fragmenten und einem vollständig
dislozierten Knochenstück
3 - komplexe instabile Frakturen mit mehr als 3
Fragmenten
6 Ausnahme-
/Zusatzcode
(nur bei neben-
stehenden
Frakturen
anzugeben)
suprakondyläre Humerusfraktur :
I - keine Dislokation
II - Dislokation in einer Ebene
III - Rotation des distalen Fragments mit Dis-
lokation
in 2 Ebenen Tabelle 2: Überblick AO-Klassifikation für Kinder nach Slongo [40].
3.2.2 LiLa-Klassifikation
Ein Großteil der Kinder, die eine medizinische Behandlung benötigen, wird von
Ärzten versorgt, die dafür nicht spezifisch aus- oder weitergebildet worden sind [47].
Um die Kompetenz dieser Mediziner zu verbessern, wurde ein Verein „Licht und
Lachen für kranke Kinder. Effizienz in der Medizin e.V.“ gegründet. LiLa, welches
die Abkürzung des Organisationsnamens darstellt, führte im Dezember 2000 eine
Klassifikation für Frakturen der langen Röhrenknochen bei Patienten im
Wachstumsalter ein [45]. Diese wurde weiterentwickelt [46].
Ähnlich der AO-Klassifikation nach Müller oder nach Slongo bezieht sich der Code
im ersten Abschnitt auf die Lokalisation und im zweiten auf die Frakturmorphologie
(siehe auch Tabelle 3). Hinzu kommen das Dislokationsausmaß sowie eine 6.Stelle,
die nur bei alleinigen Frakturen der Ulna bzw. der Fibula angegeben wird.
Lokalisation Morphologie
Extremität . Knochensegment . Morphologie . Dislokationsausmaß . Ausnahme
Tabelle 3: Schema des Codes der LiLa-Klassifikation [45, 46].
11
Beispiel-Codierung zur Anschauung:
Unterarmschaftfraktur: 2. 2. s. 2. 2
Isolierte Fraktur der Ulna: 2. 2. s. 3. 2. u
Suprakondyläre Humerusfraktur: 1. 3. s. 3. 2.
Die erste Ziffer bezeichnet den frakturierten langen Knochen. Die 2. Stelle gibt die
Lokalisation der Fraktur am Knochen an. Dabei gibt es keinen Unterschied zur
pädiatrischen AO-Klassifikation. Als Metaphyse wird der Bereich des Knochens
innerhalb eines Quadrates bezeichnet. Die Seitenlänge des Vierecks ist der Abstand
zwischen den Eckpunkten der Epiphysenfuge. Von der Epiphysenfuge zur
Knochenmitte abgetragen erhält man so die definierte Grenze zur Diaphyse (vgl.
Abbildung 1). Im Gegensatz zur Klassifikation nach Slongo wird bei paarigen
Knochen hier nur der tragende Knochen (Radius, Tibia) ausgemessen.
Abbildung 1: Definition der Metaphyse über das Quadrat mit Seitenlänge, die der Länge der Epiphysenfuge beträgt (von Laer L., 2007) [46].
Zur Unterscheidung zwischen einer Gelenk- oder Schaftfraktur dient die 3. Stelle.
Eine Gelenkfraktur ist definiert als Fraktur mit Beteiligung der Gelenkfläche. Alle
übrigen Frakturen zählen zu den Schaftfrakturen. Somit zählen die Epiphysen-
lösungen in der LiLa-Klassifikation zu den periphersten Schaftfrakturen und werden
auch als „Fugenschaftfraktur“ bezeichnet [46].
12
Die 4. Lokalisation im Code spezifiziert die Frakturmorphologie. Dabei gibt es
jeweils fünf Gruppen, wobei vier der Einteilung dienen und die letzte die seltenen
Frakturen bzw. Ausnahmen umfasst. Darunter fallen unter anderem die distalen
Radiusfrakturen. Unter den Gelenkfrakturen aufgeführt treten sie vergleichsweise
selten mit Gelenkbeteiligung auf [46].
Als 5. Stelle soll das Dislokationsausmaß dargestellt werden. Damit nimmt die LiLa-
Klassifikation Bezug auf eine wesentliche Eigenschaft der kindlichen Knochen: „As
a sign for the possibility of spontaneous correction of displacements by further
growth“ [46]. In einer Pilotstudie über Qualitätssicherung in der Traumatologie von
Laer et al. 2005 [47] wurden durchschnittlich 10-25° Achsabweichung als tolerabel
und 25-35° als nicht tolerabel angesehen. Dennoch „die Einteilung der Dislokation
als ‚tolerierbar‘ und ‚nicht tolerierbar‘ entspricht der subjektiven Willkür der
Kliniken“ [47].
Die 6. Stelle wird nur benötigt, wenn die Ulna oder Fibula isoliert betroffen ist. Für
die Frakturen beider paariger Knochen wird nur der haupttragende, also Radius oder
Tibia, befundet und die letzte Stelle entfällt. Ebenso verhält es sich mit isolierten
Brüchen der Speiche oder des Schienbeins (vgl. Tabelle).
Stelle Bezeichnung Codierung
1 Lokalisation am
Skelett
1. Humerus
2. Radius/Ulna
3. Femur
4. Tibia/Fibula
2 Lokalisation am
Knochen
1. Proximale Epiphyse/Metaphyse
2. Diaphyse
3. Distale Epiphyse/Metaphyse
3 Morphologie a Gelenkfraktur
s Schaftfraktur
Tabelle 4: Aufbau der LiLa-Klassifikation nach von Laer [45, 46], Fortsetzung auf Seite 13.
13
Stelle Bezeichnung Codierung
4 Spezifizierung der
Morphologie
Gelenkfrakturen (a):
1. Epiphysäre Frakturen nach Salter/Harris III
2. Epi-metaphysäre Frakturen nach Salter/Harris
IV
3. Epiphysär, Übergangsfrakturen (twoplane)
4. Epi-metaphysär, Übergangsfrakturen (triplane)
5. Frakturen, die den oben stehenden
Einteilungen nicht zu geordnet werden können
bzw. für statistisch gesehen kaum ins Gewicht
fallende Gelenkverletzungen (wie z.B.
proximaler und distaler Radius, proximaler
Humerus und Femur mit Gelenkbeteiligung)
Schaftfrakturen (s):
1. Epihysenlösung nach (Salter/Harris I und II)
2. Bowing-, Grünholz- und metaphysäre
Stauchungsfrakturen
3. Quer-,Schräg- und Torsionsfrakturen
4. Mehrfragmentfrakturen
5. andere, den oben genannten nicht zuordenbare
Frakturen
5 Dislokationsaus-
maß
0 undisloziert
1 tolerabel
2 nicht tolerabel
Tabelle 4: Aufbau der LiLa-Klassifikation nach von Laer [45, 46], Fortsetzung auf Seite 14.
14
Stelle Bezeichnung Codierung
6 Ausnahmestelle
(nur bei
bestimmten
Frakturen paariger
Knochen)
U Ulna
F Fibula
Tabelle 4: Aufbau der LiLa-Klassifikation nach von Laer [45, 46].
3.3 Grundgedanke
Ziel der vorliegenden Dissertation ist es, die LiLa- und AO-Klassifikation
hinsichtlich ihres praktischen Nutzens im klinischen Alltag zu untersuchen. Dazu
sollten die Untersucher mit unterschiedlicher klinischer Erfahrung Röntgenbilder von
Frakturen der langen Röhrenknochen bei Kindern nach den zwei vorgestellten
Fraktureinteilungen befunden. Außerdem wurde die Einschätzung der Teilnehmer
über beide Fraktureinteilungen anhand eines Fragebogens erfragt.
Ideal für einen Klinikeinsatz wäre eine hohe Reliabilität, d.h. eine große
Übereinstimmung der Codierungen unterschiedlicher Anwender, unabhängig von
deren Erfahrung. Ein einfaches Erlernen und eine geringe Belastung im klinischen
Alltag sprächen als ein weiterer subjektiver Aspekt dafür.
3.4 Fragestellung
„[…] ein Klassifikationssystem [ist] nur so gut, wie es einfach, verbreitet, re-
produzierbar und damit erkennbar ist“ [30]. Von Laer formuliert, bezogen auf die
LiLa-Klassifikation:
„Sie muss folgende Merkmale aufweisen:
• kinderspezifisch
• exakt vergleichbar
• hinreichend differenzierbar
15
• einfach anzuwenden
• sich selbst erklärend“ [47]
Unter Berücksichtigung dieser Eigenschaften soll in der vorliegenden Dissertation
die AO- und LiLa-Klassifikation gegenübergestellt und hinsichtlich ihres Einsatzes
in der Klinik untersucht werden. In einigen Studien wurden bereits die
Klassifikationssysteme erfolgreich auf die zitierten Kriterien hin getestet [39, 40].
Dabei riefen die Autoren auf, weitere Untersuchungen zur Verwendung im
klinischen Alltag durchzuführen. Eine Bestimmung der Interraterreliabilität mit Hilfe
des Kappa-Koeffizienten soll eine Einschätzung der Zuverlässigkeit und einen
Vergleich der zwei Klassifikationen ermöglichen. Es gibt bereits viele ähnliche
Arbeiten zu anderen medizinischen Klassifikationen [49, 50]. Zum Zeitpunkt der
Untersuchung existierten jedoch in der aktuellen Literatur keine Vergleiche
kindlicher Frakturklassifikationen.
Slongo et al. 2006/2007 [37, 39] stellte eine erhebliche Verbesserung der Über-
einstimmungsraten bei trainierten und erfahrenen Ärzten fest. Einige weitere
Untersuchungen bestätigen dies [3, 6, 27, 32, 35, 50]. Es gibt jedoch auch zahlreiche
Studien, die diesen Unterschied nicht nachweisen konnten [18, 25, 34, 49]. Da ein
schnelles Erlernen und einfaches Anwenden in der Praxis eine große Rolle spielt,
sollten die Mediziner in dieser Arbeit ohne vorheriges Training diese
Klassifikationen sich schnell selbstständig aneignen und sicher damit umgehen
können. Die Effizienz der AO- und LiLa-Klassifikation soll außerdem durch den
Vergleich zwischen Untersuchern mit unterschiedlicher Erfahrung evaluiert werden.
Ein weiteres nicht genanntes Kriterium ist die Zuverlässigkeit, welche in dieser
Arbeit allein durch die Interobserver- bzw. Interraterreliabilität, das heißt die
Übereinstimmung der Befunde von mehreren Untersuchern, analysiert werden soll.
Die Teilnehmer füllten zudem einen Fragenbogen über die AO- und LiLa-
Klassifikation aus. Dabei wurden neben der Angabe der Berufsjahre und Häufigkeit
der Versorgung von Kindern subjektive Aspekte des Lernens und Anwendens
erfasst.
16
Folgende Fragestellungen sollen im Rahmen der vorliegenden Dissertation bearbeitet
werden:
1. Wie unterscheiden sich die Befunde zwischen Ärzten und Studenten?
2. Gibt es anatomische Regionen mit besonders hoher oder niedriger
Übereinstimmungsrate?
3. Wie unterscheiden sich die Klassifikationen anhand ihrer
Übereinstimmungsraten?
4. Wie schneiden die Ergebnisse im Vergleich mit den bereits vorhandenen
Studien ab?
5. Was kann man mit Hilfe der Übereinstimmungskoeffizienten über die
5.Stelle aussagen?
6. Welche Einschätzungen bestehen bei den Teilnehmern zu den beiden
Klassifikationen?
17
4 Material und Methode
4.1 Sichtung und Zusammenstellen von Röntgenbildern
Das Patientenkollektiv wurde aus dem Universitätsklinikum Erlangen und dem
Klinikum St. Hedwig des Krankenhauses der Barmherzigen Brüder in Regensburg
zusammengestellt. Für den untersuchten Zeitraum vom 1.1.2006 bis 15.8.2006 waren
das 1013 traumatologische Patienten unter 18 Jahre. Anhand der DRG-Kodierung
und mit Hilfe des Computerprogramms MCCpatient wurden unter dieser Vielzahl
von Unfallopfern 126 Patienten mit Frakturen der langen Röhrenknochen selektiert.
Es wurden optimale Röntgenaufnahmen mit Hilfe des Computerprogramms Soarian
ausgewählt. Dabei kam es besonders darauf an, dass immer die Aufnahmen in zwei
Ebenen vorhanden waren. Eine Wachstumsfuge oder deren stattfindenden Verschluss
musste noch radiologisch erkennbar sein. Schlecht zu beurteilende Bilder, wie zum
Beispiel Röntgenbilder mit Gips, wurden ausselektiert. Auch eine nicht korrekte
Projektion im anterioren posterioren Strahlengang sowie in der seitlichen Ebene
wurde ausgeschlossen. Aus der verbliebenen Auswahl wurden 28 repräsentative
Röntgenaufnahmen entnommen. Diese verteilten sich auf 12 Oberarm- und 16
Unterarmfrakturen.
4.2 Erstellen einer Klassifikations-CD
Um die Aufnahmen (siehe auch die Powerpoint-Präsentationen auf beiliegender CD
im Anhang) in guter Qualität an mehrere Untersucher verteilen zu können, erschien
die Erstellung einer Powerpoint-Präsentation auf einem Datenspeichermedium als
geeignete Maßnahme. Dieses Programm kann an jedem gängigen PC - auch in
häuslicher Umgebung - betrieben werden. So konnten die Ärzte und Studenten
ungestört und unabhängig voneinander zu jeder Zeit die Röntgenbilder klassifizieren.
Nach den Hauptlokalisationen entstanden so vier Powerpoint-Präsentationen. Die
einzelnen Präsentationsfolien enthalten die Röntgenaufnahmen in zwei Ebenen, das
Alter des Patienten und eine Identifikationsnummer als Orientierungshilfe für die
Autoren. Personenbezogene Daten wurden anonymisiert. Zum Befunden der
Frakturen befinden sich in der unteren Hälfte jedes Dias Textfelder für jede
Klassifikation. Zudem gibt es noch die Möglichkeit, auf der Präsentationsfolie einen
18
Kommentar zu den Bildern oder der Befundung zu schreiben (siehe auch
Klassifikations-CD im Anhang).
Des Weiteren wurde noch eine Erläuterung sowohl der LiLa- als auch der AO-
Klassifikation hinzugefügt. Die Texte und Tabellen entstammen aus dem Buch
„Kindertraumatologie“ von Marzi [33].
Um zudem eine subjektive Beurteilung der AO- und LiLa- Klassifikation zu
erhalten, wurde ein Fragebogen erstellt. Darin werden anfangs nach der ärztlichen
Tätigkeit und dem Anteil an Frakturen im Wachstumsalter bei der täglichen Arbeit
gefragt. Dies dient der Einschätzung der persönlichen Erfahrung. Als nächstes sollten
einzelne Kriterien mit den Schulnoten von eins bis sechs bewertet werden.
Angesprochen werden dabei in der Praxis relevante Probleme, wie z.B. der
zusätzliche Aufwand, den eine solche Klassifikation mit sich bringt, oder deren
Relevanz bei der Therapieentscheidung. Befragt wurde außerdem die subjektive
Einschätzung des Nutzens eines AO- oder LiLa-Codes im Klinikalltag. Am Ende des
Fragebogens konnte im Sinne eines Freitextes Kritik an der jeweiligen Klassifikation
geübt werden (siehe Fragebogen im Anhang).
4.3 Die Kriterien bei der Wahl der Untersucher
Bei der Wahl geeigneter Untersucher für die Testung der AO- und der LiLa-
Klassifikationen lag der Schwerpunkt auf unterschiedlichen Erfahrungen im Umgang
mit Frakturen. So wurden CDs an acht Studenten im Praktischen Jahr, welche in
ihrer Ausbildung bereits chirurgische Grundlagen vermittelt bekommen haben,
verteilt. Sie stellen eine Gruppe mit keiner bis wenig praktischer Tätigkeit dar.
Das erfahrene Kollektiv repräsentierten sechs approbierte Mediziner, welche
ebenfalls je eine CD erhielten. Bei den Ärzten handelt es sich um zwei Oberärzte,
drei Assistenzärzte und ein niedergelassener Arzt der Unfallchirurgie als auch der
Kinderchirurgie (vgl. Tabelle 5).
Tabelle 5: Übersicht der teilnehmenden Untersucher.
unerfahren Ärzte in Ausbildung >8 Jahre ärztl. tätig
Studenten 8 / /
Ärzte / 3 3
19
In Tabelle 6 wird die Routine mit kindlichen Frakturen in der Ärztegruppe
dargestellt. Beide Gruppen besitzen jedoch im Umgang mit der LiLa- und der
speziell für Kinder angepasste AO-Klassifikation wenig Erfahrung, da beide
Einteilungen im klinischen Alltag bisher noch keine Verwendung fanden. Als
Hilfestellung bei der Befundung standen ihnen nur die Kurzbeschreibungen der
Klassifikationen auf der Compact Disc zur Verfügung. Ein Teilnehmertraining
wurde nicht durchgeführt.
Selten Manchmal Jeden Tag
Umgang mit
Frakturen im
Wachstumsalter
2 2 2
Tabelle 6: Umgang mit kindlichen Frakturen in der Ärztegruppe.
4.4 Aufgabe an die Untersucher
Die Teilnehmer wurden in dem oben genannten Einführungsschreiben gebeten,
zunächst die Anleitungen der LiLa- und AO-Klassifikation zu studieren. Als nächstes
klassifizierten die Untersucher die Röntgenbilder mit Hilfe der jeweiligen
Powerpoint-Präsentationen. Die dazugehörigen Codes wurden in die dafür
vorgesehenen Textfelder unter den Aufnahmen eingetragen. Nach abgeschlossener
Befundung füllten die Studenten und Ärzte den oben dargestellten Fragebogen aus.
Die Ergebnisse der Untersucher wurden per Email oder CD an die Autoren
zurückgesendet.
4.5 Eingabe der Daten
Die 1. und 2. Stelle dient der Frakturlokalisation und kann demzufolge rein mit dem
anatomischen Grundwissen bestimmt werden. Hierbei gab es keine Diskrepanzen
zwischen den Teilnehmern, so dass diese ersten beiden Zahlen in den
Klassifikationen nicht weiter untersucht wurden. Zuerst war der Vergleich der 3.
Stelle (Epiphyse, Metaphyse oder Diaphyse) interessant. Anschließend wurde die
Übereinstimmung, wenn man die 3. und 4. Stelle gemeinsam betrachtet, bestimmt.
Dabei kam die Fraktureinteilung nach der Morphologie hinzu. So geschehen in der
20
Veröffentlichung von Slongo et al. 2007 [38]. Als Drittes folgte ein Vergleich der
letzten drei Stellen, wobei dabei die Frakturschwere bzw. die Operationsindikation
eine bedeutende Rolle spielten. Die 5. Stelle wird zudem separat untersucht. Zum
einem stellt das Dislokationsausmaß der LiLa-Klassifikation einen Kritikpunkt dar.
Zum anderen schlug Slongo in seiner Studie von 2007 eine Vereinfachung der
Frakturschwere vor [38]. Diese sollte zukünftig nur in zwei Kategorien eingeteilt
werden. Hierfür wurden die Brüche, die nicht als „einfach“ eingestuft wurden,
einheitlich als „kompliziert“ gewertet.
Für die dann folgende Auswertung wurde das Statistikprogramm SPSS 15.0
verwand.
4.6 Auswertung der Daten/ Interobserverreliabilität
Die Interobserver- oder Interraterreliabilität stellt die Zuverlässigkeit von
Untersucheraussagen und damit der Klassifikation dar. In dieser Arbeit sollen dabei
die verschiedenen Befunde (Codierungen) pro Bild auf ihre Übereinstimmung
geprüft werden. Dazu wurde der Kappa-Koeffizient verwendet. Dieser berechnet die
zufallskorrigierte Übereinstimmung von verschiedenen Auswertern. Das heißt, es
wird die beobachtete Übereinstimmung mit der Wahrscheinlichkeit der zufälligen
Übereinstimmung verglichen. Man erhält Werte zwischen -1 und +1. Landis und
Koch schufen 1977 eine allgemein anerkannte Skala zur Interpretation der
Kappawerte [29]. Ein Kappa von 1 entspricht der 100%igen Übereinstimmung,
während bei -1 die rein die statistische Wahrscheinlichkeit nicht erreicht wird. Wenn
das Ergebnis 0 ist, dann ist die zufällige Übereinstimmung gleich der beobachteten.
Der Koeffizient wird in vielen Studien verwendet, ist aber aufgrund seines
Paradoxons auch umstritten. So kann es vorkommen, dass trotz hoher
Übereinstimmung der Kappawert niedrig ist und umgekehrt.
Bei zwei zu untersuchenden Teilnehmern verwendet man den Cohen´s Kappa. Da in
dieser Dissertation die Röntgenbefunde mehrerer Mediziner verglichen werden und
die Klassifikationscodes Nominaldaten sind, wird hier der Kappa nach Fleiss (1971)
[14] angewandt (s. Tabelle 7).
Die zufallskorrigierten Übereinstimmungen zwischen den Ärzten und Studenten
wurden getrennt bestimmt.
21
Kappa Übereinstimmung
< 0,00 Schlecht
0,00 bis 0,20 Gering
0,21 bis 0,40 Ordentlich
0,41 bis 0,60 Mäßig
0,61 bis 0,80 Gut
0,81 bis 1,00 Exzellent
Tabelle 7: Interpretationsrichtlinien nach Landis und Koch 1977 [29].
Die Signifikanz der Ergebnisse lässt sich nicht ohne weiteres bestimmen, da es
unterschiedlich viele Einstufungsmöglichkeiten der einzelnen Klassifikationen gibt.
So hat die AO-Klassifikation in dieser Arbeit bis zu 61 verschiedene Codes, während
die LiLa-Klassifikation hier nur maximal 30 Einstufungen hat. Eine Bestimmung der
Signifikanz kann somit nicht im direkten Vergleich der Kappawerte erfolgen,
sondern unter Berücksichtigung der Konfidenzintervalle. Überschneiden sich die
Sicherheitsbereiche von zwei Kappas nicht und ist die Untergrenze der Intervalle
positiv, kann man von einem signifikanten Übereinstimmung bzw. Unterschied
zwischen zwei Ergebnissen sprechen. Dies wurde in der Dissertation berücksichtigt.
4.7 Auswertung Fragebogen
Für das Beantworten der Fragen z.B. in Bezug auf Therapieentscheidung klinische
Erfahrung notwendig war, wurde für die Auswertung nur die Fragebögen der Ärzte
verwendet. Die Anzahl begrenzte sich dabei auf sechs Teilnehmer. Die Werte waren
in Form von Schulnoten zu den einzelnen Fragen angegeben. Die Auswertung der
Daten erfolgte mit Excel. Im selben Programm wurden auch die Diagramme erstellt
(siehe auch Fragebogen im Anhang).
22
5 Ergebnis
Im Vorfeld wurden CDs mit einer Powerpoint-Präsentation, welche Röntgenbilder
von Frakturen im Wachstumsalter (s. Abbildung 2) enthielt, an 8 Studenten als auch
an 6 Ärzte verschickt. Ein Ausschnitt zeigt dabei Abbildung 2: Auszug aus der
Powerpoint-Präsentation
Abbildung 2: Auszug aus der Powerpoint-Präsentation.
Die Teilnehmer wurden gebeten die ebenfalls auf der CD enthaltene Anleitung zur
Klassifizierung zu studieren. Anschließend sollten die fehlenden Buchstaben und
Zahlen in die vorgesehenen Lücken unterhalb der Bilder eingetragen werden.
Weitere Anliegen der Untersucher wurden bei Bedarf in das Feld „ Kommentar“
eingetragen. Alle Teilnehmer sendeten ihre klassifizierten Bilder zurück, wobei drei
von ihnen die 5. Stelle nicht kodierten. Diese Werte wurden in der entsprechenden
Untersuchung nicht mit eingeschlossen. Insgesamt wurden von 14 Untersuchern 783
255066247 (8J) AO: 1 ... - ... / ... ... ... LiLa: 1. . . . . .
Kommentar:
23
Befunde miteinander verglichen. Dabei wurde der Kappa Koeffizient nach Fleiss
(1971) [14] verwandt.
In Tabelle 8 und Tabelle 9 wird zunächst eine Übersicht dargestellt. Genauere
Erläuterungen folgen in den einzelnen Abschnitten.
Fraktur Summe
Oberarmfrakturen 12
Unterarmfrakturen 16
Tabelle 8: Übersicht der zu untersuchenden Frakturen.
Übersicht der Kappawerte aller Untersuchungen Studentengruppe
Humerus AO LiLa
3.4.5.Stelle 0,04 0,12
3.4. Stelle 0,11 0,12
3. Stelle 0,40 0,57 Radius
3.4.5.Stelle 0,16 0,11
3.4.Stelle 0,25 0,05
3.Stelle 0,51 0,31 Ärztegruppe
Humerus AO LiLa 3.4.5.Stelle 0,23 0,19
3.4.Stelle 0,37 0,28
3.Stelle 0,42 0,48 Radius
3.4.5. Stelle 0,44 0,28
3.4.Stelle 0,48 0,47
3.Stelle 0,76 0,85 Radius/Ulna 5. Stelle
AO modifizierte AO LiLa
Studenten -0,08 -0.11 0,31
Ärzte 0,09 0,09 0,14
Tabelle 9: Übersicht aller Kappawerte.
24
5.1 Interobserverreliabilität der Gruppe der Studenten
5.1.1 Allgemein
Die Kappawerte der Studentengruppe schwanken zwischen 0,04 und 0,51 bei der
AO-Klassifikation und ergeben eine geringe bis mäßige Übereinstimmung. Ähnlich
ist es bei der LiLa-Klassifikation. Hier ergibt sich eine geringe bis ordentliche
Übereinstimmung nach Landis und Koch 1977. Außerdem lässt sich eine stetige
Abnahme der Kappawerte mit Zunahme der Stellenanzahl erkennen.
5.1.2 Vergleich der Kappawerte der Klassifikationen miteinander
Signifikante höhere Kappawerte der AO-Klassifikation sind bei den
Unterarmfrakturen zu verzeichnen. Bestätigt wird dies durch die
Konfidenzintervalle, die sich nicht überschneiden. Betrachtet man jedoch die 3., 4.
und 5. Stelle, so ist der Unterschied zur LiLa-Klassifikation nicht mehr wesentlich
(Tabelle 10). Aufgrund überschneidender Konfidenzintervalle sind gibt es hier keine
Signifikanz.
5.1.3 Vergleich der Kappawerte am Ober- und am Unterarm
Hinsichtlich der Lokalisation zeigt sich eine signifikant höhere Übereinstimmung der
Unterarmfrakturen in der Einteilung nach Slongo. In der LiLa-Klassifikation gibt es
lediglich einen signifikanten Unterschied beim Betrachten der 3. Stelle. Trotzdem
werden bei den Humerusfrakturen höhere Kappawerte in allen Stellen der LiLa-
Klassifikation erreicht (vgl. Abbildung 3).
Humerus AO LiLa
3.4.5.Stelle 0,04 (0.00 – 0,09) 0,12 (0,08 – 0,17)
3.4. Stelle 0,11 (0,07 – 0,16) 0,12 (0,08 – 0,17)
3. Stelle 0,40 (0,30 – 0,50) 0,57 (0,45 – 0,69)
Radius
3.4.5.Stelle 0,16 (0,11 – 0,20) 0,11 (0,06 – 0,15)
3.4.Stelle 0,25 (0,20 – 0,29) 0,05 (0,00 – 0,12)
3.Stelle 0,51 (0,43 – 0,59) 0,31 (0,23 – 0,41) Tabelle 10: Kappawerte der Studenten, in Klammern das Konfidenzintervall.
25
Abbildung 3: Graphische Darstellung der Kappawerte der Studentengruppe in Abhängigkeit von der Stelle und Lokalisation.
5.2 Interobserverreliabilität der Gruppe der Ärzte
5.2.1 Allgemein
Ärztegruppe ergibt sich in der AO-Klassifikation eine ordentliche (Kappa 0,23) bis
gute (Kappa 0,76) Übereinstimmung nach Landis und Koch. Nach der
Fraktureinteilung von Laer schwanken die Kappawerte zwischen 0,19 und 0,85.
Diese entsprechen einer geringen bis exzellenten Übereinstimmung. Wie in der
Studentengruppe bereits beschrieben, zeigt sich auch hier eine kontinuierliche
Abnahme der Kappawerte bei steigender Stellenanzahl.
0
0,1
0,2
0,3
0,4
0,5
0,6
Humerus (3/4/5)
Humerus (3/4)
Humerus (3) Radius (3/4/5) Radius (3/4) Radius (3)
Kappa
Lokalisation und Stellenanzahl
Kappawerte der Studenten
AO
LiLa
26
5.2.2 Vergleich der Kappawerte der Klassifikationen miteinander
Signifikante Unterschiede beider Klassifikationen zeigen sich nur in der
Untersuchung der Radius- und Ulnafrakturen hinsichtlich der 3., 4. und 5. Stelle.
Hier schneidet ebenfalls die LiLa-Klassifikation schlechter ab (Tabelle 11).
5.2.3 Vergleich der Kappawerte am Ober- und am Unterarm
Betrachtet man die Lokalisation, so schneiden in der Ärztegruppe die
Unterarmfrakturen signifikant besser ab. Einzige Ausnahme ist hierbei die
Untersuchung der 3. und 4. Stelle in der AO-Klassifikation. In der LiLa-
Klassifikation zeigt sich ebenfalls ein signifikant besseres Ergebnis in den
Übereinstimmungen bei den Unterarmfrakturen. Nur in der Untersuchung der 3., 4.
und 5. Stelle ist der Unterschied nicht signifikant (vgl. Abbildung 4).
Humerus AO LiLa
3.4.5.Stelle 0,23 (0,18 – 0,29) 0,19 (0,14 – 0,24)
3.4.Stelle 0,37 (0,30 – 0,46) 0,28 (0,22 – 0,35)
3.Stelle 0,42 (0,28 – 0,55) 0,48 (0,34 – 0,62)
Radius
3.4.5. Stelle 0,44 (0,38 – 0,49) 0,28 (0,21 – 0,34)
3.4.Stelle 0,48 (0,42 – 0,54) 0,47 (0,38 – 0,57)
3.Stelle 0,76 (0,67 – 0,87) 0,85 (0,72 – 0,97)
Tabelle 11: Kappawerte der Ärztegruppe, in Klammern das Konfidenzintervall.
27
Abbildung 4: Graphische Darstellung der Kappawerte der Ärztegruppe in Abhängigkeit von Lokalisation und Stellenanzahl.
5.3 Vergleich der Kappawerte der Ärztegruppe mit der
Studentengruppe
5.3.1 Untersuchung der 3. Stelle
Die Ergebnisse der Teilnehmer in Bezug auf die dritte Stelle wurden in Form von
Multirater-Kappa-Koeffizienten nach Fleiss in der Tabelle 12 und der Tabelle 13
dargestellt.
Für den Humerus zeigen beide Gruppen einen nahezu gleichen Kappawert in der
AO-Klassifikation. Die Fraktureinteilung nach Laer hat dem gegenüber eine größere
Übereinstimmung. Wobei der Kappawert der Studenten größer ist als der der Ärzte.
Nach der Einteilung von Landis und Koch entsprechen alle einer mäßigen
Übereinstimmung. Die Unterschiede der einzelnen Kappawerte sind nicht
signifikant.
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
Humerus (3/4/5)
Humerus (3/4) Humerus (3) Radius (3/4/5) Radius (3/4) Radius (3)
Kappa
Lokalisation und Stellenanzahl
Kappawerte der Ärzte
AO
LiLa
28
Humerus 3. Stelle AO LiLa
Studenten 0,40 (0,30 - 0,50) 0,57 (0,45 - 0,69)
Ärzte 0,42 (0,28 - 0,55) 0,48 (0,34 - 0,62)
Tabelle 12: Multirater-Kappa-Koeffizienten Humerus 3. Stelle.
Im Gegensatz dazu zeichnet sich bei Frakturen am Unterarm (Tabelle 13) in der
Ärztegruppe gute bis exzellente Ergebnisse ab. Der Kappa liegt bei 0,76 für die AO-
und 0,85 für die LiLa-Klassifikation.
Die Studentengruppe zeigt eine mäßige Übereinstimmung in der AO- und eine
ordentliche in der LiLa-Klassifikation. Die Kappawerte sind signifikant schlechter
als die der Ärztegruppe.
Radius/Ulna 3.Stelle AO LiLa
Studenten 0,51 (0,43 – 0,59) 0,32 (0,23 – 0,41)
Ärzte 0,76 (0, 67 – 0,87) 0,85 (0,72 – 0,97)
Tabelle 13: Multirater-Kappa-Koeffizienten Radius/Ulna 3. Stelle.
Zusammenfassend lässt sich feststellen, dass die Ärztegruppe im Bereich des
Unterarmes besser abschneidet.
5.3.2 Untersuchung der 3. und 4. Stelle
Als zweiten Schritt erfolgte die Untersuchung der dritten und vierten Stelle. Dabei
fallen deutlich niedrigere Kappawerte im Vergleich zu den vorangegangenen
Ergebnissen auf. Mit Ausnahme der Ergebnisse der Humerusfrakturen der Ärzte sind
die Unterschiede signifikant.
Zwischen den zwei Klassifikationen am Oberarm besteht bei der Studentengruppe
fast kein Unterschied. Die Studenten erreichen Kappas von 0,11 bei der Einteilung
nach AO und 0,12 für die LiLa-Klassifikation. Dies entspricht gemäß der
29
Interpretation von Landis und Koch bei beiden einer geringen Übereinstimmung. Die
Ärzte dahingegen haben für die zwei Fraktureinteilungen eine ordentliche
Übereinstimmung (Tabelle 14).
Humerus 3.4.Stelle AO LiLa
Studenten 0,11 (0,07 – 0,16) 0,12 (0,08 – 0,17)
Ärzte 0,37 (0,30 – 0,46) 0,28 (0,22 – 0,35)
Tabelle 14: Multirater-Kappa Humerus 3.4.Stelle.
Bei Brüchen des Unterarmes zeigten sich hinsichtlich der dritten und vierten Stelle
folgende Ergebnisse. Die Studenten erreichen eine ordentliche Übereinstimmung in
der AO-Klassifikation. In der Einteilung nach Laer fällt diese gering aus.
Bei den Ärzten ergeben sich bei beiden Klassifikationen mäßige Übereinstimmungen
(Tabelle 15).
Radius/Ulna 3.4.Stelle AO LiLa
Studenten 0,25 (0,20 – 0,29) 0,05 (0,00 – 0,12)
Ärzte 0,48 (0,42 – 0,54) 0,47 (0,38 – 0,57)
Tabelle 15: Multirater-Kappa Radius/Ulna 3.4.Stelle.
Bei der Untersuchung der 3. und 4. Stelle schneidet die Ärztegruppe signifikant
besser ab.
5.3.3 Untersuchung der 3., 4. und 5. Stelle
Betrachtet man die 3., 4. und 5. Stelle nehmen die Kappa-Werte im Vergleich zu den
vorangegangenen Untersuchungen weiter ab. Mit Ausnahme der Ärztegruppe, bei
der die AO-Klassifikation des Humerus und die LiLa-Klassifikation des Unterarmes
eine signifikante Abnahme zeigen, sind die Unterschiede nicht wesentlich.
30
Die Studenten erreichen Kappa-Werte am Humerus von 0,04 in der AO-
Klassifikation bzw. 0,12 in der LiLa-Klassifikation. Dies bedeutet eine geringe
Übereinstimmung.
In der Ärztegruppe wird ein Kappa von 0,23 erreicht, wenn man die AO-
Klassifikation betrachtet. Die Codierungen nach LiLa ergeben mit 0,18 einen
ähnlichen Kappa-Wert. Gemäß der Einteilung nach Landis und Koch wäre dies
jedoch nur eine knappe geringe Übereinstimmung (vgl. Tabelle 16).
Humerus 3.4.5.Stelle AO LiLa
Studenten 0,04 (0.00 – 0,09) 0,12 (0,08 – 0,17)
Ärzte 0,23 (0,18 – 0,29) 0,18 (0,14 – 0,24)
Tabelle 16: Multirater-Kappa Humerus 3.4.5.Stelle.
Am Unterarm zeigen sich bei der LiLa-Klassifikation der Studenten kaum veränderte
Zahlen. Eine Verbesserung zum Humerus ist bei der Einteilung nach Slongo zu
sehen. Nach der Interpretation nach Landis und Koch wird hier im Vergleich zum
Oberarm ebenfalls eine geringe Übereinstimmung hinsichtlich der Befunde erreicht.
In der Ärztegruppe zeigt sich in der AO-Klassifikation ein Kappa-Wert von 0,44.
Nach Landis und Koch ergibt dies eine mäßige Übereinstimmung. In der
Klassifikation von Laer wird eine ordentliche Übereinstimmung von 0,28 erreicht
(vgl. Tabelle 17).
Radius/Ulna 3.4.5.Stelle AO LiLa
Studenten 0,16 (0,11 – 0,20) 0,11 (0,06 – 0,15)
Ärzte 0,44 (0,38 – 0,49) 0,28 (0,21 – 0,34)
Tabelle 17: Multirater-Kappa Radius/Ulna 3.4.5.Stelle.
31
Außer der Untersuchung der LiLa-Klassifikation am Humerus schneidet die Gruppe
der Ärzte signifikant besser ab.
Zusammenfassend lässt sich sagen, dass eine allgemeine deutlich höhere
Übereinstimmung in der erfahrenen Ärztegruppe bei den meisten Stellen beider
Klassifikationen zu erkennen ist.
5.3.4 Untersuchung der fünften Stelle
Eine Untersuchung ausschließlich der fünften Stelle ergibt am Oberarm folgende
Ergebnisse. Die Studentengruppe erreicht eine ordentliche Übereinstimmung in der
LiLa-Klassifikation. In der Einteilung nach Slongo ist die Übereinstimmung nicht
signifikant.
In der LiLa-Klassifikation zeigt sich in der Ärztegruppe ein ähnliches Bild. Es wird
eine ordentliche Übereinstimmung erreicht. Die AO-Klassifikation fällt schlechter
aus. Hier ist die Übereinstimmung gering.
In der Modifikation der AO nach Slongo [38] zeigt sich eine Verbesserung in der
Studentengruppe, jedoch ist der Kappawert aufgrund seines negativen Grenzwertes
nicht signifikant. In der Gruppe der Ärzte hat sich die Übereinstimmung minimal
erhöht. Aufgrund des Konfidenzintervalls ist das Ergebnis jedoch nicht signifikant
(Tabelle 18).
Humerus 5. Stelle AO modifizierte AO LiLa
Studenten 0,04 (-0,09 –0,17) 0,09 (-0,08 – 0,26) 0,26 (0,17 – 0,35)
Ärzte 0,13 (0,01 – 0,26) 0,14 (-0,02 – 0,30) 0,36 (0,25 – 0,47)
Tabelle 18: Untersuchung der 5. Stelle am Humerus, in Klammern das Konfidenzintervall.
Bei den Unterarmfrakturen wird in der Studentengruppe ebenfalls eine ordentliche
Übereinstimmung in der LiLa-Klassifikation erreicht, während der Kappawert der
AO-Klassifikation nicht signifikant ist.
32
Die Gruppe der Ärzte zeigt eine geringe Übereinstimmung in der LiLa-
Klassifikation. Das Ergebnis der Einteilung nach Slongo ist wie in der
Studentengruppe nicht signifikant.
Wie bereits am Oberarm beobachtet, kam es zu keiner Verbesserung der
Übereinstimmung durch die Modifikation nach Slongo [38]. Der Kappawert der
Stundengruppe verschlechterte sich und ist nicht signifikant. Die Ärztegruppe zeigt
unveränderte Werte (Tabelle 19).
Radius/Ulna 5. Stelle
AO modifizierte AO LiLa
Studenten -0,08 (-0,17 – 0,00) -0.11 (-0,22 – - 0,01)
0,31 (0,25 – 0,38)
Ärzte 0,09 (-0,03 – 0,22) 0,09 (-0,03 – 0,22) 0,14 (0,03 – 0,26)
Tabelle 19: Untersuchung der fünften Stelle an Radius und Ulna, in Klammern das Konfidenzintervall.
Zusammenfassend (siehe auch Abbildung 5) wäre zu erwähnen, dass die LiLa-
Klassifikation eine höhere Übereinstimmung zeigt. Die Unterschiede zwischen
beiden Gruppen und Lokalisationen sind dabei nicht signifikant. Die Kappawerte der
AO-Klassifikation sind mit einer Ausnahme (Ärztegruppe am Humerus) nicht
signifikant. Die Vereinfachung der Einteilung nach AO durch Slongo [38] erbrachte
keine signifikante Verbesserung.
33
Abbildung 5: Graphische Darstellung der fünften Stelle und mit Modifikation der AO-Klassifikation nach Slongo [39] in Abhängigkeit von der Gruppe und Lokalisation.
5.4 Vergleich der Kappawerte der Klassifikationen
Wie in den Tabellen und Abbildungen der Kapitel 6.1 bis 6.2 zu sehen ist, zeigt sich
ein signifikant besseres Abschneiden der AO-Klassifikation bei Untersuchung
einzelner Stellen der Unterarmkodierungen bei beiden Gruppen. Frakturen des
Oberarmes ergeben keine deutlichen Unterschiede. Die LiLa-Klassifikation hat
höhere Kappawerte in der separaten Betrachtung der fünften Stelle. Jedoch sind
aufgrund der großen oft überschneidenden Konfidenzintervalle die Unterschiede zur
AO- Klassifikation nicht signifikant.
5.5 Vergleich der Kappawerte Unterarm mit Oberarm
Zusammenfassend aus den Ergebnissen von Kapitel 6.1 und 6.2 wäre zu erwähnen,
dass die Unterarmfrakturen allgemein höhere Übereinstimmungen in der Befundung
zeigen. Einzige Ausnahme ist die dritte Stelle der LiLa-Klassifikation in der
Studentengruppe. Hier schneiden die Humerusfrakturen besser ab. Außerdem gibt es
-0,2
-0,1
0
0,1
0,2
0,3
0,4
Studenten Humerus 5.Stelle
Ärzte Humerus 5. Stelle
Studenten Radius 5.Stelle
Ärzte Radius 5.Stelle
Kappa
Lokalisation
Gesonderte Auswertung der 5. Stelle
AO
modifizierte AO
LiLa
34
in der 3. und 4. Stelle nach der Einteilung von Slongo sowie in der 3., 4. und 5. Stelle
der Klassifikation nach Laer in der Ärztegruppe keinen signifikanten Unterschied
zwischen Unterarm und Oberarm.
5.6 Fragebogen
In einem zweiten Teil soll die Meinungen der Teilnehmer erfasst werden. Es wurden
ausschließlich die subjektiven Bewertungen der Ärzte gewertet.
In Fehler! Verweisquelle konnte nicht gefunden werden. ist die Bewertung der
Ärzte hinsichtlich der Klassifikationen und einzelner Fragestellungen dargestellt. Das
Erlernen und der Umgang mit beiden Fraktureinteilungen schätzten die Ärzte im
Allgemeinen gut bis mittelmäßig ein. Hier schneidet die LiLa-Klassifikation besser
ab. Der Zeitaufwand bzw. die Umstände, die eine solche Kodierung mit sich bringen,
werden unterschiedlich bewertet. Überwiegend gute Noten erhält hierbei erneut die
Einteilung nach Laer. Zusätzliche Bestätigung der oben genannten Bewertung kann
man in den Kommentaren der Freitexte lesen.
Nach Meinung der Untersucher ist die AO-Klassifikation besser geeignet, wenn es
um eine genaue Verschlüsselung der Röntgenbilder geht.
Gegensätzliche Ansichten gibt es bei der Frage ob die Klassifikationen
therapieentscheidend sind oder sogar die Dringlichkeit vorgeben. Vor allem die
„erfahrenen“ Ärzte lehnen diese zwei Punkte einheitlich ab.
Breitgefächerte Bewertungen wurden zum Therapieerfolg bzw. zur Prognose, welche
man anhand solcher Kodierungen möglicherweise treffen könnte, angegeben. Die
LiLa-Klassifikation bekam dabei die besseren Benotungen.
35
Abbildung 6: Spezieller Teil I Fragebogen. Fortsetzung auf Seite 36.
0% 20% 40% 60% 80% 100%
Wie gut kamen Sie mit den Klassifikationen zurecht?
AO
LILA
Wie angenehm war für Sie das Arbeiten mit den Klassifikationen?
AO
LILA
(1-keine großen Umstände; 6-große Umstände)
AO
LILA
1 (sehr gut/volle Zustimmung) 2 (gut/ überwiegend Zustimmung)
3 (mittelmäßig/ teilweise Zustimmung) 4 (mäßig/ bedingte Zustimmung)
5 (schwer/ kaum Zustimmung) 6 (schlecht/ keine Zustimmung)
0% 20% 40% 60% 80% 100%
Könnte man aus einem Code die Dringlichkeit einer z.B. operativen …
AO
LILA
Könnten Sie sich vorstellen, anhand einer Klassifikation den Therapieerfolg …
AO
LILA
Inwiefern kann man Aussagen über die Prognose bzw. mögliche Komplikationen …
AO
LILA
36
Abbildung 6: Spezieller Teil I Fragebogen.
Im letzten Abschnitt des Fragebogens wurde nach der potentiellen Verwendung einer
solchen Klassifikation gefragt (Abbildung 7). Die große Mehrheit hält eine
Kodierung für sinnvoll und hilfreich.
Unter den Ärzten, die an dieser Untersuchung teilnahmen, wäre dabei die LiLa-
Klassifikation am besten geeignet.
0% 20% 40% 60% 80% 100%
Wie exakt können Sie den Befund …
AO
LILA
(1-nicht zeitintensiv; 6-zeitintensiv)
AO
LILA
Könnte die Klassifikation …
AO
LILA
1 (sehr gut / volle Zustimmung) 2 (gut/ überwiegend Zustimmung)
3 (mittelmäßig/ teilweise Zustimmung) 4 (mäßig/ bedingte Zustimmung)
5 (schlecht/ kaum Zustimmung) 6 (schwer/ keine Zustimmung)
37
Abbildung 7: Spezieller Teil II Fragebogen.
5.7 Zusammenfassung der Ergebnisse
In der Bestimmung der Übereinstimmungen wurden Kappawerte von 0,04, bei der
Untersuchung der 3.4.5. Stelle der AO-Klassifikation am Humerus, bis 0,85 beim
Vergleich der 3. Stelle der LiLa-Klassifikation am Unterarm erreicht. Dabei erreichte
die Ärztegruppe signifikant höhere Kappawerte als die Studentengruppe. Die LiLa-
Klassifikation zeigte in der Untersuchung der 5. Stelle die höhere Übereinstimmung.
Sonst gab es zwischen den zwei Klassifikationen jedoch keine deutlichen
Unterschiede. Eine Vereinfachung in der 5. Stelle der Einteilung nach Slongo [38]
brachte keine Verbesserung der Kappawerte. Die Umfrage ergab eine Befürwortung
vor allem der LiLa-Klassifikationen im Alltag. Allerdings ist diese Aussage nicht
repräsentativ.
0 1 2 3 4 5 6
Würden Sie eine Klassifikation bei
kindlichen Frakturen für sinnvoll/hilfreich …
Ja
Nein
Welche Klassifikation wäre in Ihren Augen
sinnvoller?
AO
LiLa
keine
38
6 Diskussion
Nach der aktuellen Studienlage liegen noch keine Vergleiche zwischen der AO- und
LiLa-Klassifikation vor. Jedoch gibt es zahlreiche Untersuchungen über Einteilungen
verschiedener medizinischer Sachverhalte, deren Ergebnisse als Anhaltspunkte
dienen sollen (siehe auch Tabelle 20).
Publikation Klassifikationssystem Kappa-Koeffizient Besonderheit
Audigé et al. 2004
[2]
AO-Klassifikation
nach Slongo: distale
Radiusfrakturen
0,78-0,98 Typ
Kreder et al. 1996
[25]
AO nach Müller:
distale
Radiusfrakturen
0,68
0,48
0,33
Typ
Gruppe
Untergruppe
Martin et al. 1997
[32]
AO nach Müller:
distale
Radiusfrakturen
0,60
0,38
Typ
Gruppe
Slongo et al.
2006/2007
[38, 40]
AO nach Slongo:
Humerus, Radius,
Tibia
0,84 - 0,92
0,13 – 0,61
Typ
Frakturschweregrad
Walton et al. 2003
[49]
Schatzker:
Tibiaplateau
AO nach Müller:
Tibiaplateau
0,41
0,67
0,45
Typ
Gruppe
Wen-Jie Jin et al.
2005
[50]
AO nach Müller,
Evans,
Kyle,
Boyd:
intertrochantären
Frakturen
0,75
0,41
0,44
0,37
0,38
Gruppe
Untergruppe
Tabelle 20: Übersicht ausgewählter Klassifikationsuntersuchungen.
39
Bei den durchgeführten Klassifizierungen wurde die Übereinstimmung der
Untersucher bestimmt. Dabei sollte keine Aussage hinsichtlich der korrekten
Klassifizierung durch die Probanden getroffen werden. Vielmehr ist die
Interobserverreliabilität ein gängiges Mittel, um Klassifikationen zu beurteilen.
Audigé et al 2004 verglich 44 Studien über Klassifikationen nach bestimmten
Kriterien [1]. Durchschnittlich wurden in den untersuchten Studien fünf Untersucher
und 50 zu klassifizierenden Frakturen verwendet. Die Bestimmung des Kappa-
Koeffizienten diente als häufigste Methode zur Einschätzung der Übereinstimmung.
Diese einzelnen Ergebnisse der untersuchten Studien fasste man zusammen. Die fast
gleichgroßen Gruppen „Kappa <0,4“ und „Kappa 0,4-0,6“ hatten zusammen einen
Anteil von mehr als 75%. Die Werte wurden meist nach den
Interpretationsrichtlinien nach Landis und Koch 1977 beurteilt. Damit bestätigen die
in diesem Review gewonnen Ergebnisse die Daten dieser Dissertation. Ein weiterer
Schwerpunkt lag auf der Aussagekraft solcher Untersuchungen zu Klassifikationen.
Eine hohe Reliabilität muss keine hohe Genauigkeit bedeuten. Vor allem wurde der
Bezug zum Outcome bisher vernachlässigt. Dabei wäre letzteres wichtig für den
klinischen Gebrauch. Ein weiterer Kritikpunkt ist der meist benutzte Kappa. Man
beobachtet ein so genanntes Paradoxon. Trotz hoher Übereinstimmung ist der
Kappawert niedrig [13]. Ein solches Phänomen ist möglicherweise in der
Studentengruppe bei den Radius- und Ulnafrakturen im Rahmen der Untersuchung
der 3. und 4. Stelle zu beobachten. Die Kappawerte sind beeinflusst von der
Verteilung der Frakturbeispiele. Ein sicherer Vergleich der
Übereinstimmungskoeffizienten ist eigentlich nur möglich, wenn sich auch der
Studienaufbau der einzelnen Veröffentlichungen ähnelt. Alternative Methoden zu
Kappa, die diese Fehlerquellen nicht mehr enthalten, sind in der Entwicklung und
somit noch nicht verbreitet [10, 26, 28, 43, 44]. Außerdem empfiehlt Audigé et al.
2004 für weitere Studien die Bestimmung der Aussagekraft bzw. Validität von
Klassifikationen, da diese für die Einschätzung des praktischen klinischen Nutzens
mehr von Bedeutung sind [1].
In der Untersuchung der AO- und LiLa-Klassifikation hat sich eine signifikant
höhere Übereinstimmung der Ärztegruppe gegenüber den Studenten gezeigt. Hierfür
wird die Routine im klinischen Alltag eine entscheidende Rolle spielen. So werden in
verschiedenen Untersuchungen höhere Übereinstimmungswerte bei erfahrenen
40
Teilnehmern bzw. bei vorangegangenem Training beschrieben [3, 6, 27, 32, 35, 50].
Es gibt jedoch auch zahlreiche Studien, die eine Unabhängigkeit von der Routine und
von einer vorherigen intensiven Einweisung belegen [18, 25, 34, 49].
Die Frakturen des Radius bzw. der Ulna zeigen eine größere Übereinstimmung der
Befunde als die des Oberarmes. Diese erstgenannten Knochenbrüche dürften jedoch
die komplizierteren sein, da die Codierung dieser zwei Knochen vor allem in der
Beschreibung der LiLa-Klassifikation recht komplex ist. Eine mögliche Erklärung
könnte hierbei die Routine mit den statistisch häufigeren Verletzungen des
Unterarmes gegenüber denen des Oberarms sein [7, 19]. Bestätigt wird dies auch,
dass in der erfahreneren Ärztegruppe bei beiden Klassifikationen die Radius- und
Ulnafrakturen deutlich besser abschneiden als in der Studentengruppe. Anderseits
handelt es sich auf der Klassifikations-CD um eine begrenzte Auswahl an
Röntgenbildern, so dass eine gleichmäßige Verteilung von Brüchen unterschiedlicher
„Befundungsschwierigkeitsgrade“ schwer möglich ist. Es wurde jedoch darauf
geachtet, dass sowohl einfache als auch komplizierte Frakturen der Oberarme und
der Unterarme von den Untersuchern befundet werden mussten.
Bezüglich des Vergleiches der zwei Klassifikationen zeigt sich ein signifikant
besseres Abschneiden der AO-Klassifikation bei Untersuchung einzelner Stellen der
Unterarmcodierungen. Man könnte dieses Ergebnis auf den täglichen Umgang mit
der AO-Fraktureinteilung nach Müller bei erwachsenen Patienten, welche der nach
Slongo ähnlich ist, zurückführen. Die Fraktureinteilung nach Laer zeigt höhere
Übereinstimmungen in der fünften Stelle, obwohl die AO-Klassifikation nach Slongo
hier eine objektivere Einschätzung zulässt. Bei Betrachtung aller Vergleiche sind
jedoch die Unterschiede zwischen den zwei Klassifikationen meistens nicht
signifikant. Insgesamt ist somit hinsichtlich der Kappawerte keine deutliche
Überlegenheit einer Klassifikation erkennbar. Im Gegensatz dazu zeigte sich in einer
Untersuchung von Tibiaplateaufrakturen am erwachsenen Skelett eine höhere
Übereinstimmung bei der AO-Klassifikation nach Müller, welche der Klassifikation
nach Slongo ähnlich ist, gegenüber der nach Schatzker [49].
Die alleinige Untersuchung der 3. Stelle beider Klassifikationen ergaben in dieser
Dissertation Werte zwischen 0,30 und 0,85. Vor allem die Ärztegruppe errang
hierbei eine exzellente Übereinstimmung nach der Interpretation von Landis und
41
Koch 1977. Dabei war hier auf ein gezieltes Klassifikationstraining verzichtet
worden. Zu ähnlichen Resultaten kam Audigé et al. 2004 in einer Studie, die im
Rahmen des Evaluationsprozesses der AO-Klassifikation für Kinder durchgeführte
wurde [2]. Es wurden bei zwei Untersuchungen ausschließlich des Fraktur-Typs
Kappawerte von 0,78 und 0,98 erreicht. Hierfür wurden jedoch erfahrene Chirurgen
als Untersucher eingesetzt. Außerdem erhielten diese ein vorangegangenes Training.
Ebenfalls hohe Übereinstimmung wurden in der Arbeit von Slongo et al. 2006
erreicht (siehe Tabelle 20) [40]. Eine weitere Studie von Martin et al. 1997 beschrieb
ebenso exzellente Kappa-Werte beim Bewerten ausschließlich des Typs A, B oder C
der AO-Klassifikation nach Müller, welche als Grundlage der Klassifikation nach
Slongo diente [32]. Es gibt noch weitere Arbeiten mit ähnlichem Ergebnis [25, 49].
Umfassen mehrere Stellen eines Codes den zu untersuchenden Bereich, nimmt die
Übereinstimmung ab. Bedingt wird dies durch die damit erreichte Zunahme der
Einteilungsmöglichkeiten und damit geringere Wahrscheinlichkeit der
Übereinstimmung der Befunde. Dennoch entsprechen die Kappawerte der dritten und
vierten Stelle gemäß der Interpretation nach Landis und Koch 1977 einer mäßigen
Übereinstimmung. Dies ist die durchschnittliche Interraterreliabilität vieler Studien
[2, 21, 25, 32, 49].
Wird zu den zwei Stellen noch die Frakturschwere bzw. Toleranz hinzugefügt,
nehmen die Kappawerte um einen geringeren Betrag ab. Die Ärztegruppe erreichte
in dieser Dissertation bei Untersuchung von drei Stellen Kappawerte von über 0,4.
Das entspricht einer mäßigen Übereinstimmung. Es gibt noch zahlreiche
vergleichbare Studien mit ähnlichen Ergebnissen [25, 32, 36, 49, 50].
Ein wichtiger Aspekt beider Klassifikationen ist die 5. Stelle. In der Einteilung nach
Laer wird der Gedanke des Therapieentscheides direkt angesprochen indem man
nach „nicht disloziert“, „tolerabel“ oder „nicht tolerabel“ einteilt. In der AO-
Klassifikation ist diese Stelle als Frakturschweregrad definiert. Aus der Anzahl und
Dislokation der Fragmente soll die Stabilität ermittelt werden. Slongo et al 2007 sieht
ebenfalls darin eine Unterstützung hinsichtlich der Wahl der Behandlungsmethode
[38]. Ähnlich der veröffentlichten Validierungsphase der AO-Klassifikation für
Kinder ist in dieser Dissertation die 5. Stelle gesondert untersucht worden. Dabei
ergab sich eine höhere Übereinstimmung in der LiLa-Klassifikation. Die Studenten
42
erreichten Kappawerte bis 0,31, während bei den Ärzten der maximale Koeffizient
bei 0,36 lag. Die Kappawerte der AO-Klassifikation waren dagegen nicht signifikant.
Das bessere Abschneiden der LiLa-Klassifikation könnte dabei eine Folge der
einfacheren und klar definierten Einteilung sein. Desweiteren hat Slongo et al. 2007
in einer Studie zur AO-Klassifikation eine zu komplizierte Einstufung der
Frakturschwere bereits kritisiert [38]. In seiner Untersuchung der 5. Stelle mit
erfahrenen und geschulten Untersuchern wurden Kappawerte zwischen 0,13 und 0,82
erreicht. In dieser Dissertation lag die Übereinstimmung deutlich darunter. Es
wurden maximale Multirater-Kappa-Koeffizienten von 0,09 bei den Studenten und
0,14 in der Ärztegruppe erreicht. Wie oben beschrieben sind diese Werte jedoch
nicht signifikant. Im Gegensatz zu Slongo et al. 2007 wurden hierbei die Untersucher
nicht in Bezug auf die Klassifikation geschult [38]. Ebenso flossen auch die
Ergebnisse von Studenten mit ein. Man könnte damit die bedeutende Rolle der
ärztlichen Erfahrung als auch des Trainings auf eine bestimmte Fraktureinteilung für
das schlechtere Abschneiden in Betracht ziehen.
In Anbetracht der Schwierigkeiten bei der Einteilung des Frakturschweregrades
schlug Slongo et al. 2007 die Vereinfachung der 5. Stelle in „einfach“ und
„kompliziert“ vor [38]. Die neue Einteilung der 5. Stelle führte jedoch im Rahmen
dieser Dissertation zu keiner Verbesserung der Reliabilität. Die Werte waren
geringer und zudem aufgrund des Konfidenzintervalls nicht signifikant. Zu
ähnlichem Ergebnis kam auch Slongo et al. 2007 [38]. Dessen Kappawerte haben
nach Vereinfachung des Frakturschweregrades sich ebenfalls kaum verändert.
Ursächlich soll die subjektive Bewertung der Teilnehmer hinsichtlich einfacher oder
komplexer Frakturen sein. Slongo et al. 2007 schlägt ein gezieltes Training der
Untersucher vor [38]. Eine Befundung der Frakturen innerhalb eines Expertenkreises
oder der Erfahrungsaustausch einzelner Kliniken sollte auch die
Klassifikationsergebnisse verbessern. Es muss jedoch erwähnt werden, dass es sich
hierbei nur um die Untersuchung von Übereinstimmungen der Befunde handelt. Eine
konkrete Aussage über die Therapieentscheidung anhand der fünften Stelle lässt sich
mit der Reliabilität nicht treffen. Deshalb schlägt Slongo et al. 2007 weiter vor, die
Klassifikationsergebnisse zukünftig mit Behandlungen und deren anschließenden
Ergebnissen zu vergleichen [38]. Man kann die Aussagekraft und damit den
43
praktischen Nutzen der AO-Klassifikation besser einschätzen. Aufgrund des großen
zusätzlichen Aufwandes war dieser Vergleich in dieser Dissertation nicht möglich.
Um neben den objektiven Ergebnissen einen subjektive Bewertung zu erhalten,
wurde ein Fragebogen erstellt. Eine Frakturklassifikation wird von nahezu allen
Teilnehmern als sinnvoll angesehen. Nach der allgemeinen Meinung der
Ärztegruppe in der Auswertung des Fragebogens ist die Mehrheit für die LiLa-
Klassifikation. Diese lässt sich am leichtesten erlernen und stellt den geringeren
Aufwand bzw. geringere Belastung im Klinikalltag dar. Die einfachere und klarere
Strukturierung der Fraktureinteilung nach Laer könnte dabei ein entscheidender
Faktor sein. Dass die Vertrautheit mit der AO-Klassifikation nach Müller zu einem
besseren Verständnis und Umgang mit der Einteilung nach Slongo führt, kann in
dieser Umfrage nicht bestätigt werden. Eine Therapieentscheidung anhand einer
Klassifikation wird von den erfahrenen Ärzten einheitlich abgelehnt. So kann man
eher den akademischen Nutzen dieser Klassifikationen sehen. Aufgrund der geringen
Teilnehmerzahl ist dieses Ergebnis nicht repräsentativ und sollte als
Teilnehmermeinung angesehen werden.
Die Aussage dieser Untersuchungen von Übereinstimmungen wurde von
Lichtenhahn et al. 1991 in Hinblick auf die Anwenderfreundlichkeit der AO-
Klassifikation untersucht [30]. Dabei wird die Frage gestellt, was man von einer
Klassifikation erwarten sollte. Die Reproduzierbarkeiten werden, je differenzierter
das System durch das Hinzufügen von Gruppen und Untergruppen ist, umso
schlechter [25, 30]. Die in vielen Studien ermittelten Kappawerte sind eigentlich
nicht vertretbar, wenn man daraus eine Prognose oder Therapie ableiten soll. Für
eine höhere Übereinstimmung der Untersucher wäre es sinnvoll, die Systeme zu
vereinfachen. Die Einteilung in spezielle Gruppen und Untergruppen dienen
lediglich dem wissenschaftlichen Arbeiten, haben aber keine Relevanz für die
Therapie [4, 25, 30]. Desweiteren ist der Anwender der Klassifikation ein
entscheidender Faktor. Er sollte die Einteilung und deren Regeln (z.B. Quadratregel
zur Unterscheidung zwischen metaphysären und diaphysären Frakturen, 30°-Regel
zur Klassifizierung eine Quer-, Schräg- bzw. Spiralfraktur) genau kennen und
entsprechend anwenden. Dies wird nur durch häufiges Üben erreicht. In der Praxis
empfiehlt sich daher eine postoperative Überprüfung der Richtigkeit mit Korrektur
durch einen Supervisor [30]. Dies wird jedoch gerade in kleineren Kliniken mit
44
wenig Personal nicht möglich sein. Ein schwieriger Faktor ist, nach Lichtenhahn et
al. 1991, die Kenntnis der Schwachstellen einer Klassifikation [30]. Dazu gehören
unter anderem, dass Frakturkombinationen am gleichen Knochen getrennt codiert
werden, dass Luxationsfrakturen nicht immer berücksichtigt sind oder die oben
genannte zu differenzierte Einteilung in Gruppen und Untergruppen. Damit können
im Voraus codierte Frakturen kritischer hinterfragt bzw. die Wertigkeit der Fraktur
anders eingestuft werden. Ein weiterer Einfluss liegt in der Qualität der
Röntgenbilder. Je nach Literatur wird in den Klassifikationsuntersuchung eine
Auswahl empfohlen oder abgelehnt [2, 49]. Bei einem guten Röntgenbild lässt sich
aber ohne Zweifel z.B. die Quadrat-Regel der Metaphyse mit einer höheren
Klassifikationssicherheit anwenden. Der Klinikalltag wird jedoch nicht zu jeder Zeit
eine optimale Aufnahme zulassen. Die Aussagekraft der Klassifikation bezüglich der
Therapiegrundlage, des Frakturschweregrades und der Prognose ist zweifelhaft.
Außerdem gibt es noch weitere wichtige Faktoren, die in den Codierungen nicht
berücksichtig sind [30]. So sollte eine Therapie am ehesten auf den Prinzipien der
Frakturversorgung, der Anatomie, der Begleitverletzungen als auch unter
Berücksichtigung des Patienten und dessen Umstände basieren [4, 25]. Diese müssen
vom praktizierenden Arzt bedacht werden. Neben dem Wissen wird außerdem
Erfahrung benötigt. Letzten Endes kann eine Klassifikation die Entscheidung eines
unerfahrenen Arztes nicht erleichtern.
Unumstritten ist der Nutzen von Klassifikation im Vergleich von
Studienergebnissen. Auch ist eine solche Codierung für eine internationale
Verständigung hilfreich. Einige Autoren sehen auch einen Nutzen in der Erstellung
von Guidelines [8, 49]. Letzteres dürfte jedoch in Anbetracht der Kritik an der
Praxistauglichkeit nicht ohne weiteres möglich sein.
45
7 Schlußfolgerung
Zusammenfassend ergeben sich folgende Erkenntnisse:
1. Die Anwendung der Klassifikationen ist erfahrungsabhängig. Die Ärzte
zeigen eine signifikant höhere Übereinstimmungsrate als die Studenten.
2. Unterarmfrakturen sind mit einer größeren Übereinstimmung befundet
wurden als die Humerusfrakturen.
3. Zwischen AO- und LiLa-Klassifikation lässt sich anhand der Kappawerte
keine Überlegenheit eines Klassifikationssystems feststellen.
4. Die Kappawerte sind insgesamt niedrig, bestätigen jedoch die Resultate in
dieser Arbeit vorgestellter Studien.
5. Die LiLa-Klassifikation schneidet in der Untersuchung der 5. Stelle besser
ab. Jedoch sind keine signifikanten Unterschiede zur AO nachzuweisen.
Außerdem lässt sich der Einfluss der Entscheidung über die Toleranz einer
Fraktur durch die 5. Stelle der LiLa-Klassifikation nicht anhand der Kappa-
Werte beurteilen. Eine Vereinfachung der AO durch Slongo führte zu keiner
signifikanten Verbesserung der Übereinstimmung.
6. In den Augen der Teilnehmer sind Klassifikationen sinnvoll. Dabei wäre die
Mehrheit für die LiLa-Klassifikation, da diese für die Teilnehmer einfacher
strukturiert und damit leichter anwendbar ist. Allerdings sind die Aussagen
aufgrund der Teilnehmeranzahl nicht repräsentativ.
Es gilt das Klassifizieren zu verbessern, indem dies geübt wird und die
Klassifikationen weiter überarbeitet bzw. vereinfacht werden. Vorschläge sind
dazu bereits publiziert [4, 25, 30].
46
8 Literaturverzeichnis
1. Audigé L, Bhandari M, Kellam J. (2004) How reliable are reliability studies of
fracture classifications? Acta Orthopedica Scandinavia. 2004, 75, S. 184-194.
2. Audigé L., Hunter J., Weinberg A.M., Magidson J., Slongo T. (2004)
Development and Evaluation Process of a Pediatric Long-Bone Fracture
Classification Proposal. European Journal of Trauma. 2004, 30, S. 248-254.
3. Belotti J.C., Tamaoki M.J.S., da Silveira Franciozi C.E., dos Santos J.B.,
Balbachevsky D., Chap Chap E., Albertoni W. M., Faloppa F. (2008) Are
distal radius fracture classifications reproducible? Intra and interobserver
agreement. 2008, S. 180-185.
4. Bernstein J, Monaghan B. A., Silber J. S., Delong W. G. (1997) Taxonomy
and treatment – a classification of fracture classifications. The Journal of
Bone and Joint Surgery. 1997, 79 B, S. 706-707.
5. Brennan R.L., Prediger D.J. (1981) Coefficient Kappa: Some Uses, Misuses,
and Alternatives. Educational and Psychological Measurement. 1981, S. 687-
699.
6. Brorson S., Hróbjartsson A. (2008) Training improves agreement among
doctors using the Neer system for proximal humeral fractures in a systemic
review. 2008, 61, S. 7-16.
7. Bruch H.P., Trentz O. (2006) Berchtold Chirurgie. 5. Auflage. München:
Urban&Fischer, 2006. S. 330-427.
8. Burstein AH Ph., D. (1993) Editorial Fracture Classification Systems: Do they
work and are they useful? 1993, 75, S. 1743-1744.
9. Cicchetti D.V., Feinstein A.R. (1990) High agreement but low kappa: I. The
problems of two paradoxes. Journal of Clinical Epidemiology. 1990, 43, S.
543-549.
47
10. Cicchetti D.V., Feinstein A.R. (1990) High agreement low kappa: II Resolving
the paradoxes. Journal of Clinical Epidemiology. 1990, 43, S. 551-558.
11. Cohen, J. (1960) A coefficient of agreement for nominal scales. 1960, 20, S.
37-46.
12. Dirschl D.R., Adams G.L. (1997) A Critical Assessment of FactorsInfluencing
Reliability in the Classification of Fractures, Using Fracturesof the Tibial
Plafond as a Model. 1997, 11, S. 471-476.
13. Feinstein A. R., Cicchetti D.V. (1990) High agreement but low kappa: I. The
problems of two paradoxes. 1990, S. 543-549.
14. Fleiss, J.L. (1971) Measuring Nominal Scale Agreement Among Many Raters.
Psychological Bulletin. 1971, 76, S. 378- 382.
15. Fleiss J.L., Nee J.C.M., Landis J.R. (1979) Large Sample Variance of Kappa in
the Case of Different Sets of Raters. Psychological Bulletin. 1979, 86, S. 974-
977.
16. Gehrchen P.M., Nielsen J.O., Olesen B. (1993) Poor reproducibility of Evan’s
classification of the trochanteric fracture. Acta Orthopaedica Scandinavia.
1993, 64, S. 71-72.
17. Grouven U., Bender R., Ziegler A., Lange S. (2007) Der Kappa-Koeffizient.
Deutsche Medizinische Wochenschrift. 2007, 132, S. e65-e68.
18. Johnstone D.J., Radford W.J.P., Parnell E.J. (1993) Interobserver variation
using the AO/ASIF classification of long bone fractures. 1993, 24 (3), S. 163-
165.
19. Keßler, M. (2007) Infoletter Kinderchirurgie. vom 10.2007.
http://www.klinikum.uni-
heidelberg.de/fileadmin/Chirurgie/kinderchirurgie/Infoletter07.3.pdf.
48
20. King, J. E. (2004) Software Solutions for Obtaining a Kappa-Type Statistic for
Use with Multiple Raters. vom 2.2004.
www.ccitonline.org/jking/homepage/genkappa.doc.
21. Koran, M. L. (1975) The Reliability of clinical Methods, Data and Judgments
(first of two parts). 1975, 25, S. 642-646.
22. Koran, M. L. (1975) The Reliability of clinical Methods, Data and Judgments
(second of two parts). The New England Journal of Medicine. 1975, 25, S.
695-701.
23. Kraemer H.C., Periyakoil V.S., Noda A. (2002) Tutorial in Biostatistics: Kappa
coefficients in medical research. Statistics in Medicine. 2002, 21, S. 2109-
2129.
24. Kraemer, H.C. (1992) Evaluating Medical Tests. s.l. Sage Publications, 1992.
25. Kreder H.J., Hanel D.P., McKee M., Jupiter J., McGillivary G., Swiontkowski
M.F. (1996) Consistency of AO fracture classification for the distal radius.
1996, 78, S. 726-731.
26. Krippendorff, K. (2007) Testing the Reliability of Content Analysis Data:
What is Involved and Why? vom 6.2007
http://www.asc.upenn.edu/usr/krippendorff/dogs.html.
27. Kristiansen B., Andersen U.L.S., Olsen C.A., Varmarken J.E. (1988) The Neer
classification of the proximal Humerus An Assessment of interobserver
variation. Skeletal Radiology. 1988, S. 420-422.
28. Kutschmann, M. (o.J.) Der Kappa-Koeffizient: Discussion eines
Missverständnisses und ein Modifizierungsvorschlag. vom 7.2009;
http://www.biometrie.uni-heidelberg.de/statmeth-
ag/veranstaltungen/berlin02/Kutschmann.pdf.
29. Landis J.R., Koch G.G. (1977) The Measurement of Observer Agreement for
Categorical Data. Biometrics . 1977, 33, S. 159-174.
49
30. Lichtenhahn P., Fernandez D.L., Schatzker J. (1991) Analyse zur
"Anwenderfreundlichkeit" der AO-KLassifikation für Frakturen. Helvetica
Chirurgica Acta. 1991, 58, S. 919-924.
31. Linhart W. (o.J.) Licht und Lachen für kranke Kinder e.V. vom 8.2009
http://www.li-la.org/content/index.php?id=2.
32. Martin J.S., Marsh J.L., Bonar S. K., De Coster T.A., Found E.M., Brandser
E.A. (1997) Assessment of the AO/ASIF Fracture Classification for the Distal
Tibia. 1997, S. 477-483.
33. Marzi, I. (2006) Kindertraumatologie, 2006, Sternkopf Verlag, Darmstadt, S.
28-33
34. Podeszwa D.A., Stanitski C.L., Stanitski D.F., Woo R., Mendelow M.J. (2000)
The Effect of Pediatric Orthopaedic Experience on Interobserver and
Intraobserver Reliability of the Herring Lateral PillarClassification of Perthes
Disease. Journal of Pediatric Orthopaedics. 2000, 20, S. 562-565.
35. Rasmussen S., Madsen P. V., Bennicke K. (1993) Obsetver variation in the
Lauge-Hansen classification of ankle fractures. Precision improved by
instruction. Acta Orthop Scand. 64(6) 1993, S. 693-694.
36. Schipper I.B., Steyerberg E.W., Castelein R.M., Vugt van A.B. (2001)
Reliability of the AO/ASIF classification for pertrochanteric femoral fractures.
Acta Orthopaedica Scandinavica. 2001, 72, 36-41.
37. Sidor M.L., Zuckerman J.D., Lyon T., Koval K., Cuomo F., Schoenberg N.
(1993) Neer classification system for proximal humeral fracutres. An
assessment of interobserver reliability and intraobserver reproducibility. The
Journal of Bone and Joint Surgery. 1993, 75, S. 1745-1750.
38. Slongo T., Audigé L. (2007) Documentation of fracture severity with the AO
classification of pediatric long-bone fractures. Acta Orthopaedica. 2007, 78,
S. 247-253.
50
39. Slongo T., Audigé L., Clavert J.M., Lutz N., Frick S., Hunter J. (2007) The AO
Comprehensive Classification of Pediatric Long-bone Fractures. Journal of
Pediatric Orthopaedics. 2007, 27, S. 171-180.
40. Slongo T., Audige L., Schlickewei W., Clavert J.-M., Hunter J. (2006)
Development and Validation of the AO Pediatric Comprehensive
Classification of Long Bone Fractures by the Pediatric Expert Group of the AO
Foundation in Collaboration With AO Clinical Investigation and
Documentation and the International Association for Pe. Journal of Pediatric
Orthopaedics. 2006, 26 , S. 43-49.
41. Slongo, T.(o.J.) The choice of treatment according to the type and location
of the fracture and the age of the child. vom 8.2009
http://www.aofoundation.org/wps/portal/!ut/p/c0/04_SB8K8xLLM9MSSzPy
8xBz9CP0os3hng7BARydDRwOLAEM3AyNzF79gP0NTA4NQY_2CbEdFAAI1W
xw!/?contentUrl=%2fser%2fpub%2finj%2fabs%2finj_abstr_vol36sup1.jsp&la
nguage=de&print=true&title=Fracture%2btreatment%2bin%2bchildh.
42. Spratt, Blood E. and Kevin F. (2007) Disagreement on Agreement: Two
Alternative Agreement Coefficients. vom 7.2009.
http://www2.sas.com/proceedings/forum2007/186-2007.pdf.
43. Stegmann J., Lücking A. (2005) Assessing Reliability on Annotations
(1):Theoretical Considerations. vom 7.2009. http://www.sfb360.uni-
bielefeld.de/reports/2005/report-05-02.pdf.
44. Uebersax, J. (2010) Statistical Methods for Rater and Diagnostic Agreement.
vom 3.2010. http://www.john-uebersax.com/stat/agree.htm.
45. von Laer L., Gruber R., Dallek M., Dietz H.G., Kurz W., Linhart W., Marzi I.,
Schmittenbecher P., Slongo T., Weinberg A., Wessel L. (2000) Classification
and Documentation of Children´s Fractures. European Journal of Trauma.
2000, 26, S. 2-14.
51
46. von Laer L., Kraus R. (2007) Die konservative Behandlung von Frakturen der
langen Röhrenknochen im Wachstumsalter. Unfallchirurg. 2007, 110, S. 811-
823.
47. von Laer L., Worel A.M., Röder Ch., El-Kerdi A., Staub L.P., Busato A. (2005)
Qualitätssicherung in der Traumatologie des Wachstumsalters - eine
Pilotstudie. vom 8.2009
http://www.li-
la.org/content/fileadmin/user_upload/public/qualitaetssicherung_traumato
logie-von_laer_2005.pdf.
48. von Laer, L. (2005) Frakturen im Wachstumsalter. Wandel in der Behandlung
in den letzten 30 Jahren. Trauma und Berufskrankheiten. 2005, 7, S. 6-10.
49. Walton, N. P., Harish, S., Roberts, C., Blundell, C. (2003) AO or Schatzker?
How reliable is classification of tibial plateau fractures? Arch Orthop Trauma
Surg. 2003, 123, S. 396-398.
50. Wen-Jie J., Li-Yang D., Yi-Min C., Qin Z., Lei-Sheng J., Hua L. (2005)
Reliability of classification systems for intertrochanteric fractures of the
proximal femur in experience orthopaedic surgeons. Injury. 2005, 36, S. 858-
861.
52
9 Abkürzungsverzeichnis
a.p. - anterior posterior
AO - Arbeitsgemeinschaft für Osteosynthesefragen
AOCID - Arbeitsgemeinschaft für Osteosynthesefragen Investigation and
Documentation
bzw. - beziehungsweise
CD - Compact Disc
IAGKT - International Working-Group for Paediatric Traumatology
LiLa - Licht und Lachen e.V.
PAEG - Arbeitsgemeinschaft für Osteosynthesefragen Paediatric Expert Group
u.a. - unter anderem
vgl. - vergleiche
z.B. - zum Beispiel
53
10 Abbildungsverzeichnis
Abbildung 1: Definition der Metaphyse über das Quadrat mit Seitenlänge, die der
Länge der Epiphysenfuge beträgt (von Laer L., 2007) [46]. ........... 11
Abbildung 2: Auszug aus der Powerpoint-Präsentation. ........................................ 22
Abbildung 3: Graphische Darstellung der Kappawerte der Studentengruppe in
Abhängigkeit von der Stelle und Lokalisation. ................................ 25
Abbildung 4: Graphische Darstellung der Kappawerte der Ärztegruppe in
Abhängigkeit von Lokalisation und Stellenanzahl. ......................... 27
Abbildung 5: Graphische Darstellung der fünften Stelle und mit Modifikation der
AO-Klassifikation nach Slongo [39] in Abhängigkeit von der
Gruppe und Lokalisation. ................................................................. 33
Abbildung 6: Spezieller Teil I Fragebogen ............................................................ 35
Abbildung 7: Spezieller Teil II Fragebogen. .......................................................... 37
54
11 Tabellenverzeichnis
Tabelle 1: Schema des Klassifikationscodes nach der AO-Klassifikation nach
Slongo[40]. ........................................................................................... 6
Tabelle 2: Überblick AO-Klassifikation für Kinder nach Slongo[40]. ................. 8
Tabelle 3: Schema des Codes der LiLa-Klassifikation [45, 46]. ......................... 10
Tabelle 4: Aufbau der LiLa-Klassifikation nach von Laer[45, 46]. .................... 12
Tabelle 5: Übersicht der teilnehmenden Untersucher. ........................................ 18
Tabelle 6: Umgang mit kindlichen Frakturen in der Ärztegruppe. ..................... 19
Tabelle 7: Interpretationsrichtlinien nach Landis und Koch 1977 [29]............... 21
Tabelle 8: Übersicht der zu untersuchenden Frakturen. ...................................... 23
Tabelle 9: Übersicht aller Kappawerte. ............................................................... 23
Tabelle 10: Kappawerte der Studenten, in Klammern das Konfidenzintervall. .... 24
Tabelle 11: Kappawerte der Ärztegruppe, in Klammern das Konfidenzintervall. 26
Tabelle 12: Multirater-Kappa-Koeffizienten Humerus 3. Stelle. .......................... 28
Tabelle 13: Multirater-Kappa-Koeffizienten Radius/Ulna 3. Stelle. ..................... 28
Tabelle 14: Multirater-Kappa Humerus 3.4.Stelle. ............................................... 29
Tabelle 15: Multirater-Kappa Radius/Ulna 3.4.Stelle. .......................................... 29
Tabelle 16: Multirater-Kappa Humerus 3.4.5.Stelle. ............................................ 30
Tabelle 17: Multirater-Kappa Radius/Ulna 3.4.5.Stelle. ....................................... 30
Tabelle 18: Untersuchung der 5. Stelle am Humerus, in Klammern das
Konfidenzintervall. ............................................................................. 31
Tabelle 19: Untersuchung der fünften Stelle an Radius und Ulna, in Klammern
das Konfidenzintervall........................................................................ 32
Tabelle 20: Übersicht ausgewählter Klassifikationsuntersuchungen. ................... 38
55
12 Anhang
Klassifikations-CD „Frakturen im Wachstumsalter – Vergleich der LiLa-Klassifikation nach von Laer mit der AO-Klassifikation nach Slongo“
CD-Tasche mit CD
56
Fragebogen zur AO-/LILA- Klassifikation
Allgemeine Fragen:
• Wie lange sind Sie bereits ärztlich tätig?
.... Jahre
• Wie oft befunden Sie kindliche Frakturen?
( ) jeden Tag ( ) manchmal ( ) selten
Klassifikation:
(Bitte vergeben Sie Note von 1 (sehr gut) bis 6( sehr schlecht))
• Wie gut kamen Sie mit den Klassifikationen zurecht?
AO: LiLa:
• Wie angenehm war für Sie das Arbeiten mit den Klassifikationen?
AO: LiLa:
• Wie groß sind die Umstände, zusätzlich den Befund eines Röntgenbildes zu verschlüsseln? (1-keine großen Umstände; 6-große Umstände)
AO: LiLa:
• Wie exakt können Sie den Befund verschlüsseln?
AO: LiLa:
57
• Empfinden Sie das Verschlüsseln als zeitintensiv? (1-nicht zeitintensiv; 6-zeitintensiv)
AO: LiLa:
• Könnte die Klassifikation therapieentscheidend sein?
AO: LiLa:
• Könnte man aus einem Code die Dringlichkeit einer z.B. operativen Therapie ermitteln?
AO: LiLa:
• Könnten Sie sich vorstellen, anhand einer Klassifikation den Therapieerfolg abzuschätzen?
AO: LiLa:
• In wie fern kann man Aussagen über die Prognose bzw. mögliche Komplikationen machen?
AO: LiLa:
• Würden Sie eine Klassifikation bei kindlichen Frakturen für sinnvoll/hilfreich halten?
( ) Nein
( ) Ja
• Welche Klassifikation wäre in Ihren Augen sinnvoller?
( ) AO ( ) LiLa ( ) keine
58
• Gibt es etwas, was Ihnen an der jeweiligen Klassifikation nicht gefällt? (Freitext)
AO:
LILA:
• Was finden Sie an der Klassifikation als besonders gut/hilfreich? (Freitext)
AO:
LILA:
Vielen Dank für Ihre Mitarbeit!
59
13 Danksagung
Mein Dank geht zunächst an meinen Doktorvater Privatdozent Dr. med Knorr, der
mir dieses Thema überlassen hat, und an Professor Dr. med Hümmer an dessen
Klinik ich die Untersuchungen durchführen konnte. Außerdem gilt der Dank auch
den Betreuer Dr. Kertai, der trotz seines arbeitsreichen Klinikalltags für mich und
meine Fragen Zeit gefunden hat. Weiterhin bedanke ich mich für die Mühe und Zeit
die Privatdozent Knorr für die Korrektur aufgewendet hat.
Außerdem bedanke ich mich noch bei allen Studenten und Ärzten, die sich bereit
erklärt haben neben ihrer Arbeit bzw. ihres Praktischen Jahres als Teilnehmer in
dieser Untersuchung unentgeltlich mitzuwirken.
Als letztes möchte ich mich noch bei meiner Familie für ihre Unterstützung be-
danken.
Vielen Dank.
60
14 Lebenslauf
Name: Lutz Vogel
Anschrift: Backstr. 6
98527 Suhl
Geburtsdatum: 09.09.1983
Geburtsort: Schlema
Familienstand: ledig
Eltern: Vater: Andreas Vogel, Dr. med. FA für Anästhesiologie
Mutter: Angela Vogel, Dr. med. FA für Innere Medizin
Geschwister: Bruder: Ralf Vogel
Schulische Laufbahn:
1990 – 1994 Ernst-Schneller-Grundschule in Kirchberg
1994 – 2002 Schulwechsel auf das Christoph-Graupner-Gymnasium in Kirchberg
Juni 2002 Abschluss mit Abitur am Christoph-Graupner-Gymnasium Kirchberg
Hochschulausbildung:
2003 – 2009 Medizinstudium an der Friedrich-Alexander-Universität in Erlangen
April 2005 erfolgreicher Abschluss vorklinischer Abschnitt mit Physikum
Mai 2009 erfolgreicher Abschluss Studium der Humanmedizin in Erlangen
Beschäftigung:
Seit September 2009 Assistenzarzt in der Abteilung für HNO im Zentralklinikum
Suhl