AI für Lehrer: Ein OpenTextbook

Warum nicht einfach KI einsetzen? — Teil 1

Die zweite extreme Position, wenn es um KI geht, ist der wahllose Einsatz oder Missbrauch der Technologie. Künstliche Intelligenz funktioniert anders als menschliche Intelligenz. KI-Systeme können aufgrund der Art der Situation, des Designs oder der Daten anders funktionieren als erwartet.

Eine Anwendung, die mit einem bestimmten Datensatz für einen bestimmten Zweck entwickelt wurde, wird beispielsweise mit anderen Daten für einen anderen Zweck nicht zuverlässig funktionieren. Es lohnt sich, die Grenzen der künstlichen Intelligenz zu kennen und zu korrigieren: Es ist gut, KI nicht einfach nur einzusetzen, sondern ihre Vorteile und Grenzen zu kennen.  

Fortbestehen von Stereotypen

Google Translate lernt, aus dem Internet zu übersetzen. Seine „Datenschürfer" durchsuchen das öffentliche Internet nach Daten, aus denen sie lernen können. Neben der Sprache lernt die KI auch, dass es mehr männliche als weibliche Mechaniker gibt, und dass es mehr weibliche als männliche Krankenschwestern gibt. Sie kann nicht unterscheiden, was „wahr" ist und was das Ergebnis von Stereotypen und anderen Vorurteilen ist. So verbreitet Google Translate letztlich das, was es lernt, und zementiert Stereotype:1



Probleme entstehen in der KI immer dann, wenn ein Einzelfall von der Mehrheit abweicht (sei es die Mehrheit in der realen Welt oder nur die Mehrheit, wie sie im Internet dargestellt wird). Im Unterricht muss die Lehrkraft die Fehler des Systems ausgleichen. Und wenn nötig, die Aufmerksamkeit der Lernenden auf alternative Lösungen lenken.  
ERKUNDEN SIE

Suchen Sie in Google Translate nach einem Stereotyp! Spielen Sie mit den Übersetzungen in und aus verschiedenen Sprachen. Indem Sie auf die beiden Pfeile zwischen den Kästchen klicken, können Sie den übersetzten Text umkehren (so haben wir es im obigen Beispiel gemacht).

Sprachen wie das Türkische haben dasselbe Wort für „er" und „sie". Bei der Übersetzung vom Türkischen ins Englische und umgekehrt kommen viele Stereotypen zum Vorschein. Beachten Sie, dass viele Sprachen einen männlichen Vorurteil haben - eine unbekannte Person wird als männlich angesehen. Dies ist nicht das Vorurteil der Anwendung. Was in unserem obigen Beispiel schockiert, ist, dass die männliche Krankenschwester zu einer weiblichen Krankenschwester wird.


Mehrere Genauigkeitsmessungen

KI-Systeme machen Vorhersagen — Vorhersagen darüber, was ein Schulkind als Nächstes lernen sollte, ob es ein Thema verstanden hat, welche Gruppenaufteilung für eine Klasse gut ist oder wann ein Schulkind Gefahr läuft, die Schule abzubrechen.  Oft sind diese Vorhersagen mit einer Prozentzahl versehen. Diese Zahl sagt uns, wie gut das System seine Vorhersagen einschätzt.

Es liegt in der Natur der Sache, dass Prognosen fehlerhaft sein können. Für viele Anwendungen ist ein solcher Fehler akzeptabel. In einigen Fällen ist dies nicht akzeptabel. Außerdem ist die Art und Weise, wie dieser Fehler berechnet wird, nicht festgelegt. Es gibt verschiedene Skalen, und der Programmierer wählt aus, was ihm am wichtigsten erscheint. Oft ändert sich die Genauigkeit je nach Eingabe.

Da diese Systeme Vorhersagen über die Kinder im Klassenzimmer treffen, muss die Lehrkraft beurteilen, was akzeptabel ist, und eingreifen, wenn eine von der KI getroffene Entscheidung nicht angemessen ist. Ein wenig Hintergrundwissen über KI-Techniken und die damit verbundenen häufigen Fehler ist dabei sehr hilfreich.




1 Barocas, S.,  Hardt, M., Narayanan, A., Fairness and machine learning Limitations and Opportunities, yet to be published




 

This page has paths:

This page references: