Blah-I
Gefühlt hat alles was heute einen Stecker hat oder an etwas angeschlossen ist, dass einen Stecker hat KI: Der Staubsauger, die Kaffeemaschine und das Handy sowieso. KI kann Bilder malen, Texte schreiben, Fragen beantworten und alles was irgendwo dazwischen liegt. Kurz gesagt fragt man sich manchmal, wie die Menschheit es bisher geschafft hat zu überleben. In manchen Fällen ist die Antwort ganz einfach: Weil es bisher einfach nicht KI hieß.
Was ist eigentlich KI?
Um es ein Stück weit beantworten zu können, muss man sich erstmal damit beschäftigen was KI ist bzw. wie eine KI funktioniert. Grundlegend nicht anders als ein kleines Kind: Die KI an sich ist in vielen Fällen am Anfang erstmal dumm und man muss ihr beibringen, wie etwas heißt oder wie etwas aussieht. Bringe ich einem Kind konsequent bei, dass bellende, haarige vierbeinige Tiere „Elefant“ heißt, dann wird es dabei zwei Sachen lernen: Alles was bellt, haarig ist und vier Beine hat ist ein Hund und der richtige Name dafür ist „Elefant“. Wenn ihm nicht jemand überzeugend was anderes erzählt, dann wird es jeden Hund als Elefant bezeichnen.
Womit wir auch schon beim Elefant im Raum sind (also dem richtigen…), wenn es um KI geht: Es kommt drauf an, mit was und von wem die KI trainiert wurde. Und es gibt durchaus die Möglichkeit, dass ich damit Unfug mache. Die bekanntesten Beispiele dafür dürften der Chatbot Tay von Microsoft sein (damals noch ohne KI), den man auf Twitter losgelassen hat und innerhalb kürzester Zeit ein rassistischer Antisemit war oder auch der Chatbot von Chevy, der Autos zum Schleuderpreis verkauft hat. Wurden hier Lücken ausgenutzt, kann das natürlich aber auch von außen passieren. Wird (für einen wahrscheinlich nicht geringen Betrag) eine Boulevard-Zeitung als aktuelle Grundlage für eine KI genommen, bewertet dieses die Informationen der Boulevard-Zeitung natürlich als „Wahrheit“. Die KI hat kaum oder keine Möglichkeiten, zu prüfen dass es sich um Unfug handelt. Hat der Verbraucher dann auch kein Möglichkeit das zu prüfen (oder schlicht keine Lust), haben wir den Salat. Das Kind denkt, dass haarige, bellende Tiere mit vier Beinen Elefant heißen.
Im Grunde ist das trainieren nur ein „lernen“ von Zusammenhängen. Mehrere komplexe Faktoren führen dazu, dass erkannt wird, dass etwas haarig ist, dass etwas vier Beine hat und dass es bellt. Kommen diese drei Faktoren zu einem gewissen Grad zusammen, dann fällt die Entscheidung, dass es ein Hund ist. Ähnlich funktioniert das auch mit Texten. Wer interessiert ist und viel Bock auf Mathe hat, kann sich das Thema „Vektoren“ gerne so auseinandersetzen. Ich hab das Grundkonzept verstanden, das reicht mir. Generell ist das Thema KI sehr viel Mathe. SEHR VIEL MATHE!
Wie wird jetzt wieder Text oder Bild daraus?
Generative KIs schnappen sich aus der Anforderung dann alle Vektoren, die passen und würfeln daraus dann ein neues Ergebnis. Dieses Ergebnis ist (so zumindest aktuell mein Stand) nicht reproduzierbar. Für Normalsterbliche ist auch nicht nachvollziehbar wie aus den Vektoren am Ende die Antwort geworden ist. Magic happens here. Erschwerend kann ich einer KI auch zugestehen, dass sie „kreativ“ wird. Also aus ihrem Wissensschatz Dinge „erfindet“.
Eine generative KI macht also nichts neues sondern arrangiert bekanntes nur neu. Hier beißt sich aktuell auch die Katze zunehmend in den Schwanz: KI generierte Texte und Bilder werden zunehmend wieder als Trainingsdaten genutzt. Siehe oben: Sind diese falsch, wird es einfach nur noch fälscher.
Ist KI jetzt gut oder böse?
Weder noch. In vielen Fällen macht KI nichts neu sondern ist nur eine Arbeitserleichterung. Bildanalyse nutzt die gleichen Systematiken, die z.B. auch seit langer Zeit in der Astrophysik verwendet werden: Verschiedene Filter, verschiedene Farben. Es geht auf jeden Fall schneller als wenn sich ein Mensch hinsetzt, Quelltexte wälzt, Bilder vergleicht usw. Auch da habe ich Algorithmen nach denen ich vorgehe. Am Ende ist es ein Werkzeug, dass man mit Sinn und Verstand einsetzen muss und auch hinterfragen muss.
Welches Problem hab ich jetzt mit KI?
Erstmal gar keins. In vielen Fällen ist es aber schlicht ein Marketing-Buzzword, weil heute alles KI sein muss. Oder es ist overengineering. Mir wurde diese Woche zum Beispiel Werbung für eine KI-basierte Kennzeichenerkennung als Parkplatz-Zugang und -Abrechung in die Timeline gespült. Toll und neu und innovativ! Also zumindest so lange, bis man weiß, dass Mitte der 70er die britische Polizei APNR entwickelt hat um Kennzeichen zu erkennen. Also weit vor dem Begriff KI. Seit 10 Jahren gibt es das OpenSource-Projekt openALPR, das Kennzeichen auf Bildern und Videos erkennen und auswerten kann. Im Grunde kommt OpenCV und OCR zum Einsatz. Kennzeichen finden mit OpenCV und lesen mit OCR.
Schaut man sich andere „KI“-Anwendungen an, geht es teilweise in eine ähnliche Richtung. Es ist eigentlich nur ein stumpfer Algorithmus, der mit KI gebranded wird. Also eher keine Intelligenz statt künstliche Intelligenz.
Am Ende hat es jemand in einem Vortrag auf den Punkt gebracht: Bei komplexen Themen dauert es teilweise genauso lange die Query für die KI zurechtzubiegen wie es gedauert hätte den Algorithmus selber zu schreiben.
No Comment