Folge 1

Künstliche Intelligenz – Grenzenlose Möglichkeiten?

„Vielleicht muss man sagen, dass KI, wenn sie funktioniert, keine KI mehr ist.“

Heute zu Gast Dr. Jan Alexandersson vom Deutschen Forschungszentrum für Künstliche Intelligenz. Mit ihm sprechen wir über KI. Was ist KI eigentlich? Bietet KI grenzenlose Möglichkeiten oder wird sie uns vielleicht gefährlich? Wer entscheidet besser, die Maschine oder der Mensch? Spannende Fragen.

Viel Spaß beim Hören! 

Transkription

Thomas Sinnwell: Herzlich willkommen zur Podcast-Folge, heute zu Gast Jan Alexandersson, Wissenschaftler am Deutschen Forschungszentrum für Künstliche Intelligenz. Wir kennen uns ja schon ein bisschen länger. Jan, sei doch so nett und stell dich vor. 

Jan Alexandersson: Vielen Dank zunächst mal für die Einladung. Ich freue mich, hier sein zu dürfen. Ich bin seit 1993 am Deutschen Forschungszentrum für Künstliche Intelligenz, kurz DFKI, tätig, und ich beschäftige mich schwerpunktmäßig mit Ambient Assisted Living oder altersgerechten Assistenzsystemen. Und da versuche ich KI in soziotechnischen Lösungen zu erforschen. Wir haben uns ja auch in dem Rahmen, vor ein paar Jahren, kennengelernt. 

Thomas Sinnwell: Ja. 

Jan Alexandersson: Und das war auch ein sehr schönes Projekt. Da ging es um Sicherheit und die Wahrnung von Sicherheit in der Informationstechnologie, insbesondere bei Gesundheit. 

Thomas Sinnwell: Ja, wir kennen uns in der Tat schon ein paar Jahre und ich freue mich, dass wir heute den Fokus mal auf das Thema KI legen können. KI ist ein Begriff, der in der breiten Masse eher sehr blumig definiert ist. Ich finde, er ist auch gar nicht so einfach zu definieren. Was verstehst du oder wie würdest du Künstliche Intelligenz definieren? 

Jan Alexandersson: Kurz und knackig geht das in der Tat nicht. KI, Künstliche Intelligenz oder Artificial Intelligence, so wie das damals in den 50ern des letzten Jahrhunderts ausgemünzt wurde, wurde gewählt, weil man versucht hat dieses magische Forschungsfeld, das gerade entstand, irgendwie zu umfassen. Es hieß auch bei manchen, wie in diesem berühmten Workshop in Dartmouth, "komplexe Computersysteme". Das trifft es eigentlich auf den Punkt, es sind komplexe Systeme. Man hat damals die ersten Rechner gekriegt und da wurde festgestellt, wir können plötzlich Wissen und mathematische Logiken tatsächlich berechnen. Und das war was Neues. Da wurde dann endlich diese Visionen, wir können jetzt plötzlich künstliche Menschen oder Roboter tatsächlich programmieren. Das besteht aus ganz vielen Forschungsrichtungen. In den letzten Jahren ist das eher, sagen wir mal, ein bisschen "en vogue" geworden. Wir sind inzwischen ein bisschen cooler, als wir vor zehn Jahren waren, da waren wir eher als Nerds bekannt. Und das hängt mit den wahnsinnigen Entwicklungen im Bereich maschinelle Lernverfahren zusammen. Das geht natürlich einher mit extremer Weiterentwicklung in Hardware-Beschleunigung. Und diese beiden …

Thomas Sinnwell: Dadurch wurde es auch erst möglich. 

Jan Alexandersson: Diese beiden parallelen Entwicklungen haben es jetzt ermöglicht, dass wir tatsächlich verwendbare Anwendungen sehen. Das sind immer noch, wir nennen das, schwache KI-Anwendungen. Es sind also relativ spezifische Anwendungen, die sich mit bestimmten Problemfall, zum Beispiel Gesichtserkennung oder ähnliches beschäftigen. Wir sprechen auch in dem Forschungsfeld auch über starke KI, und starke KI ist eher sowas wie ein vollumfänglicher Mensch oder sagen wir mal ein mit Bewusstsein ausgestattetes Irgendwas, das in der Lage ist, selbstständig zu agieren, zu denken und vielleicht … 

Thomas Sinnwell: Also auf das Thema würde ich auch gerne noch etwas später dann zu sprechen kommen. Meine Wahrnehmung ist, dass unter KI ganz unterschiedliche Sachen verstanden werden. Das hört man teilweise im Kontext von Big Data, Predictive Analytics, Robots, dann kommt aber auch Machine Learning, Deep Learning, lauter Buzzwords. Und gleichzeitig sieht man, dass von Marketingabteilungen immer öfter so eine Art Bapper draufgemacht wird auf die Produkte „KI inside“. Wie siehst du das? 

Jan Alexandersson: Das ist ja natürlich Marketing. KI ist jetzt cool und dann können wir Sachen verkaufen. Fieser Weise muss man vielleicht sagen, dass KI, wenn sie funktioniert, ja keine KI mehr ist. Wovon wir leben am DFKI, ist ja nicht das, was funktioniert, sondern wir erforschen ja das Neue. Wir sehen ja auch tatsächlich Anwendungen. Ich meine, du hast ja …

Thomas Sinnwell: Da sollten wir auch drauf zu sprechen kommen auf diese unterschiedlichen Anwendungen. Und ich habe jetzt bewusst mal so ein paar Buzzwords genannt, die immer subsumiert werden. Aber lass uns doch versuchen auch jetzt in einem Podcast-Format ein bisschen Struktur da rein zu bringen. Um was geht es da eigentlich? Was kann man denn da subsumieren? So aus meiner Wahrnehmung hätte ich vielleicht so die beiden Hauptrichtungen: Reasoning und Machine Learning. Kannst du da vielleicht ein bisschen was dazu sagen, wie das einzuordnen ist? Was was ist? Oder fehlt da was, ist meine Wahrnehmung zu schmal? 

Jan Alexandersson: Sicherlich ein bisschen schmal, aber das ist auch kein Wunder, weil KI ist sehr groß. Aber Reasoning setzt natürlich Wissen voraus und Wissen muss natürlich repräsentiert werden. Wissensrepräsentation ist ein ganz wichtiger Aspekt. Und da hat sich sehr viel getan in den letzten Jahren. Als ich zur Schule, KI-Schule ging, war sehr viel Wissen symbolischen Charakters. Wir haben dann symbolisches Wissen in Hierarchien, in Vererbungshierarchien et cetera, et cetera konserviert und vor allem programmiert. Inzwischen … 

Thomas Sinnwell: Kannst du dazu ein Beispiel geben? Ich denke, das ist schwierig so zu verstehen. 

Jan Alexandersson: Ja. Eine Taxonomie von Tieren zum Beispiel oder Pflanzen, Aktionen, Sprechhandlungen oder sonst irgendwas, die wir benutzen, um unsere Welt zu modellieren. Wenn wir über irgendwas sprechen wollen, Autos, dann müssen wir das modellieren. Ein Modell eines Autos beinhaltet aber nicht nur die Autoteile, sondern auch, wie das Auto sich bewegt. Und um ein Auto zu verstehen, müssen wir auch Straßen verstehen, Verkehr, Transport, Mobilität und so weiter und so fort. Um über alle diese Sachen überhaupt sprechen oder denken oder räsonieren zu können, müssen wir es modellieren. Und dieser Prozesse, dieses Wissen in einen Computer einzufangen, das war, im letzten Jahrhundert und als ich damals studiert habe, ein manueller Prozess. Und das hat sich jetzt geändert, indem wir, statt manuelles Wissen zu akquirieren, versuchen Programme zu schreiben, die tatsächlich dieses Wissen automatisch oder semiautomatisch akquirieren. Und dann ist das Wissen nicht unbedingt nur symbolischen Charakters, sondern auch statistischen Charakters: es sind Wahrscheinlichkeiten. 

Thomas Sinnwell: Wärst du mit der Erklärung einverstanden, dass bei "Reasoning" probiert wird, was wir Menschen eigentlich immer machen, wenn wir eine neue Problemstellung bekommen, wir fragen uns: "was habe ich denn bisher schon vergleichbares gemacht?" Anschließend versuchen wir diese Methodik auf das neue Problem zu übertragen, so als eine abstrakte Erklärung? 

Jan Alexandersson: Ja und nein. Ja, weil natürlich nutzen wir unser vorheriges Wissen, um zu denken, aber der Denkprozess ist natürlich irgendwas, was wir auch programmieren müssen. Der Denkprozess bei uns Menschen ist ja auch nicht so ganz verstanden worden, da gibt es auch keine einheitlichen Modelle. Und wir denken sicherlich auch unterschiedlich, du und ich. Wir sprechen auch nicht von einer Art von Denken, sondern einige sind bauernschlau und einige sind dreist und andere sind nachdenklich und überlegt und so weiter und so fort. Und das zeigt auch, dass wir Menschen unterschiedlich sind. Wir sehen nicht nur unterschiedlich aus, sondern wir agieren und denken auch unterschiedlich. Und diese Denkprozesse, die du ansprichst, die müssen wir zunächst mal programmieren. Also wir müssen versuchen abzubilden, was wir uns vorstellen, was da zwischen unseren Ohren abgeht. Deswegen: ja und nein.

Thomas Sinnwell: Okay. Gut, jetzt haben wir über die eine Gruppe gesprochen: das Reasoning. Das andere Thema, welches ich aufgebracht habe: Machine Learning. Da würde ich, aus meiner Sicht, drei Hauptgruppen sehen: das überwachte Lernen, das unüberwachte Lernen und das bestärkende Lernen. Wäre das jetzt aus deiner Sicht erstmal soweit komplett in diesem Bereich?

Jan Alexandersson: Überwachtes und unüberwachtes Lernen ist eine gute Charakterisierung. 

Thomas Sinnwell: Lass uns das vielleicht auch noch für die Zuhörer mal beschreiben, was da der Unterschied ist.

Jan Alexandersson: Überwachtes Lernen würde ich vielleicht anhand einer Metapher aufzeigen: wie bringt man einem Kind bei, welche Tiere es gibt? Dann zeigst du Bilder von Elefanten, das ist ein Elefant, das hier ist auch ein Elefant, das ist kein Elefant, das ist eine Giraffe, das ist eine Katze und das ist ein Hund und so weiter und so fort. Überwacht ist es in dem Sinne, dass wir dem Computer sagen können, das ist dieses Tierexemplar. Und für das wiederum, jetzt sind wir beim Wissen, haben wir Taxonomien, die wir versuchen das zu verlinken. Schwieriger wird es natürlich, wenn wir über das Agieren sprechen. Es ist wirklich schwierig, Fußball zu verstehen. Als Mensch verstehen wir Fußball. Das ist, wenn ich Fußball zu dir sage, dann ist das zum einen natürlich der Kampf auf dem Spielfeld, Allerdings ist Fußball auch eine Organisation in Deutschland, der deutsche Fußballbund und das sind viele Akteure. Und Fußball ist Feuer und Fußball ist Trauer und Emotionen und so weiter. 

Thomas Sinnwell: Und eine Lederkugel. 

Jan Alexandersson: Die kommt auch dazu, das stimmt. Und zurück zu dem, was wir vorher gesagt haben: Unüberwachtes Lernen wiederum, dann zeigen wir also dem Computer irgendwas und der Computer versucht selber Strukturen abzuleiten. Aber dann ist wiederum der Schritt bis hin zum Wissen, also das, was wir als Taxonomien oder Wissen bezeichnen, ein schwieriger Prozess. Das können wir nicht so richtig, da brauchen wir ein bisschen Unterstützung. 

Thomas Sinnwell: Das heißt, wir können an der Stelle festhalten, dass wir Eingabedaten haben, die untersucht werden. Beim unüberwachten Lernen sind die erstmal unstrukturiert. Und die Maschine erkennt da gegebenenfalls Muster, wenn welche vorhanden sind. Und beim überwachten Lernen habe ich auch Trainingsdaten. Ich brauche ja typischerweise ganz viele von diesen Trainingsdaten. Ich weiß also was diese Trainingsdaten bedeuten und wenn der Algorithmus dann angelernt wird, weiß ich auch, was ein richtiges Ergebnis ist und was ein falsches Ergebnis ist. 

Jan Alexandersson: Ja, so in etwa. Vielen Dank!

Thomas Sinnwell: Ja, gerne. Stets zu Diensten. 

Jan Alexandersson: Aber im Grunde genommen ist die Situation gleich, nur entweder sage ich, das hier auf dem Tisch zum Beispiel ein Wasserglas steht oder ich sage es nicht. Und dann muss der Computer entweder selber herausfinden, gibt es hier Strukturen, die ich auseinanderklamüsern kann und dann in relation zu meinem Weltwissen oder zu einem Modell, welches ich vorher gesehen, habe setzen kann. 

Thomas Sinnwell: Ich bin deshalb so ein bisschen drauf rumgeritten, weil ich auf das Thema Feature Engineering noch zu sprechen kommen möchte. Weil für so ein gutes Lernen brauche ich viele Daten. Wir haben gesagt, es gibt Eingangsdaten, das können dann die Bilder von den Tieren sein. Jetzt ist aber die Frage: Was sind denn da die geeigneten Merkmale, die ich betrachte, sodass ich "gutes Lernen" bekomme? Kannst du da vielleicht noch ein bisschen was zu sagen? 

Jan Alexandersson: Ja, in der Tat. Und zwar die klassischen Lernverfahren, die haben wir mit sehr viel Mühe definiert. Auch die verschiedenen Eigenschaften von sagen wir mal Tieren, zum Beispiel ein Auge. Und bei all diesen Teilaspekte eines Tieres, wie zum Beispiel Größe, Umrandung oder Farbe, die haben wir dann auch so auseinanderklamüsert, manuell oder halbmanuell . Heute haben wir Lernverfahren, die gucken sich einfach ein Bild an und sagen, okay, wir sagen, das hier ist ein Elefant. Natürlich sehen wir nicht nur Elefant, wir sehen Elefant in einem Kontext. Aber tatsächlich schaffen die neuen tiefen Lernalgorithmen, das hier automatisch zu erkennen und zu extrahieren. 

Thomas Sinnwell: Du hast den Begriff vielschichtige Netze verwendet. Das Buzzword dazu ist ja das Deep Learning. Da sollten wir vielleicht mal drauf zu sprechen kommen, was sind denn eigentlich solche künstlichen neuronalen Netze? Diese sollten wir vielleicht mal kurz betrachten. Und dann ist es ja relativ leicht zu erklären, was denn Deep Learning ist. 

Jan Alexandersson: Das ist ja ein Nachempfinden der grauen Masse zwischen unseren Ohren. Da wurden tatsächlich im letzten Jahrhundert, auch Modelle der neuronalen Zellen entwickelt, zum ersten Mal. Damals hatten wir nicht genügend Rechenpower, um damit überhaupt umgehen zu können, sondern das ist erst in den letzten Jahren und vor allem bei der Massen-Parallelisierung durch sogenannte grafische Prozessoreinheiten, also GPUs passiert. Und gerade Bildverarbeitung eignet sich hervorragend zum Parallelisieren, weil da haben wir ganz viele Pixel und die kann man natürlich parallel verarbeiten. Und das können gerade GPUs. Ich glaube, die neuesten Generationen, die haben 5.000, also auf jeden Fall mehrere tausend Prozessorkerne, die parallel arbeiten können. Da kann man sehr schön diese neuronalen Netze umsetzen und implementieren, und die laufen parallel und das geht vergleichsweise ratzfatz.

Thomas Sinnwell: Ich selbst bin ja auf das Thema neuronale Netze zum ersten Mal in einer Vorlesung über Mikroelektronik, ich habe damals einen Ingenieur-Studiengang gemacht, gestoßen. Und da gab's dann ganze drei Schichten und das konnte man auch notfalls von Hand zu Fuß machen, und war sehr schön, um das mal zu verstehen. Vielleicht für die Zuhörer: In so einer Schicht gibt es solche Basiselemente, das sind die künstlichen Neuronen und die sind in einer Schicht organisiert, da gibt es mehrere und zwischen den Neuronen und in den einzelnen Schichten gibt es komplexe Verbindungen. Wenn das dann früher drei Schichten waren, als ich noch Elektrotechnik studiert habe, sind das heute hunderte von Schichten. Dazu brauche ich natürlich die entsprechende Rechenleistung und da hast du ja auch die Grafikprozessoren angesprochen, die man da ganz wunderbar für verwenden kann. Dieses Deep Learning aber, das ist ja auch so eine Basistechnologie, die gerade bei der Sprachanalyse und Sprachsynthese eigentlich den Durchbruch geschafft hat. 

Jan Alexandersson: Gerade bei Sprache nicht, sondern bei Bildanalysen.

Thomas Sinnwell: Bild natürlich ganz stark. 

Jan Alexandersson: Inzwischen verwenden wir das auch bei der Sprachverarbeitung, das ist richtig, aber der eigentliche Knackpunkt ist tatsächlich Bildanalyse oder die Problemstellungen, die dann parallelisiert werden können. Sprache ist von Natur aus sequenziell, und deswegen ist einiges an der Verarbeitung der Sprache natürlich auch sequenziell von Natur aus. Aber einige Aspekte hier können wir natürlich auch parallelisieren, keine Frage.0

Thomas Sinnwell: Und mir ging es jetzt auch darum, einfach vielschichtige Netze einzusetzen, um Muster erkennen zu können. Und ich denke jetzt gerade so an diese Übersetzungsprogramme, also wo ich dann wirklich Textübersetzungen habe. Das funktioniert mittlerweile erstaunlich gut und das setzt massiv auf Deep Learning auf. 

Jan Alexandersson: Das ist alles richtig, das funktioniert in der Tat erstaunlich gut. Nichtsdestotrotz ist der Übersetzungscomputer typischerweise so konzipiert, dass er keine Ahnung hat, was es übersetzt. Es ist einfach ein Prozess, der sich Quell- und Zieltexte in großen Mengen angeschaut hat und nachäfft praktisch. Aber was es eigentlich bedeutet, da hat das System kein Modell davon. 

Thomas Sinnwell: Abrundend zum Thema Deep Learning möchte ich noch auf einen Punkt zu sprechen kommen, und zwar das Thema erklärbare KI. Bei diesen vielschichtigen Netzen, bei Deep Learning, würde ich sagen, Stand letztes Jahr, war es eigentlich noch so, dass ich es nicht nachvollziehen konnte, wie ein vielschichtiges Netz auf sein Ergebnis kommt. Es ist natürlich gegebenenfalls sehr unbefriedigend. Könntest du da vielleicht für die Zuhörer noch ein paar Sachen dazu ergänzen und erläutern?

Jan Alexandersson: Das Unbefriedigende ist auch ein interessanter Aspekt in der Tat. Im Grunde genommen möchte man natürlich wissen, warum ein System so und so funktioniert. Ich möchte auch gerne verstehen, wieso mein Laptop so und so agiert ab und zu. 

Thomas Sinnwell: Ja gut, das ist ein Mysterium. 

Jan Alexandersson: Weil es nicht erklärbar ist für mich. Aber wenn wir ein bisschen ernsthaft bleiben, nehmen wir mal an, wir haben hier ein KI-basiertes System, das im Bereich Diagnoseunterstützung fungiert, dann möchte natürlich der Arzt nachvollziehen, warum das System empfiehlt, dass die Diagnose die oder jene ist. Und wenn das System nur eine Antwort spuckt und wir das nicht nachvollziehen können, dann können wir nicht viel damit anfangen. Es führt in der Realität so weit, dass wir auf diese Versicherungsfrage kommen: wer ist verantwortlich? Was ist Verantwortlichkeit? Wir könnten uns ja sicherlich darüber unterhalten, inwiefern ein System, das sehr gut funktioniert und messbar besser funktioniert als unsere Menschen, ob wir das tatsächlich benutzen wollen? Ich finde das ist eine spannende Frage. Und ich frage natürlich die nachkommende Generation, ich habe ja ein bisschen davon zu Hause und habe natürlich die Frage gestellt. Also wenn ich jetzt zum Arzt gehe und ich soll eine Diagnose kriegen, ist es wichtig, dass das eine Person ist oder ist es wichtig, dass es richtig ist? Und ich glaube, die neuen Generationen sagen zunehmend, dass es ihnen egal ist, aber ich hätte gerne eine Person. Ich glaube, dass die Person, die das auch … 

Thomas Sinnwell: Und ich nehme an, du hättest auch gern einen Grund, warum diese Diagnose getroffen wird? 

Jan Alexandersson: Ja, also ich interessiere mich für meine Gesundheit, sehr sogar und das muss jeder für sich entscheiden. Aber vielleicht interessierst du dich oder vielleicht hast du so viel Vertrauen in deinen Arzt, Hausarzt oder wer auch immer, dass du sagst, das ist mir egal, ich habe einfach Vertrauen, dass es richtig wird. Aber wäre ich Arzt, …

Thomas Sinnwell: Ich bin der Albtraum aller Ärzte, ich will immer wissen, warum, wieso und das verstehen.

Jan Alexandersson: Ja okay, verstehe. Dann sind wir so in etwa gleich. Aber wäre ich Arzt, dann würde ich auch gerne von einem System wissen, wieso das hier plötzlich Erkältung statt Krebs ist. Und dann müsste selbst ein Deep-Learning-basiertes System sagen, wieso das so gekommen ist. 

Thomas Sinnwell: Ich habe da einen Anwendungsfall, auch aus dem Bereich der Medizin, gelesen. Da wurde der Versuch unternommen, über bildgebende Verfahren herauszubekommen, ob Leute jetzt wirklich schwer erkrankt sind. Es wurden viele Leute einem CT unterzogen. Die Trefferquote des Systems, was die Erkennung von schwer Kranken betraf, war extrem hoch. Was aber tatsächlich passiert ist, ist dass diese Menschen mobil durchleuchtet wurden mit einer anderen Apparatur, im Gegensatz zu denen, die nicht schwersterkrankt waren. Der Algorithmus hat letzendlich gelernt, die ganz speziellen Eigenschaften des Röntgengerätes zu erkennen, nicht die schwer kranken Menschen an sich. Da war eine zusätzliche Signatur auf dem Bild drauf. Und das war die todsichere Variante, um das zu erkennen. Hat also letztendlich nicht funktioniert. Und das zeigt aber auch, dass es ganz wichtig ist zu wissen, warum kommt die Maschine zu diesem Ergebnis? Wir sind hier in einer ganz anderen Domäne unterwegs, bei uns geht es ja um die Überwachung von Netzwerken, also im ganz positiven Sinne. Warum wird irgendwas langsam? Warum muss ich mir schon wieder einen Kaffee kochen gehen, bevor es mal wieder weitergeht am Bildschirm? Ist da vielleicht irgendjemand in unserem Netz unterwegs, der da nicht hingehört? Versucht da jemand Daten zu exfiltrieren? Also eine ganz spezielle Anwendungsdomäne. Und die Praxis in den meisten Unternehmen ist, dass das von der IT irgendwie gemacht werden muss, es gibt ja nicht so viel Security-Experten. Wenn dann eine Maschine sagt: lieber Administrator, du hast hier ein ernstzunehmendes Problem mit dem Namen XYZ, das hat eine Wahrscheinlichkeit von 61 % und ich stufe das als hochkritisch ein. Das hilft ja niemandem ernsthaft weiter. Das macht erst mal Panik und es wirft die Frage auf, habe ich das Problem oder habe ich es nicht? Und dann wird es noch viel spannender: was muss ich eigentlich machen? Da würde ich noch gerne drauf zu sprechen kommen, auf diese Anwendungsdomänen. Oder anders ausgedrückt oder vielleicht mal eine provokante Fragestellung: Ist jetzt KI die Lösung aller Probleme?

Jan Alexandersson: Natürlich nicht. Aber ich möchte consistec herzlich einladen zu mir nach Hause ins Homeoffice, weil da habe ich auch manchmal das Gefühl, da läuft nicht alles so, wie es soll. Da ist das Internet mal so und mal so. Nein, Spaß beiseite. Es gibt, wie gesagt, wahnsinnig viele Möglichkeiten, KI zu nutzen, gerade auch in diesem Feld. Die Frage ist natürlich, ob das System, die Systeme oder die Teilsysteme, die consistec einsetzen möchte, ob diese auf vorklassifizierten Sachen basieren oder auf Anomalie-Erkennung allgemein? Also dass man sagen kann, okay, so sieht das normalerweise aus, und dann, wenn irgendwas abweicht, dann kann natürlich auch ein Lernsystem sagen: okay, das sieht jetzt irgendwie anders aus. Aber was genau, weiß man nicht. 

Thomas Sinnwell: Wir hatten ja anfangs die Themen überwachtes Lernen, unüberwachtes Lernen, mal oberflächlich beleuchtet, mal kurz drüber gesprochen. Und das spiegelt sich natürlich in unserer Anwendungsdomäne auch wieder. Die Verfahren haben alle so ihre Vor- und Nachteile und letztendlich muss ich Verfahren kombinieren, um vielleicht die Vorteile der KI nutzen zu können. Zum Beispiel kommt sie mit sehr großen Datenmengen ganz gut zurecht, viel besser als wir Menschen. Sie kann Muster in einem Chaos erkennen, indem wir Menschen erstmal nichts sehen. Aber es muss natürlich auch gewährleistet sein, dass ich als Mensch, der das Ergebnis präsentiert bekommt, selber für mich beurteilen kann, hat die Maschine recht oder hat sie nicht recht. Und das läuft bei uns einfach darauf hinaus, dass man unterschiedliche Verfahren kombinieren muss. Dann ist man ganz schnell beim Thema hybride KI. Das ist, wenn ich das richtig gelesen habe oder auch mitbekommen habe durch unsere Gespräche, bei euch im Hause jetzt auch das ganz große Thema. Da würde ich dich bitten, mal ein bisschen was für die Zuhörer dazu zu sagen.

Jan Alexandersson: Hybride KI, oh, ein Riesenfeld. Aber es ist im Grunde genommen ganz einfach, genau wie du gesagt hast. Es gibt nicht nur eine Funktion, eine dieser schwachen KI-Methologien oder Technologien, die dann eingesetzt wird. Oft ist das so, dass du für verschiedene Teilprobleme oder Fragestellungen auch verschiedene Verfahren hast. Das können teils auf maschinellen Lernverfahren basierte Dinge sein, aber es können auch manchmal sehr spezielle von Hand geschriebene Sachen sein. Also ich spreche typischerweise von Wissen und Taxonomien, auch da wird geforscht, die machen das wir in der Lage sind nicht nur Informationen, sondern auch Wissen repräsentieren und erfassen können. Und die sind typischerweise dann hybrid in ihrer Art. Das ist nicht ein System, das sind viele Systeme, ich komme zurück auf komplexe Computersysteme, das sind tatsächlich bits and pieces, die zusammen funktionieren sollen. 

Thomas Sinnwell: An der Stelle zeigt sich auch, dass die Begrifflichkeit eigentlich sehr, sehr gut ist und wesentlich treffender als dieser blumige Begriff KI. Wenn ich mit Schülern darüber spreche, dann wird das auch gerne sowas wie Terminator genannt. Und ansonsten natürlich auch durch Science-Fiction-Filme ist das Ganze sehr stark geprägt, was sich die Leute so darunter vorstellen. 

Jan Alexandersson: Klar. Eine Möglichkeit meiner Forschung wird dann natürlich ein Terminator sein. Also vielleicht nicht der, also ich möchte natürlich nicht dazu beitragen, dass es einen Terminator gibt, es sei denn, es gibt Bösewichte, die wir terminieren wollen, sagen wir mal. Aber dann muss man natürlich diese ethische Fragestellung stellen, wollen wir Maschinen haben, die einfach rumfahren und uns abknallen, unter welchen Voraussetzungen? 

Thomas Sinnwell: Ich finde da im Moment auch so eine Geschichte ganz spannend, auf die ich gestoßen bin. Das war mir gar nicht so präsent, dass in den USA im Justizbereich wirklich auch KI zum Einsatz kommt. Diese entscheidet, anhand eines ausgefüllten Fragebogens die die Leute, die festgesetzt werden, dann erst mal ausfüllen müssen: macht es Sinn dem vielleicht eine Bewährungsstrafe zu geben oder es macht keinen Sinn? Die Maschine verrät aber nicht, warum. Dann stellt sich wirklich die Frage: Ist das wirklich ein guter Bereich, um KI einzusetzen? 

Jan Alexandersson: Was ist die Alternative, muss man natürlich fragen. Ist die Alternative, dass ich ein Jahr auf die ANtwort dieser Frage warte oder nicht? 

Thomas Sinnwell: Ich finde, es ist ein schlechtes Anwendungsfeld für KI, weil wenn ich mich als Richter mit einem festgenommenen Menschen unterhalte, dem Dinge vorgeworfen werden, dann habe ich natürlich sowas wie empathische Fähigkeiten. Ich kann mich mit dem unterhalten, ich kann mir ein Bild machen und da sage ich jetzt einfach mal, das ist was, da sind wir der KI haushoch überlegen als Mensch. 

Jan Alexandersson: Das, was du ansprichst, ist ein System, das funktioniert auf Basis eines ausgefüllten Dokuments. Das ist ein sehr, sehr schmaler Kanal, den wir jetzt aufgemacht haben. 

Thomas Sinnwell: Das ist es absolut, ja. 

Jan Alexandersson: Deswegen würde ich es rein aus den Gründen ablehnen, weil es gibt so viel mehr und das sehen wir, in jeder Verhandlung in einem Gerichtssaal. Es geben natürlich die verschiedenen Akteure dann Informationen hinzu, die wir einfach nicht nur durch ein Formular abdecken können. Es wirft natürlich die Frage auf, wozu dürfen wir KI einsetzen? Oder wollen wir KI einsetzen? Da sehe ich ein Riesen-Manko in der Gesellschaft.

Thomas Sinnwell: Aber ist es nicht so, dass da ganz stark auch in akademischen Kreisen darüber gesprochen wird und es noch gar nicht wirklich angekommen ist? Ich meine, KI-basierte Systeme stehen in den Häusern und heißen dann Alexa beispielsweise, sind im Auto eingebaut, das Notbremssystem, die Distanzkontrolle, die Fahrspurerkennung. All diese Sachen sind schon da und es ist nicht mehr so furchtbar weit weg bis zum autonomen Fahren, was dann natürlich auch ganz andere Fragestellungen nach sich zieht. Wer hat denn wirklich die Verantwortung? Wie ist das ethisch, wie ist das juristisch zu beurteilen? Und da fehlt mir persönlich einfach auch schon in der Schule, die entsprechende Wissensvermittlung. Wie wollen die Leute über dieses Thema ernsthaft diskutieren? Es ist kompliziert. Wir haben jetzt mal versucht, es ein bisschen zu ordnen, ein bisschen zu beleuchten, und wenn da eines klargeworden ist, dann das es erst mal eine sehr, sehr komplexe Geschichte ist . 

Jan Alexandersson: Gerade bei autonomem Fahren ist das in der Tat so. Wir haben eine gewisse Anzahl von Unfällen in Deutschland, ich glaube, pro Tag stirbt ungefähr ein Kleinbus, also ein Volkswagen-Bus mit Leuten im Verkehr, schwerverletzt werden ein Kleinflugzeug und leichtverletzt ein Großflugzeug pro Tag. Wir wissen auch aus der Statistik, das autonom fahrende Fahrzeuge diese Todeszahl drastisch reduzieren würden. For the Big Picture wären natürlich autonom fahrende Fahrzeuge total klasse, weil plötzlich hätten wir weniger Tote und weniger Verletzte. Aber Fehler macht so ein System trotz allem. Und das müssen wir uns selbst mit auseinander setzen. Bisher war die Rechtsprechung, dass die Ingenieure oder die Entwickler die Verantwortung tragen. Da gibt es auch diesen berühmten Fall, den kennst du sicherlich auch, da ist jemand mit Cruise Control und Spurrichtung gefahren, hat einen Herzinfarkt gekriegt und rast natürlich in ein Dorf rein und überfährt eine Mutter mit Kind im Kinderwagen. Wer ist schuld? Er ist ja nicht schuld, er hat einen Herzinfarkt erlitten. Da war tatsächlich die Rechtsprechung: die Entwickler. Die haben das nicht nachvollziehen können. Also schwierig, weil man braucht ja immer einen Schuldigen.

Thomas Sinnwell: Aber das heißt auch, dass man, wenn man über das Thema KI oder Artificial Intelligence spricht, auch ganz andere Bereiche betrachten muss, …

Jan Alexandersson: Ja, selbstverständlich. 

Thomas Sinnwell: … rechtlicher Natur, ethischer Natur. Und dass es auch zwingend notwendig ist, das breite Bevölkerungsschichten sich da ein Bild machen können und mitdiskutieren können und mitbestimmen können, wo die Reise hingehen soll, weil die hat ja Fahrt aufgenommen. Gut, ein wichtiger Punkt oder eine wichtige Frage, die auch gerne gestellt wird: Wird denn die KI den Menschen letztendlich in der Arbeitswelt verdrängen?

Jan Alexandersson: Teilweise hoffe ich das. Ich bin ein großer Fan von „Sendung mit der Maus“, selbst, nachdem die Kinder groß sind. 

Thomas Sinnwell: Man versteht die Sachen gleich.

Jan Alexandersson: Das ist diese ABC-Erklärungsebene, das verstehe ich auch. Nein, Spaß beiseite. Ich war tatsächlich, in meinem früheren Leben in Schweden war ich an einem Fließband tätig. Und diese Fließbandarbeit war extrem stressig, mir ging es total schlecht dabei. Also ich habe Herzrhythmusstörungen bekommen, weil ich mich gestresst gefühlt habe. Die Arbeit war so eintönig, dass ich die ganze Zeit überlegt habe, wie kann ich das besser machen und schneller machen und so weiter und so fort. Ich finde, manche dieser Aufgaben, sollten auch echt automatisiert werden, die sind nicht menschenwürdig. Wir brauchen diese teilweise, teilweise kann man sich natürlich fragen, welche Produkte wir allgemein in der Gesellschaft haben wollen? Was für mich eintönig ist, ist nicht für dich eintönig. Das ist auch so eine individuelle Sache. Aber es gibt tatsächlich einige Verfahren, die könnten wir ruhig automatisieren, finde ich. Ich könnte mir vorstellen, dass es in der Zukunft, wenn wir ein bisschen bessere Roboter haben, dann kann ich einen Roboter haben, und statt mich an ein Fließband zu stellen, stelle ich meinen Roboter zur Verfügung. 

Thomas Sinnwell: Wirft natürlich ganz neue Fragestellungen auf. Viele Menschen definieren sich ja über ihre Arbeit und wenn sie mit ihrer, ich sag mal, reinen Arbeitskraft ihr Einkommen nicht mehr wirtschaften können, muss das ja anders erfolgen. Man muss sich natürlich auch noch in seinem Leben wohlfühlen können und viele brauchen dazu Arbeit. 

Jan Alexandersson: Und dann kommen wir jetzt zu der Fragestellung: Was ist der Sinn des Lebens? Da schließt sich der Kreis, so ungefähr. 

Thomas Sinnwell: Gut. Ja, ein komplexes Thema. Das war jetzt mal ein erster Streifzug. Ich denke, man hat an vielen Stellen merken können, dass es sehr, sehr facettenreich ist, dass noch viel im Forschungsbereich zu tun ist, aber es schon allgegenwärtig ist und in vielen Technikprodukten drinsteckt. KI hat eine rasante Entwicklung und ich freue mich, dass wir auch weiterhin gemeinsam an diesen Themenstellungen arbeiten dürfen. Vielen Dank, Jan, dass du heute hier warst. Vielen Dank für das Gespräch. 

Jan Alexandersson: Vielen Dank Thomas für die Einladung und ich bin gerne hier gewesen. Meine Einladung nach Hause steht noch, weil da ist das Internet manchmal sehr merkwürdig. 

Thomas Sinnwell: Sorge dann noch vielleicht fürs Essen und den Wein und wir kommen vorbei. Besten Dank, Jan. 

Jan Alexandersson: Besten Dank, Thomas. 

 

So, das war unser heutiges Thema. Wir hoffen, wir konnten euch einen kleinen Einblick in das weite Feld der KI geben und vielleicht die ein oder andere Diskussion anstoßen. Weiterführende Links zur heutigen Folge findet ihr übrigens in den Shownotes.

Wenn ihr Lust auf mehr habt, dann freuen wir uns, wenn ihr uns abonniert. Die nächste Folge ist schon in den Startlöchern und erscheint am 1. Oktober, wie immer am ersten Donnerstag im Monat. Wir sprechen mit Tech-Investor Michael Ladendorf darüber, warum es kein deutsches Amazon gibt. Spannendes Thema. Jetzt schon vormerken, 1. Oktober. Es lohnt si

Ihre Cookie-Einstellungen

Technisch notwendige (essenzielle) Cookies

Informationen zu den einzelnen Cookies

  • Mehr anzeigen

    Technisch notwendige (essenzielle) Cookies

    Notwendige Cookies helfen dabei, eine Webseite nutzbar zu machen, indem sie Grundfunktionen wie Seitennavigation und Zugriff auf sichere Bereiche der Webseite ermöglichen. Die Webseite kann ohne diese Cookies nicht richtig funktionieren.

    Name fe_typo_user
    Anbieter consistec.de
    Zweck Sichert die Anti-Spam-Maßnahmen bei Benutzen des Kontaktformulars
    Ablauf Session
    Typ HTTP
    Name conCookieSettings
    Anbieter consistec.de
    Zweck Speichert die Zustimmung zu Cookies
    Ablauf 30 Tage
    Typ HTTP
    Name mtm_consent_removed
    Anbieter consistec.de
    Zweck Wird von Piwik Analytics Platform (matomo) genutzt, um festzustellen, dass dem Tracking widersprochen wurde.
    Ablauf 1 Monat
    Typ HTTP
  • Mehr anzeigen

    Statistiken

    Statistik-Cookies helfen Webseiten-Besitzern zu verstehen, wie Besucher mit Webseiten interagieren, indem Informationen anonym gesammelt und gemeldet werden.

    Name matomo.php
    Anbieter consistec.de
    Zweck Erfasst Statistiken über Besuche des Benutzers auf der Website, wie z. B. die Anzahl der Besuche, durchschnittliche Verweildauer auf der Website und welche Seiten gelesen wurden.
    Ablauf Session
    Typ HTTP
    Name _pk_id#
    Anbieter consistec.de
    Zweck Erfasst Statistiken über Besuche des Benutzers auf der Website, wie z. B. die Anzahl der Besuche, durchschnittliche Verweildauer auf der Website und welche Seiten gelesen wurden.
    Ablauf 1 Jahr
    Typ HTTP
    Name _pk_ses#
    Anbieter consistec.de
    Zweck Wird von Piwik Analytics Platform (matomo) genutzt, um Seitenabrufe des Besuchers während der Sitzung nachzuverfolgen.
    Ablauf 1 Tag
    Typ HTTP
    Name _pk_testcookie..undefined
    Anbieter consistec.de
    Zweck Wird von Piwik Analytics Platform (matomo) genutzt, um zu überprüfen, ob der verwendete Browser Cookies unterstützt.
    Ablauf Session
    Typ HTTP
    Name _pk_testcookie.#
    Anbieter consistec.de
    Zweck Wird von Piwik Analytics Platform (matomo) genutzt, um zu überprüfen, ob der verwendete Browser Cookies unterstützt.
    Ablauf Session
    Typ HTTP