Folge 1

Künstliche Intelligenz – Grenzenlose Möglichkeiten?

„Vielleicht muss man sagen, dass KI, wenn es funktioniert, ist ja keine KI mehr.“

Heute zu Gast Dr. Jan Alexandersson vom Deutschen Forschungszentrum für Künstliche Intelligenz. Mit ihm sprechen wir über KI. Was ist KI eigentlich? Bietet KI grenzenlose Möglichkeiten oder wird sie uns vielleicht gefährlich? Wer entscheidet besser, die Maschine oder der Mensch? Spannende Fragen.

Viel Spaß beim Hören! 

Transkription

Thomas Sinnwell: Herzlich willkommen zur Podcast-Folge, heute zu Gast Jan Alexandersson, Wissenschaftler am Deutschen Forschungszentrum für Künstliche Intelligenz. Wir kennen uns ja schon ein bisschen länger. Jan, sei doch so nett und stell dich bitte kurz selbst vor. 

Jan Alexandersson: Vielen Dank zunächst mal für die Einladung. Ich freue mich auch, hier sein zu dürfen. Ich bin seit 1993 am Deutschen Forschungszentrum für Künstliche Intelligenz, kurz DFKI, tätig, und ich beschäftige mich schwerpunktmäßig mit Ambient Assisted Living oder altersgerechte Assistenzsysteme. Und da versuche ich KI in soziotechnischen Lösungen zu erforschen. Wir haben uns ja auch in dem Rahmen kennengelernt vor ein paar Jahren, Thomas. 

Thomas Sinnwell: Ja. 

Jan Alexandersson: Und das war auch ein sehr schönes Projekt. Da ging es um Sicherheit und die Warnung von Sicherheit in der Informationstechnologie, insbesondere bei Gesundheit. 

Thomas Sinnwell: Ja, wir kennen uns in der Tat schon ein paar Jahre und ich freue mich, dass wir jetzt heute so den Fokus mal auf das Thema KI legen können. KI ist ein Begriff, der in der breiten Masse eher sehr blumig definiert ist. Ich finde, er ist auch gar nicht so einfach zu definieren. Was verstehst du oder wie würdest du Künstliche Intelligenz definieren? 

Jan Alexandersson: Kurz und knackig geht das in der Tat nicht. KI oder Künstliche Intelligenz oder Artificial Intelligence, so wie das damals in den 50ern des letzten Jahrhunderts gemünzt wurde, wurde einfach gewählt aus mehreren Versuchen irgendwie dieses magische Forschungsfeld, dass gerade da entstand, zu umfassen. Es hieß auch bei manchen in diesem berühmten Workshop in Dartmouth: komplexe Computersysteme. Und das ist eigentlich, was es ist, es sind komplexe Systeme.  Man hat damals die ersten Rechner gekriegt und da wurde festgestellt, wir können plötzlich Wissen und mathematische Logiken tatsächlich berechnen. Und das war was Neues. Da wurde dann endlich diese Vision, wir können jetzt plötzlich künstliche Menschen oder Roboter tatsächlich programmieren. Das besteht aus ganz vielen Forschungsrichtungen. In den letzten Jahren ist das eher, sagen wir mal, ein bisschen en vogue geworden. Wir sind inzwischen ein bisschen cooler, als wir vor zehn Jahren waren, da waren wir eher als Nerds bekannt. Und das hängt damit zusammen mit den wahnsinnigen Entwicklungen im Bereich maschinelle Lernverfahren. Das geht natürlich einher mit auch extremer Weiterentwicklung in Hardware-Beschleunigung. Und diese beiden …

Thomas Sinnwell: Dadurch wurde es auch erst möglich. 

Jan Alexandersson: Diese beiden parallelen Entwicklungen haben es jetzt ermöglicht, dass wir tatsächlich verwendbare Anwendungen sehen. Das sind immer noch, wir nennen das schwache KI-Anwendungen, das sind also relativ spezifische Anwendungen, die irgendeinen bestimmten Problemfall, zum Beispiel Gesichtserkennung und so weiter und so fort. Wir sprechen auch in dem Forschungsfeld über starke KI, und starke KI ist eher dann sowas wie ein vollumfänglicher Mensch oder sagen wir mal ein mit Bewusstsein ausgestattetes Irgendwas, das in der Lage ist, dann selbstständig zu agieren, denken und vielleicht … 

Thomas Sinnwell: Also auf das Thema würde ich auch gerne noch etwas später dann zu sprechen kommen, dass wir das vertiefen. Meine Wahrnehmung ist, dass unter KI ganz unterschiedliche Sachen verstanden werden. Das hört man teilweise im Kontext von Big Data, Predictive Analytics, Robots, dann kommt aber auch Machine Learning, Deep Learning, lauter Buzzwords. Und gleichzeitig sieht man, dass von Marketingabteilungen immer öfter so eine Art Bapper draufgemacht wird auf die Produkte „KI inside“. Wie siehst du das? 

Jan Alexandersson: Das ist ja natürlich Marketing. KI ist jetzt cool und dann können wir dann Sachen verkaufen. Fieser Weise vielleicht muss man sagen, dass KI, wenn es funktioniert, ist ja kein KI mehr. Es ist immer noch das, was wir eigentlich oder wovon wir leben am DFKI, ist ja nicht das, was funktioniert, sondern wir erforschen ja das Neue. Und deswegen, wir sehen ja auch Anwendungen tatsächlich. Ich meine, du hast ja …

Thomas Sinnwell: Da sollten wir auch drauf zu sprechen kommen auf diese unterschiedlichen Anwendungen. Und ich habe jetzt bewusst mal so ein paar Buzzwords genannt, die dann immer da subsumiert werden. Aber lass uns doch versuchen auch jetzt in so einem Podcast-Format mal ein bisschen Struktur da rein zu bringen, was für Verfahren, um was geht es da eigentlich? Was kann man denn da subsumieren? So aus meiner Wahrnehmung hätte ich vielleicht so die beiden Hauptrichtungen Reasoning und Machine Learning. Kannst du da vielleicht ein bisschen was dazu sagen, wie das einzuordnen ist, was was ist? Oder fehlt da was, ist meine Wahrnehmung zu schmal? 

Jan Alexandersson: Sicherlich ein bisschen zu schmal, aber das ist auch kein Wunder, weil KI ist sehr groß. Aber Reasoning setzt natürlich Wissen voraus, und Wissen muss natürlich repräsentiert werden, also Wissensrepräsentation ist ein ganz wichtiger Aspekt. Und da hat sich auch in der Tat sehr viel getan in den letzten Jahren. Als ich zur Schule, KI-Schule ging, war sehr viel Wissen symbolischer Charakter. Wir haben dann symbolisches Wissen in Hierarchien, in Vererbungshierarchien et cetera, et cetera konserviert und programmiert vor allem. Inzwischen … 

Thomas Sinnwell: Kannst du dazu ein Beispiel geben? Ich denke, das ist schwierig so zu verstehen. 

Jan Alexandersson: Ja. Eine Taxonomie von Tieren zum Beispiel oder Pflanzen oder Aktionen oder Sprechhandlungen oder sonst irgendwas, die wir benutzen, um unsere Welt zu modellieren. Wenn wir über irgendwas sprechen wollen, Auto, dann müssen wir das modellieren. Und ein Modell eines Autos beinhaltet nicht nur die Autoteile, sondern auch, wie das Auto sich bewegt. Und vielleicht auch ein bisschen müssen wir, um ein Auto zu verstehen, müssen wir auch Straßen verstehen, Verkehr, Transport, Mobilität, warum und so weiter und so fort. Und alle diese Sachen, um überhaupt darüber sprechen oder denken oder Reasoning räsonieren zu können, müssen wir das modellieren. Und dieser Prozesse, dieses Wissen in einen Computer einzufangen, das war, sagen wir mal, im letzten Jahrhundert und als ich damals studiert habe, ein manueller Prozess. Und das hat sich jetzt geändert, indem wir, statt manuelles Wissen zu akquirieren, versuchen wir Programme zu schreiben, die tatsächlich dieses Wissen dann automatisch oder semiautomatisch akquirieren. Und dann ist das Wissen nicht unbedingt nur symbolischer Charakter, sondern auch statistischer Charakter, es sind Wahrscheinlichkeiten. 

Thomas Sinnwell: Wärst du mit der Erklärung einverstanden, dass bei Reasoning probiert wird, was wir Menschen eigentlich immer machen, wenn wir eine neue Problemstellung bekommen, dass wir in unserem Gedächtnis suchen, was hatte ich denn bisher schon gemacht, was so ähnlich war, und versuchen diese Methodik auf das neue Problem zu übertragen, so als eine abstrakte Erklärung? 

Jan Alexandersson: Ja und nein. Ja, weil natürlich nutzen wir unser vorheriges Wissen, um zu denken, aber der Denkprozess ist natürlich irgendwas, was wir auch programmieren müssen. Der Denkprozess bei uns Menschen ist ja auch nicht so ganz verstanden worden, da gibt es auch keine einheitlichen Modelle. Und wir denken sicherlich auch unterschiedlich, du und ich. Wir sprechen auch nicht von einer Art von Denken, sondern einige sind bauernschlau und einige sind dreist und andere sind dann nachdenklich und überlegt und so weiter und so fort. Und das zeichnet auch ein bisschen das aus, dass wir Menschen auch unterschiedlich sind. Wir sehen nicht nur unterschiedlich aus, sondern wir agieren und denken auch unterschiedlich. Und diese Denkprozesse, die du ansprichst, die müssen wir zunächst mal programmieren. Also wir müssen ja auch das versuchen abzubilden, was wir tatsächlich uns vorstellen, hier zwischen den Ohren abgeht. Deswegen: ja und nein.

Thomas Sinnwell: Okay. Gut, jetzt haben wir über die eine Gruppe gesprochen, das Reasoning, und das andere Thema, das ich aufgebracht habe, Machine Learning. Da würde ich jetzt aus meiner Sicht wiederum so drei Hauptgruppen sehen: das überwachte Lernen, das unüberwachte Lernen und das bestärkende Lernen. Wäre das jetzt aus deiner Sicht erstmal soweit komplett in diesem Bereich?

Jan Alexandersson: Überwachtes und unüberwachtes Lernen ist eine gute Charakterisierung. 

Thomas Sinnwell: Lass uns das vielleicht auch noch für die Zuhörer mal beschreiben, was da der Unterschied ist.

Jan Alexandersson: Überwachtes Lernen, da würde ich vielleicht eine Metapher zeigen oder aufzeigen, wie man einem Kind beibringt, welche Tiere es gibt. Dann zeigst du Bilder von Elefanten, das hier ist ein Elefant, das hier ist auch ein Elefant, das hier ist kein Elefant, das hier ist eine Giraffe, und das hier ist eine Katze und das hier ist ein Hund und so weiter und so fort. Dann ist das überwacht in dem Sinne, dass wir vorher dem Computer beibringen, dass er sagt, das ist dies und jenes Exponat. Und das wiederum, jetzt sind wir beim Wissen, da haben wir Taxonomien und wir versuchen das dann zu verlinken. Schwieriger wird das natürlich, wenn wir über Agieren sprechen. Es ist wirklich schwierig, Fußball zu verstehen. Als Mensch verstehen wir Fußball. Das ist, wenn ich Fußball zu dir sage, dann ist das zum einen natürlich der Kampf auf dem Spielfeld, aber Fußball ist auch eine Organisation in Deutschland, Deutscher Fußballbund und das sind viele, viele Akteure, unterschiedliche Sachen. Und Fußball ist (unv. #00:11:41.1# Feiern?) und Fußball ist Feuer, und Fußball ist Trauer und Emotionen und so weiter. 

Thomas Sinnwell: Und einer Lederkugel. 

Jan Alexandersson: Die kommt auch dazu, das stimmt. Und zurück zu dem, was wir vorher gesagt haben: Unüberwachtes Lernen wiederum, dann zeigen wir also dem Computer irgendwas, und der Computer versucht selber Strukturen abzuleiten. Aber dann ist wiederum der Schritt bis hin zum Wissen, also das, was wir als Taxonomien oder Wissen gesagt haben, ein schwieriger Prozess. Das können wir nicht so richtig, da brauchen wir ein bisschen Unterstützung an der Hand (unv. #00:12:23.6#) dazu. 

Thomas Sinnwell: Das heißt, wir können an der Stelle festhalten, dass wir Eingabedaten haben, die untersucht werden. Beim unüberwachten Lernen sind die erstmal unstrukturiert. Und die Maschine erkennt da gegebenenfalls Muster, wenn dann welche vorhanden sind. Und beim überwachten Lernen, dann habe ich auch Trainingsdaten, ich brauche ja auch typischerweise ganz viele von diesen Trainingsdaten. Und ich weiß, was diese Trainingsdaten bedeuten, und wenn der Algorithmus dann angelernt wird, weiß ich auch, was ein richtiges Ergebnis ist und was ein falsches Ergebnis ist. 

Jan Alexandersson: Ja, so in etwa. Vielen Dank!

Thomas Sinnwell: Ja, gerne. Stets zu Diensten. 

Jan Alexandersson: Aber im Grunde genommen ist die Situation gleich, nur entweder sage ich, das hier ist ein Wasserglas oder ich sage das nicht. Und dann muss der Computer entweder herausfinden, selber herausfinden, gibt es hier Strukturen, die ich auseinanderklamüsern kann und dann das zum Weltwissen oder zu dem Modell, was ich vorher gesagt habe, zu relatieren. Das ist eine Kiste dann. 

Thomas Sinnwell: Ich bin deshalb so ein bisschen drauf rumgeritten, weil ich auf das Thema Feature Engineering noch zu sprechen kommen möchte. Weil für so ein gutes Lernen brauche ich an diesen Daten, wir haben gesagt, es gibt Eingangsdaten, das können dann die Bilder von den Tieren sein, und jetzt ist aber die Frage: Was sind denn da die geeigneten Merkmale, die ich betrachte, sodass ich ein gutes Lernen bekomme? Kannst du da vielleicht ein bisschen noch was dazu sagen? 

Jan Alexandersson: Ja, in der Tat. Und zwar die klassischen Lernverfahren, die haben wir mit sehr viel Mühe auch die verschiedenen Eigenschaften von sagen wir mal Tieren, also sehen wir ein Auge und so weiter und so fort. Und alle diese Teilaspekte eines Tieres, haben wir dann zum Beispiel Größe oder Umrandung oder Farbe oder sonst irgendwas, da haben wir dann auch so ein bisschen auseinanderklamüsert manuell oder halbmanuell oder so. Und heute haben wir Lernverfahren, die gucken sich einfach ein Bild an und sagen, okay, wir sagen, das hier ist ein Elefant. Natürlich sehen wir nicht nur Elefant, wir sehen Elefant in einem Kontext. Aber tatsächlich schaffen die neuen tiefen Lernalgorithmen, das hier automatisch zu erkennen und zu extrahieren. 

Thomas Sinnwell: Du hast den Begriff vielschichtige Netze verwendet. Das Buzzword dazu ist ja das Deep Learning. Da sollten wir vielleicht mal drauf zu sprechen kommen, was sind denn eigentlich solche künstlichen neuronalen Netze? Dass wir die vielleicht mal kurz betrachten. Und dann ist es ja relativ leicht zu erklären, was denn Deep Learning ist. 

Jan Alexandersson: Das ist ja ein Nachempfinden der grauen Masse zwischen unseren Ohren. Da wurden tatsächlich im letzten Jahrhundert auch Modelle der neuronalen Zellen entwickelt zum ersten Mal. Damals hatten wir nicht genügend Rechenpower, um damit überhaupt umgehen zu können, sondern das ist erst in den letzten Jahren und vor allem bei der Massen-Parallelisierung durch sogenannte grafische Prozessoreinheiten, also GPUs. Und gerade Bildverarbeitung eignet sich hervorragend zum Parallelisieren, weil da haben wir ganz viele Pixel, sind ganz viele, und die kann man natürlich parallel verarbeiten. Und das können gerade GPUs. Ich glaube, die neuesten Generationen, die haben 5.000, mehrere tausend Prozessorkerne, die parallel arbeiten können. Da kann man sehr schön diese neuronalen Netze auch umsetzen und implementieren, und die laufen dann parallel und das geht ratzfatz plötzlich, also vergleichsweise. 

Thomas Sinnwell: Ich selbst bin ja auf das Thema neuronale Netze zum ersten Mal in einer Vorlesung Mikroelektronik, ich habe einen Ingenieur-Studiengang gemacht, gestoßen. Und da gab's dann ganze drei Schichten und das konnte man auch notfalls von Hand zu Fuß machen, und war aber sehr schön, um das zu verstehen. Und vielleicht für die Zuhörer: In so einer Schicht gibt es solche Basiselemente, die man dann, das sind die künstlichen Neuronen, und die sind in einer Schicht organisiert, da gibt es mehrere, und zwischen den Neuronen und in den einzelnen Schichten gibt es komplexe Verbindungen. Und wenn das dann früher drei Schichten waren, als ich noch Elektrotechnik studiert habe, sind das heute hunderte von Schichten. Dazu brauche ich natürlich die entsprechende Rechenleistung und da hast du ja auch die Grafikprozessoren auch angesprochen, die man da ganz wunderbar für verwenden kann. Dieses Deep Learning aber, das ist ja auch so eine Basistechnologie, die gerade bei der Sprachanalyse und Sprachsynthese eigentlich den Durchbruch geschafft hat. 

Jan Alexandersson: Gerade bei Sprache nicht, sondern bei Bildanalysen.

Thomas Sinnwell: Bild natürlich noch ganz stark. 

Jan Alexandersson: Inzwischen verwenden wir das auch bei der Sprachverarbeitung, das ist richtig, aber der eigentliche Knackpunkt ist tatsächlich Bildanalyse oder die Problemstellungen, die dann parallelisiert werden können. Sprache ist von Natur aus sequenziell, und deswegen ist einiges an der Verarbeitung der Sprache natürlich auch sequenziell von Natur aus. Aber einige Aspekte hier können wir natürlich auch parallelisieren, keine Frage.0

Thomas Sinnwell: Und mir ging es jetzt auch darum, einfach vielschichtige Netze einzusetzen, um Muster erkennen zu können. Und ich denke jetzt gerade so an diese Übersetzungsprogramme, also wo ich dann wirklich Textübersetzungen habe. Das funktioniert mittlerweile erstaunlich gut und das setzt massiv auf Deep Learning auf. 

Jan Alexandersson: Das ist alles richtig, das funktioniert in der Tat erstaunlich gut. Nichtsdestotrotz ist der Übersetzungscomputer typischerweise so konzipiert, dass er keine Ahnung hat, was es übersetzt. Es ist einfach ein Prozess, der Quell- und Zieltexte in großen Mengen, in großer Qualität, sich angeschaut hat und nachäfft praktisch. Aber was es eigentlich bedeutet, da hat das System kein Modell davon. 

Thomas Sinnwell: Abrundend zum Thema Deep Learning möchte ich noch auf einen Punkt zu sprechen kommen, und zwar das Thema erklärbare KI. Bei diesen vielschichtigen Netzen, bei Deep Learning, so würde ich sagen, so Stand letztes Jahr, war es eigentlich noch so, dass ich gar nicht nachvollziehen konnte, wie das vielschichtige Netz auf sein Ergebnis kommt. Es ist natürlich gegebenenfalls sehr unbefriedigend. Könntest du da vielleicht für die Zuhörer noch ein paar Sachen dazu ergänzen und erläutern?

Jan Alexandersson: Das Unbefriedigende ist auch ein interessanter Aspekt in der Tat. Im Grunde genommen möchte man natürlich wissen, warum ein System so und so funktioniert. Ich möchte auch gerne verstehen, wieso mein Laptop so und so agiert ab und zu. 

Thomas Sinnwell: Ja gut, das ist ein Mysterium. 

Jan Alexandersson: Weil es ist nicht erklärbar für mich. Aber wenn wir ein bisschen ernsthaft bleiben, nehmen wir mal an, wir haben hier ein KI-basiertes System, das im Bereich Diagnoseunterstützung fungiert, dann möchte natürlich der Arzt nachvollziehen, warum das System empfiehlt, dass die Diagnose die oder jene ist. Und wenn das System nur eine Antwort spuckt und wir das nicht nachvollziehen können, dann können wir natürlich nicht viel damit anfangen. Es führt in der Tat in der Realität so weit, dass wir über diese Versicherungsfrage kommen, wer ist verantwortlich, was ist Verantwortlichkeit und so weiter und so fort. Wir könnten ja sicherlich uns darüber unterhalten, inwiefern ein System, das sehr, sehr, sehr gut funktioniert und messbar besser funktioniert als unsere Menschen, wollen wir das tatsächlich benutzen oder nicht? Ich finde das eine spannende Frage. Und ich frage natürlich die nachkommende Generation, ich habe ja ein bisschen davon zu Hause und habe natürlich die Frage gestellt. Also wenn ich jetzt zum Arzt gehe und ich soll eine Diagnose kriegen, ist das wichtig, dass das eine Person ist oder ist das wichtig, dass es richtig ist? Und ich glaube, die neuen Generationen sagen zunehmend, ist mir egal, aber ich hätte gerne eine Person. Ich glaube, dass die Person, die das auch … 

Thomas Sinnwell: Und ich nehme an, du hättest auch gern einen Grund, warum diese Diagnose getroffen wird? 

Jan Alexandersson: Ja, also ich interessiere mich für meine Gesundheit sehr sogar und das muss jeder für sich entscheiden. Aber vielleicht interessierst du dich oder vielleicht hast du zu viel Vertrauen in deinen Arzt, Hausarzt oder wer auch immer das ist, dass du sagst, das ist mir egal, ich habe einfach Vertrauen, dass es richtig wird. Aber wäre ich Arzt, …

Thomas Sinnwell: Ich bin der Albtraum aller Ärzte, ich will immer wissen, warum, wieso und das verstehen.

Jan Alexandersson: Ja okay, verstehe. Dann sind wir so in etwa gleich. Aber wäre ich Arzt, dann würde ich auch gerne von einem System wissen, wieso das hier plötzlich Erkältung statt Krebs ist. Und dann müsste selbst ein Deep-Learning-basiertes System bitteschön sagen, wieso das so gekommen ist. 

Thomas Sinnwell: Ich habe da einen Anwendungsfall auch aus dem Bereich der Medizin, darüber mal gelesen, und zwar wurde da der Versuch unternommen, über bildgebende Verfahren herauszubekommen, ob Leute jetzt wirklich schwersterkrankt sind. Es wurden viele Leute dann auch einem CT unterzogen. Die Trefferquote des Systems, was die Erkennung von Schwerstkranken betraf, war extrem hoch. Was aber tatsächlich passiert ist, dass die Schwerstkranken mobil durchleuchtet wurden mit einer anderen Apparatur, im Gegensatz zu denen, die nicht schwersterkrankt waren. Was letztendlich der Algorithmus gelernt hat, die ganz speziellen Eigenschaften des Röntgengerätes zu erkennen. Da war irgend so eine Signatur auf dem Bild noch drauf. Und das war dann die todsichere Variante, um das zu erkennen. Hat also letztendlich nicht funktioniert. Und das zeigt aber auch, dass es ganz wichtig ist zu wissen, warum kommt die Maschine zu diesem Ergebnis? Wir sind hier in einer ganz anderen Domäne unterwegs, bei uns geht es ja um die Überwachung von Netzwerken, also im ganz positiven Sinne. Warum wird irgendwas langsam? Warum muss ich mir schon wieder einen Kaffee kochen gehen, bevor es mal wieder weitergeht am Bildschirm? Ist da vielleicht irgendjemand in unserem Netz unterwegs, der da nicht hingehört? Versucht da jemand Daten zu exfiltrieren? Also eine ganz spezielle Anwendungsdomäne. Und die Praxis in den meisten Unternehmen ist, dass das von der IT irgendwie mitgemacht werden muss, es gibt ja nicht so viel Security-Experten. Wenn dann eine Maschine sagt, ja, lieber Administrator, du hast hier ein ernstzunehmendes Problem mit dem Namen XYZ, das hat eine Wahrscheinlichkeit von 61 % und ich stufe das als hochkritisch ein, das hilft ja niemandem ernsthaft weiter. Das macht erst mal Panik und es wirft die Frage auf, habe ich das Problem, habe ich das nicht? Und dann noch viel spannender, was muss ich eigentlich machen? Da würde ich noch gerne eine bisschen drauf zu sprechen kommen auf diese Anwendungsdomänen. Oder anders ausgedrückt oder vielleicht mal eine provokante Fragestellung: Ist jetzt KI die Lösung aller Probleme?

Jan Alexandersson: Natürlich nicht. Aber ich möchte consistec herzlich einladen zu mir nach Hause ins Homeoffice, weil da habe ich auch manchmal das Gefühl, da läuft nicht alles so richtig, wie das sein soll. Da ist nämlich das Internet mal so und mal so. Nein, Spaß beiseite. Es gibt, wie gesagt, wahnsinnig viele Möglichkeiten, KI zu nutzen, gerade in diesem Feld auch. Die Frage ist natürlich, ob das System oder die Systeme oder die Teilsysteme, die consistec einsetzen möchte, basiert auf vorklassifizierten Sachen oder ist das Anomalie-Erkennung allgemein? Also dass man sagen kann, okay, so sieht das normalerweise aus, und dann, wenn irgendwas abweicht, dann kann natürlich auch ein Lernsystem sagen, okay, jetzt sieht das anders aus irgendwie. Aber was genau, weiß man nicht. 

Thomas Sinnwell: Wir hatten ja eingangs so die Themen überwachtes Lernen, unüberwachtes Lernen, mal oberflächlich so beleuchtet, mal kurz drüber gesprochen. Und das spiegelt sich natürlich in unserer Anwendungsdomäne auch wider, die Verfahren haben alle so ihre Vor- und Nachteile und letztendlich muss ich Verfahren kombinieren, um vielleicht die Vorteile der KI nutzen zu können, dass sie mit sehr großen Datenmengen ganz gut zurechtkommt, viel besser als wir Menschen, dass sie Muster erkennen kann im Chaos, wo wir Menschen erstmal nichts sehen. Aber es muss natürlich auch gewährleistet sein, dass ich als Mensch, der das Ergebnis präsentiert bekomme, selber für mich beurteilen kann, hat die Maschine recht oder hat sie nicht recht. Und das läuft bei uns einfach darauf hinaus, dass man unterschiedliche Verfahren kombinieren muss. Dann ist man ja ganz schnell beim Thema hybride KI. Das ist, wenn ich das richtig gelesen habe oder auch mitbekommen habe durch unsere Gespräche, bei euch im Hause jetzt auch das ganz große Thema. Da würde ich dich bitten, mal ein bisschen was für die Zuhörer dazu zu sagen.

Jan Alexandersson: Hybride KI, oh, ein Riesenfeld. Aber es ist im Grunde genommen ganz einfach, genau wie du gesagt hast. Es gibt nicht nur eine Funktion, eine dieser schwachen KI-Methologien oder -Technologien, die dann eingesetzt werden kann. Sondern oft ist das so, dass du für verschiedene Teilprobleme oder Fragestellungen auch verschiedene Verfahren hast. Das können teils maschinelle Lernverfahren basierte Sachen sein, aber es können auch manchmal sehr speziell geschriebene Sachen, die von Hand geschrieben sind. Also ich spreche von Wissen und Taxonomien, das ist typischerweise, auch da wird geforscht, dass wir in der Lage sind, also nicht nur Informationen, sondern auch Wissen repräsentieren und erfassen können. Und die sind typischerweise dann hybrid in seiner Art. Das ist nicht ein System, das sind viele Systeme, die also, ich komme zurück auf komplexe Computersysteme, das sind tatsächlich bits and pieces, die zusammen funktionieren sollen. 

Thomas Sinnwell: An der Stelle zeigt sich auch, dass die Begrifflichkeit eigentlich sehr, sehr gut ist und wesentlich treffender als dieser blumige Begriff KI. Wenn ich mit Schülern darüber spreche, dann wird dann auch gerne sowas wie Terminator genannt. Und ansonsten natürlich auch durch Science-Fiction-Filme ist das Ganze sehr stark geprägt, was sich die Leute so darunter vorstellen. 

Jan Alexandersson: Klar. Eine Möglichkeit meiner Forschung wird dann natürlich ein Terminator sein. Also vielleicht nicht der, also ich möchte natürlich nicht dazu beitragen, dass es ein Terminator wird, es sei denn, es gibt Bösewichter, die wir terminieren wollen, sagen wir mal. Aber dann muss man natürlich diese ethische Fragestellung stellen, wollen wir Maschinen haben, die einfach rumfahren und uns abknallen, unter welchen Voraussetzungen? 

Thomas Sinnwell: Ich finde da im Moment auch so eine Geschichte ganz spannend, auf die ich gestoßen bin. Das war mir gar nicht so präsent, dass in den USA im Justizbereich wirklich auch KI zum Einsatz kommt, die anhand eines ausgefüllten Fragebogens die Leute, die jetzt da festgesetzt werden, dann erst mal ausfüllen müssen, dass die dann schon mal kopiert werden in, ja, das macht Sinn, dem vielleicht eine Bewährungsstrafe zu geben oder es macht keinen Sinn. Die Maschine verrät aber nicht, warum. Dann stellt sich wirklich die Frage: Ist das wirklich ein guter Bereich, um KI einzusetzen? 

Jan Alexandersson: Was ist die Alternative, muss man natürlich fragen. Ist die Alternative, dass ich ein Jahr warte auf die Antwort auf die Frage oder nicht? 

Thomas Sinnwell: Ich finde, es ist ein schlechtes Anwendungsfeld für KI, weil wenn ich mich als Richter mit einem festgenommenen Menschen unterhalte, dem Dinge vorgeworfen werden, dann habe ich natürlich sowas, empathische Fähigkeiten, ich kann mich mit dem unterhalten, ich kann mir ein Bild machen. Und da sage ich jetzt einfach mal, das ist was, da sind wir der KI haushoch überlegen als Mensch. 

Jan Alexandersson: Das, was du ansprichst, ist ein System, das funktioniert auf Basis eines ausgefüllten Dokuments. Das ist ein sehr, sehr schmaler Kanal, den wir jetzt aufgemacht haben. 

Thomas Sinnwell: Das ist es absolut, ja. 

Jan Alexandersson: Deswegen würde ich rein aus den Gründen das ablehnen, weil es gibt so viel mehr und das sehen wir, in jeder Verhandlung in einem Gerichtssaal nehmen natürlich die verschiedenen Akteure dann Informationen hinzu, die wir einfach nicht durch ein Formular so abdecken können. Es wirft natürlich die Frage auf, wozu dürfen wir KI einsetzen? Oder wollen wir KI einsetzen? Da sehe ich ein Riesen-Manko in der Gesellschaft.

Thomas Sinnwell: Aber ist es nicht so, dass da ganz stark einfach auch in akademischen Kreisen darüber gesprochen wird und es noch gar nicht wirklich angekommen ist? Ich meine, KI-basierte Systeme stehen in den Häusern und heißen dann Alexa beispielsweise, sind im Auto eingebaut, das Notbremssystem, die Distanzkontrolle, die Fahrspurerkennung. All diese Sachen sind schon da, und es ist nicht mehr so furchtbar weit weg bis zum autonomen Fahren, was dann natürlich auch ganz andere Fragestellungen nach sich zieht. Wer hat denn wirklich die Verantwortung? Wie ist das ethisch, wie ist das juristisch zu beurteilen? Und da fehlt mir persönlich einfach auch schon in der Schule die entsprechende Wissensvermittlung. Wie wollen die Leute über dieses Thema ernsthaft diskutieren? Es ist ja komplex, wir haben es jetzt mal so versucht, ein bisschen zu ordnen, ein bisschen zu beleuchten, und wenn da, denke ich, eines klargeworden ist, das ist schon erst mal eine sehr, sehr komplexe Geschichte. 

Jan Alexandersson: Gerade bei autonomem Fahren ist das in der Tat so. Wir haben eine gewisse Anzahl von Unfällen in Deutschland, ich glaube, pro Tag sterben ungefähr ein Kleinbus, also ein Volkswagen-Bus mit Leuten im Verkehr, schwerverletzt werden ein Kleinflugzeug und leichtverletzt ein Großflugzeug pro Tag. Wir wissen auch aus der Statistik, das autonom fahrende Fahrzeuge diese Todeszahl drastisch reduzieren würde. For the Big Picture wären natürlich autonom fahrende Fahrzeuge total klasse, weil plötzlich hätten wir weniger Tote und wenige Verletzte. Aber die Fehler, die ein solches System macht, das macht das System trotzdem. Und da müssen wir für uns fragen, und bisher war die Rechtsprechung, dass die Ingenieure oder die Entwickler die Verantwortung tragen. Da gibt es auch diesen berühmten Fall, das kennst du sicherlich auch, da ist jemand mit Cruise Control und Spurrichtung gefahren, hat einen Herzinfarkt gekriegt. Und rast natürlich in ein Dorf rein und überfährt eine Mutter mit Kind im Kinderwagen. Wer ist schuld? Also er ist ja nicht schuld, er hatte ja einen Herzinfarkt erlitten. Aber da war tatsächlich die Rechtsprechung: die Entwickler. Die hatten das nicht nachvollziehen können. Also schwierig, weil man braucht ja immer einen Schuldigen.

Thomas Sinnwell: Aber das heißt auch, dass man, wenn man über das Thema KI oder Artificial Intelligence spricht, auch ganz andere Bereiche betrachten muss, …

Jan Alexandersson: Ja, selbstverständlich. 

Thomas Sinnwell: … rechtlicher Natur, ethischer Natur. Und dass es auch zwingend notwendig ist, dass breite Bevölkerungsschichten sich da ein Bild machen können und mitdiskutieren können und mitbestimmen können, wo die Reise hingehen soll, weil die hat ja Fahrt aufgenommen. Gut, ein wichtiger Punkt oder eine wichtige Frage, die auch gerne gestellt wird: Wird denn die KI den Menschen letztendlich in der Arbeitswelt verdrängen?

Jan Alexandersson: Teilweise hoffe ich das. Ich bin ein großer Fan von „Sendung mit der Maus“, selbst, nachdem die Kinder groß sind. 

Thomas Sinnwell: Man versteht die Sachen gleich.

Jan Alexandersson: Das ist diese ABC-Erklärungsebene, das verstehe ich auch. Nein, Spaß beiseite. Ich war tatsächlich, in meinem früheren Leben in Schweden war ich an einem Fließband tätig. Und diese Fließbandarbeit war extrem stressig, mir ging es total schlecht dabei. Also ich habe Herzrhythmusstörungen bekommen, weil ich mich gestresst gefühlt habe. Die Arbeit war so eintönig, dass ich die ganze Zeit überlegt habe, wie kann ich das besser machen und schneller machen und so weiter und so fort. Ich finde, manche dieser Aufgaben, die sollten auch echt automatisiert werden, die sind nicht menschenwürdig. Wir brauchen die teilweise, teilweise kann man sich natürlich fragen, welche Produkte wir allgemein in der Gesellschaft haben wollen? Und es gibt auch, was für mich eintönig ist, ist nicht für dich eintönig. Das ist auch so eine individuelle Sache. Aber es gibt tatsächlich einige Sachen, die könnten wir ruhig automatisieren, finde ich. Ich könnte mir vorstellen, dass es in der Zukunft, wenn wir ein bisschen bessere Robis haben, dann kann ich meinen Roboter haben, und statt mich an ein Fließband zu stellen, stelle ich meinen Roboter zur Verfügung. 

Thomas Sinnwell: Wirft natürlich ganz neue Fragestellungen auf. Viele Menschen definieren sich ja über ihre Arbeit, und wenn sie mit ihrer, ich sag mal, reinen Arbeitskraft ihr Einkommen nicht mehr wirtschaften können, muss das ja anders erfolgen. Man muss natürlich sich auch noch in seinem Leben wohlfühlen können und viele brauchen dazu Arbeit. 

Jan Alexandersson: Und dann kommen wir jetzt zu der Fragestellung: Was ist der Sinn des Lebens? Da schließt sich der Kreis, so ungefähr. 

Thomas Sinnwell: Gut. Ja, ein komplexes Thema. Das war jetzt mal ein erster Streifzug. Ich denke, man hat an vielen Stellen merken können, dass es sehr, sehr facettenreich ist, dass noch viel im Forschungsbereich zu tun ist, dass es aber schon allgegenwärtig in vielen Technikprodukten drinsteckt. Und ja, es hat eine rasante Entwicklung und ich freue mich, dass wir auch weiterhin da gemeinsam an diesen Themenstellungen arbeiten dürfen. Vielen Dank, Jan, dass du heute hier warst. Vielen Dank für das Gespräch. 

Jan Alexandersson: Vielen Dank Thomas für die Einladung und ich bin gerne hier gewesen. Meine Einladung nach Hause steht noch, weil da ist das Internet manchmal sehr merkwürdig. 

Thomas Sinnwell: Sorge dann noch vielleicht fürs Essen und den Wein und wir kommen vorbei. Besten Dank, Jan. 

Jan Alexandersson: Besten Dank, Thomas. 

 

So, das war unser heutiges Thema. Wir hoffen, wir konnten euch einen kleinen Einblick in das weite Feld der KI geben und vielleicht die ein oder andere Diskussion anstoßen. Weiterführende Links zur heutigen Folge findet ihr übrigens in den Shownotes.

Wenn ihr Lust auf mehr habt, dann freuen wir uns, wenn ihr uns abonniert. Die nächste Folge ist schon in den Startlöchern und erscheint am 1. Oktober, wie immer am ersten Donnerstag im Monat. Wir sprechen mit Tech-Investor Michael Ladendorf darüber, warum es kein deutsches Amazon gibt. Spannendes Thema. Jetzt schon vormerken, 1. Oktober. Es lohnt si

Ihre Cookie-Einstellungen

Technisch notwendige (essenzielle) Cookies

Informationen zu den einzelnen Cookies

  • Mehr anzeigen

    Technisch notwendige (essenzielle) Cookies

    Notwendige Cookies helfen dabei, eine Webseite nutzbar zu machen, indem sie Grundfunktionen wie Seitennavigation und Zugriff auf sichere Bereiche der Webseite ermöglichen. Die Webseite kann ohne diese Cookies nicht richtig funktionieren.

    Name fe_typo_user
    Anbieter consistec.de
    Zweck Sichert die Anti-Spam-Maßnahmen bei Benutzen des Kontaktformulars
    Ablauf Session
    Typ HTTP
    Name conCookieSettings
    Anbieter consistec.de
    Zweck Speichert die Zustimmung zu Cookies
    Ablauf 30 Tage
    Typ HTTP
    Name mtm_consent_removed
    Anbieter consistec.de
    Zweck Wird von Piwik Analytics Platform (matomo) genutzt, um festzustellen, dass dem Tracking widersprochen wurde.
    Ablauf 1 Monat
    Typ HTTP
  • Mehr anzeigen

    Statistiken

    Statistik-Cookies helfen Webseiten-Besitzern zu verstehen, wie Besucher mit Webseiten interagieren, indem Informationen anonym gesammelt und gemeldet werden.

    Name matomo.php
    Anbieter consistec.de
    Zweck Erfasst Statistiken über Besuche des Benutzers auf der Website, wie z. B. die Anzahl der Besuche, durchschnittliche Verweildauer auf der Website und welche Seiten gelesen wurden.
    Ablauf Session
    Typ HTTP
    Name _pk_id#
    Anbieter consistec.de
    Zweck Erfasst Statistiken über Besuche des Benutzers auf der Website, wie z. B. die Anzahl der Besuche, durchschnittliche Verweildauer auf der Website und welche Seiten gelesen wurden.
    Ablauf 1 Jahr
    Typ HTTP
    Name _pk_ses#
    Anbieter consistec.de
    Zweck Wird von Piwik Analytics Platform (matomo) genutzt, um Seitenabrufe des Besuchers während der Sitzung nachzuverfolgen.
    Ablauf 1 Tag
    Typ HTTP
    Name _pk_testcookie..undefined
    Anbieter consistec.de
    Zweck Wird von Piwik Analytics Platform (matomo) genutzt, um zu überprüfen, ob der verwendete Browser Cookies unterstützt.
    Ablauf Session
    Typ HTTP
    Name _pk_testcookie.#
    Anbieter consistec.de
    Zweck Wird von Piwik Analytics Platform (matomo) genutzt, um zu überprüfen, ob der verwendete Browser Cookies unterstützt.
    Ablauf Session
    Typ HTTP