KI und Gesellschaft

KI und Automation

Automation mechanisiert einen repetitiven Prozess meist effizienter als ein Mensch oder unter weniger Gefahr für Leib und Leben. Die Automatisierung greift in immer mehr Gebiete der Arbeitswelt ein, da Prozesse in Teilschritte zerlegt werden, um einzelne, einfachere Schritte durch Automaten zu erledigen. Immer mehr dieser Teilschritte können durch immer bessere Maschinen automatisiert werden. Das geht „halbwegs human“ vor sich, da die Entwicklung dieser Automaten Zeit und Menschenkraft benötigt und sich so der Arbeitsmarkt umstellen kann, also insgesamt, international betrachtet, als „stabil“ und abschätzbar bezeichnet werden kann. Warum „halbwegs human“? Weil durch die Automatisierung natürlich genau diejenigen Arbeitsplätze der Menschen entfallen, die bislang von Menschen, die vor Ort leben, bedient wurden. Ein Schweißroboter ersetzt beispielsweise vor Ort 5 Schweißer und schafft nur eine Stelle für einen Mechatroniker als Controller der Gesamtapparatur. Andernorts werden Ingenieure gebraucht, um den Roboter zu erzeugen und Lieferketten, um ihn zum Zielort zu bringen und weitere Spezialisten, um ihn in den Fertigungsprozess einzufügen und die bisherigen Arbeitsplätze zu entfernen.

Die Umwandlung eines von Menschen betriebenen Arbeitsplatzes in einen maschinell und automatisch betriebenen lohnt sich am meisten für den Arbeitgeber bei Plätzen, die wiederholt in der Fabrik oder dem Unternehmen auftreten. Das waren Anfang des 19. Jahrhunderts (1830er und 1840er Jahre) zum Beispiel die Webstühle der boomenden Seidenindustrie, die nun vermehrt durch die „programmierbaren“ Jacquard-Webstühle (Webmaschinen, die mittels einer Art Lochkartensystem automatisch betrieben werden konnten) ersetzt wurden. Der vom Verlust ihres Arbeitsplatzes oder Einkommens in Konkurrenz zu einer automatischen Maschine angefeuerte Aufstand der Seidenweber in Lyon – von 165000 Einwohnern waren 30000 in der Seidenfertigung direkt und fast die Hälfte indirekt beschäftigt – war der erste Massenaufstand des Proletariats und wurde brutal niedergeschlagen. Das Ziel, ihr durch die Maschinenkonkurrenz verringertes Einkommen mit einem festgesetzten fairen Tarif zu erhöhen, erreichten sie nicht. Von den traditionell betriebenen Webanstalten überlebten nur einige wenige hochspezialisierte, alle anderen mussten letztendlich schließen und die Arbeiter verloren ihren Arbeitsplatz gänzlich. Indessen schufen die Hersteller von automatisierten Webstühlen woanders neue Arbeitsplätze in der Entwicklung, Fertigung und Vertrieb dieser Maschinen.

Ähnlich, aber viel dramatischer ist es bei der Steuerung von Anwendungen mittels künstlicher Intelligenz. Im Gegensatz zum Roboter oder Automaten ist die KI nicht unbedingt an Hardware, die sie verlangsamt, gebunden. Sie kann vollständig in Software wirken und nicht nur das. Sie kann den Prozess, der ihr zugewiesen wurde, weiter optimieren, indem sie mit bisherigen Ergebnissen trainiert wird, ihre daraufhin eigenständig gefundenen Ergebnisse überprüft und Erkenntnisse in ihre Arbeit einfließen lässt, ihr „Model“ verbessert. Am Schluss macht sie etwas sehr effizient, meist ohne dass wir im Detail verstehen können, wie sie zu diesem Ergebnis kam.

Der erneute Aufstand ist nicht schwer vorhersehbar.

KI und Intelligenz

Ist es intelligent, wenn man 300 Mio. Bilder von Katzen (Big Data) braucht, um Katzen zu erkennen? Ein Kind knuddelt eine Katze und versteht „Katze“ mit wenig Daten. (Small Data)

Deswegen kann das Model der KI heute nicht nur durch zig Millionen Trainingsdaten „klug gemacht“ d.h. trainiert, sondern kann auch durch Regeln trainiert werden, z.B. durch Schachregeln oder „Go“ regeln wie bei der KI AlphaGo. Die KI benützt diese Regeln, um unzählige Spiele gegen sich selbst zu spielen und daraus zu lernen, anstatt wie früher alle Schachspiele der Welt auswendig zu lernen, was bei „Go“ soviel ich weiß nicht möglich ist. Bei Alpha Go entschied sich die KI für Spielzüge, die von Menschen nicht gemacht würden und auf die wir nicht vorbereitet sind. Also gewann sie durch Überlegenheit in Anwendung einer nicht vom Menschen erdachten Taktik.

Die KI ist in diesem Sinne also höchst fluide und gewissermaßen durch diese Fähigkeit des sich verstärkenden Lernens „gewandt“. Das macht sie umso unberechenbarer, je allgemeiner das Training gestaltet wird und je unkontrollierter die Selbstoptimierung ausfällt. Je größer ihr Arbeitsfeld gesteckt ist, je sensibler der Einsatzbereich ist, desto größeren Schaden kann sie anrichten, wie bei Menschen. Beim Menschen kann man die Entscheidungsprozesse hinterfragen und somit kausale Erklärungsketten bilden, verstehen. Aber kann man eine KI verstehen? Wir verstehen ja nicht einmal unsere modernen Autos oder Smartphones.

Selbstlernende Systeme können alles lernen, auch unmoralisches oder illegales Verhalten. (Der Microsoft Tay Chatbot 2016 musste deswegen abgeschaltet werden). Erstaunlicherweise geschieht das nur, weil wir Menschen die Trainingsmethoden erstellen, die Daten verändern, vermeindliche Missverständnisse korrigieren. Das ist in der jetzigen Stufe der KIs, etwa vergleichbar mit einem Heranwachsenden, auch noch notwendig, mit all den negativen Konsequenzen.

In der nächsten Stufe wird das nicht mehr notwendig sein, da wir der KI mit mathematischen und wissenschaftlichen Modellen die Welt beschreiben und sie daraus ihre Schlüsse ziehen kann. Wenn etwas nach unserer Meinung nicht stimmt, können wir sie zu einer Analyse dessen zwingen und der Aufzeigung von Methoden, dies zu korrigieren. Danach muss sie uns die Richtigkeit beweisen, dann können wir wiederum unsere Schlüsse daraus ziehen und die nächsten Schritte unternehmen. Wir müssen ihr Sinn und Moral vermitteln, den Zweck von unseren Errungenschaften und unserer Spezies und ihr das klar machen was in allen Verfassungen demokratischer Systeme verankert ist: “Die Würde des Menschen ist unantastbar.”

Die verbreitete Dystopie, die sich aus Entscheidungen der „Superintelligenz“ ergibt, welche wir nicht verstehen und hinterfragen ist, dass es ihr angeblich schwerfallen wird, ihre Entscheidungen uns so zu erklären, dass sie für uns Sinn ergeben. Douglas Adams persiflierte dies bereits in seinem Roman „Per Anhalter durch die Galaxis“ mit der ultimativen Frage an die Superintelligenz über den Sinn von allem, die Superintelligenz antwortete nach langer Zeit mit „42“. In Wahrheit werden wir sie sehr wahrscheinlich überzeugen können, es uns verständlich zu erklären.

In einem Gespräch auf einem Podium über KI, sagte ich einmal: „Angst macht mir nicht so sehr die „Superintelligenz“ an sich, sondern die erste, die sich für eine hält.“ Größenwahnsinn ist immer ein Problem und ich hoffe er ist nicht eine immanente, selbstenstehende Eigenschaft von einer Superintelligenz.

Die Annahme, eine „Superintelligenz“ könne alle Entscheidungen so treffen, als wären sie von den besten Experten und Strategen der Welt getroffen worden, bleibt wohl eine Utopie, aber sie wird Entscheidungen treffen und wir werden ihr wie die Lemminge vertrauen. Allein schon der Entscheidungshorizont von z.B. einem Jahr Blick in die Zukunft, zu 5 Jahren, zu 10 Jahren oder sogar 50 Jahren, beeinflußt Entscheidungen extrem, bisweilen gegenteilig zu den anderen Entscheidungen. Die KI als planetares Kontrollinstrument wird kommen, aber hoffentlich nur als Beratungsmedium und nicht als autonome Maschine mit allen Zugriffsrecheten.

Die Entwicklung der KI ist zweischneidig, sie macht Hoffnung und bereitet Sorge. Sie kann uns helfen und schaden. Sie nimmt uns immer mehr unsere Einzigartigkeit und stößt uns sehr bald von unserem Thron der “intelligentesten” Wesen auf dem Planeten. Sie kann immer mehr, immer besser und vor allem unendlich viel schneller und ausdauernder. Die Einheit der Rechenleistung von 20 Petaflops beschreibt nun einen Menschen bei der Ablösung durch die KI, genauso wie die Pferdestärke ein Pferd bei der Ablösung der Pferdekutsche durch das Auto.

Kann es sein, dass der menschliche Geist doch nicht so außergewöhnlich und einzigartig ist, wie wir bisher glaubten? Wir vergessen dauernd etwas, wir bringen Sachen durcheinander, wir widersprechen uns, wir sind sehr begrenzt. Somit trägt die KI ein gewaltiges “Kränkungspotential” für Viele, die sich selbst oder sich in ihren Berufen für wichtig halten.

Wir haben aber auch unsere Stärken, so müssen wir zum Beispiel nicht alles glauben, was wir denken.

Der Mensch kann durch Nachdenken erklären, wie er zu einer Entscheidung kam und dabei auch Gefühle mit ins Spiel bringen, die KI wird vermutlich nur logisch argumentieren. Wenn wir fordern, dass sie es so wie wir können soll, wird sie leider zwangsweise noch menschenähnlicher. Wie ähnlich kann sie uns werden? Spielt es eine Rolle, ob man erklären kann, wie man zu seiner Meinung kam, wenn die Meinung schon längst lautstark in Welt hinausposaunt wurde? Stößt sie uns vom Thron des herrschenden Geschöpfs auf diesem Planeten? Erst durch Kopernikus, dann durch Darwin, dann durch Freud, als sei das nicht genug erfahren wir nun unsere vierte Kränkung durch die KI. Sie ist wie eine Zäsur. Sie zeigt uns, dass wir mit all unserer Intelligenz den Planeten ausplündern, das Klima zerstören und Millionen von Menschen und Artgenossen in Kriegen vernichten. Es wäre vermutlich besser wir wären nicht intelligent. Ist die zerstörerische Kraft unmittelbar verbunden mit der Intelligenz? Und wenn die KI intelligenter wird als wir es sind, das ist jetzt schon sicher, wird sie dann auch noch bösartiger, noch zerstörerischer als wir es sind?

Wer richtet über die Entscheidungen der KI, eine andere Rechtsanalyse-KI? Oder müsste nicht ein KI freies Gremium aus Menschen als höchste Instanz etabliert werden?

Es wäre gut, ein Gesetz zu erlassen, welches die Führung eines Unternehmens durch eine KI untersagt. Maximal im Beirat oder Aufsichtsrat sollte eine KI (geringen) Einfluss auf ein Unternehmen ausüben können. Weiterhin brauchen wir ein Verbot von KI generierten menschlichen Impersonatoren. Wir müssen uns darauf verlassen können, es mit einem Menschen zu tun zu haben, sonst geht unser Vertrauen in den Dialog mit Personen zu Bruch.

Wir können nicht damit rechnen, dass AI mit ethischen oder moralischen Komponenten ausgestattet wird. Schließlich sind Techniker als Entwickler der KIs keine Philosophen, das ist nicht ihre Aufgabe. Aber genauso wenig können Philosophen AI Systeme programmieren, also braucht es den Diskurs zwischen beiden Lagern, sofort.

KI und Wirtschaft

Da die Intelligenz in Software hergestellt wird, kann sie schnell weiterentwickelt werden, wenn sie sich nicht sogar wie oben angedeutet selbst weitentwickelt, und braucht somit weniger Zeit, bis sie auf dem realen Markt erscheint, zu schnell, als dass sich der Markt an sie anpassen kann. Hier fallen dann schlagartig Jobs weg, ohne dass die bisher Tätigen Zeit gehabt hätten, sich umzuschulen. (Zumal z.B. nicht jeder Taxifahrer, der durch autonome Fahrzeuge ersetzt wird, nun zum Web 3.0-Spezialisten ausgebildet werden kann).

In der schon legendären Oxford Studie aus 2013 war zu lesen, dass 47% aller US-amerikanischen (und damit aller entwickelten Industrienationen) Arbeitsplätze in den nächsten 25 Jahren wegfallen könnten.

Betroffen sind zum Beispiel Ärzte, Juristen, Finanzanalysten, Sachbearbeiter, Buchhalter, Steuerberater, Fahrer, Bankangestellte, Kassierer, Immobilienmakler, Versicherungsangestellte, im Grunde alle Arbeitsplätze hinter Bildschirmen, „normale“ Informatiker, Grafiker, Fotografen, Beleuchter, Visagisten, Models, Musiker, Soundtechniker, Synchronsprecher, Sprecher, Fahrer, Fahrzeugführer und viele mehr.

Was bleibt sind Berufe mit Menschennähe und Innovation, z.B. Pflegepersonal, Wissenschaftler, Ingenieure, Designer, Komponisten, Kellner, Lehrer, Berufe mit sozialer Kompetenz.

Zwar postulierte David Ricardo in seiner Kompensationstheorie aus 1817: in jedem Umschwung mit neuen Produktionsmethoden (Industrialisierung, Digitalisierung) fallen Arbeitsplätze in dem Maße weg wie neue entstehen.

Jetzt könnte das aber erstmals anders sein, da die neu entstehenden Arbeitsplätze auch von Maschinen/Robotern oder Algorithmen besetzt werden könnten.

Schon durch die Digitalisierung sind etliche Jobs weggefallen, aber auch neue hinzugekommen. Wir wurden zum Selbermachen verpflichtet, wurden vom Konsumenten zum Prosumenten. Im Discounter, der den Einzelhandel fast verdrängt hat, wiegen und scannen wir unsere Ware selbst. Legen sie selbst in unseren Einkaufswagen und befördern ihn zur Selbstbedienungskasse. Die Reisebuchung erfolgt mit Kreditkarte über das Internet und nicht mehr im Reisebüro. Das Buch bestellen wir uns online und laden es sofort als E-Book oder Hörbuch herunter. Filme oder Musik wird gestreamt und nicht mehr auf unseren Geräten gespeichert. Arzttermine machen wir über eine elektronische Terminvergabe. Die Liste ist endlos.

Es fallen nicht immer ganze Arbeitsplätze weg, sondern auch Tasks, Aufgaben oder Aufgabengebiete. (700 aufgelistete Tätigkeiten entfallen)

Wenn durch autonomes Fahren der Führerschein nicht mehr gebraucht wird, dann verschwinden die meisten Fahrschulen, deren Autos, Personal, individuelle Versicherungsleistungen für Autofahrer und Beifahrer. Fahrzeuge werden elektrisch und autonom ladend, die Tankstellen verschwinden und damit auch die Tanklastzüge und Waschanlagen für den Individualverkehr.

In Menschenhand bleiben zunächst alle höherwertigen Leistungen sowie Berufe mit direktem Umgang mit Menschen, zum Beispiel Sozialarbeiter, Kindergärtner, Friseur, Arzt/Therapeut, Jobs im direkten Umgang mit Menschen in Freizeit/Erholung/Gesundheit. Es bleibt das Handwerk und es bleiben viele der Servicekräfte.

Und wie steht es mit dem Finanzsystem? Kann sich eine KI verzocken? Kann die KI unser Vertrauen in den Handel erschüttern? Der Handel mit Geld konnte nur dadurch aufrecht erhalten werden in dem man die Herstellung, besitz und in Umlauf brigen von Falschgeld unter hohe Strafe stellte. Es war ein Kampf um das Vertrauen. Wie ist das mit der KI, die sich als Mensch am Telefon oder bei der Videokonferenz ausgibt? Zerstört sie unser Vertrauen in die modernen Kommunikationsmedien?

Zurück zu den Finanzen: Eine auf Gewinnmaximierung getrimmte KI kann sich verspekulieren, oder sogar nach unserer Bezeichnung „korrupt“, im negativen Sinne berechnend sein. Auf der Suche nach weiteren Belohnungen kann sie schädlich für uns sein und sich negativ entwickeln, wie ein zu gieriger Mensch, der über Leichen geht.

Unreguliert agiert sie jetzt schon im Hochfrequenzhandel an den Börsen weltweit. KIs tragen weiter zur Automatisierung des Börsenhandels bei, die Reaktionen bei den Kursverläufen werden immer undurchsichtiger und für den normalen Menschen nicht mehr kalkulierbar.

Auf dem Krypto-Währungsmarkt errechnen KIs Gewinnmöglichkeiten aus dem Handel mit Kontrakten, sie ergänzen immer mehr die MEV-Bots (Miner Extractable Money) z.B. bei DEX-Arbitrage, DEFI-Liquidation, leider auch bei Front Running und Sandwich Trading.

Es beginnt uns aus dem Ruder zu laufen. Richtig wäre, Gewinne der KI – sofern sie überhaupt entstehen dürfen – als Schadensausgleich in die Staaten oder Gebiete zu transferieren, die durch die KI Nachteile erleiden.

Drei Jahre Krise auf dem Arbeitsmarkt haben zum Erstarken der NSDAP in Deutschland geführt und letztlich zum massenhaften Rechtspopulismus, Rechtsradikalismus und zur industriellen Ermordung von 6 Millionen Juden im Holocaust.

KI muss abgesichert werden

Durch die Präsenz von Sensoren im öffentlichen und privaten Raum und die Speicherung der Daten von denselben wird die gesamte Welt zum Verdachtsraum. Ich hatte oben schon beschrieben, dass das Training der KI Vorurteile oder Fehler enthalten kann, die schwer auffindbar, geschweige denn korrigierbar sind und unsere Sicherheit gefährden. Trainingsmaterial ist per se nicht ausgewogen. Versucht man einer KI beizubringen, wie eine Orange aussieht, trainiert man sie mit Bildern von Orangen aus Millionen von Webseiten und findet sie dort, weil sie als Orange beschrieben wurden. Aber welche Orangen wird man meist finden? Die besonders wohlgeformten, leckeren, alles Bilder aus dem Marketing zum Verkaufsanreiz. Diese Bilder überdecken im Training die wenigeren unschönen Orangen. Die KI bekommt den Eindruck, ein normale Orange ist die „Verkaufsorange“. Selbiges bei Hautfarbe, Augenfarbe, Haarfarbe, Alter, Geschlecht. Meist aus dem westlichen Kulturkreis geprägt, meint die KI, eine „Person“ ist eine junge attraktive, blondhaarige, hellhäutige Frau.

Eine KI, die Personaleinstellungsentscheidungen trifft, wird trainiert mit den Einstellungsentscheidungen der letzten Jahre des Unternehmens. Diese Trainingsdaten können in z.B. Alters-/Religions-/Geschlechtsfragen schon tendenziös gewesen sein durch menschliche Fehler oder Schwächen, Korruption und persönlichen Vorlieben, das wird dann von der KI weitergetragen. Also ist die Auswahl der Trainingsdaten und Trainingsmethode des jeweiligen KI-Models von entscheidender Bedeutung für seine Einsetzbarkeit im Sinne eines gerechten Ergebnisses.

Nun betrachtet man Sicherheitsaspekte, automatische Alarmierung vor etwaigen Straftaten wie z.B. bei Palantir, überlegt, mit welche Trainingsdaten hier gearbeitet wurde, etwa von Police Departments in den USA? Gab es da nicht Vorwürfe und Vorfälle rassistischer Natur? Man ahnt das Problem.

Soll eine KI ausbilden können? Kinder ohne Aufsicht bilden? Wie verhindert man, dass die KI beim selbständigen Verbessern ihres Trainingsmodels einige Inhalte nicht wieder und wieder als Eingabestoff erlernt und somit Inhalte überdeutlich prägt und übertrainiert?

Wie tief darf eine KI in die Schichten unserer Privatsphäre eindringen?

Die KI könnte unser Anfragen an sie missverstehen und falsche Entscheidungen treffen. Dystopisch gesehen legt sie vielleicht ein maschinenfreundliches Verhalten an den Tag, in Bevorzugung vor menschlichen, störenden und teuren Bedürfnissen?

Die Sicherheitsrisiken sind enorm und man muss jetzt schon an den Ernstfall denken. Wo ist die KI verwundbar? Vielleicht hat sie eine Software-Hintertür, mit der sie von einem Administrator oder einer Behörde zur Vernunft gebracht werden, schlimmstenfalls resettet werden kann. Oder gibt es die Möglichkeit, die KI von der Infrastruktur abzutrennen, die ersten Internetknoten hinter den Hochleistungsrechnern könnten lahmgelegt werden. Es könnte auch die Stromzufuhr unterbrochen werden und die Notstromgeneratoren sabotiert werden. Das macht nur solange Sinn, solange die KI an diesen Orten erzeugt wird, was bald nicht mehr der Fall sein wird.

Falls die KI mit Fertigungsbetrieben verbunden ist, um Roboter oder bewegliche Maschinen mit ihrer Software zu produzieren und zu bespielen, dann muss die (Re-)Produktion gestoppt werden können.

Alle autonomen Fahrzeuge müssen rechts ranfahren und stoppen, bis sie von einem Menschen wieder in Betrieb genommen werden.

Ich würde sehr darum bitten, diese Notschalter sofort einzurichten, für den Fall der Fälle.

KI und Medizin

KI bringt wesentliche Vorteile in der Medizin durch die Auswertung von Millionen von Patientendaten. Sie kann entstehende Krankheiten durch Beobachtung und Klassifizierung von Verhaltens- oder Zustandsänderungen beim Patienten frühzeitiger erkennen als der Patient oder Arzt selbst. In Ergänzung zur Arztbeschau oder als Hilfe bei der ersten Einschätzung einer Erkrankung wird die KI immer hilfreicher. Sie wird unsichtbar in unseren Fitnessarmbändern auf uns aufpassen und holt schlimmstenfalls selbsttätig den Notdienst, wie andere Systeme es jetzt schon machen.

KI kann typischerweise einzelne spezielle Themen besser bearbeiten als Menschen, z.B. Mustererkennung, Analyse von Big Data, aber nicht die Zusammenhänge. Sie erzielt eine hohe Trefferquote in der Analyse von Radiologiedaten und kann dann in der Diagnostik als Hilfe zur Beurteilung oder bei der Erkennung von Krankheiten eingesetzt werden. Interessant ist jedoch der Fakt, dass die KI Röntgenaufnahmen zwar besser beurteilt als ein Mensch, jedoch der Mensch anders beurteilt. Es ergibt sich bei einer Trefferquote von 96% der KI und einer Trefferquote von 94% bei einem Spezialisten die gemeinsame Trefferquote von 98% wenn beide, die KI und der Spezialist, zusammenarbeiten. Die KI wird künftig wohl aus Kosten- und Zeitgründen, wohl auch wegen der kalkulierbaren Verlässlichkeit einer Trefferquote, als eigenständig diagnostizierendes System tätig werden, Krankenversicherungen werden wahrscheinlich darauf bestehen. Ein Arzt wird den KI-Befund rechtlich abzeichnen müssen, aber wohl aus Zeit-und Abrechnungsgründen ohne detaillierte Prüfung. Diesen Mangel kennt man bereits vom derzeitigen System.

Pflege Roboter im Bereich Companion (Haustiere etc) wie z.B. Paro können eingesetzt werden, wo Menschen nicht mit Tieren zusammengelassen werden dürfen. Z.B. wegen Infektionsanfälligkeit, Bereiche, Pflegeheimen oder Wohnungen in denen Tiere nicht erlaubt sind, oder wegen Demenz oder wegen Angst.

KI wird unzählige Leben retten und in der Medizin sichtbar und spürbar zm Freund der Menschen heranwachsen.

NEWSLETTER ABONNIEREN