Die Frage, ob künstliche Intelligenz zu Gewalt führt, ist komplex und erfordert eine sorgfältige Untersuchung. Man muss dafür zunächst die menschlische Intelligenz betrachten. Es gibt Forschungen, die darauf hindeuten, dass es einen Zusammenhang zwischen niedrigerem Intelligenzquotienten (IQ) und Gewalttätigkeit gibt, was nicht bedeutet, dass eine niedrigere Intelligenz zwangsläufig zu Gewalt führt. Viele Faktoren, die das Verhalten eines Individuums beeinflussen können, einschließlich seiner Umgebung, Erziehung und persönlichen Erfahrungen, das “Milieu”, die Veranlagung zur Lernfähigkeit, der Lernwillen, all das spielt eine Rolle und wirkt ineinander.
Schwieriger ist die Frage, ob eine hohe Intelligenz zu Gewalt führt, vielleicht sogar ungewollt, als unerwünschter Nebeneffekt. Das liegt leider nahe und das ist die unangenehme Nachricht. In Bezug auf den Missbrauch von Intelligenz für Macht gibt es zahlreiche Beispiele in der Geschichte und in der Gegenwart, in denen Menschen ihre Intelligenz und ihr Wissen genutzt haben, um Macht zu erlangen und zu halten. Dies kann auf verschiedene Weisen geschehen, zum Beispiel durch Manipulation, Täuschung oder Ausnutzung anderer Menschen. Daher liegt die Verantwortung für den Einsatz von Intelligenz bei dem Individuum und der Gesellschaft als Ganzes. So auch bei der KI. Aber wird diese Verantwortung ernst genommen? Ich befürchte: nein.
KI kann von denen an der Macht genutzt werden, um diese Macht zu halten und zu erhöhen. Darüber hinaus kann KI Diskriminierung und Vorurteile verstärken, da diese in den Daten vorhanden sind, auf denen die Technologie (von Menschen) trainiert wird. Daher ist es wichtig, ethische Richtlinien für die Entwicklung und Anwendung von KI zu etablieren, Kennzeichnungpflicht der für uns relevanten KI Ergebnisse oder Vorschläge mit Quellenangaben.
Das Versagen der Vorausschau und der rechtzeitigen Antwort auf die neuen technischen Möglichkeiten sieht man bei der Cyberkriminalität, die in Kürze einen neuen Boom erhalten wird, weil sie durch KI erfolgsorientiert automatisch bei der Verbreitung optimiert werden kann. Cyberkriminelle nutzen KI, um menschliches Verhalten zum Beispiel bei Wahlentscheidungen zu manipulieren und ihre Angriffe effizienter zu gestalten. Sie nutzen KI, um Schwachstellen in den Gewohnheiten und Verhaltensweisen der Menschen zu identifizieren und diese für ihre Einflussnahme auszunutzen.
Die Beeinflussung der Meinung durch BOTS auf den sozialen Plattformen ist inzwischen zur Gefahr von ganzen Gesellschaften geworden. Daher ist es wichtig, die Identität jedes Teilnehmers am Meinungsdiskurs eindeutig festzustellen. Mir ist bewußt, dass sich dies unangenehm anfühlt, aber wir müssen verhindern, dass eindeutige Wahlergebnisse, wie das in der USA 2021, durch eine Botarmee so in Frage gestellt werden, dass einfältige oder machtbesessene Menschen wie Lemminge das Capitol stürmen.
Viele schimpfen auf Elon Musk, so auch der Gastgeber eines Podiums, bei dem ich kürzlich als Experte sprach. Das zeigt, wie manupuliert Menschen zu Marionetten eines Narrativs werden und sogar für ihre Meinung ins Gefecht gehen. Elon Musk zum Beispiel hat als einziger Plattformbetreiber (X, ehemals Twitter) erkannt, dass ein Weg in Richtung wirklicher Meinungsfreiheit, weg von der Beeinflussung durch Bots nur in der Identitätsfeststellung realer Menschen zu finden ist. Die Kopplung eines Nutzeraccounts an eine eindeutige Telefonnummer wird von den Botarmeen durch tausende von SIM Karten der Fake-Identitäten unterlaufen, da sie einfach zu erwerben sind. Auf diese Weise funktionieren die russischen Trollfabriken, die mit der Zerstörung westlicher Demokratien beauftragt sind. Elon Musk will die Identität zunächst an die Kreditkarte koppeln, hinter jeder Kreditkarte steht ein Mensch, was durch die Kreditkartenunternehmen bereits mit komplexen Verfahren geprüft wird. Deswegen ist ein Monatsbeitrag über Kreditkarte zur Teilnahme an einem sozialen Netz sinnvoll und eine gute Übergangslösung bis sich Worldcoin oder ähnliche biometrische oder Blockchain Verfahren durchgesetzt haben.
Auf demselben Podium hat ein anderer Sprecher tatsächlich behauptet, arme Arbeiter in Billiglohnländern würden gegen einen Hungerlohn Fotos für Elon Musk klassifizieren, zur Fütterung der künstlichen Intelligenz und deswegen hätte er das Satellitennetz Starlink aufgebaut. Cyberausbeutung….
Ja,ja und der Mensch war nie auf dem Mond und Elvis lebt. Dummheit ist nicht strafbar, aber sehr störend.
Zur Klarstellung: der Beruf des Clickworkers in Bezug auf Taggen (Klassifizieren) ist eine Tätigkeit, die nur hochqualifizierte Menschen mit guten kulturellen Background und sehr guten Sprachkenntnissen ausüben können. Kein Konzern kann diese Personen direkt anheuern, da viel zu viele gebraucht werden und das auch nur zeitbegrenzt. Daher läuft die Projektvergabe an sogenannte Data Annotation Unternehmen, von denen es etwa 60-70 weltweit gibt. Diese Unternehmen bündeln über Crowdsourcing die notwendigen 100e oder 1000e Clickworker für das Taggen von Millionen von Daten, zum Beispiel von Bildern. Die Arbeit der Clickworker wird von den Data Annotation Unternehmen überprüft und qualitätsgesichert, das Ergebnis an den Auftraggeber gebündelt weitergeleitet. Ob es in einem Teilschritt der Lieferkette zu Ausbeutung kommt, kann man nie genau sagen, aber da das Taggen eine hohe Qualifizierung benötigt, glaube ich das eher nicht und wenn ja dann ist das eher ein politisches Problem, was wir hier in Deutschland mit dem sog. Lieferkettengesetz und Selbstverpflichtungen versuchen in den Griff zu bekommen. Den Großkonzernen vorsätzliche Ausbeutung vorzuwerfen ist Populismus.
Ich bin auf dieses, gerade erlebte Beispiel hier nur eingegangen, weil es die Gefahr der Verblendung durch falsche oder nur einen Teil der verfügbaren Information zeigt. Unser aller Sicherheit hängt von der Eigeninitiative ab, sich bei jeder Meldung, die geneigt ist die eigene Meinung zu verändern, immer die Quellen anzusehen und sich über Gegenmeinungen und deren Standhaltigkeit zu erkundigen. Damit soll erreicht werden, dass Meinung für die man ins Gefecht geht, auf Ahnung von der Sache aufgebaut ist.
KI und Krieg
Ein großes Thema und es ist sehr komplex. Bis heute (2023) gibt es keine Regulierung und kein gemeinsames Verbot autonomer Waffen durch die UN. Selbst über die Definition, was eine autonome Waffe ist, gibt es keine Einigkeit. Diese Waffen oder Waffensysteme könne darüber hinaus teilautonom oder vollständig autonom arbeiten, für jede Stufe der autonomen Steuerbarkeit sind andere Regeln, insbesondere über die Verantwortung über deren Einsätze, erforderlich.
KI wird jetzt schon bei der Planung und Beurteilung von Gefechtssituation verwendet.
Notwendig wäre ein Abkommen, leider sehen wir, dass Abkommen nach Gutdünken ausgesetzt, gebrochen oder gekündigt werden, was z.B. Russland im Zuge des Angriffskrieges ab Februar 2022 gegen die Ukraine mehrfach bewiesen hat. 2023 setzten die Russen sogar den START Vertrag aus. Im Krieg treten alle Regeln ausser Kraft, spätestens wenn man es mit einem extremistischen Kriegstreiber zu tun hat.
Der zunehmende Einsatz von Dronen, die bisher einzeln von Soldaten gesteuert werden, führt schon im Ukraine Krieg nach einem Jahr zu den ersten Drohnenschwärmen. Sie sind die logische Schlussfolgerung, wenn die Drohnen einzeln betrieben werden, denn dann werden sie auch einzeln bekämpft oder ihr Signal oder Netz gestört. Drohnenschwärme werden notwendigerweise von automatischen Systemen gesteuert, die Zielvorgaben durch KI gestützt an die einzelnen Drohnen übermitteln. Der nun immer häufiger auftretende Drohnenschwarm führt zur Übersättigung der Abwehrsysteme und wenn er dazu noch flexibel und schnell durch KI umlenkt, dann ist er sicher erfolgreicher bei seiner nützlichen oder schadbringenden Mission.
Zu den autonomen Waffensystemen kommen aber auch noch die reinen Software-Attacken durch Cyberkriegsführung. Sie attackiert über die Datennetze aus der Ferne industrielle Systeme, z.B. kritische Infrastruktur, Behördensysteme und die generelle Kommunikationsinfrastruktur. Hier rüsten alle Länder, die es können, hoch und schützen ihre am Internet hängenden Systeme immer mehr, die Aufklärung des Mittelstandes bis hin zum Bürger wird offener betrieben und die Gefahren häufiger diskutiert. Ziel ist, dass der eintretende Schaden lokal begrenzt – und damit beherrschbar – bleibt und nicht über die Fläche oder Netze kaskadiert und einen systemischen Ausfall produziert. Doch gerade auf Netze haben es Softwareschädlinge abgesehen.
KI, autonom entscheidend im Kriegseinsatz ist die Dystopie vor der wir alle Angst haben, sie wird leider meiner Einschätzung nach kommen und die Frage ist nur, ob wir das überleben, wenn ja, wie viele, wo und unter welchen Umständen. Vielleicht werden wir zu einem Colateralschaden im Krieg der KIs gegeneinander. Die Menschheit wird nicht ausgelöscht, aber unsere Gesellschaft. Der oben schon erwähnte Elon Musk baut als Plan B für einige wenige von uns das Starship, ausgelegt für 100 Personen Besatzung. Er selbst meint, er weiss nicht, ob er mit Starship rechtzeitig fertig wird und die Basis auf dem Mars autonom genug ist, um dort neu anzufangen oder anders weiterzumachen.
Ich hoffe er hat mit seiner Vision diesmal nicht recht.