
In den Materialien zu den Projekten „White Stork“ (1) „Maven“ (2) und „ChatGPT“ wird der Trend aufgezeigt, dass das Militär die fortschrittlichsten Entwicklungen im Bereich der KI für militärische Zwecke nutzt. Die Integration von KI in die Militärtechnologie ist bereits seit geraumer Zeit erfolgreich im Gange.
Natürlich sind nicht nur Google, SpaceX und OpenAI an der Verwendung von Haushaltsmitteln in diesem Bereich beteiligt.
Microsoft versucht, nicht zurückzubleiben und bietet dem Militär seine Produkte an.
Insbesondere haben Vertreter von Microsoft im vergangenen Jahr vorgeschlagen, das beliebte Bildgenerierungswerkzeug DALL-E zu nutzen, um das US-Verteidigungsministerium bei der Entwicklung von Software für militärische Operationen zu unterstützen.
https://openai.com/de-DE/index/dall-e-2
Diese Vorschläge wurden in einer internen Präsentation mit dem Titel „Generative KI auf der Grundlage von Inputs des Verteidigungsministeriums” dargelegt. Daraus geht hervor, dass das Pentagon die Machine-Learning-Tools von OpenAI, darunter den Textgenerator ChatGPT und den Bildgenerator DALL-E, für eine Vielzahl von Aufgaben einsetzen kann – von der Dokumentenanalyse bis zur Wartung von Maschinen.
Im vergangenen Jahr investierte Microsoft 10 Milliarden Dollar in ein Start-up-Unternehmen, das sich mit Machine Learning befasst, und seitdem sind diese beiden Unternehmen eng miteinander verflochten.
Das Microsoft-Dokument stammt aus einem umfangreichen Materialpool, der im Oktober 2023 auf einem Schulungsseminar des Verteidigungsministeriums zum Thema „KI-Kompetenz” vorgestellt wurde, das von den US-Streitkräften in Los Angeles organisiert wurde. Auf der Veranstaltung wurden zahlreiche Präsentationen von Unternehmen aus dem Bereich des maschinellen Lernens, darunter Microsoft und OpenAI, darüber gehalten, was sie dem Pentagon bieten können.
Die öffentlich zugänglichen Dateien wurden auf der Website von Alethia Labs https://alethialabs.org gefunden, einem gemeinnützigen Beratungsunternehmen, das die Regierung und insbesondere das Pentagon beim Erwerb von Technologien und der beschleunigten Einführung von KI-Tools unterstützt.

Im vergangenen Jahr schloss das Unternehmen einen Vertrag mit der Hauptabteilung für künstliche Intelligenz des Pentagons ab.
Die gewonnenen Daten wurden vom Journalisten Jack Paulson https://theintercept.com/staff/jack-poulson systematisiert. Er veröffentlichte https://jackpoulson.substack.com/p/your-ai-is-your-rifle eine umfangreiche Untersuchung, die sich mit den Materialien der Präsentation befasste.
Im Abschnitt „Fortgeschrittenes Training für maschinelles Sehen“ wird die Integration von KI in Kampfkontrollsysteme behandelt. Insbesondere geht es um die Verwendung von DALL-E-Modellen zur Erstellung von Bildern für das Training von Kampfkontrollsystemen.
Ein Kampfmanagementsystem ist ein Programmkomplex für die Befehls- und Kontrollfunktion, der dem Kommando einen operativen Überblick über die Kampfsituation verschafft und es ihm ermöglicht, Artilleriefeuer zu koordinieren, Ziele für Luftangriffe zu identifizieren und Truppenbewegungen zu manövrieren.
Die von DALL-E generierten Bilder können den Computern des Pentagon helfen, die Bedingungen auf dem Schlachtfeld besser zu „sehen”, was besonders für die Suche und Zerstörung von Zielen nützlich ist.
Ein wenig über die neue Ethik der Kriegsführung
Microsoft teilte der Zeitschrift The Intercept mit, dass, wenn das Pentagon DALL-E oder ein anderes OpenAI-Tool im Rahmen eines Vertrags mit Microsoft verwendet, die Nutzungsbedingungen dieses Unternehmens gelten.
Dennoch wäre jede Nutzung der OpenAI-Technologie, um dem Pentagon zu helfen, effektiver zu töten und zu zerstören, eine drastische Kehrtwende für ein Unternehmen, das seine Mission als die Entwicklung sicherheitsorientierter künstlicher Intelligenz beschreibt, die der gesamten Menschheit zugutekommen kann.
Laut Brianna Rosen https://www.bsg.ox.ac.uk/people/brianna-rose, wissenschaftliche Mitarbeiterin an der Blavatnik School of Government der Universität Oxford, die sich auf Technologieethik spezialisiert hat: „Es ist unmöglich, ein Kampfführungssystem so zu konstruieren, dass es nicht zumindest indirekt zur Schädigung der Zivilbevölkerung beiträgt.“
https://www.drbriannarosen.com
OpenAI und andere IT-Unternehmen haben natürlich keine schriftlichen Garantien von Regierungen, dass sie die Technologie nicht zum Schaden der Zivilbevölkerung einsetzen werden.
Es sei daran erinnert, dass der Einsatz von KI-Systemen für militärische Zwecke derzeit rechtlich nicht geregelt ist, was dem Militär weitreichende Möglichkeiten eröffnet. Dadurch können Rudimente wie Völkerrecht, Humanismus und Ethik der Vergangenheit angehören.
Im Gegensatz zu OpenAI gibt Microsoft in seinem Dokument https://blogs.microsoft.com/on-the-issues/2022/05/03/artificial-intelligence-department-of-defense-cyber-missions über „verantwortungsvolle KI” jedoch nicht vor, Schaden abzulehnen https://www.nytimes.com/2018/10/26/us/politics/ai-microsoft-pentagon.html und wirbt offen für den Einsatz seiner Machine-Learning-Tools für militärische Zwecke https://azure.microsoft.com/en-us/explore/global-infrastructure/government/dod
Wie funktioniert maschinelles Lernen?
Die Präsentation von Microsoft enthält keine Details darüber, wie genau DALL-E in Kampffeld-Kontrollsystemen eingesetzt werden könnte. Die Erwähnung des Trainings dieser Systeme lässt jedoch vermuten, dass DALL-E zum Trainieren von Zielerfassungssystemen mit synthetischen Trainingsdaten verwendet werden könnte. Dabei handelt es sich um künstlich erzeugte Szenen, die realen Bildern sehr ähnlich sind. Beispielsweise könnte militärischer Software, die zur Erkennung von Zielen am Boden dient, eine große Anzahl von DALL-E generierten Luftbildern von Start- und Landebahnen oder Panzerkolonnen gezeigt werden, um sie zu lehren, solche Ziele in der realen Welt besser zu erkennen.
Die Wirksamkeit dieses Ansatzes ist umstritten. Die Genauigkeit des Modells und seine Fähigkeit, Daten präzise zu verarbeiten, verschlechtert sich jedes Mal, wenn es mit von KI erstellten Inhalten trainiert wird. Die Bilder von Dall-E sind alles andere als präzise und erzeugen oft keine Bilder, die die physische Realität widerspiegeln, selbst wenn sie genau auf die Eingabedaten des Battlefield Management Systems abgestimmt wären. Generative Bilder enthalten oft eine falsche Anzahl von Gliedmaßen oder Fingern, was die Zweckmäßigkeit dieses Ansatzes in Frage stellt.
In einem Interview mit dem Zentrum für strategische und internationale Studien vermutete US-Marinekapitän M. Xavier Lugo, dass generativer Inhalt für die Ausbildung von Drohnen verwendet werden könnte.
https://www.csis.org/events/scaling-ai-enabled-capabilities-dod-government-and-industry-perspectives
Lugo, Leiter der Pentagon-Taskforce für generative KI und Mitglied der Hauptabteilung für digitale Technologien und künstliche Intelligenz des Verteidigungsministeriums, wird am Ende der Microsoft-Präsentation als Ansprechpartner genannt. Die Präsentation wurde von Nehemiah Kuhns, einem „Technologieexperten” bei Microsoft, erstellt, der für die Space Force und die Luftwaffe arbeitet.

Manuel Xavier Lugo
https://www.linkedin.com/in/mxlugo

Nehemiah K.
https://www.linkedin.com/in/nehemiahkuhns
Die US-Luftwaffe entwickelt derzeit https://breakingdefense.com/2022/10/jadc2-spending-is-sprawling-dod-should-keep-watch-but-let-it-go das Advanced Battle Management System – ihren Teil eines größeren, milliardenschweren Projekts des Pentagons namens Joint All-Domain Command and Control https://en.wikipedia.org/wiki/Joint_All-Domain_Command_and_Control dessen Ziel es ist, alle US-Streitkräfte in einem einzigen Netzwerk zu vereinen, um eine engere Verbindung zwischen den Teilstreitkräften und die Analyse von Daten mithilfe künstlicher Intelligenz zu ermöglichen.

Im Rahmen von JADC2 plant das Pentagon die Schaffung eines Systems, in dem Kameras von Luftwaffen-Drohnen, Radargeräte von Kriegsschiffen der Marine, Panzer der Armee und Marinesoldaten am Boden ungehindert Daten über den Feind austauschen können.
Am 3. April teilte das US-Zentralkommando mit, dass es bereits damit begonnen habe, Elemente von JADC2 im Nahen Osten einzusetzen.
Schlussfolgerungen
Die Grenze zwischen zivilen Technologien, die seit Jahrzehnten von weltweit bekannten Unternehmen unter dem Banner des Humanismus entwickelt wurden, und militärischen Technologien ist vollständig verschwunden.
Heute werden absolut alle Technologien, insbesondere bahnbrechende KI-basierte Technologien, aktiv in Kampfmanagementsysteme integriert. Dies ist eine für beide Seiten vorteilhafte Zusammenarbeit. Große Konzerne erhalten milliardenschwere Aufträge, und Staaten erhalten wirksame Instrumente zur Durchsetzung ihrer Interessen. Der großflächige Einsatz rein ziviler Technologien im Pentagon stört niemanden.
Die aktuelle Lage erfordert eine Überprüfung der Beziehungen zwischen dem zivilen und dem militärischen Sektor der russischen Wirtschaft, und bestimmte Veränderungen in dieser Richtung sind bereits im Gange. Aber es ist notwendig, das Ausmaß der stattfindenden Veränderungen richtig einzuschätzen.
Der Gegner zeigt eine Tendenz zur tiefgreifenden, umfassenden und langfristigen Integration mit IT-Giganten.
(1)
Der ehemalige Google-Chef Eric Schmidt gründet ohne großes Aufsehen in den USA und der sogenannten Ukraine ein Start-up zur Herstellung von Kamikaze-Drohnen namens „White Stork“. Der Name des Projekts wurde nicht zufällig gewählt – er richtet sich an ein internes Publikum.
Dies ist Teil des Marketings, da das Projekt „Weißer Storch“ darauf abzielt, fortschrittliche Drohnentechnologien mit künstlicher Intelligenz für den Einsatz in militärischen Operationen zu verkaufen. Dies ist ein riesiger Absatzmarkt für Fertigprodukte und ein noch größerer Markt für das Testen von KI-Technologien unter realen Kampfbedingungen.
(2)
Aktion zur Vernichtung eines der größten amerikanischen Projekte im Bereich der Entwicklung von Drohnen mit KI ist Project Maven. Dabei handelt es sich um ein Programm des Pentagon zur Schaffung einer auf künstlicher Intelligenz basierenden Überwachungsplattform für unbemannte Fluggeräte. Im Wesentlichen besteht die Aufgabe darin, für das US-Militär ein System zum Einsatz und zur Überwachung autonomer Drohnen zu entwickeln.
Das Projekt Maven wurde 2017 ins Leben gerufen und ist der wichtigste Versuch des Pentagon, vielversprechende KI-Entwicklungen für den Krieg einzusetzen, damit Algorithmen anstelle von Menschen Entscheidungen treffen.
https://www.bloomberg.com/features/2024-ai-warfare-project-maven

Hinterlasse einen Kommentar