Künstliche Intelligenz und Frühwarnsysteme

 

English version: see below

 

Nach Ansicht von Experten ist das Atomkriegsrisiko derzeit sehr hoch und die „Atomkriegsuhr“ (doomsday clock), die von einem internationalen Gremium eingestellt wird und die Wahrscheinlichkeit eines nuklearen Krieges anzeigt, ist auf zwei Minuten vor Zwölf vorgerückt worden. Das Atomkriegsrisiko betrifft insbesondere die Gefahr eines Atomkriegs aus Versehen. Nach dem Ende des INF-Vertrages zum Verbot von landgestützten Mittelstreckenraketen hat ein neues Wettrüsten begonnen. Neue Waffensysteme wie Hyperschallraketen verkürzen die Vorwarnzeiten jedoch so sehr, dass die Zweitschlagfähigkeit gefährdet ist und zunehmend menschliche Entscheidungen durch Systeme der Künstlichen Intelligenz ersetzt werden müssen. Es gibt auch bereits Forderungen, vollständig autonome KI-Entscheidungs-Systeme für die Frühwarnung zu entwickeln, da für menschliche Entscheidungen keine Zeit bleibt.

Ein Testen solcher Systeme unter realen Bedingungen ist kaum möglich. Auch wird es im Vergleich zu anderen KI-Anwendungen (z.B. dem autonomen Fahren) deutlich weniger „Lerndaten“ geben, um die nötigen Erkennungskriterien zu erzeugen. Bei der Entwicklung KI-basierter Entscheidungssysteme sind nicht alle Ausnahmesituationen vorhersehbar, die auftreten können. Bei nicht eingeplanten Situationen ist dann völlig unklar, was passieren wird, d.h. wie ein KI-System entscheidet. Die mangelnden Testmöglichkeiten von Frühwarnsystemen unter realen Bedingungen verschärfen dieses Problem noch zusätzlich. In der kurzen verfügbaren Zeit wird es in der Regel nicht möglich sein, Entscheidungen der Maschine zu überprüfen, dem Menschen bleibt nur zu glauben, was die Maschine liefert. Das Problem automatischer Entscheidungen wird in http://www.fwes.info/fwes-19-3.pdf , Abschnitte 5.3 bis 5.5, ab Seite 19 behandelt.

Auch der Klimawandel mit seinen Folgen und zunehmende Kapazitäten für Cyberkriege werden das Atomkriegsrisiko in den nächsten Jahren und Jahrzehnten deutlich erhöhen. Diese Zusammenhänge werden in www.atomic-cyber-crash.de beschrieben (siehe insbesondere Bereich „Atomkrieg aus Versehen  – Schneller Einstieg ins Thema“).

 

weiter

 

Autoren des obigen Textes:

Karl Hans Bläsius (www.hochschule-trier.de/informatik/blaesius/)

Jörg Siekmann  (http://siekmann.dfki.de/de/home/)

 

 

-------------   english version   -------------

 

Artificial Intelligence and Early Warning Systems

 

In the opinion of experts, the risk of nuclear war is currently extremly high and thedoomsday clock“, which is set by an international committee and indicates the likelihood of a nuclear war, has been advanced to two minutes to twelve. The nuclear war risk depends in particular the danger of a nuclear war by mistake. After the end of the INF contract, which banned land-based medium-range missiles, a new arms race has begun. New weapon systems such as hypersonic missiles shorten advance warning times to such an extent that second strike capability is endangered and human decisions have to be replaced increasingly by artificial intelligence systems. There are also demands to develop autonomous AI systems for early warning systems, as there is no time for human decisions.

Testing such systems under real conditions is hardly possible. Compared to other AI applications (e.g. autonomous driving), there will be significantly less "learning data" to generate the necessary recognition criteria. When developing AI-based decision systems, not all exceptional situations that may occur are foreseeable and in unplanned situations, it is completely unclear what will happen, that is, how an AI system will decide. The lack of testing possibilities for early warning systems under real conditions exacerbates this problem. In the short time available it will usually not be possible to check machine decisions and the human being can only believe what the machine delivers. The problem of automatic decisions is discussed in http://www.fwes.info/fwes-19-3.pdf , Sections 5.3 to 5.5, starting on page 19.

Climate change with its consequences and increasing capacities for cyber wars will also significantly increase the nuclear war risk in the coming years and decades. These correlations are described in www.unintended-nuclear-war.eu (see in particular the section entitled "Unintended nuclear war - quick introduction to the topic ").

 

continue

 

Translated with www.DeepL.com/Translator