Η Τεχνητή Νοημοσύνη και ο κίνδυνος πυρηνικού πολέμου
Διεθνή

Η Τεχνητή Νοημοσύνη και ο κίνδυνος πυρηνικού πολέμου

26 Απριλίου 2026|4 λεπτά ανάγνωση

Ο κίνδυνος ενός αστραπιαίου πυρηνικού πολέμου λόγω αλγοριθμικού σφάλματος βρίσκεται πλέον στο επίκεντρο της διεθνούς ανησυχίας. Οι κορυφαίες στρατιωτικές δυνάμεις του κόσμου ενσωματώνουν συστήματα Τεχνητής Νοημοσύνης στα συστήματα διοίκησης και ελέγχου των πυρηνικών τους οπλοστασίων, γνωστά ως NC3. Διεθνή ερευνητικά ινστιτούτα εκδίδουν εκθέσεις που προειδοποιούν πως αυτή η μετάβαση θέτει σε κίνδυνο ολόκληρη την αρχιτεκτονική της παγκόσμιας πυρηνικής αποτροπής. Για πρώτη φορά στην ιστορία, η τελική απόφαση για τον αφανισμό του πλανήτη ενδέχεται να μην λαμβάνεται από ανθρώπους.

Τι συμβαίνει με τα πυρηνικά οπλοστάσια

Για περισσότερο από μισό αιώνα, η παγκόσμια πυρηνική αποτροπή βασιζόταν σε μια θεμελιώδη παραδοχή: ότι ανθρώπινα χέρια θα κρατούσαν πάντα τον έλεγχο της τελικής απόφασης. Αυτή η σταθερά αμφισβητείται πλέον ριζικά. Οι μεγάλες στρατιωτικές δυνάμεις ενσωματώνουν σιωπηλά και με ταχύτατους ρυθμούς αλγόριθμους τεχνητής νοημοσύνης στα συστήματα NC3, δηλαδή στα συστήματα πυρηνικής διοίκησης, ελέγχου και επικοινωνιών. Η διαδικασία αυτή δεν συνοδεύεται από διεθνείς διαπραγματεύσεις ή συνθήκες ελέγχου, γεγονός που αφήνει ανοιχτό το πεδίο για επικίνδυνες παρανοήσεις και λάθη.

Σύμφωνα με αναλυτική έκθεση της Ομοσπονδίας Αμερικανών Επιστημόνων (Federation of American Scientists – FAS) με τίτλο Artificial Intelligence, and Nuclear Command, Control, and Communications, οι αλγόριθμοι έχουν την ικανότητα να αναγνωρίζουν μοτίβα επιθέσεων πολύ πριν αυτά γίνουν αντιληπτά από τον ανθρώπινο εγκέφαλο. Επεξεργάζονται δεδομένα από δορυφόρους, ραντάρ και δίκτυα παρακολούθησης σε κλάσματα του δευτερολέπτου. Παρόλο που αυτή η ταχύτητα φαίνεται να αποτελεί στρατιωτικό πλεονέκτημα, η ίδια έκθεση υπογραμμίζει ότι συμπιέζει δραματικά τον διαθέσιμο χρόνο λήψης αποφάσεων, αφαιρώντας από τους ηγέτες τον απαραίτητο χρόνο αξιολόγησης.

Κατά τη διάρκεια του Ψυχρού Πολέμου, οι ηγέτες διέθεταν λίγα πολύτιμα λεπτά για να εξετάσουν εάν ένας συναγερμός ήταν αληθινός ή αποτέλεσμα τεχνικού σφάλματος. Αυτός ο χρόνος απέτρεψε τον πυρηνικό όλεθρο σε αρκετές καταγεγραμμένες περιπτώσεις. Στην εποχή της τεχνητής νοημοσύνης, ο χρόνος αντίδρασης εκμηδενίζεται. Εάν ένα αλγοριθμικό σύστημα έγκαιρης προειδοποίησης υποδείξει ότι ο αντίπαλος ετοιμάζεται να εκτοξεύσει πυραύλους, η πίεση για ένα προληπτικό χτύπημα καθίσταται σχεδόν αφόρητη.

Το «Μαύρο Κουτί» και η αδιαφάνεια των αλγόριθμων

Ο κίνδυνος πολλαπλασιάζεται λόγω της φύσης της ίδιας της τεχνολογίας. Η σύγχρονη μηχανική μάθηση και τα νευρωνικά δίκτυα λειτουργούν ως «μαύρα κουτιά»: εξάγουν συμπεράσματα μέσα από δαιδαλώδεις συσχετίσεις δεδομένων που κανένας ανθρώπινος αναλυτής δεν μπορεί να ιχνηλατήσει ή να επαληθεύσει τη στιγμή της κρίσης. Αυτό σημαίνει ότι οι ίδιοι οι δημιουργοί των αλγόριθμων αδυνατούν να εξηγήσουν γιατί το σύστημα έλαβε μια συγκεκριμένη απόφαση. Οι ερευνητές αποκαλούν αυτή την εποχή «Δόγμα του Μαύρου Κουτιού».

Το Ινστιτούτο Ερευνών για την Ειρήνη της Στοκχόλμης (SIPRI) έχει επίσης εκδώσει μελέτη που εστιάζει στους κινδύνους που απορρέουν από την ενσωμάτωση της τεχνητής νοημοσύνης στα πυρηνικά συστήματα. Η λεγόμενη «προκατάληψη αυτοματοποίησης» — η τάση των χειριστών να εμπιστεύονται τυφλά τις αποφάσεις των αυτοματοποιημένων συστημάτων — αποτελεί έναν από τους κεντρικούς κινδύνους που επισημαίνουν οι ερευνητές. Ένα σύστημα που ενεργεί με ταχύτητα μηχανής, χωρίς ανθρώπινη επιτήρηση, μπορεί να οδηγήσει σε μη αναστρέψιμες αποφάσεις πριν καν υπάρξει χρόνος αμφισβήτησης.

Παράλληλα, τα διεθνή ερευνητικά ινστιτούτα τονίζουν πως η έλλειψη διαφάνειας στη λειτουργία αυτών των συστημάτων δημιουργεί επιπλέον κινδύνους αποσταθεροποίησης. Όταν ένα κράτος δεν μπορεί να γνωρίζει τον τρόπο λειτουργίας των πυρηνικών συστημάτων ΑΙ του αντιπάλου του, η αβεβαιότητα αυξάνεται και μαζί της η πιθανότητα λάθους υπολογισμού. Αυτό αντιστρέφει τη λογική της αποτροπής, που προϋποθέτει προβλεψιμότητα και σαφείς κόκκινες γραμμές.

Τι αναφέρουν οι εκθέσεις για τα επόμενα βήματα

Τα ερευνητικά ινστιτούτα που μελετούν το ζήτημα καταλήγουν στο συμπέρασμα ότι η διεθνής κοινότητα οφείλει να ξεκινήσει άμεσα διαπραγματεύσεις για τη θέσπιση κανόνων χρήσης της τεχνητής νοημοσύνης στα πυρηνικά συστήματα. Η FAS και το SIPRI υπογραμμίζουν ότι η ανθρώπινη επίβλεψη πρέπει να παραμείνει απαραίτητη προϋπόθεση για οποιαδήποτε απόφαση που αφορά πυρηνικά όπλα. Χωρίς τέτοιες διασφαλίσεις, η αυτοματοποίηση της πυρηνικής διοίκησης ενέχει τον κίνδυνο να μετατρέψει ένα τεχνικό σφάλμα σε παγκόσμια καταστροφή. Ωστόσο, μέχρι σήμερα δεν έχει επιτευχθεί καμία δεσμευτική διεθνής συμφωνία επί του θέματος.

Σχετικά άρθρα