ΑΥΤΟΝΟΜΑ ΟΠΛΙΚΑ ΣΥΣΤΗΜΑΤΑ – ΤΑ ΚΑΛΑΣΝΙΚΟΦ ΤΟΥ ΑΥΡΙΟ 

Η τεχνολογία τεχνητής νοημοσύνης έχει φτάσει σε ένα σημείο όπου η ανάπτυξη αυτόνομων όπλων θα είναι εφικτή σε μερικά χρόνια, με το διακύβευμα να είναι υψηλό καθώς περιγράφονται ως η τρίτη επανάσταση στον πόλεμο, μετά την πυρίτιδα και τα πυρηνικά όπλα.

Τα αυτόνομα οπλικά συστήματα είναι ρομπότ με θανατηφόρα όπλα που μπορούν να λειτουργούν ανεξάρτητα, επιλέγοντας και εμπλέκοντας στόχους χωρίς ανθρώπινη παρέμβαση. Περιλαμβάνουν, για παράδειγμα, οπλισμένα τετρακόπτερα που μπορούν να αναζητήσουν και να εξαλείψουν άτομα που πληρούν ορισμένα προκαθορισμένα κριτήρια, αλλά δεν περιλαμβάνουν πυραύλους cruise ή μη επανδρωμένα αεροσκάφη/πλοία για τα οποία οι άνθρωποι λαμβάνουν όλες τις αποφάσεις στόχευσης.

Στον τομέα των αυτόνομων όπλων μια παγκόσμια κούρσα εξοπλισμών είναι σχεδόν αναπόφευκτη και το τελικό σημείο αυτής της τεχνολογικής τροχιάς είναι προφανές: Τα αυτόνομα όπλα θα γίνουν τα Καλάσνικοφ του αύριο.
Σε αντίθεση με τα πυρηνικά όπλα, δεν απαιτούν δαπανηρές ή δυσπρόσιτες πρώτες ύλες, επομένως θα είναι πανταχού παρών λόγω χαμηλού κόστους και εύκολης μαζικής παραγωγής.

Τα αυτόνομα όπλα θα είναι ιδανικά για μαζικές δολοφονίες, αποσταθεροποίηση κρατών, εθνοκαθάρσεις. Είναι βέβαιο ότι θα εμφανιστούν στην μαύρη αγορά και στα χέρια τρομοκρατών, στα χέρια κυβερνήσεων που θέλουν να ελέγξουν δια της βίας τον πληθυσμό τους.

Οι τεχνολογίες αυτόνομων όπλων θα αποσταθεροποιήσουν επικίνδυνα τις τρέχουσες πυρηνικές στρατηγικές, πρώτον, επειδή θα μπορούσαν να αλλάξουν ριζικά τις αντιλήψεις για την στρατηγική κυριαρχία, αυξάνοντας έτσι τον κίνδυνο προληπτικών επιθέσεων και, δεύτερον, επειδή θα μπορούσαν να συνδυαστούν με βιολογικά, χημικά και μικρά πυρηνικά όπλα.

Οι χώρες που αναπτύσσουν αυτόνομα όπλα υποθέτουν ότι θα είναι σε θέση να περιορίσουν και να ελέγξουν την χρήση αυτών. Αλλά αν η ιστορία της τεχνολογίας όπλων έχει διδάξει κάτι, αυτό είναι το εξής:
Τα όπλα εξαπλώνονται.


Οι πιέσεις της αγοράς θα οδηγήσουν στην ευρεία πώληση αυτού που μπορεί να θεωρηθεί ως ισοδύναμο, λόγω κόστους, μαζικής παραγωγής και αξιοπιστίας, του γνωστού φορητού όπλου Καλάσνικοφ.
Τουτέστιν δολοφονικά ρομπότ που είναι φθηνά, αποτελεσματικά και αδύνατον να συγκρατηθεί η κυκλοφορία τους σε όλο τον κόσμο.
Ως παράδειγμα αναφέρουμε το τουρκικής κατασκευής τετρακόπτερο Kargu-2 που φέρει βόμβα μεγάλης ισχύος. Ενσωματώνει τεχνητή νοημοσύνη για την εύρεση και παρακολούθηση στόχων και χρησιμοποιήθηκε με επιτυχία πρόσφατα στον εμφύλιο πόλεμο της Λιβύης εναντίον των δυνάμεων του στρατηγού Χαφτάρ (βλ. εικόνα). 

image

Kargu-2 

 

Είναι βέβαιο ότι το Kargu-2 και τα όμοια του αυτόνομα όπλα στο πολύ κοντινό μέλλον θα αναπτυχθούν με περισσότερο καταστροφικές ιδιότητες, συμπεριλαμβανομένων εκείνων που είναι ικανά να φέρουν χημικά, βιολογικά, ραδιολογικά και μικρά πυρηνικά όπλα.

Ως εκ τούτου, τα αυτόνομα όπλα υψηλών προδιαγραφών είναι πολύ πιθανό να οδηγήσουν σε συχνότερους πολέμους, καθώς θα μειώσουν τόσο την ανάγκη όσο και τον κίνδυνο για το στρατιωτικό προσωπικό, μεταβάλλοντας άρδην την ανάλυση κόστους-οφέλους που υφίστανται οι χώρες κατά την έναρξη και την διατήρηση των πολέμων.
Οι ασύμμετροι πόλεμοι είναι προφανές ότι θα γίνουν πιο συχνοί και συνηθισμένοι.

Σημαντικό είναι ότι με την χρήση αυτόνομων όπλων υποσκάπτονται οι διεθνείς νόμοι του πολέμου, οι οποίοι είναι κωδικοποιημένοι σε συνθήκες που ανάγονται στην Σύμβαση της Γενεύης του 1864. Οι συνθήκες αυτές βασίζονται στην ιδέα ότι οι άνθρωποι μπορούν να θεωρηθούν υπόλογοι για τις πράξεις τους ακόμη και κατά την διάρκεια του πολέμου, ότι το δικαίωμα να σκοτώνουν τους αντίπαλους στρατιώτες κατά την διάρκεια της μάχης δεν τους δίνει το δικαίωμα να σκοτώνουν αμάχους.

Προκύπτει το ερώτημα, πώς μπορούν να θεωρηθούν τα αυτόνομα όπλα υπόλογα; Ποιος φταίει για ένα ρομπότ που διαπράττει εγκλήματα πολέμου; Ποιος θα δικαστεί; Το ρομπότ ή ο διοικητής του; Μήπως η εταιρία που κατασκεύασε το όπλο; Είναι πρόδηλο ότι τα αυτόνομα όπλα οδηγούν σε κενό λογοδοσίας, ένα κενό για το οποίο ουδείς εκ των χωρών που τα κατασκευάζει και χρησιμοποιεί ή θα τα χρησιμοποιήσει ενδιαφέρεται να καλύψει, για προφανείς λόγους.

Πιο αναλυτικά. Για να θεωρηθεί ένας διοικητής ή ένας στρατιώτης ποινικά υπεύθυνος για την χρήση ενός αυτόνομου όπλου που διαπράττει εγκλήματα πολέμου (πχ αν σμήνη Kargu-2 επιτεθούν κατά λάθος στους κατοίκους ενός ελληνικού νησιού του ανατολικού Αιγαίου), θα πρέπει να αποδειχθεί τόσο το actus reus όσο και το mens rea, λατινικοί όροι που περιγράφουν μια ένοχη πράξη και ένα ένοχο μυαλό.
Πολύ δύσκολο από νομικής φύσεως, καθώς τα αυτόνομα όπλα είναι εγγενώς απρόβλεπτα. Τουτέστιν οδηγούμεθα σε μια κατάσταση όπου θα υπάρχουν εγκλήματα πολέμου χωρίς εγκληματίες. Δηλαδή ενώ πρόσφατα η αμερικανική κυβέρνηση απολογήθηκε για την δολοφονία δέκα αμάχων στην Καμπούλ από επίθεση μαχητικού drone, στο μέλλον σε ανάλογη περίπτωση θα δικαιολογείται ότι το ρομπότ πήρε λάθος απόφαση και θα νίπτει τας χείρας της, με την διαβεβαίωση της κατασκευάστριας εταιρίας του αυτόνομου όπλου ότι θα διορθώσει τον αλγόριθμο της τεχνητής νοημοσύνης.

Δεν είναι μακρινό το μέλλον στο οποίο είτε στρατιωτικοί ή ομάδες τρομοκρατών θα μπορούν να αναπτύξουν απεριόριστη βία με θεωρητικά μηδενικό κίνδυνο και χωρίς συνεπακόλουθη νομική λογοδοσία. Οι παράπλευρες απώλειες θα αυξηθούν γεωμετρικά, καθώς τα «αλγοριθμικά λάθη» θα φταίνε για αυτές τις απώλειες.

Η κούρσα εξοπλισμών στον τομέα των αυτόνομων όπλων μόλις άρχισε, με την Τουρκία να έχει ισχυρό προβάδισμα τόσο έναντι της Ελλάδας όσο και διεθνώς.

Γ. Λιναρδής 

tweet
fb-share-icon
Insta
Tiktok