Πέμπτη 14 Φεβρουαρίου 2019

Τεχνητή νοημοσύνη και πόλεμος του μέλλοντος ή και του παρόντος

Στρατιώτες ή ρομπότ στις μάχες; - Media

Ποιοι θέλουν την πολεμική χρήση «συστημάτων τεχνητής νοημοσύνης» και ποιοι όχι
«Πόλεμος» συμφερόντων για τα «αυτόνομα όπλα»

Η αυτονομία στα οπλικά συστήματα εξαπλώνεται ραγδαία. Τόσο ώστε οι διαχωριστικές γραμμές μεταξύ όπλων των οποίων η διαχείριση γίνεται από ανθρώπους και αυτών που αποφασίζουν, εκτιμούν και δρουν εντελώς αυτόνομα άρχισαν να γίνονται θολές και να εξαλείφονται. Οι νέες δυνατότητες, τα μειωμένα κόστη και η προοπτική για νέες εξαγωγές είναι οι βασικοί παράγοντες που ενθαρρύνουν την ανάπτυξη των αυτόνομων όπλων.
Ο νέος τύπος όπλων που ήδη χρησιμοποιείται σήμερα είναι κυρίως συστήματα που στα περισσότερα από αυτά ο άνθρωπος - χειριστής διατηρεί την υψηλή εποπτεία: είτε εξ αποστάσεως «πατάει το κουμπί», π.χ. για ένα χτύπημα από drone, είτε είναι σε θέση να επιβλέπει μια συγκεκριμένη διαδικασία με τη δυνατότητα να την ανακαλέσει.
Όμως, τα οπλικά συστήματα που δημιουργούνται αυτή τη στιγμή θα μπορούν να επιτίθενται σε πληθώρα στόχων χωρίς καμιά ανθρώπινη ανάμειξη στη διαδικασία. Άπαξ και αυτού του είδους τα όπλα «ενεργοποιηθούν», κανένας άνθρωπος δεν εμπλέκεται στο πώς, πότε και πού θα επιλέξουν να επιτεθούν.
Επιπροσθέτως πολλά από τα οπλικά συστήματα που ήδη χρησιμοποιούνται ευρέως εδώ και μια δεκαετία διαθέτουν την πλήρη αυτονομία ως επιλογή. Η ανθρώπινη επίβλεψη μπορεί να εξαλειφθεί απλώς και μόνο επιλέγοντας την αυτόνομη λειτουργία τους, δηλαδή ρυθμίζοντάς τα στο autonomous mode. Ουσιαστικά, το αν ένα τέτοιο οπλικό σύστημα είναι αυτόνομο ρομποτικό όπλο ή ένα όπλο που κατευθύνεται εξ αποστάσεως από τον χειριστή εξαρτάται αποκλειστικά από το software που «τρέχει» τη δεδομένη στιγμή.

Σύμφωνα με το εδρεύον στη Στοκχόλμη Διεθνές Ινστιτούτο Ερευνών για την Ειρήνη (SIPRI), ήδη το 2017 υπήρχαν σε πλήρη λειτουργικότητα και χρήση από διάφορους στρατούς 49 οπλικά συστήματα με τη δυνατότητα να ανιχνεύσουν πιθανούς στόχους και να τους επιτεθούν χωρίς καμιά ανθρώπινη παρέμβαση. Αυτά είναι όπλα που ήδη χρησιμοποιούνται εδώ και κάποια χρόνια, όπως π.χ. το ισραηλινό Harop. Εκτός αυτών, από τα συνολικά 154 οπλικά συστήματα με δυνατότητες αυτόνομης στόχευσης που υπάρχουν εν λειτουργία παγκοσμίως:
● Τα 24 είναι πλήρως αυτόνομα, χωρίς πρόβλεψη για ανθρώπινη ανάμειξη.
● Τα 50 διατηρούν άνθρωπο στην τελική επίβλεψη.
● Και τα 31 απλώς φέρουν την επιλογή για ανθρώπινη εποπτεία.
Με τις τεχνολογίες, όμως, που τώρα αναπτύσσονται σύντομα θα είναι έτοιμα προς χρήση και θα έχουν πολλαπλάσιες δυνατότητες. Κανείς δεν μπορεί να γνωρίζει τι επιπτώσεις θα έχουν αυτά τα όπλα στο εγγύς μέλλον. Θα μπορούσαν να καταστήσουν τον πόλεμο ακόμη πιο φρικιαστικό; Ή να απειλήσουν ακόμη και τον ανθρώπινο πολιτισμό; Εδώ και πέντε χρόνια τα Ηνωμένα Έθνη πασχίζουν να ορίσουν ένα πλαίσιο για τα αυτόνομα όπλα, αλλά μέχρι στιγμής δεν υπάρχει συμφωνία απόψεων. Οι χώρες έχουν ουσιαστικά χωριστεί σε τρεις ομάδες.


Το «μπλοκ των κατά»
Σχεδόν 30 κράτη, μεταξύ των οποίων η Αυστρία, η Βραζιλία, το Πακιστάν και το Βατικανό, τάσσονται υπέρ μιας ολοκληρωτικής απαγόρευσης για τα «πλήρως αυτόνομα όπλα». Το συγκεκριμένο γκρουπ χωρών, που επιθυμεί μια νομικά δεσμευτική απαγόρευση των αυτόνομων όπλων, είναι κυρίως κράτη χωρίς ιδιαίτερη στρατιωτική δύναμη, όπως π.χ. το Περού ή το Τζιμπουτί (πρώην Γαλλική Σομαλία), αλλά ανάμεσά τους υπάρχουν και χώρες με σημαντικό διπλωματικό εκτόπισμα, όπως η Αυστρία.
Καμιά από αυτές τις χώρες, πάντως, δεν διαθέτει το είδος της στρατιωτικής βιομηχανίας που θα επωφεληθεί από τα αυτόνομα οπλικά συστήματα. Στηρίζουν την άποψή τους στους κανόνες περί πολέμου όπως αυτοί καθορίστηκαν στις Συνθήκες της Γενεύης και της Χάγης.
Οι συγκεκριμένοι νόμοι του πολέμου απαιτούν οι στρατοί να διακρίνουν επαρκώς μεταξύ στρατιωτών και πολιτών, να απέχουν από επιθέσεις όταν το ρίσκο για τους πολίτες (αμάχους) υπερτερεί του όποιου στρατιωτικού πλεονεκτήματος και να διασφαλίζουν ότι οι παράπλευρες απώλειες είναι ανάλογες με τα στρατιωτικά οφέλη. Δηλαδή οι στρατιωτικές πράξεις πρέπει να κρίνονται και να αποφασίζονται μέσα στο σχετικό τους πλαίσιο.
Επιπλέον το συγκεκριμένο γκρουπ χωρών υποστηρίζει ότι κάθε καινούργιο οπλικό σύστημα πρέπει να συμμορφώνεται με τη ρήτρα της Σύμβασης της Χάγης του 1899. Αυτή ορίζει ότι «τα νέα όπλα πρέπει να συμμορφώνονται με τις αρχές της ανθρωπότητας και όσα υπαγορεύει η κοινή συνείδηση». Άρα, σύμφωνα με την πρώτη ομάδα χωρών, τα πλήρως αυτόνομα όπλα, ως αυτόνομες μηχανές, δεν μπορούν να εκτιμήσουν την αξία της ανθρώπινης ζωής και τη σημασία της απώλειάς της.

«Υπέρ» μεγάλες χώρες
Στον αντίποδα βρίσκεται η δεύτερη ομάδα χωρών, οι λεγόμενες μεγάλες δυνάμεις. Σε αυτή ανήκουν οι ΗΠΑ, η Ρωσία, η Βρετανία κ.ά. Αυτές οι χώρες ισχυρίζονται ότι τα πλήρως αυτόνομα όπλα μπορούν να ελεγχθούν επαρκώς στο πλαίσιο των ήδη ισχυόντων νόμων περί πολέμου και δεν υπάρχει λόγος για κατάργηση των συστημάτων ή αυστηροποίηση του πλαισίου.
Κάποιες από αυτές τις χώρες, μάλιστα, υποστηρίζουν ότι τα αυτόνομα όπλα μπορούν να έχουν μεγαλύτερη ακρίβεια στα χτυπήματα συγκριτικά με τους ανθρώπους χειριστές και ότι τα αυτόνομα όπλα θα μπορούν να καταστήσουν τον πόλεμο πιο «ανθρώπινο». Βασιζόμενες στο σκεπτικό ότι οι άνθρωποι (στρατιώτες) συχνά σπάνε τους κανόνες της Σύμβασης της Χάγης περί ανθρώπινης συνείδησης και ανθρώπινων αξιών στον πόλεμο διαπράττοντας κτηνωδίες, υποστηρίζουν ότι ένα ρομποτικό οπλικό σύστημα, εφόσον προγραμματιστεί καταλλήλως, δεν θα μπορεί να το κάνει.

Σε δυο βάρκες η Κίνα
Η Κίνα είναι η μόνη από τις μεγάλες δυνάμεις που, φαινομενικά τουλάχιστον, διατηρεί μια στάση η οποία δείχνει πως προσπαθεί να πατήσει σε δυο βάρκες. Ισχυρίζεται ότι επί της αρχής θα υποστήριζε μια απαγόρευση των αυτόνομων όπλων, αλλά μόνο όσον αφορά τη χρήση τους, όχι όσον αφορά την ανάπτυξή τους, δηλαδή την εξέλιξη και την κατασκευή τους.

Ο γαλλογερμανικός άξονας
Η τρίτη ομάδα αποτελείται από τον άξονα Γερμανία - Γαλλία και τις χώρες που συντάσσονται με την άποψή τους. Είναι αντίθετες με μια συνολική απαγόρευση των αυτόνομων όπλων, τουλάχιστον προς το παρόν, όμως ζητάνε να υποχρεωθούν τα κράτη να μοιράζονται μεταξύ τους πληροφορίες για τα αυτόνομα όπλα που χρησιμοποιούν και αναπτύσσουν, να επιτρέπουν σε άλλους να δουν τα καινούργια τους οπλικά συστήματα και να υπάρξει ένας διεθνής κώδικας για την ανάπτυξη και τη χρήση τους σε πολέμους.

Ραγδαία εξάπλωση σε «μη φονικούς» τομείς
Στους υπόλοιπους – δυνητικά μη φονικούς – τομείς του στρατού τα αυτόνομα συστήματα ήδη εξαπλώνονται με τρομακτική ταχύτητα. Drones, μη επανδρωμένα στρατιωτικά φορτηγά, μη επανδρωμένα υποβρύχια χρησιμοποιούνται ευρέως για διάφορους μη φονικούς σκοπούς. Ειδικά αυτόνομα οχήματα και αεροσκάφη, που είναι σχεδιασμένα να εκκενώνουν περιοχές από τους τραυματίες και να παρέχουν εφόδια σε επικίνδυνα σημεία, είναι πια ενσωματωμένα και πλήρως λειτουργικά σε στρατούς όπως αυτός της Βρετανίας.
Αναπόφευκτη εξέλιξη
Ο λόγος που οι χώρες προσπαθούν να βρουν έναν κοινό τόπο για τα φονικά αυτόνομα όπλα, τις μηχανές που θα μπορούν να σκοτώνουν αδιακρίτως και χωρίς άμεση ανθρώπινη εντολή, είναι ουσιαστικά ότι η εξέλιξή τους δεν πρόκειται να σταματήσει.
1. Ο πρώτος λόγος είναι ότι η μεγαλύτερη αυτονομία στα όπλα δίνει στρατιωτικό πλεονέκτημα. Στα περισσότερα αυτόνομα συστήματα η ύπαρξη του ανθρώπινου παράγοντα, ακόμα και με τη μορφή ελέγχου εξ αποστάσεως, συνεπάγεται μια χρονική καθυστέρηση που κρίνεται ιδιαίτερα επιζήμια για ορισμένες στρατιωτικές δράσεις.
Η συνεργασία αυτών των αυτόνομων όπλων μεταξύ τους κρίνεται επίσης καλύτερη όταν απουσιάζει ο ανθρώπινος παράγοντας, αφού οι δυνατότητές τους αρχίζουν να ξεπερνούν τον βαθμό πολυπλοκότητας που θα μπορούσαν επιτυχώς να εποπτεύουν χειριστές. Για παράδειγμα το Πεντάγωνο δουλεύει πάνω σε ένα αυτόνομο σύστημα «σμηνών επίθεσης» που δεν θα κινούνται με τον συμβατικό σχηματισμό των βομβαρδιστικών, αλλά θα προσομοιάζουν με σμήνος πουλιών. Οι δυναμικές τους θα είναι υπερβολικά περίπλοκες για να συντονίζονται από ανθρώπους - χειριστές.
2. Ο δεύτερος βασικός λόγος είναι το κόστος. Το εκπαιδευμένο προσωπικό στους στρατούς είναι ακριβό. Ο στρατηγός sir Richard Barrons, ο επικεφαλής της διοίκησης Κοινών Δυνάμεων της Βρετανίας μέχρι το 2016, δήλωσε ότι «το καλό με τα ρομπότ είναι ότι δεν παίρνουν σύνταξη». Ούτε μισθό... Ούτε έχουν οικογένειες... Εν ολίγοις, κατά τον Βρετανό σερ, «η απώλεια ενός ρομπότ μετριέται μόνο σε χρήμα και λειτουργικές δυνατότητες». Όμως το να διατηρηθεί ο άνθρωπος στον έλεγχο των αυτόνομων όπλων δεν είναι, προφανώς, μόνο ζήτημα... κόστους.
3. Ο τρίτος λόγος για την αυτονομία είναι ότι η ανθρώπινη παρουσία σημαίνει αυτόματα τη μεταφορά πολλών κρυπτογραφημένων δεδομένων, πράγμα που, σύμφωνα με τους ειδικούς, ενέχει κινδύνους ασφαλείας ή κυβερνοεπίθεσης.
Όμως, και τα αυτόνομα οπλικά συστήματα δεν είναι απολύτως θωρακισμένα απέναντι σε παρεμβάσεις. Ακόμη κι αν κανείς αφήσει στην άκρη τους νόμους και την ηθική, τα αυτόνομα όπλα θα μπορούσαν να εισαγάγουν νέους κινδύνους αποσταθεροποίησης.
Όπως τονίζει το Royal United Services Institute, το βρετανικό think tank που θεωρείται αυθεντία στα θέματα άμυνας, αν δεχόμαστε την ιδέα ότι οι άνθρωποι μερικές φορές κάνουν λάθη ή λαμβάνουν εσφαλμένες αποφάσεις, τότε θα πρέπει επίσης να δεχθούμε την ιδέα ότι και τα συστήματα Τεχνητής Νοημοσύνης θα κάνουν λάθη, με τη διαφορά ότι θα τα κάνουν... γρηγορότερα από ό,τι ο άνθρωπος. Ακριβώς επειδή η Τεχνητή Νοημοσύνη βασίζεται, μαθαίνει και παίρνει τα δεδομένα από την ανθρώπινη συμπεριφορά και σκέψη.

Ασυμφωνία για τη διαχωριστική γραμμή
Οι χώρες, πάντως, ακόμα δεν έχουν συμφωνήσει ποιο είναι ακριβώς το σημείο που ξεπερνιέται η διαχωριστική γραμμή. Πότε δηλαδή ένα όπλο θεωρείται πλήρως αυτόνομο.
● Η Ελβετία, για παράδειγμα, θεωρεί ότι αυτόνομα όπλα είναι αυτά που «μπορούν να δράσουν αντικαθιστώντας πλήρως ή εν μέρει έναν άνθρωπο όσον αφορά τη χρήση βίας, ιδίως στη στόχευση στόχων». Δηλαδή, σε αυτόν τον ορισμό κατατάσσονται πολλά από τα όπλα που ήδη χρησιμοποιούνται ευρέως.
● Αντίθετα η Βρετανία θεωρεί ότι αυτόνομα είναι μόνο τα όπλα που «είναι ικανά να κατανοούν υψηλότερο επίπεδο πρόθεσης και κατεύθυνσης».
● Το 2017, ωστόσο, τα Ηνωμένα Έθνη προχώρησαν στη δημιουργία μιας ομάδας ειδικών εμπειρογνωμόνων (GGE) για να μελετήσουν τα πιο εξειδικευμένα σημεία της αυτονομίας.
Ένα από τα βασικά πεδία εξέλιξης των αυτόνομων όπλων είναι η ικανότητα να διαλέγουν τον στόχο από ένα σύνολο μη στόχων. Η τεχνολογία που το καθιστά εφικτό είναι η μηχανική μάθηση (machine learning). Η λογική είναι ότι, αν ένα iPhone μπορεί να αναγνωρίσει το πρόσωπο κάποιου, αλλά να απορρίψει το πρόσωπο π.χ. του αδελφού του, τότε κι ένας πύραυλος θα πρέπει να μπορεί να ξεχωρίσει ένα τανκ από ένα σχολικό λεωφορείο. Όμως, η αυτόματη αναγνώριση στόχου στην πράξη έχει πολλές δυσκολίες.

Ο ηθικός κώδικας
Ένα καινούργιο όπλο, το Samsung SGR-A1, μπορεί να αναγνωρίσει χέρια που σηκώνονται στον αέρα και όπλα που πετιούνται στο έδαφος ως σήμα παράδοσης, άρα να μην πυροβολήσει. Όμως τίποτα δεν διασφαλίζει ότι ένας στρατός σε μια υποθετικά δύσκολη κατάσταση δεν θα αποφασίσει να «χαλαρώσει» και να παρακάμψει ως πολυτέλειες τέτοιες λειτουργίες ηθικού κώδικα.
Όλα τα κράτη έχουν τουλάχιστον καταφέρει να συμφωνήσουν σε ένα πράγμα: ότι η ευθύνη δεν πρέπει να μεταφερθεί στις μηχανές, αλλά να βαραίνει τους ανθρώπους. Αυτοί που εισάγουν ένα όπλο στη μάχη θα πρέπει να είναι υπόλογοι για τις πράξεις του. Ακόμα κι αν τα κράτη καταφέρουν τελικά να συμφωνήσουν σε ένα κοινό πλαίσιο περιορισμού της χρήσης των αυτόνομων όπλων, αυτό θα είναι πολύ δύσκολο να εφαρμοστεί.

Θυσία ή αυτοσυντήρηση;
Σε τελική ανάλυση, όπως δήλωσε ο στρατηγός sir Richard Barrons, αν ανεπτυγμένες χώρες βρεθούν να πολεμούν σε πολέμους εθνικής επιβίωσης, αντί για πολέμους επιλογής όπως αυτοί που βλέπαμε πρόσφατα, τότε τα κράτη μάλλον θα επιλέξουν να θυσιάσουν τον ανθρώπινο έλεγχο μπροστά στην αυτοσυντήρηση: «Θα στείλουν τα δικά τους παιδιά να πολεμήσουν και να κάνουν φρικτά πράγματα ή θα στείλουν τις μηχανές ώστε να κρατήσουν τα παιδιά τους μακριά από τις μάχες;».

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Αριθμητική

  Εδώ και αιώνες οι άνθρωποι γίνονται χριστιανοί για οποιονδήποτε άλλο λόγο εκτός από το να θέλουν να είναι...χριστιανοί. Στη Βυζαντινή Αυτο...