Φανταστείτε δολοφονικά ρομπότ Τεχνητής Νοημοσύνης στη Γάζα και το Ντονμπάς

pixabay / myshoun
Τα σμήνη μη επανδρωμένων αεροσκαφών είναι μόνο η αρχή. Τι θα συμβεί όταν θα είναι πραγματικά αυτόνομα και θα επικοινωνούν μεταξύ τους;

Ναι, είναι ήδη καιρός να ανησυχείτε - να ανησυχείτε πολύ. Όπως έδειξαν οι πόλεμοι στην Ουκρανία και τη Γάζα, τα πρώτα μη επανδρωμένα αεροσκάφη που αντιστοιχούν σε "ρομπότ δολοφόνους" έχουν φτάσει στο πεδίο της μάχης και έχουν αποδειχθεί καταστροφικά όπλα. Αλλά τουλάχιστον παραμένουν σε μεγάλο βαθμό υπό ανθρώπινο έλεγχο. Φανταστείτε, για μια στιγμή, έναν κόσμο πολέμου στον οποίο αυτά τα εναέρια drones (ή τα ισοδύναμα επίγεια και θαλάσσια) θα μας έλεγχαν, αντί για το αντίστροφο. Τότε θα βρισκόμασταν σε έναν καταστροφικά διαφορετικό πλανήτη, με τρόπο που ίσως να φαίνεται σχεδόν αδιανόητος σήμερα. Δυστυχώς, όμως, κάθε άλλο παρά αδιανόητο είναι, δεδομένων των εργασιών πάνω στην τεχνητή νοημοσύνη (AI) και τα ρομποτικά όπλα που έχουν ήδη ξεκινήσει οι μεγάλες δυνάμεις. Τώρα, επιτρέψτε μου να σας μεταφέρω σε αυτόν τον απόκρυφο κόσμο και να προσπαθήσω να οραματιστώ τι μπορεί να σημαίνει το μέλλον του πολέμου για τους υπόλοιπους από εμάς.

hMichael T. Klare  - tomdispatch.com / Παρουσίαση Freepen.gr

Συνδυάζοντας την τεχνητή νοημοσύνη με την προηγμένη ρομποτική, ο στρατός των ΗΠΑ και εκείνοι άλλων προηγμένων δυνάμεων εργάζονται ήδη σκληρά για τη δημιουργία μιας σειράς αυτοκαθοδηγούμενων "αυτόνομων" οπλικών συστημάτων - μη επανδρωμένων αεροσκαφών μάχης που μπορούν να ασκήσουν θανατηφόρα βία ανεξάρτητα από οποιονδήποτε ανθρώπινο αξιωματικό που προορίζεται να τα διοικεί. Τα αποκαλούμενα από τους επικριτές "ρομπότ δολοφόνων", οι συσκευές αυτές περιλαμβάνουν μια ποικιλία μη επανδρωμένων ή "μη στελεχωμένων" αεροπλάνων, αρμάτων μάχης, πλοίων και υποβρυχίων ικανών για αυτόνομη λειτουργία. Η Πολεμική Αεροπορία των ΗΠΑ, για παράδειγμα, αναπτύσσει το "συνεργατικό αεροσκάφος μάχης", ένα μη επανδρωμένο εναέριο όχημα (UAV) που προορίζεται να συνοδεύει τα πιλοτικά αεροσκάφη σε αποστολές υψηλού κινδύνου. 

Ο Στρατός δοκιμάζει ομοίως μια ποικιλία αυτόνομων μη επανδρωμένων οχημάτων εδάφους (UGV), ενώ το Ναυτικό πειραματίζεται τόσο με μη επανδρωμένα σκάφη επιφανείας (USV) όσο και με μη επανδρωμένα υποβρύχια (UUV). Η Κίνα, η Ρωσία, η Αυστραλία και το Ισραήλ εργάζονται επίσης σε τέτοια όπλα για τα πεδία μάχης του μέλλοντος.

Η επικείμενη εμφάνιση αυτών των δολοφονικών μηχανών έχει προκαλέσει ανησυχία και διαμάχη σε παγκόσμιο επίπεδο, με ορισμένες χώρες να επιδιώκουν ήδη την πλήρη απαγόρευσή τους και άλλες, συμπεριλαμβανομένων των ΗΠΑ, να σχεδιάζουν να επιτρέψουν τη χρήση τους μόνο υπό την επίβλεψη ανθρώπων. Στη Γενεύη, μια ομάδα κρατών προσπάθησε ακόμη και να απαγορεύσει την ανάπτυξη και τη χρήση πλήρως αυτόνομων όπλων, επικαλούμενη μια συνθήκη του ΟΗΕ του 1980, τη Σύμβαση για ορισμένα συμβατικά όπλα, η οποία αποσκοπεί στον περιορισμό ή την απαγόρευση μη πυρηνικών πυρομαχικών που πιστεύεται ότι είναι ιδιαίτερα επιβλαβή για τους αμάχους. Εν τω μεταξύ, στη Νέα Υόρκη, η Γενική Συνέλευση του ΟΗΕ διεξήγαγε την πρώτη της συζήτηση για τα αυτόνομα όπλα τον περασμένο Οκτώβριο και σχεδιάζει μια πλήρη επανεξέταση του θέματος το ερχόμενο φθινόπωρο.

Ως επί το πλείστον, η συζήτηση σχετικά με τη χρήση τέτοιων συσκευών στο πεδίο της μάχης εξαρτάται από το κατά πόσον θα έχουν τη δυνατότητα να αφαιρούν ανθρώπινες ζωές χωρίς ανθρώπινη επίβλεψη. Πολλές θρησκευτικές οργανώσεις και οργανώσεις της κοινωνίας των πολιτών υποστηρίζουν πως τα συστήματα αυτά δε θα είναι σε θέση να διακρίνουν μεταξύ μαχητών και αμάχων στο πεδίο της μάχης και συνεπώς θα πρέπει να απαγορευτούν προκειμένου να προστατευθούν οι μη μαχητές από το θάνατο ή τον τραυματισμό, όπως απαιτεί το διεθνές ανθρωπιστικό δίκαιο.

Οι Αμερικανοί αξιωματούχοι, από την άλλη πλευρά, υποστηρίζουν ότι τα όπλα αυτά μπορούν να σχεδιαστούν έτσι ώστε να λειτουργούν άψογα εντός των νομικών περιορισμών.

Ωστόσο, καμία πλευρά σε αυτή τη συζήτηση δεν έχει ασχοληθεί με την πιο δυνητικά εκνευριστική πτυχή της χρήσης τους στη μάχη: την πιθανότητα πως, αργά ή γρήγορα, θα είναι σε θέση να επικοινωνούν μεταξύ τους χωρίς ανθρώπινη παρέμβαση και, όντας "έξυπνα", θα είναι σε θέση να επινοήσουν τις δικές τους μη προγραμματισμένες τακτικές για να νικήσουν έναν εχθρό - ή κάτι εντελώς διαφορετικό. Μια τέτοια ομαδική σκέψη που καθοδηγείται από τους υπολογιστές, η οποία χαρακτηρίζεται ως "αναδυόμενη συμπεριφορά" από τους επιστήμονες της πληροφορικής, ανοίγει μια σειρά από κινδύνους που δεν έχουν ακόμη ληφθεί υπόψη από τους αξιωματούχους στη Γενεύη, την Ουάσιγκτον ή τον ΟΗΕ.

Προς το παρόν, τα περισσότερα από τα αυτόνομα όπλα που αναπτύσσει ο αμερικανικός στρατός θα είναι μη επανδρωμένες (ή, όπως λένε μερικές φορές, "μη κατοικημένες") εκδόσεις των υφιστάμενων πολεμικών πλατφορμών και θα είναι σχεδιασμένα να λειτουργούν σε συνδυασμό με τα αντίστοιχα επανδρωμένα. Ενώ μπορεί επίσης να έχουν κάποια ικανότητα επικοινωνίας μεταξύ τους, θα αποτελούν μέρος μιας "δικτυωμένης" ομάδας μάχης, της οποίας η αποστολή θα υπαγορεύεται και θα επιβλέπεται από ανθρώπινους διοικητές. Το συνεργατικό μαχητικό αεροσκάφος (Collaborative Combat Aircraft), για παράδειγμα, αναμένεται να χρησιμεύσει ως "πιστός αρωγός" για το επανδρωμένο μαχητικό stealth F-35, ενώ θα εκτελεί αποστολές υψηλού κινδύνου σε αμφισβητούμενο εναέριο χώρο. Ο Στρατός και το Ναυτικό έχουν ακολουθήσει σε μεγάλο βαθμό παρόμοια πορεία στην προσέγγισή τους για την ανάπτυξη αυτόνομων όπλων.

Η έφεση των "σμηνών" ρομπότ

Ωστόσο, ορισμένοι Αμερικανοί στρατηγοί έχουν υπερασπιστεί μια εναλλακτική προσέγγιση για τη χρήση αυτόνομων όπλων στα μελλοντικά πεδία μάχης, όπου αυτά δε θα υπηρετούν ως κατώτεροι συνάδελφοι σε ομάδες υπό ανθρώπινη ηγεσία, αλλά ως ισότιμα μέλη αυτοκατευθυνόμενων σμηνών ρομπότ. Τέτοιοι σχηματισμοί θα αποτελούνται από δεκάδες ή ακόμη και εκατοντάδες UAV, USV ή UGV με δυνατότητα τεχνητής νοημοσύνης - όλα ικανά να επικοινωνούν μεταξύ τους, να μοιράζονται δεδομένα σχετικά με τις μεταβαλλόμενες συνθήκες στο πεδίο της μάχης και να αλλάζουν συλλογικά την τακτική μάχης τους, όπως κρίνει απαραίτητο το ομαδικό πνεύμα.

"Οι αναδυόμενες ρομποτικές τεχνολογίες θα επιτρέψουν στις αυριανές δυνάμεις να πολεμήσουν ως σμήνος, με μεγαλύτερη μάζα, συντονισμό, ευφυΐα και ταχύτητα από τις σημερινές δικτυωμένες δυνάμεις", προέβλεψε ο Paul Scharre, ένας πρώιμος ενθουσιώδης υποστηρικτής της ιδέας, σε μια έκθεση του 2014 για το Κέντρο για μια Νέα Αμερικανική Ασφάλεια (CNAS). "Τα δικτυωμένα, συνεργατικά αυτόνομα συστήματα", έγραφε τότε, "θα είναι ικανά για να λειτουργήσουν ως πραγματικό σμήνος - συνεργατική συμπεριφορά μεταξύ κατανεμημένων στοιχείων που οδηγεί σε ένα συνεκτικό, ευφυές σύνολο".

Όπως κατέστησε σαφές ο Scharre στην προφητική του έκθεση, οποιαδήποτε πλήρης υλοποίηση της έννοιας του σμήνους θα απαιτούσε την ανάπτυξη προηγμένων αλγορίθμων που θα επέτρεπαν στα αυτόνομα συστήματα μάχης να επικοινωνούν μεταξύ τους και να "ψηφίζουν" για τους προτιμώμενους τρόπους επίθεσης. Αυτό, σημείωσε, θα απαιτούσε τη δημιουργία λογισμικού που θα μπορούσε να μιμηθεί τα μυρμήγκια, τις μέλισσες, τους λύκους και άλλα πλάσματα που παρουσιάζουν συμπεριφορά "σμήνους" στη φύση. Όπως το έθεσε ο Scharre: "Όπως οι λύκοι σε μια αγέλη παρουσιάζουν στον εχθρό τους μια συνεχώς μεταβαλλόμενη θολούρα απειλών από όλες τις κατευθύνσεις, έτσι και τα μη επανδρωμένα οχήματα που μπορούν να συντονίζουν ελιγμούς και επιθέσεις θα μπορούσαν να είναι σημαντικά πιο αποτελεσματικά από τα ασυντόνιστα συστήματα που λειτουργούν μαζικά". Το 2014, ωστόσο, η τεχνολογία που απαιτείται για να καταστεί δυνατή μια τέτοια συμπεριφορά μηχανών βρισκόταν ακόμη στα σπάργανα. Για να αντιμετωπιστεί αυτή η κρίσιμη έλλειψη, το Υπουργείο Άμυνας προχώρησε στη χρηματοδότηση της έρευνας στον τομέα της τεχνητής νοημοσύνης και της ρομποτικής, ακόμη και όταν απέκτησε επίσης τέτοια τεχνολογία από ιδιωτικές εταιρείες όπως η Google και η Microsoft. Βασική φιγούρα σε αυτή την προσπάθεια ήταν ο Robert Work, πρώην συνάδελφος του Paul Scharre στο CNAS και πρώιμος ενθουσιώδης υποστηρικτής του πολέμου σμήνους. Ο Γουόρκ υπηρέτησε από το 2014 έως το 2017 ως αναπληρωτής υπουργός Άμυνας, μια θέση που του επέτρεψε να κατευθύνει όλο και μεγαλύτερα χρηματικά ποσά στην ανάπτυξη όπλων υψηλής τεχνολογίας, ιδίως μη επανδρωμένων και αυτόνομων συστημάτων.

Από το Mosaic στον Replicator

Μεγάλο μέρος αυτής της προσπάθειας ανατέθηκε στην Υπηρεσία Προηγμένων Αμυντικών Ερευνητικών Προγραμμάτων (DARPA), τον εσωτερικό ερευνητικό οργανισμό υψηλής τεχνολογίας του Πενταγώνου. Στο πλαίσιο της προσπάθειας ανάπτυξης τεχνητής νοημοσύνης για τέτοιου είδους συνεργατικές επιχειρήσεις σμήνους, η DARPA ξεκίνησε το πρόγραμμα "Mosaic", μια σειρά έργων που αποσκοπούν στην τελειοποίηση των αλγορίθμων και άλλων τεχνολογιών που απαιτούνται για το συντονισμό των δραστηριοτήτων επανδρωμένων και μη επανδρωμένων συστημάτων μάχης σε μελλοντικές μάχες υψηλής έντασης με τη Ρωσία ή/και την Κίνα.

"Εφαρμόζοντας τη μεγάλη ευελιξία της έννοιας του μωσαϊκού στον πόλεμο", εξήγησε ο Dan Patt, αναπληρωτής διευθυντής του Γραφείου Στρατηγικής Τεχνολογίας της DARPA, "τα χαμηλότερου κόστους, λιγότερο πολύπλοκα συστήματα μπορούν να συνδεθούν μεταξύ τους με έναν τεράστιο αριθμό τρόπων για να δημιουργήσουν τα επιθυμητά, αλληλένδετα αποτελέσματα προσαρμοσμένα σε κάθε σενάριο. Τα επιμέρους μέρη ενός μωσαϊκού είναι αξιοποιήσιμα [αναλώσιμα], αλλά μαζί είναι ανεκτίμητα για τον τρόπο με τον οποίο συμβάλλουν στο σύνολο".

Αυτή η έννοια του πολέμου προφανώς διέπει τη νέα στρατηγική " Replicator " που ανακοινώθηκε από την αναπληρώτρια υπουργό Άμυνας Kathleen Hicks μόλις το περασμένο καλοκαίρι. "Ο Replicator προορίζεται να μας βοηθήσει να ξεπεράσουμε το μεγαλύτερο πλεονέκτημα [της Κίνας], το οποίο είναι η μάζα. Περισσότερα πλοία. Περισσότεροι πύραυλοι. Περισσότεροι άνθρωποι", δήλωσε σε αξιωματούχους της βιομηχανίας όπλων τον περασμένο Αύγουστο. Με την ανάπτυξη χιλιάδων αυτόνομων UAVs, USVs, UUVs και UGVs, πρότεινε, ο στρατός των ΗΠΑ θα είναι σε θέση να ξεγελάσει, να ελιχθεί και να εξουδετερώσει τον στρατό της Κίνας, τον Λαϊκό Απελευθερωτικό Στρατό (PLA).

Όταν τα σμήνη επιλέγουν το δικό τους μονοπάτι

Με άλλα λόγια, είναι μόνο θέμα χρόνου μέχρι ο στρατός των ΗΠΑ (και πιθανώς της Κίνας, της Ρωσίας και ίσως και μερικών άλλων δυνάμεων) να είναι σε θέση να αναπτύξει σμήνη αυτόνομων οπλικών συστημάτων εξοπλισμένα με αλγόριθμους που τους επιτρέπουν να επικοινωνούν μεταξύ τους και να επιλέγουν από κοινού νέους, απρόβλεπτους μαχητικούς ελιγμούς ενώ βρίσκονται σε κίνηση. Σε κάθε συμμετέχον ρομποτικό μέλος τέτοιων σμηνών θα δίνεται ένας στόχος αποστολής ("αναζητήστε και καταστρέψτε όλα τα εχθρικά ραντάρ και τις συστοιχίες αντιαεροπορικών πυραύλων που βρίσκονται εντός αυτών των [καθορισμένων] γεωγραφικών συντεταγμένων"), αλλά δεν θα δίνονται ακριβείς οδηγίες για το πώς να το πράξει. Αυτό θα τους επέτρεπε να επιλέγουν τις δικές τους τακτικές μάχης σε συνεννόηση μεταξύ τους. Εάν τα περιορισμένα δεδομένα δοκιμών που διαθέτουμε μπορούν να χρησιμοποιηθούν, αυτό θα μπορούσε να σημαίνει τη χρήση άκρως αντισυμβατικών τακτικών που δεν έχουν σχεδιαστεί ποτέ για (και είναι αδύνατο να αναπαραχθούν από) ανθρώπινους πιλότους και διοικητές.

Η τάση τέτοιων διασυνδεδεμένων συστημάτων τεχνητής νοημοσύνης να εμπλέκονται σε νέα, μη προγραμματισμένα αποτελέσματα είναι αυτό που οι ειδικοί στους υπολογιστές αποκαλούν "αναδυόμενη συμπεριφορά". Όπως εξηγεί το ScienceDirect, μια σύνοψη επιστημονικών περιοδικών, "μια αναδυόμενη συμπεριφορά μπορεί να περιγραφεί ως μια διαδικασία κατά την οποία μεγαλύτερα πρότυπα προκύπτουν μέσω αλληλεπιδράσεων μεταξύ μικρότερων ή απλούστερων οντοτήτων που οι ίδιες δε παρουσιάζουν τέτοιες ιδιότητες".

Σε στρατιωτικούς όρους, αυτό σημαίνει ότι ένα σμήνος αυτόνομων όπλων μπορεί να επιλέξει από κοινού να υιοθετήσει τακτικές μάχης που καμία από τις μεμονωμένες συσκευές δεν ήταν προγραμματισμένη να εκτελέσει - ενδεχομένως επιτυγχάνοντας εκπληκτικά αποτελέσματα στο πεδίο της μάχης, αλλά επίσης είναι πιθανό να εμπλακεί σε κλιμακούμενες πράξεις που δεν είχαν προγραμματιστεί και δεν είχαν προβλεφθεί από τους ανθρώπινους διοικητές τους, συμπεριλαμβανομένης της καταστροφής κρίσιμων πολιτικών υποδομών ή εγκαταστάσεων επικοινωνιών που χρησιμοποιούνται για πυρηνικές και συμβατικές επιχειρήσεις.

Σε αυτό το σημείο, βέβαια, είναι σχεδόν αδύνατο να προβλέψουμε τι θα μπορούσε να επιλέξει να κάνει μια εξωγήινη ομάδα-μυαλό αν ήταν οπλισμένη με πολλαπλά όπλα και αποκομμένη από την ανθρώπινη εποπτεία. Υποτίθεται πως τέτοια συστήματα θα ήταν εξοπλισμένα με μηχανισμούς ασφαλείας που θα απαιτούσαν να επιστρέφουν στη βάση τους αν χάνονταν οι επικοινωνίες με τους ανθρώπινους επόπτες τους, είτε λόγω εχθρικών παρεμβολών είτε για οποιονδήποτε άλλο λόγο. Ποιος ξέρει, ωστόσο, πώς θα λειτουργούσαν αυτές οι σκεπτόμενες μηχανές σε απαιτητικές συνθήκες του πραγματικού κόσμου ή αν, στην πραγματικότητα, ο ομαδικός νους θα αποδεικνυόταν ικανός να παρακάμψει τέτοιες οδηγίες και να χτυπήσει μόνος του.

Τότε τι γίνεται; Μήπως θα επέλεγαν να συνεχίσουν να πολεμούν πέρα από τα προ-προγραμματισμένα όριά τους, προκαλώντας ακούσια κλιμάκωση - ακόμη και, ενδεχομένως, πυρηνική; Ή θα επέλεγαν να σταματήσουν τις επιθέσεις τους στις εχθρικές δυνάμεις και αντ' αυτού να παρεμβαίνουν στις επιχειρήσεις των φιλικών δυνάμεων, ίσως πυροβολώντας και καταστρέφοντάς τες (όπως κάνει ο Skynet στην κλασική σειρά ταινιών επιστημονικής φαντασίας Terminator); Ή μήπως θα μπορούσαν να εμπλακούν σε συμπεριφορές που, προς το καλύτερο ή προς το απείρως χειρότερο, είναι εντελώς πέρα από τη φαντασία μας;

Κορυφαίοι αξιωματούχοι του αμερικανικού στρατού και της διπλωματίας επιμένουν ότι η τεχνητή νοημοσύνη μπορεί πράγματι να χρησιμοποιηθεί χωρίς να αναλαμβάνει τέτοιους μελλοντικούς κινδύνους και πως η χώρα αυτή θα χρησιμοποιήσει μόνο συσκευές που ενσωματώνουν απόλυτα επαρκείς δικλείδες ασφαλείας έναντι οποιασδήποτε μελλοντικής επικίνδυνης κακής συμπεριφοράς. Αυτό είναι, στην πραγματικότητα, το βασικό σημείο που αναφέρεται στην "Πολιτική Διακήρυξη για την υπεύθυνη στρατιωτική χρήση της τεχνητής νοημοσύνης και της αυτονομίας" που εκδόθηκε από το Στέιτ Ντιπάρτμεντ τον Φεβρουάριο του 2023. Πολλοί επιφανείς αξιωματούχοι της ασφάλειας και της τεχνολογίας γνωρίζουν, ωστόσο, πάρα πολύ καλά τους πιθανούς κινδύνους από την αναδυόμενη συμπεριφορά των μελλοντικών ρομποτικών όπλων και συνεχίζουν να εκδίδουν προειδοποιήσεις κατά της ταχείας χρήσης της τεχνητής νοημοσύνης στον πόλεμο.

Ιδιαίτερη μνεία αξίζει να γίνει στην τελική έκθεση που εξέδωσε η Επιτροπή Εθνικής Ασφάλειας για την Τεχνητή Νοημοσύνη τον Φεβρουάριο του 2021. Υπό τη συμπροεδρία του Robert Work (που επέστρεψε στο CNAS μετά το πέρασμά του από το Πεντάγωνο) και του Eric Schmidt, πρώην διευθύνοντος συμβούλου της Google, η επιτροπή συνέστησε την ταχεία αξιοποίηση της Τεχνητής Νοημοσύνης από τον αμερικανικό στρατό για να εξασφαλιστεί η νίκη σε οποιαδήποτε μελλοντική σύγκρουση με την Κίνα ή/και τη Ρωσία. Ωστόσο, εξέφρασε επίσης την ανησυχία της για τους πιθανούς κινδύνους από τα κορεσμένα από ρομπότ πεδία μάχης.

"Η ανεξέλεγκτη παγκόσμια χρήση τέτοιων συστημάτων ενέχει δυνητικά τον κίνδυνο ακούσιας κλιμάκωσης των συγκρούσεων και αστάθειας των κρίσεων", σημειώνεται στην έκθεση. Αυτό θα μπορούσε να συμβεί για διάφορους λόγους, μεταξύ άλλων "λόγω των προκλητικών και μη δοκιμασμένων περιπλοκών της αλληλεπίδρασης μεταξύ των συστημάτων όπλων με τεχνητή νοημοσύνη και των αυτόνομων οπλικών συστημάτων [δηλαδή των αναδυόμενων συμπεριφορών] στο πεδίο της μάχης". Δεδομένου αυτού του κινδύνου, κατέληξε, "οι χώρες πρέπει να αναλάβουν δράσεις που επικεντρώνονται στη μείωση των κινδύνων που συνδέονται με τα συστήματα όπλων με δυνατότητα AI και τα αυτόνομα οπλικά συστήματα".

Όταν οι κορυφαίοι υποστηρικτές των αυτόνομων όπλων μας λένε να ανησυχούμε για τους ακούσιους κινδύνους που εγκυμονεί η χρήση τους στη μάχη, οι υπόλοιποι από εμάς θα πρέπει να ανησυχούμε πραγματικά. Ακόμα και αν δεν έχουμε τις μαθηματικές ικανότητες για να κατανοήσουμε την αναδυόμενη συμπεριφορά της τεχνητής νοημοσύνης, θα πρέπει να είναι προφανές ότι η ανθρωπότητα θα μπορούσε να αντιμετωπίσει σημαντικό κίνδυνο για την ύπαρξή της, αν οι φονικές μηχανές αποκτήσουν την ικανότητα να σκέφτονται μόνες τους. Ίσως να αιφνιδιάσουν τους πάντες και να αποφασίσουν να αναλάβουν το ρόλο των διεθνών ειρηνοφυλάκων, αλλά δεδομένου πως σχεδιάζονται για να πολεμούν και να σκοτώνουν, είναι πολύ πιο πιθανό να επιλέξουν απλώς να εκτελέσουν αυτές τις οδηγίες με ανεξάρτητο και ακραίο τρόπο.

Αν είναι έτσι, μπορεί να μην υπάρχει κανείς να βάλει ένα R.I.P. στην ταφόπλακα της ανθρωπότητας.

Νεότερη Παλαιότερη
--------------
Ακούστε το τελευταίο ηχητικό από τη ΜΕΣΗ ΓΡΑΜΜΗ


Η Freepen.gr ουδεμία ευθύνη εκ του νόμου φέρει για τα άρθρα / αναρτήσεις που δημοσιεύονται και απηχούν τις απόψεις των συντακτών τους και δε σημαίνει πως τα υιοθετεί. Σε περίπτωση που θεωρείτε πως θίγεστε από κάποιο εξ αυτών ή ότι υπάρχει κάποιο σφάλμα, επικοινωνήστε μέσω e-mail