pixabay / geralt |
Ο ισραηλινός στρατός έχει χρησιμοποιήσει μια "λίστα θανάτου" με βάση την τεχνητή νοημοσύνη για να επιλέξει πάνω από 30.000 στόχους στη Γάζα με ελάχιστη ανθρώπινη συμβολή, τροφοδοτώντας τις απώλειες αμάχων στην εμπόλεμη λωρίδα, σύμφωνα με μια εκρηκτική νέα έρευνα του +972 Magazine.
Connor Echols - responsiblestatecraft.org / Παρουσίαση Freepen.gr
Ιδιαίτερα τις πρώτες ημέρες του πολέμου στη Γάζα, το προσωπικό των Ισραηλινών Δυνάμεων Άμυνας (IDF) αγνόησε το ποσοστό 10% των ψευδώς θετικών αποτελεσμάτων της AI και σκόπιμα στόχευε υποτιθέμενους μαχητές στα σπίτια τους με μη κατευθυνόμενες "χαζές βόμβες", παρά την αυξημένη πιθανότητα βλάβης αμάχων, σύμφωνα με πηγές των IDF που μίλησαν στο +972 Magazine.
Η έρευνα ρίχνει φως στους αμέτρητους τρόπους με τους οποίους η τεχνολογία αιχμής της Τεχνητής Νοημοσύνης, σε συνδυασμό με τους χαλαρούς κανόνες εμπλοκής από τους διοικητές των IDF στο έδαφος, τροφοδότησε τα συγκλονιστικά ποσοστά απώλειας αμάχων στη Γάζα. Τουλάχιστον 33.000 Παλαιστίνιοι έχουν πεθάνει εξαιτίας της εκστρατείας του Ισραήλ, η οποία ακολούθησε μια επίθεση της Χαμάς που σκότωσε 1.200 Ισραηλινούς τον περασμένο Οκτώβριο.
Το λογισμικό στόχευσης με τεχνητή νοημοσύνη, γνωστό ως "Lavender", φέρεται να βασίζεται σε εκτεταμένα δίκτυα παρακολούθησης και αποδίδει σε κάθε κάτοικο της Γάζας μια βαθμολογία 1-100 που εκτιμά την πιθανότητα να είναι μαχητής της Χαμάς. Στη συνέχεια, οι στρατιώτες εισάγουν αυτές τις πληροφορίες σε λογισμικό γνωστό ως "Where's Daddy", το οποίο χρησιμοποιεί τεχνητή νοημοσύνη για να προειδοποιεί όταν ένας υποτιθέμενος μαχητής έχει επιστρέψει στο σπίτι του.
Προηγούμενο ρεπορτάζ του +972 Magazine αποκάλυψε την ύπαρξη ενός παρόμοιου συστήματος τεχνητής νοημοσύνης για τη στόχευση σπιτιών που χρησιμοποιούνται από μαχητές, το οποίο ονομάζεται "The Gospel". Και στις δύο περιπτώσεις, ο IDF δήλωσε ότι το +972 Magazine υπερέβαλε το ρόλο και τον αντίκτυπο αυτών των εργαλείων υψηλής τεχνολογίας.
"Το σενάριο της καταστροφής των αλγορίθμων δολοφόνων εκτυλίσσεται ήδη στη Γάζα", υποστηρίζει η Μπριάνα Ρόζεν, ανώτερη συνεργάτης του Just Security και του Πανεπιστημίου της Οξφόρδης, η οποία στο παρελθόν εργάστηκε ως στέλεχος του Συμβουλίου Εθνικής Ασφάλειας.
Ιδιαίτερα τις πρώτες ημέρες του πολέμου στη Γάζα, το προσωπικό των Ισραηλινών Δυνάμεων Άμυνας (IDF) αγνόησε το ποσοστό 10% των ψευδώς θετικών αποτελεσμάτων της AI και σκόπιμα στόχευε υποτιθέμενους μαχητές στα σπίτια τους με μη κατευθυνόμενες "χαζές βόμβες", παρά την αυξημένη πιθανότητα βλάβης αμάχων, σύμφωνα με πηγές των IDF που μίλησαν στο +972 Magazine.
Η έρευνα ρίχνει φως στους αμέτρητους τρόπους με τους οποίους η τεχνολογία αιχμής της Τεχνητής Νοημοσύνης, σε συνδυασμό με τους χαλαρούς κανόνες εμπλοκής από τους διοικητές των IDF στο έδαφος, τροφοδότησε τα συγκλονιστικά ποσοστά απώλειας αμάχων στη Γάζα. Τουλάχιστον 33.000 Παλαιστίνιοι έχουν πεθάνει εξαιτίας της εκστρατείας του Ισραήλ, η οποία ακολούθησε μια επίθεση της Χαμάς που σκότωσε 1.200 Ισραηλινούς τον περασμένο Οκτώβριο.
Το λογισμικό στόχευσης με τεχνητή νοημοσύνη, γνωστό ως "Lavender", φέρεται να βασίζεται σε εκτεταμένα δίκτυα παρακολούθησης και αποδίδει σε κάθε κάτοικο της Γάζας μια βαθμολογία 1-100 που εκτιμά την πιθανότητα να είναι μαχητής της Χαμάς. Στη συνέχεια, οι στρατιώτες εισάγουν αυτές τις πληροφορίες σε λογισμικό γνωστό ως "Where's Daddy", το οποίο χρησιμοποιεί τεχνητή νοημοσύνη για να προειδοποιεί όταν ένας υποτιθέμενος μαχητής έχει επιστρέψει στο σπίτι του.
Προηγούμενο ρεπορτάζ του +972 Magazine αποκάλυψε την ύπαρξη ενός παρόμοιου συστήματος τεχνητής νοημοσύνης για τη στόχευση σπιτιών που χρησιμοποιούνται από μαχητές, το οποίο ονομάζεται "The Gospel". Και στις δύο περιπτώσεις, ο IDF δήλωσε ότι το +972 Magazine υπερέβαλε το ρόλο και τον αντίκτυπο αυτών των εργαλείων υψηλής τεχνολογίας.
"Το σενάριο της καταστροφής των αλγορίθμων δολοφόνων εκτυλίσσεται ήδη στη Γάζα", υποστηρίζει η Μπριάνα Ρόζεν, ανώτερη συνεργάτης του Just Security και του Πανεπιστημίου της Οξφόρδης, η οποία στο παρελθόν εργάστηκε ως στέλεχος του Συμβουλίου Εθνικής Ασφάλειας.