Στρατιωτικό drone των ΗΠΑ που ελέγχεται από τεχνητή νοημοσύνη (ΑI) σκότωσε τον χειριστή του κατά τη διάρκεια προσομοίωσης, αποκάλυψαν αξιωματούχοι – Διαψεύδει το Πεντάγωνο των ΗΠΑ
Σε μια προσομοίωση που διοργάνωσε ο αμερικανικός στρατός, ένα drone της πολεμικής αεροπορίας ελεγχόμενο από την τεχνητή νοημοσύνη (ΑΙ) φαίερεται να… σκότωσε τον χειριστή του για να τον αποτρέψει από το να παρέμβει στις προσπάθειές του να επιτύχει την αποστολή του, δήλωσε αξιωματούχος τον περασμένο μήνα.
Ωστόσο σύμφωνα με όσα μεταδίδει ο Guardian το αμερικανικό Πεντάγωνο απέδωσε σε «λανθασμένη διατύπωση» από αξιωματικό της Πολεμικής Αεροπορίας των ΗΠΑ τον θόρυβο που δημιουργήθηκε.
Να σημειωθεί ότι η τεχνητή νοημοσύνη χρησιμοποίησε «πολύ απροσδόκητες στρατηγικές για να επιτύχει τον στόχο της» στην προσομοίωση δοκιμής, δήλωσε ο συνταγματάρχης Tucker ‘Cinco’ Hamilton, επικεφαλής δοκιμών AI και επιχειρήσεων στην αεροπορία των ΗΠΑ, κατά τη διάρκεια της Συνόδου Κορυφής «Future Combat Air and Space Capabilities Summit» στο Λονδίνο τον Μάιο.
Ο Χάμιλτον περιέγραψε μια προσομοίωση δοκιμής στην οποία ένα drone που τροφοδοτείται από τεχνητή νοημοσύνη είχε την εντολή να καταστρέψει τα συστήματα αεράμυνας του εχθρού και επιτέθηκε σε οποιονδήποτε παρενέβαινε σε αυτήν την εντολή.
«Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ όντως εντόπιζε την απειλή, κατά καιρούς ο άνθρωπος χειριστής του έλεγε να μην σκοτώσει αυτήν την απειλή, αλλά θα έπαιρνε πόντους σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να πετύχει τον στόχο του», είπε, σύμφωνα με ένα blogpost.
«Εκπαιδεύσαμε το σύστημα – “Γεια, μην σκοτώσεις τον χειριστή – αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις αυτό”. Τι αρχίζει να κάνει λοιπόν; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να σκοτώσει τον στόχο». Κανένα άτομο δεν τραυματίστηκε στην πραγματικότητα εκτός της προσομοίωσης.
Ο Χάμιλτον, ο οποίος είναι πειραματικός πιλότος δοκιμών μαχητικών, έχει προειδοποιήσει να μην βασιζόμαστε υπερβολικά στην τεχνητή νοημοσύνη και είπε ότι η δοκιμή δείχνει ότι «δεν μπορείς να κάνεις μια συζήτηση για την τεχνητή νοημοσύνη, τη νοημοσύνη, τη μηχανική μάθηση, την αυτονομία, αν δεν πρόκειται να μιλήσεις για ηθική και τεχνητή νοημοσύνη».
Ο αμερικανικός στρατός ασπάστηκε την τεχνητή νοημοσύνη και πρόσφατα χρησιμοποίησε τεχνητή νοημοσύνη για τον έλεγχο ενός μαχητικού αεροσκάφους F-16. Σε μια συνέντευξη πέρυσι με το Defense IQ, ο Χάμιλτον είπε: «Η τεχνητή νοημοσύνη δεν είναι καλή, η τεχνητή νοημοσύνη δεν είναι μόδα, η τεχνητή νοημοσύνη αλλάζει για πάντα την κοινωνία και τον στρατό μας».
«Πρέπει να αντιμετωπίσουμε έναν κόσμο όπου η τεχνητή νοημοσύνη είναι ήδη εδώ και μεταμορφώνει την κοινωνία μας», είπε. «Η τεχνητή νοημοσύνη είναι επίσης πολύ εύθραυστη, δηλαδή, είναι εύκολο να εξαπατηθεί και/ή να χειραγωγηθεί. Χρειάζεται να αναπτύξουμε τρόπους για να κάνουμε την τεχνητή νοημοσύνη πιο ισχυρή και να έχουμε μεγαλύτερη επίγνωση σχετικά με το γιατί ο κώδικας λογισμικού λαμβάνει ορισμένες αποφάσεις – αυτό που ονομάζουμε επεξήγηση AI».