«Δεν ξέρω τι σημαίνει να υπάρχει ένα Manhattan Project για την τεχνητή νοημοσύνη»: Ειδικοί σε θέματα πυρηνικού πολέμου μας υπενθυμίζουν τους τρομακτικούς κινδύνους που προκύπτουν αν η τεχνητή νοημοσύνη ελέγχει τα πυρηνικά μας όπλα.

Οι ειδικοί προειδοποιούν για τους σοβαρούς κινδύνους ενσωμάτωσης της τεχνητής νοημοσύνης σε συστήματα πυρηνικών όπλων, τονίζοντας ότι η αυτοματοποίηση μπορεί να δημιουργήσει ευπάθειες και λανθασμένες αποφάσεις. Η ανθρώπινη κρίση παραμένει απαραίτητη, καθώς η υπερβολική εμπιστοσύνη στην ΑΙ ενέχει απρόβλεπτες απειλές για την ανθρωπότητα.
Χρόνος αν΄άγνωσης: 3 λεπτά

Αβεβαιότητα για το «Manhattan Project» στην Τεχνητή Νοημοσύνη

Δεν γνωρίζω τι σημαίνει να έχουμε ένα Manhattan Project για την τεχνητή νοημοσύνη. Ειδικοί σε θέματα πυρηνικού πολέμου μας υπενθυμίζουν τους τρομακτικούς κινδύνους που προκύπτουν αν η τεχνητή νοημοσύνη αποκτήσει έλεγχο στα πυρηνικά μας όπλα.

Η σκιά του πυρηνικού κινδύνου

Δεν έζησα την περίοδο του Ψυχρού Πολέμου και τις επικίνδυνες στιγμές που μας έφεραν κοντά στην καταστροφή. Ωστόσο, ακόμα και οι millennials και οι νεότερες γενιές μεγάλωσαν με τον φόβο της πυρηνικής απειλής. Προσωπικά, η συνεχής πρόοδος της τεχνητής νοημοσύνης δεν με καθησυχάζει καθόλου.

Ενσωμάτωση της Τεχνητής Νοημοσύνης στα Πυρηνικά Συστήματα

Η ανησυχία μου μεγαλώνει όταν σκέφτομαι το ενδεχόμενο η τεχνητή νοημοσύνη να ενσωματωθεί σε τμήματα των συστημάτων εκτόξευσης πυρηνικών, κάτι που, όπως αναφέρει το Wired, οι ειδικοί θεωρούν αναπόφευκτο. Ο Bob Latiff, πρώην υποστράτηγος της Πολεμικής Αεροπορίας των ΗΠΑ και μέλος του Science and Security Board για το Bulletin of the Atomic Scientists, παρομοιάζει την τεχνητή νοημοσύνη με το ηλεκτρικό ρεύμα, λέγοντας ότι «θα βρει τον δρόμο της παντού».

Συζητήσεις Ειδικών και Προβληματισμοί

Διάφοροι ειδικοί—επιστήμονες, στρατιωτικοί και άλλοι—συνομίλησαν με βραβευμένους με Νόμπελ στο Πανεπιστήμιο του Σικάγο τον προηγούμενο μήνα. Παρόλο που φαίνεται να επικρατεί μια αίσθηση αναπόφευκτου για την είσοδο της τεχνητής νοημοσύνης στα πυρηνικά, κάτι που ενισχύεται από τη στρατιωτική στροφή προς την τεχνητή νοημοσύνη, δεν σημαίνει ότι όλοι συμφωνούν με αυτή την προοπτική.

Επισήμανση Κινδύνων από τους Ειδικούς

Σύμφωνα με το Wired, οι ειδικοί έσπευσαν να επισημάνουν τους κινδύνους που μπορεί να προκύψουν από ένα τέτοιο «Manhattan project». Το πρώτο που πρέπει να κατανοήσουμε είναι ότι η εκτόξευση ενός πυρηνικού όπλου δεν εξαρτάται μόνο από το τελικό γύρισμα του κλειδιού. Όπως εξηγεί το Wired, αυτό το γύρισμα είναι αποτέλεσμα «εκατοντάδων μικρών αποφάσεων, όλες από ανθρώπους». Το κρίσιμο ερώτημα είναι: σε ποιες από αυτές τις αποφάσεις θα πρέπει ή θα μπορούσε να έχει λόγο η τεχνητή νοημοσύνη;

Η Ανθρώπινη Παρέμβαση και τα Όρια της Τεχνητής Νοημοσύνης

Ευτυχώς, οι περισσότεροι συμφωνούν ότι οι τελικές αποφάσεις για τα πυρηνικά πρέπει να παραμένουν στα χέρια των ανθρώπων. Όμως, ακόμα κι αν η τεχνητή νοημοσύνη δεν έχει τον τελικό λόγο, υπάρχουν προβλήματα όταν βασιζόμαστε στις πληροφορίες ή τις προτάσεις της;

Προβληματισμοί για Αυτοματισμούς και Τρωτά Σημεία

Ο Jon Wolfsthal, διευθυντής παγκόσμιου κινδύνου στη Federation of American Scientists, εξηγεί τις ανησυχίες του: αν κάποιος αποφασίσει να αυτοματοποιήσει το σύστημα ή μέρη του, αυτό μπορεί να δημιουργήσει αδυναμίες που θα μπορούσαν να εκμεταλλευτούν αντίπαλοι ή να παραχθούν δεδομένα και προτάσεις που οι άνθρωποι δεν μπορούν να κατανοήσουν, οδηγώντας έτσι σε λανθασμένες αποφάσεις.

Η Τεχνητή Νοημοσύνη ως Νέος Τεχνολογικός Αγώνας

Έχω ήδη αναφερθεί στον ουτοπικό ενθουσιασμό για την τεχνητή νοημοσύνη που διακατέχει τη νέα τεχνολογική ελίτ, και βλέπουμε τις ΗΠΑ να επενδύουν έντονα σε αυτόν τον αγώνα—γι’ αυτό και η υπουργός ενέργειας των ΗΠΑ την αποκάλεσε το δεύτερο Manhattan project, ενώ αυτή είναι και η επίσημη θέση του Υπουργείου Ενέργειας. Δεν είναι λοιπόν απίθανο η τεχνητή νοημοσύνη να αρχίσει να αυτοματοποιεί τμήματα του συστήματος, όπως την παραγωγή δεδομένων ή προτάσεων από το «μαύρο κουτί» της.

Έλλειψη Κατανόησης και Εμπιστοσύνη στην Τεχνητή Νοημοσύνη

Το πρόβλημα επιδεινώνεται από τη γενική έλλειψη κατανόησης της τεχνητής νοημοσύνης και ίσως από μια αδικαιολόγητη εμπιστοσύνη σε αυτήν. Ο Wolfsthal συμφωνεί: «Η συζήτηση για την τεχνητή νοημοσύνη και τα πυρηνικά εμποδίζεται από δύο βασικά προβλήματα. Το πρώτο είναι ότι κανείς δεν ξέρει πραγματικά τι είναι η τεχνητή νοημοσύνη».

Κίνδυνος Λανθασμένης Ερμηνείας της Τεχνητής Νοημοσύνης

Αν θεωρήσουμε λανθασμένα ότι η τεχνητή νοημοσύνη στοχεύει εγγενώς στην αλήθεια, τότε κινδυνεύουμε να παρασυρθούμε άκριτα από τα δεδομένα ή τις προτάσεις της. Η τεχνητή νοημοσύνη δεν έχει εγγενή στόχο την αλήθεια—αυτό είναι ανθρώπινο χαρακτηριστικό. Μπορούμε να προσπαθήσουμε να την κατευθύνουμε προς αυτό που θεωρούμε αληθινό, αλλά αυτή η κατεύθυνση προέρχεται από εμάς, όχι από την ίδια.

Η Σημασία της Προσοχής και του Διαλόγου

Αν αρχίσουμε να εντάσσουμε την τεχνητή νοημοσύνη σε διαδικασίες που κρατούν κυριολεκτικά τα κλειδιά για το μέλλον της ανθρωπότητας, αυτά είναι τα ζητήματα που πρέπει να έχουμε κατά νου. Τουλάχιστον, είναι θετικό ότι τέτοιες συζητήσεις γίνονται μεταξύ ειδικών σε θέματα πυρηνικού πολέμου και διάδοσης, καθώς και όσων διαμορφώνουν το πώς θα αντιμετωπίσουμε το πρόβλημα στο μέλλον.

[ Πηγή: PCGamer ]

Άφησε ένα σχόλιο!

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Τυχαία άρθρα

Σχετικά άρθρα

Κατηγορίες