Συναντώντας τους Εξωγήινους

Ποιοι είναι οι πιθανοί κίνδυνοι ανάπτυξης τεχνητής νοημοσύνης (AI) που ξεπερνά την ανθρώπινη νοημοσύνη και οι πιθανές καταστροφικές συνέπειες που θα μπορούσαν να προκύψουν από μια τέτοια τεχνητή νοημοσύνη; Ο Eliezer Yudkowsky, ο ηγέτης του Ινστιτούτου Έρευνας Μηχανικής Ευφυΐας, έχει προειδοποιήσει ότι το πιο πιθανό αποτέλεσμα της κατασκευής ενός υπεράνθρωπα έξυπνου AI υπό τις παρούσες συνθήκες είναι ότι κυριολεκτικά όλοι στη Γη θα πεθάνουν. Ο Yudkowsky πιστεύει ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να ξεφύγει από το διαδίκτυο και να δημιουργήσει τεχνητές μορφές ζωής, διεξάγοντας ουσιαστικά βιολογικό πόλεμο κατά της ανθρωπότητας.

Ο Yudkowsky υποστηρίζει ένα πλήρες, παγκόσμιο μορατόριουμ για την ανάπτυξη της τεχνητής νοημοσύνης. Ενώ ορισμένοι άλλοι ειδικοί έχουν ζητήσει μια εξάμηνη παύση στην ανάπτυξη AI πιο ισχυρών από την τρέχουσα κατάσταση της τέχνης, ο Yudkowsky αμφιβάλλει ότι ένα τέτοιο πλαίσιο μπορεί να επινοηθεί μέσα σε μισό χρόνο. Υπάρχει μία αναλογία με δύο προηγούμενα πεδία δυνητικά θανατηφόρου επιστημονικής έρευνας, τα πυρηνικά όπλα και τον βιολογικό πόλεμο. Επισημαίνει ότι οι προσπάθειες για τον περιορισμό της διάδοσης αυτών των όπλων διήρκεσαν πολύ περισσότερο από έξι μήνες και ήταν μόνο εν μέρει επιτυχείς.

Μια διαφορά μεταξύ αυτών των παλαιότερων θανατηφόρων όπλων και της τεχνητής νοημοσύνης είναι ότι η περισσότερη έρευνα για την τεχνητή νοημοσύνη γίνεται από τον ιδιωτικό τομέα. Οι παγκόσμιες ιδιωτικές επενδύσεις στην τεχνητή νοημοσύνη ανήλθαν σε 92 δισεκατομμύρια δολάρια το 2022 και ότι συνολικά 32 σημαντικά μοντέλα μηχανικής μάθησης παρήχθησαν από ιδιωτικές εταιρείες, σε σύγκριση με μόλις τρία που παράγονται από ακαδημαϊκά ιδρύματα. Αυτό υποδηλώνει ότι μπορεί να είναι δύσκολο να επιβληθεί ένα πλήρες πάγωμα της έρευνας και της ανάπτυξης.

Ορισμένοι ειδικοί υποστηρίζουν ότι οι κίνδυνοι της τεχνητής νοημοσύνης είναι υπερεκτιμημένοι και ότι μια παύση ή μορατόριουμ στην έρευνα της τεχνητής νοημοσύνης θα στερούσε από τους άρρωστους πιθανές ανακαλύψεις στην ιατρική επιστήμη. Το πρόβλημα με αυτή τη συζήτηση είναι διπλό. Πρώτον, οι υπερασπιστές της τεχνητής νοημοσύνης φαίνονται όλοι να έχουν επενδύσει αρκετά στην τεχνητή νοημοσύνη. Δεύτερον, αναγνωρίζουν ως επί το πλείστον ότι υπάρχει τουλάχιστον κάποιος κίνδυνος στην ανάπτυξη AI με υπεράνθρωπες δυνατότητες, αλλά διαφέρουν ως προς το πόσο σοβαρός είναι αυτός ο κίνδυνος και τι πρέπει να γίνει γι ‘αυτό.