Το δυστοπικό μέλλον για το οποίο προειδοποιεί ο Geoffrey Hinton, o «νονός» της τεχνητής νοημοσύνης, φαίνεται να έρχεται ολοταχώς καταπάνω μας, όσο αναπτύσσεται η Artificial Intelligence τεχνολογία και όσο μεταμορφώνει πολλές πτυχές της ζωής μας. Τι κινδύνους εγκυμονεί αυτή η νέα πραγματικότητα;
Η κάμερα του υπολογιστή του Hinton ανοίγει και η φιγούρα του εμφανίζεται σε μια μεγάλη οθόνη μπροστά στο κοινό που παρευρίσκεται στην καθιερωμένη συνάντηση του MIT, EmTech Digital, με θέμα το μέλλον της νοημοσύνης. Ο γνωστικός ψυχολόγος και επιστήμονας υπολογιστών, γνωστός κυρίως για το έργο του στα τεχνητά νευρωνικά δίκτυα, είχε πολύ πρόσφατα αποχωρήσει εκουσίως από την θέση του ως αντιπρόεδρος και μηχανικός συνεργάτης της Google, καθώς άλλαξε γνώμη για τη σχέση μεταξύ ανθρώπων και ψηφιακής νοημοσύνης.
«Θα είμαστε τόσο εύκολα χειραγωγήσιμοι. Αποδεικνύεται ότι αν μπορείς να χειραγωγήσεις τους ανθρώπους, μπορείς να εισβάλλεις σε ένα κτήριο της Γουάσινγκτον, χωρίς να χρειαστεί καν να πας ποτέ εκεί ο ίδιος», ανέφερε μεταξύ άλλων ο Geoffrey Hinton. Αυτή του η φράση φαίνεται να συμπυκνώνει τις ανησυχίες του, ότι ο αγώνας μεταξύ της Microsoft και της Google θα προωθήσει την ανάπτυξη της τεχνητής νοημοσύνης, χωρίς να υπάρχουν οι κατάλληλες προστατευτικές μπάρες και κανονισμοί.
Ο Hinton δεν αποτελεί την εξαίρεση στον κανόνα, καθώς πολλοί ειδικοί έχουν εγείρει σημαντικά ερωτήματα και προβληματισμούς για το κατά πόσο η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για κακόβουλους σκοπούς, με κερδοσκοπικό χαρακτήρα και να απειλήσει θέσεις εργασίας. Ορισμένοι πιστεύουν ότι αυτό θα μπορούσε να συμβεί μέσα στην επόμενη δεκαετία. Σε ένα σχόλιο, ο Elon Musk έγραψε, «Ο ρυθμός προόδου στην τεχνητή είναι απίστευτα γρήγορος…δεν έχετε ιδέα πόσο γρήγορα – αναπτύσσεται με ρυθμό που πλησιάζει τον εκθετικό. Ο κίνδυνος να συμβεί κάτι σοβαρά επικίνδυνο είναι στο χρονικό διάστημα των πέντε ετών. 10 χρόνια το πολύ». Οι ακριβείς επιπτώσεις αυτού του γεγονότος είναι ωστόσο, σε γενικές γραμμές άγνωστες.
Τι είναι η τεχνητή νοημοσύνη και πώς λειτουργεί;
Η τεχνητή νοημοσύνη επιτρέπει σε έναν υπολογιστή να ενεργεί και να ανταποκρίνεται σχεδόν σαν να είναι άνθρωπος. Οι υπολογιστές μπορούν να τροφοδοτούνται με τεράστιες ποσότητες πληροφοριών και να εκπαιδεύονται να αναγνωρίζουν τα μοτίβα σε αυτές, προκειμένου να κάνουν προβλέψεις, να επιλύουν προβλήματα, ή ακόμη και να μαθαίνουν από τα ίδια τους τα λάθη.
Εκτός από τα δεδομένα, η τεχνητή νοημοσύνη βασίζεται σε αλγορίθμους – καταλόγους κανόνων που πρέπει να ακολουθηθούν με τη σωστή σειρά για την ολοκλήρωση μιας εργασίας. Η ίδια τεχνολογία που βρίσκεται πίσω από τους εικονικούς βοηθούς Siri και Alexa που ελέγχονται με φωνή, που επιτρέπει στο Spotify και το YouTube να σας προτείνουν τι θα θέλατε να παίξετε στη συνέχεια και που βοηθά το Facebook και το Twitter να αποφασίσουν ποιες αναρτήσεις στα μέσα κοινωνικής δικτύωσης θα δείξουν στους χρήστες. Η Amazon επίσης χρησιμοποιεί αυτή την τεχνολογία, αφού της επιτρέπει να αναλύει τις αγοραστικές συνήθειες των πελατών για να προτείνει μελλοντικές αγορές.
Στον πυρήνα της, η τεχνητή νοημοσύνη αφορά τη δημιουργία μηχανών που μπορούν να σκέφτονται και να ενεργούν έξυπνα και περιλαμβάνει εργαλεία όπως οι αλγόριθμοι αναζήτησης της Google, ή οι μηχανές που καθιστούν δυνατή την αυτοοδήγηση των αυτοκινήτων. Ουσιαστικά οι ειδικοί στον τομέα αυτό, εργάζονται για να φτάσουν σε μια πιο γενικευμένη μορφή της AI, όπου τα συστήματα θα μπορούν να διεκπεραιώνουν οποιαδήποτε εργασία που θα μπορούσε να εκτελέσει ο ευφυής άνθρωπος, και πιθανότατα καλύτερα από εμάς.
Ενώ οι περισσότερες τρέχουσες εφαρμογές χρησιμοποιούνται για να επηρεάσουν θετικά την ανθρωπότητα, κάθε ισχυρό εργαλείο μπορεί να χρησιμοποιηθεί για επιβλαβείς σκοπούς, ειδικά όταν πέσει σε λάθος χέρια. Για παράδειγμα, αν η τεχνητή νοημοσύνη είναι υπεύθυνη για τη διασφάλιση της λειτουργίας του ηλεκτρικού μας δικτύου και οι χειρότεροι φόβοι μας πραγματοποιηθούν και το σύστημα ξεφύγει ή χακαριστεί από κάποιον εχθρό, αυτό θα μπορούσε να οδηγήσει σε μαζική βλάβη.
Συγκεντρωτικά οι κίνδυνοι της τεχνητής νοημοσύνης μπορούν να επηρεάσουν αρνητικά πτυχές της ζωής, της οικονομίας και της κοινωνίας μας που δεν μπορούμε ακόμα να σκεφτούμε. Μπορούμε ωστόσο, να ρίξουμε λίγο φως σε αυτό που ο Hinton αποκάλεσε ως «υπαρξιακή απειλή» και το πώς μελλοντικά θα μπορούσε ίσως μας αλλοιώσει.
Πώς μπορεί η τεχνητή νοημοσύνη να γίνει επικίνδυνη;
Παρόλο που δεν έχουμε επιτύχει ακόμη υπερ-ευφυείς μηχανές, τα νομικά, πολιτικά, κοινωνικά, οικονομικά και ρυθμιστικά ζητήματα είναι τόσο πολύπλοκα και εκτεταμένα που είναι απαραίτητο να τα εξετάσουμε τώρα, ώστε να είμαστε προετοιμασμένοι να λειτουργούμε με ασφάλεια ανάμεσά τους όταν έρθει η ώρα. Εκτός από την προετοιμασία για ένα μέλλον με υπερ-ευφυείς μηχανές τώρα, η τεχνητή νοημοσύνη μπορεί ήδη να εγκυμονεί κινδύνους στην τρέχουσα μορφή της. Ας ρίξουμε μια ματιά σε μερικούς βασικούς κινδύνους που σχετίζονται με την τεχνητή νοημοσύνη.
Τα αυτόνομα όπλα
Μια τεχνητή νοημοσύνη προγραμματισμένη να κάνει κάτι που βλάπτει, μπορεί να αποτελέσει έναν από τους μεγαλύτερους κινδύνους. Ειδικά αν προσαρμοστεί ως τεχνολογία πάνω στα σύγχρονα οπλικά συστήματα. Ίσως μάλιστα να είναι εύλογο να περιμένουμε ότι η κούρσα των πυρηνικών όπλων θα αντικατασταθεί από μια παγκόσμια κούρσα αυτόνομων όπλων. Ο πρόεδρος της Ρωσίας Βλαντιμίρ Πούτιν δήλωσε προσφάτως ότι η τεχνητή νοημοσύνη είναι το μέλλον, όχι μόνο για τη Ρωσία, αλλά για όλη την ανθρωπότητα, καθώς έρχεται με τεράστιες ευκαιρίες, αλλά και απειλές που είναι δύσκολο να προβλεφθούν. Ο ίδιος δήλωσε ότι όποιος γίνει ηγέτης σε αυτόν τον τομέα θα γίνει ο κυρίαρχος του κόσμου.
Εκτός από την ανησυχία ότι τα αυτόνομα όπλα μπορεί να αποκτήσουν «δικό τους μυαλό», μια πιο άμεση ανησυχία είναι οι κίνδυνοι που μπορεί να έχουν τα αυτόνομα όπλα στα χέρια ενός ατόμου, ή μιας κυβέρνησης που δεν εκτιμά την ανθρώπινη ζωή. Μόλις αναπτυχθούν, θα είναι πιθανότατα δύσκολο να αποσυναρμολογηθούν, ή να καταπολεμηθούν.
Κοινωνική χειραγώγηση
Τα μέσα κοινωνικής δικτύωσης μέσω των αυτόνομων αλγορίθμων τους είναι πολύ αποτελεσματικά στο στοχευμένο μάρκετινγκ. Γνωρίζουν ποιοι είμαστε, τι μας αρέσει και είναι απίστευτα ικανά στο να υποθέτουν τι σκεφτόμαστε. Αν παραδειγματιστούμε από το σκάνδαλο της Cambridge Analytica που χρησιμοποίησε τα δεδομένα 50 εκατομμυρίων χρηστών του Facebook για να επηρεάσει το αποτέλεσμα των προεδρικών εκλογών του 2016 στις ΗΠΑ και του δημοψηφίσματος για το Brexit στο Ηνωμένο Βασίλειο, κατανοούμε τη δυναμική της τεχνητής νοημοσύνης στην κοινωνική χειραγώγηση. Διαδίδοντας προπαγάνδα σε άτομα που αναγνωρίζονται μέσω αλγορίθμων και προσωπικών δεδομένων, το AI μπορεί να στοχεύσει και να διαδώσει οποιαδήποτε πληροφορία, σε όποια μορφή θα πείσει περισσότερο, είτε είναι γεγονός, είτε μυθοπλασία.
Εισβολή στην ιδιωτική ζωή και κοινωνική διαβάθμιση
Το γεγονός ότι οι κάμερες βρίσκονται σχεδόν παντού και οι αλγόριθμοι αναγνώρισης προσώπου γνωρίζουν ποιοι είμαστε κάνει δυνατή την παρακολούθηση και ανάλυση κάθε κίνησης ενός ατόμου στο διαδίκτυο, αλλά και στην ζωή του έξω από αυτό. Στην πραγματικότητα, αυτό είναι το είδος των πληροφοριών που πρόκειται να τροφοδοτήσει το σύστημα κοινωνικής βαθμολόγησης της Κίνας, το οποίο αναμένεται να δώσει σε κάθε έναν από τους 1,4 δισεκατομμύρια πολίτες της μια προσωπική βαθμολογία με βάση τον τρόπο συμπεριφοράς του – πράγματα όπως το αν περνάει με το αμάξι, αν καπνίζει σε χώρους μη καπνιζόντων και πόσο χρόνο ξοδεύει παίζοντας βιντεοπαιχνίδια. Θυμίζοντας αρκετά τον Μεγάλο Αδελφό του Orwell, η τεχνητή νοημοσύνη δεν μπορεί απλά να χρησιμοποιηθεί για την παραβίαση της ιδιωτικής ζωής μας, αλλά για την κοινωνική καταπίεσή μας.
Tεχνητή νοημοσύνη και εργασία
Η τεχνητή νοημοσύνη έχει τη δυνατότητα να φέρει επανάσταση στον κόσμο της εργασίας, αλλά αυτό εγείρει ερωτήματα σχετικά με το ποιους ρόλους μπορεί να εκτοπίσει. Σε πρόσφατη έκθεση της επενδυτικής τράπεζας Goldman Sachs, αναφέρεται ότι η τεχνητή νοημοσύνη θα μπορούσε να αντικαταστήσει 300 εκατομμύρια θέσεις εργασίας πλήρους απασχόλησης σε όλο τον κόσμο, αφού ορισμένα καθήκοντα και λειτουργίες της εργασίας θα αυτοματοποιούνται. Η έκθεση υπογράμμισε μια σειρά από κλάδους και ρόλους που θα μπορούσαν να επηρεαστούν, συμπεριλαμβανομένων των διοικητικών θέσεων εργασίας, των νομικών εργασιών, της αρχιτεκτονικής και της διοίκησης.
Αν και στην πραγματικότητα κάθε ισχυρή τεχνολογία μπορεί να χρησιμοποιηθεί καταχρηστικά, σήμερα, η τεχνητή νοημοσύνη χρησιμοποιείται για πολλούς καλούς σκοπούς. Βοηθάει να κάνουμε καλύτερες ιατρικές διαγνώσεις, να βρούμε νέους τρόπους για να θεραπείας και να κάνουμε τα αυτοκίνητά μας πιο ασφαλή. Η έκθεση της Goldman Sachs εντόπισε επίσης τεράστια δυνητικά οφέλη για πολλούς τομείς και προέβλεψε ότι η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει σε αύξηση του παγκόσμιου ΑΕΠ κατά 7%. Ορισμένοι τομείς της ιατρικής και της επιστήμης επωφελούνται ήδη από την τεχνητή νοημοσύνη, με τους γιατρούς να χρησιμοποιούν την τεχνολογία για να εντοπίζουν τον καρκίνο του μαστού και τους επιστήμονες να τη χρησιμοποιούν για την ανάπτυξη νέων αντιβιοτικών.
Δεδομένου ότι η τεχνολογία AI εξελίσσεται τόσο γρήγορα, είναι ζωτικής σημασίας να αρχίσουμε να συζητάμε και να ερευνούμε τους καλύτερους τρόπους που μπορεί αυτή να αναπτυχθεί θετικά, ελαχιστοποιώντας παράλληλα τις καταστροφικές δυνατότητές της. Αντιθέτως, μπορούμε να αρκεστούμε σε αυτό που είπε ο φιλόσοφος, Noam Chomsky για την τεχνητή νοημοσύνη. «Το ανθρώπινο μυαλό είναι ένα εκπληκτικά αποτελεσματικό και κομψό σύστημα που λειτουργεί με μικρές ποσότητες πληροφοριών- δεν επιδιώκει να συμπεράνει ωμές συσχετίσεις μεταξύ σημείων δεδομένων, αλλά να δημιουργήσει εξηγήσεις» και αυτό μάλλον δεν μπορεί να το αντιγράψει μια μηχανή. Πηγή: protothema.gr