Ένας ερευνητής, τον οποίο υποστηρίζει ο Έλον Μασκ, κρούει εκ νέου τον κώδωνα του κινδύνου σχετικά με την απειλή της AI (τεχνητή νοημοσύνη...
Ένας ερευνητής, τον οποίο υποστηρίζει ο Έλον Μασκ, κρούει εκ νέου τον κώδωνα του κινδύνου σχετικά με την απειλή της AI (τεχνητή νοημοσύνη) για την ανθρωπότητα. Όπως τονίζει, δεν έχει βρει καμία απόδειξη ότι η τεχνολογία αυτή μπορεί να ελεγχθεί.
Ο ειδικός σε θέματα ασφάλειας της τεχνητής νοημοσύνης, Dr. Roman V. Yampolskiy, έχει λάβει χρηματοδότηση από τον δισεκατομμυριούχο για να μελετήσει προηγμένα ευφυή συστήματα που αποτελούν το επίκεντρο του επερχόμενου βιβλίου του «AI: Unexplainable, Unpredictable, Uncontrollable».

πηγή: freepik.com
Τα τελευταία χρόνια, ο κόσμος έχει γίνει μάρτυρας της τεχνητής νοημοσύνης που ξεκίνησε με τη δημιουργία ερωτημάτων, τη σύνταξη μηνυμάτων ηλεκτρονικού ταχυδρομείου και τη συγγραφή κώδικα. Τώρα, τέτοια συστήματα εντοπίζουν τον καρκίνο, δημιουργούν νέα φάρμακα και χρησιμοποιούνται για την αναζήτηση και επίθεση στόχων στο πεδίο της μάχης.
Και οι ειδικοί έχουν προβλέψει ότι η τεχνολογία θα φτάσει στη μοναδικότητα (singularity) μέχρι το 2045, όταν δηλαδή η τεχνολογία θα ξεπεράσει την ανθρώπινη νοημοσύνη και θα έχει την ικανότητα να αναπαράγεται μόνη της, οπότε μπορεί να μην είμαστε σε θέση να την ελέγξουμε.
«Γιατί τόσοι πολλοί ερευνητές υποθέτουν ότι το πρόβλημα του ελέγχου της τεχνητής νοημοσύνης είναι επιλύσιμο;» αναρωτήθηκε ο Yampolskiy. «Εξ όσων γνωρίζουμε, δεν υπάρχει καμία απόδειξη γι’ αυτό, καμία απόδειξη. Πριν ξεκινήσουμε μια προσπάθεια για την κατασκευή μιας ελεγχόμενης AI, είναι σημαντικό να δείξουμε ότι το πρόβλημα είναι επιλύσιμο» τόνισε.
Αν και ο ερευνητής δήλωσε ότι πραγματοποίησε μια εκτεταμένη ανασκόπηση για να καταλήξει στο συμπέρασμα, το ποια ακριβώς βιβλιογραφία χρησιμοποιήθηκε είναι άγνωστο προς το παρόν. Αυτό που έκανε ο Yampolskiy ήταν να παράσχει το σκεπτικό του για τον λόγο που πιστεύει ότι η τεχνητή νοημοσύνη δεν μπορεί να ελεγχθεί – η τεχνολογία μπορεί να μάθει, να προσαρμοστεί και να ενεργήσει ημιαυτόνομα.
«Τέτοιες ικανότητες καθιστούν τις δυνατότητες λήψης αποφάσεων άπειρες, και αυτό σημαίνει ότι υπάρχει άπειρος αριθμός θεμάτων ασφαλείας που μπορούν να προκύψουν», εξήγησε.
Και επειδή η τεχνολογία προσαρμόζεται στην πορεία, οι άνθρωποι μπορεί να μην είναι σε θέση να προβλέψουν τα ζητήματα.

«Εάν δεν κατανοούμε τις αποφάσεις της AI και έχουμε μόνο ένα “μαύρο κουτί”, δεν μπορούμε να κατανοήσουμε το πρόβλημα και να μειώσουμε την πιθανότητα μελλοντικών ατυχημάτων», δήλωσε ο Yampolskiy.
«Για παράδειγμα, τα συστήματα τεχνητής νοημοσύνης έχουν ήδη αναλάβει να λαμβάνουν αποφάσεις στην υγειονομική περίθαλψη, τις επενδύσεις, την απασχόληση, τις τράπεζες και την ασφάλεια, για να αναφέρουμε μερικά από αυτά. Τέτοια συστήματα θα πρέπει να είναι σε θέση να εξηγούν πώς κατέληξαν στις αποφάσεις τους, ιδίως για να δείχνουν ότι είναι απαλλαγμένα από προκαταλήψεις» συνέχισε.
«Αν συνηθίσουμε να αποδεχόμαστε τις απαντήσεις της τεχνητής νοημοσύνης χωρίς εξήγηση, αντιμετωπίζοντάς την ουσιαστικά ως ένα σύστημα μαντείας, δεν θα είμαστε σε θέση να καταλάβουμε αν αρχίζει να δίνει λανθασμένες ή χειραγωγικές απαντήσεις» συμπλήρωσε ο Yampolskiy.
Σημείωσε επίσης ότι όσο αυξάνονται οι δυνατότητες της τεχνητής νοημοσύνης, αυξάνεται και η αυτονομία της, αλλά μειώνεται ο έλεγχός μας πάνω της. «Η ανθρωπότητα βρίσκεται αντιμέτωπη με μια επιλογή, θα γίνουμε σαν μωρά, που μας φροντίζουν αλλά δεν έχουμε τον έλεγχο ή θα απορρίψουμε την ύπαρξη ενός χρήσιμου κηδεμόνα αλλά θα παραμείνουμε υπεύθυνοι και ελεύθεροι», προειδοποίησε ο Yampolskiy.
Δεν υπάρχουν σχόλια
Σημείωση: Μόνο ένα μέλος αυτού του ιστολογίου μπορεί να αναρτήσει σχόλιο.