Συντριβή – Κορυφαίοι επιστήμονες τεχνητής νοημοσύνης έχουν μια προειδοποίηση για εμάς: Τα ρομπότ ήδη μας έχουν ξεπεράσει

Κοινοποίηση:
dba61ba1a1a4a6ad594dbabf29a0fe01_XL

Μια πρόσφατη ερευνητική εργασία, την οποία συνυπέγραψαν περισσότεροι από 40 επιστήμονες από αυτά τα κορυφαία εργαστήρια Τεχνητής Νοημοσύνης, αναδεικνύει ένα αυξανόμενο ζήτημα που απειλεί τη διαφάνεια στα συστήματα Τεχνητής Νοημοσύνης.

Σήμερα, πολλά μοντέλα είναι σε θέση να μοιράζονται τη διαδικασία σκέψης τους με τρόπο κατανοητό από τον άνθρωπο, συχνά αναλύοντας τα προβλήματα βήμα προς βήμα χρησιμοποιώντας φυσική γλώσσα.
Αυτή η συλλογιστική «αλυσίδας σκέψης» δεν είναι απλώς χρήσιμη, αλλά και απαραίτητη.
Επιτρέπει στους ερευνητές να εντοπίζουν πιθανά προβλήματα στη συμπεριφορά ενός μοντέλου, να εντοπίζουν έγκαιρα τους κινδύνους ασφαλείας και να κατανοούν καλύτερα πώς και γιατί λαμβάνονται οι αποφάσεις.

Όπως επισημαίνει η εργασία, όταν τα μοντέλα κάνουν παράξενες ή δυνητικά επικίνδυνες επιλογές, συχνά η εσωτερική τους συλλογιστική, γραμμένη σε απλά αγγλικά, αποκαλύπτει το πρόβλημα προτού γίνει ζήτημα του πραγματικού κόσμου.
Αυτό το είδος ορατότητας έχει ουσιαστικά χρησιμεύσει ως σύστημα έγκαιρης προειδοποίησης για την ασφάλεια της Τεχνητής Νοημοσύνης.

Ωστόσο, αυτή η διαφάνεια ενδέχεται να διακυβεύεται.
Καθώς τα συστήματα Τεχνητής Νοημοσύνης γίνονται πιο ισχυρά και οι μέθοδοι εκπαίδευσης γίνονται πιο προσανατολισμένες στο αποτέλεσμα, τα μοντέλα θα μπορούσαν να αρχίσουν να εγκαταλείπουν εντελώς την πρακτική της σκέψης στη γλώσσα.
Αντί να εξηγούν τις σκέψεις τους, τα μελλοντικά συστήματα ενδέχεται να στραφούν προς ταχύτερες, λιγότερο ερμηνεύσιμες μεθόδους.

Οι ερευνητές βλέπουν ήδη σημάδια ότι ορισμένα μοντέλα εγκαταλείπουν την αγγλική γλώσσα υπέρ ασαφών συντομεύσεων, αναπτύσσοντας ακόμη και συστήματα συλλογισμού που λειτουργούν εξ ολοκλήρου σε αφηρημένο μαθηματικό χώρο εντελώς απρόσιτο στην ανθρώπινη κατανόηση.
Οι ερευνητές που συμμετείχαν στη μελέτη τονίζουν ότι δεν ζητούν να σταματήσει η πρόοδος.

Αλλά παροτρύνουν την κοινότητα της Τεχνητής Νοημοσύνης να δράσει τώρα για να προστατεύσει τη διαφάνεια.
Εάν οι προγραμματιστές συνεχίσουν σε μια πορεία που δίνει προτεραιότητα στα αποτελέσματα έναντι της συλλογιστικής, το παράθυρο στη μηχανική σκέψη μπορεί να κλείσει οριστικά.
Και μόλις συμβεί αυτό, χάνουμε όχι μόνο τη διορατικότητα, αλλά και τον έλεγχο.

Υποστηρίζουν την ανάγκη να διατηρήσουμε, ακόμη και να ενισχύσουμε, την ικανότητά μας να παρακολουθούμε και να αξιολογούμε τον τρόπο με τον οποίο τα μοντέλα τεχνητής νοημοσύνης καταλήγουν στα συμπεράσματά τους.
Αυτό σημαίνει την κατασκευή εργαλείων για την πιο αξιόπιστη παρακολούθηση της συλλογιστικής, τη δημιουργία τυποποιημένων μεθόδων για τον έλεγχο της διαφάνειας και τη λήψη συνειδητών επιλογών σχετικά με τα σχέδια που θα προωθήσουμε.
Διαφορετικά, ο τομέας θα μπορούσε να βρεθεί με εξαιρετικά ισχυρά συστήματα που είναι ουσιαστικά μαύρα κουτιά, μηχανές των οποίων οι αποφάσεις διαμορφώνουν τον κόσμο, αλλά η λογική των οποίων παραμένει μυστήριο.

Το μήνυμα των ερευνητών είναι επείγον αλλά σαφές:
Εάν η Τεχνητή Νοημοσύνη σταματήσει να εξηγεί τον εαυτό της, χάνουμε έναν από τους τελευταίους ουσιαστικούς τρόπους για να τη διατηρήσουμε ευθυγραμμισμένη με τις ανθρώπινες αξίες.
Χωρίς διαφάνεια, η εποπτεία καθίσταται σχεδόν αδύνατη.
Και σε έναν κόσμο όπου η Τεχνητή Νοημοσύνη επηρεάζει τα πάντα, από τις επιχειρήσεις έως την πολιτική και τις προσωπικές αποφάσεις, αυτός είναι ένας κίνδυνος που μπορεί να μην μπορούμε να αντέξουμε οικονομικά.

ΚΟΙΝΟΠΟΗΣΗ:

Leave a Response