«Το τέλος του κόσμου είναι πιο κοντά από ό,τι νομίζετε» – Επανάσταση ή εξαφάνιση; – Το δίλημμα της Τεχνητής Νοημοσύνης

Κοινοποίηση:

Αυτό που λείπει τόσο στις ΗΠΑ, όσο και στον υπόλοιπο κόσμο είναι ότι χρειάζεται βαθύτερη εκπαίδευση είναι στην ευαισθητοποίηση σχετικά με το πώς η Τεχνητή Νοημοσύνη θέτει «νέες προκλήσεις για την υπεράσπιση της ανθρώπινης αξιοπρέπειας, της δικαιοσύνης και της εργασίας», όπως είπε πρόσφατα ο Πάπας Λέων ΙΔ΄. Ξέχασε όμως να θέσει την πρόκληση της ίδιας της ανθρώπινης ύπαρξης.

Αν και τα λόγια του Ποντίφικα βρίσκουν σύμφωνο τον Κοσμήτορα Παγκόσμιας Επιχειρηματικότητας στο The Fletcher School, στο Πανεπιστήμιο Ταφτ, Μπασκάρ Τσακραβόρτι, ωστόσο υπάρχουν ζητήματα που θέτει η Τεχνητή Νοημοσύνη.

Με ανάλυσή του στο Foreign Policy, ο Μπασκάρ καταγράφει αυτούς τους 10 κινδύνους ξεκινώντας από την ίδια την απειλή του ανθρώπινου είδους λόγω χρήσης της Τεχνητής Νοημοσύνης.

«Το τέλος του κόσμου είναι πιο κοντά από ό,τι νομίζετε» λέει υπενθυμίζοντας όταν πολλοί κορυφαίοι ειδικοί ζητούσαν τον Μάρτιο του 2023, παύση στην ανάπτυξη της Τεχνητής Νοημοσύνης.

Οι ανησυχίες τους αφορούσαν τους «βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα».

Στη μεγαλύτερη έρευνα εμπειρογνωμόνων Τεχνητής Νοημοσύνης και μηχανικής μάθησης, το 48% όσων θεωρούσε τους εαυτούς τους «αισιόδοξους για το δίκτυο της Τεχνητής Νοημοσύνης» έδιναν πιθανότητα 5% στην εξαφάνιση της ανθρώπινης ζωής λόγω της Τεχνητής Νοημοσύνης. Για τον Μπασκάρ πρόκειται για έναν απαράδεκτα υψηλό κίνδυνο από κάθε άποψη.

«Ενώ κάποιος θα μπορούσε να απορρίψει τέτοιες ανησυχίες ως υπερβολικές, οι πιθανότητες ενός κακού αποτελέσματος έχουν πλέον χειροτερέψει» υπογραμμίζει ο επιστήμονας.

«Στην πραγματικότητα, θα μπορούσε να έχει γίνει πιο επικίνδυνη, με αναδυόμενες καινοτομίες, όπως ρομπότ Τεχνητής Νοημοσύνης που μπορούν να λαμβάνουν ανεξάρτητες αποφάσεις, ίσως πυροδοτώντας αυτόνομα μια αντιπαράθεση» λέει.

Επίσης μπορεί να δούμε τους κανονισμούς ασφαλείας της Τεχνητής Νοημοσύνης να μειώνονται υπό την κυβέρνηση Τραμπ, αλλά και τη ρητορική των ΗΠΑ εναντίον της Κίνας –μιας ανταγωνίστριας στην Τεχνητή Νοημοσύνη- να γίνεται ακόμη πιο έντονη.

Γι αυτό και για τον επιστήμονας πρέπει να θεσπιστεί τώρα ένας διακόπτης κλεισίματος «kill switch» ως πρότυπο σε ολόκληρο τον κλάδο, κάτι που ειπώθηκε τον Μαΐοο του 2024 στη Σεούλ. Τότε μεγάλες εταιρείες που αναπτύσσουν Τεχνητή Νοημοσύνη προσφέρθηκαν εθελοντικά να απομακρύνουν την Τεχνητή Νοημοσύνη από αυτοματοποιημένες επιθέσεις και να επιτρέψουν στα συστήματα να απενεργοποιούνται αυτόματα σε περίπτωση καταστροφής.

Χάσμα εμπιστοσύνης στην Τεχνητή Νοημοσύνη

Δεύτερον, ο Μπασκάρ λέει ότι ενώ τα μοντέλα και τα εργαλεία Τεχνητής Νοημοσύνης βελτιώνονται, η εμπιστοσύνη των χρηστών στις εταιρείες Τεχνητής Νοημοσύνης έχει μειωθεί, δημιουργώντας ένα χάσμα αισιοδοξίας μεταξύ των προγραμματιστών και των τακτικών χρηστών. Η δυσπιστία οφείλεται σε 4 λόγους λέει ο ειδικός.

Πρώτον, τα μεγάλα γλωσσικά μοντέλα συχνά «παραισθάνονται» και επιστρέφουν με ψευδείς, συχνά παράξενες, πληροφορίες. Το ποσοστό παραισθήσεων των μεγάλων μοντέλων Τεχνητής Νοημοσύνης κυμαινόταν από 0,7 έως 29,9% στις 29 Απριλίου, σύμφωνα με έναν «κατάλογο παραισθήσεων». Τα προβλήματα επιδεινώνονται όταν η Τεχνητή Νοημοσύνη χρησιμοποιεί «συστήματα συλλογισμού».

Δεύτερον, η Τεχνητή Νοημοσύνη είναι επιρρεπής στην ενίσχυση προϋπαρχουσών προκαταλήψεων, όπως αναπαράγοντας φυλετικά και έμφυλα στερεότυπα.

Τρίτον, τα μοντέλα Τεχνητής Νοημοσύνης δεν είναι διαφανή σχετικά με τον τρόπο ανάπτυξης των αλγορίθμων, την πηγή και την ποιότητα των δεδομένων εκπαίδευσης ή τη σύνθεση των ομάδων ανάπτυξης. Η ιατρική απεικόνιση παρουσιάζει ένα συναρπαστικό παράδειγμα ενός διλήμματος λόγω αυτού του χαρακτηριστικού του «μαύρου κουτιού»: Ενώ τα νευρωνικά δίκτυα είναι καλά στην ανίχνευση δεικτών ασθένειας σε σαρώσεις ασθενών, ενδέχεται να μην προσφέρουν σαφή συλλογισμό.

Τέταρτον, η φύση του μαύρου κουτιού της Τεχνητής Νοημοσύνης αυξάνει επίσης τις ανησυχίες σχετικά με την προστασία των προσωπικών δεδομένων, την ιδιωτικότητα και το κατά πόσον υπάρχουν ηθικά πλαίσια για την προστασία των ατόμων.

Μια λύση, για τον Μπασκάρ είναι ότι οι προγραμματιστές τεχνητής νοημοσύνης μπορούν να επενδύσουν σε τεχνολογίες που βελτιώνουν την αξιοπιστία των προϊόντων τους, όπως τεχνικές αύξησης δεδομένων, δημιουργία βρόχων ανατροφοδότησης και χρήση μετρήσεων για τον έλεγχο μεροληψίας σε σύνολα δεδομένων εκπαίδευσης, όπως η ανομοιογενής επίδραση για τη μέτρηση της ανισότητας αποτελεσμάτων μεταξύ ομάδων ή οι εξισορροπημένες πιθανότητες για να διασφαλιστεί ότι οι προβλέψεις ενός μοντέλου είναι εξίσου ακριβείς σε διαφορετικές προστατευμένες ομάδες.

Δεν θα υπάρχει ισότιμη πρόσβαση

Τρίτον, ενώ το ChatGPT έσπασε ιστορικά ρεκόρ για την υιοθέτηση τεχνολογίας, η υιοθέτηση της πληρωμένης τεχνητής νοημοσύνης ήταν άνιση παρά τον θόρυβο και τα εμφανή οφέλη. λέει ο ειδικός. Η Ramp, μια εταιρεία διαχείρισης εταιρικών εξόδων, διαπίστωσε ότι ενώ οι δαπάνες για την τεχνητή νοημοσύνη έχουν αυξηθεί, μόνο περίπου το 1/3 των εταιρειών έχουν πληρώσει για ένα εργαλείο τεχνητής νοημοσύνης.

Σε αντίθεση με το διαδίκτυο ή τα μέσα κοινωνικής δικτύωσης, τα οποία είναι ελεύθερα διαθέσιμα σε αντάλλαγμα για έκθεση σε δεδομένα και διαφημίσεις, η τιμολόγηση των εργαλείων τεχνητής νοημοσύνης είναι πιθανό να είναι διαφορετική και θα οδηγήσει σε διαφορετικά επίπεδα πρόσβασης. Η επιμονή ενός χάσματος εμπιστοσύνης στην τεχνητή νοημοσύνη θα ενισχύσει την άνιση χρήση και ικανότητα, πιθανώς οδηγώντας σε πράγματα που έχουν και δεν έχουν η τεχνητή νοημοσύνη.

Για να ξεπεραστεί αυτό, οι εργοδότες μπορούν να εκπαιδεύσουν τους εργαζόμενους να ανιχνεύουν αναξιόπιστες πληροφορίες που παράγονται από την τεχνητή νοημοσύνη και να γίνουν καλύτεροι χρήστες της τεχνολογίας, αυξάνοντας έτσι το επίπεδο άνεσής τους με τη χρήση της.

Δεν θα φέρει επανάσταση στην παραγωγικότητα

Σύμφωνα με την McKinsey, η παραγωγική Τεχνητή Νοημοσύνη θα μπορούσε να ενισχύσει την αύξηση της παραγωγικότητας της εργασίας κατά 0,1–0,6% ετησίως έως το 2040. Ο συνδυασμός της με όλες τις άλλες τεχνολογίες θα μπορούσε να προσθέσει 0,5–3,4 ποσοστιαίες μονάδες ετησίως στην αύξηση της παραγωγικότητας. Κρίνοντας από παλαιότερες τεχνολογίες, δεν αναμένεται κάτι θετικό και από την τεχνητή νοημοσύνη. Ο ειδικός υπενθυμίζει ότι Η αύξηση της παραγωγικότητας των εργαζομένων στις ΗΠΑ μειώθηκε όταν εισήχθησαν οι πρώτες ψηφιακές τεχνολογίες.

Ακόμα χειρότερα, ο ακαδημαϊκός της Οξφόρδης Jean-Paul Carvalho υποστήριξε ότι η ανάθεση διαφόρων γνωστικών εργασιών στην Τεχνητή Νοημοσύνη θα μπορούσε να καταστρέψει την ανθρώπινη παραγωγικότητα. Από τους Αμερικανούς εφήβους που ερωτήθηκαν, 7 στους 10 έχουν χρησιμοποιήσει ένα εργαλείο παραγωγικής Τεχνητής Νοημοσύνης και το 53% το χρησιμοποίησε για βοήθεια με τις εργασίες για το σπίτι, γεγονός που ανησυχεί τους εκπαιδευτικούς για τη μείωση της κριτικής σκέψης και την επιδείνωση των γνωστικών δεξιοτήτων.

Αναμένεται μεγαλύτερη ανισότητα εισοδήματος

Η Τεχνητή Νοημοσύνη, αναμφίβολα, θα επηρεάσει τον τρόπο με τον οποίο γίνεται η εργασία στο μέλλον. Περίπου το 60% των θέσεων εργασίας στον ανεπτυγμένο κόσμο έχουν εκτεθεί στην Τεχνητή Νοημοσύνη, καθώς και το 40% και 26% στις αναδυόμενες αγορές και στις χώρες χαμηλού εισοδήματος, αντίστοιχα.

Ενώ δεν θα εκτοπιστούν όλες οι θέσεις εργασίας που εκτίθενται, δεν υπάρχει αμφιβολία ότι πολλοί εργοδότες βλέπουν την Τεχνητή Νοημοσύνη ως έναν τρόπο μείωσης του εργατικού δυναμικού τους. Σύμφωνα με τον βραβευμένο με Νόμπελ και καθηγητή Ντάρον Ατσέμογλου, ακόμη και με το 5% όλων των εργασιών να εκτελούνται κερδοφόρα από την Τεχνητή Νοημοσύνη την επόμενη δεκαετία, η τεχνολογία θα οδηγήσει σε ένα νέο κύμα ανισότητας εισοδήματος.

Οι αναλυτές αναμένουν ότι οι εργαζόμενοι με υψηλότερο εισόδημα θα είναι οι μεγαλύτεροι ωφελούμενοι από την Τεχνητή Νοημοσύνη και θα βιώσουν αύξηση των μισθών, ενώ όσοι βρίσκονται σε πιο συνηθισμένους ρόλους γνώσης θα βιώσουν απώλεια εισοδήματος.

Ο Ντέιβιντ Ότορ από το Τεχνολογικό Ινστιτούτο της Μασαχουσέτης, πρότεινε ότι η Τεχνητή Νοημοσύνη μπορεί να μειώσει τα κενά εισοδήματος παρέχοντας πρόσβαση σε δεξιότητες και νέες δυνατότητες σε όσους αμείβονται λιγότερο.

Οργανισμοί όπως το AI4ALL και το AI Skills Coalition, οι οποίοι προσφέρουν πρακτική εμπειρία σε εργαλεία Τεχνητής Νοημοσύνης σε ένα ευρύ φάσμα χρηστών, μπορούν να βοηθήσουν ώστε η Τεχνητή Νοημοσύνη να χρησιμοποιεί πιο συμπεριληπτικά και να μειώνει τα χάσματα εισοδήματος σε ορισμένους τομείς.

Περιβαλλοντικοί συμβιβασμοί

Η επιτάχυνση της Τεχνητής Νοημοσύνης αυξάνει την κατανάλωση ενέργειας, συμβάλλοντας στην παγκόσμια ενεργειακή φτώχεια και οδηγώντας σε αρνητικές κλιματικές επιπτώσεις, λέει ο Μπασκάρ.

Η κατανάλωση ενέργειας των κέντρων δεδομένων αναμένεται να αυξηθεί από 35% σε 128% έως το 2026, και ακόμη και με τις αναμενόμενες επενδύσεις σε νέες ενεργειακές υποδομές, η ζήτηση θα συνεχίσει να υπερβαίνει την αύξηση της προσφοράς.

Τα κέντρα δεδομένων είναι επίσης υψηλής έντασης νερού, κατατασσόμενα στις 10 κορυφαίες εμπορικές βιομηχανίες που καταναλώνουν νερό στις ΗΠΑ. Ενώ η ίδια η Τεχνητή Νοημοσύνη μπορεί να βοηθήσει ενημερώνοντας για την αποτελεσματική χρήση ενέργειας, αυτά τα οφέλη δεν κατανέμονται ομοιόμορφα, καθώς τα δεδομένα για την κατανάλωση ενέργειας είναι σπάνια μεταξύ των φτωχότερων πληθυσμών.

Υπάρχει ακόμη ελπίδα για τη συνεχή καινοτομία. Η ανάπτυξη και η χρήση της Τεχνητής Νοημοσύνης (ΤΝ) γίνεται όλο και πιο ενεργειακά αποδοτική: Η Nvidia αναπτύσσει πιο αποδοτικές GPU που προσφέρουν 30 φορές μεγαλύτερη απόδοση, ενώ χρησιμοποιούν 25 φορές λιγότερη ενέργεια, ενώ η Τεχνητή Νοημοσύνη DeepMind της Google μπορεί να μειώσει τα έξοδα ψύξης στα κέντρα δεδομένων έως και 40%.

ΚΟΙΝΟΠΟΗΣΗ:

Leave a Response