Δικηγόρος πιάστηκε να χρησιμοποιεί AI στο δικαστήριο και τα “έκανε θάλασσα”

Κοινοποίηση:
dikasthrio

Τι συμβαίνει με τους δικηγόρους και την Τεχνητή Νοημοσύνη στις ΗΠΑ;

Δεν ξέρουμε, αλλά φαίνεται ότι ένας υπερβολικά μεγάλος αριθμός δικηγόρων συνεχίζει να κάνει λάθη με τα εργαλεία Τεχνητής Νοημοσύνης, προφανώς χωρίς να μαθαίνει ποτέ από τους συναδέλφους τους που ντροπιάστηκαν δημόσια επειδή έκαναν το ίδιο λάθος.

Αλλά αυτό το τελευταίο λάθος ενός δικηγόρου από τη Νέα Υόρκη, σε μια αγωγή που επικεντρώνεται σε ένα αμφισβητούμενο δάνειο, είναι “όλα τα λεφτά”. Όπως αναφέρει το 404 Media , αφού πιάστηκε να χρησιμοποιεί Τεχνητή Νοημοσύνη παραθέτοντας ακαταλαβίστικα αποσπάσματα και παραπομπές στα δικαστικά του έγγραφα, ένας δικηγόρος υπεράσπισης υπέβαλε στη συνέχεια ένα υπόμνημα που εξηγούσε τη χρήση της Τεχνητής Νοημοσύνης — το οποίο ήταν επίσης γραμμένο με ένα ιδιόμορφο γλωσσικό μοντέλο.

Περιττό να πούμε ότι ο δικαστής δεν έδειξε να το διασκεδάζει.

«Με άλλα λόγια, ο δικηγόρος βασίστηκε σε μη ελεγμένη Τεχνητή Νοημοσύνη — στην αφήγησή του, μέσω ανεπαρκώς εποπτευόμενων συναδέλφων — για να υπερασπιστεί τη χρήση μη ελεγμένης Τεχνητής Νοημοσύνης», έγραψε ο δικαστής του Ανωτάτου Δικαστηρίου της Νέας Υόρκης, Τζόελ Κόεν, σε απόφαση που κατατέθηκε νωρίτερα αυτόν τον μήνα .

«Αυτή η υπόθεση προσθέτει ένα ακόμη ατυχές κεφάλαιο στην ιστορία της κατάχρησης της τεχνητής νοημοσύνης στο νομικό επάγγελμα», δήλωσε περαιτέρω με λύπη ο δικαστής.

Ίσως ένας από τους λόγους που ακούμε συνεχώς τέτοιες ιστορίες, είναι γιατί πρόκειται για έναν εύκολο τρόπο να αποκτήσει κάποιος το πάνω χέρι σε μια δίκη, επομένως όλοι είναι σε εγρήγορση για να εντοπίσουν αυτόν που το κάνει.

Αυτό ακριβώς συνέβη και εδώ: η νομική ομάδα του ενάγοντος ήταν αυτή που εντόπισε πρώτη τα λάθη, τα οποία περιλάμβαναν ανακριβείς ή εντελώς κατασκευασμένες παραπομπές και αποσπάσματα. Στη συνέχεια, οι ενάγοντες υπέβαλαν αίτημα στον δικαστή να επιβάλει κυρώσεις στον δικηγόρο υπεράσπισης, ο οποίος χρησιμοποίησε ξανά την Τεχνητή Νοημοσύνη.

Η εξήγηση του δικηγόρου ήταν μη ικανοποιητική. Ο Fourte ούτε παραδέχτηκε ούτε αρνήθηκε τη χρήση τεχνητής νοημοσύνης, έγραψε ο δικαστής Κοέν, αλλά αντίθετα προσπάθησε να παρουσιάσει τις αποτυχημένες αναφορές ως απλώς «αθώες παραφράσεις νομικών αρχών».

Όταν είχε την ευκαιρία να ξεκαθαρίσει τα πράγματα κατά τη διάρκεια των προφορικών αγορεύσεών του στο δικαστήριο, ο Fourte επέμεινε περαιτέρω ότι «οι υποθέσεις δεν ήταν σε κανένα σημείο κατασκευασμένες από AI», σημείωσε ο δικαστής.

Τελικά, όμως, τα παράτησε. Αφού δέχθηκε περαιτέρω ερωτήσεις σχετικά με το πώς μια εντελώς κατασκευασμένη δικαστική υπόθεση κατέληξε στα αρχεία του, ο Fourte παραδέχτηκε ότι «χρησιμοποίησε Τεχνητή Νοημοσύνη». Επίσης, σχεδόν ταυτόχρονα, είπε ότι ανέλαβε «πλήρη ευθύνη» για τις ανοησίες που δημιουργήθηκαν από την Τεχνητή Νοημοσύνη — αλλά προσπάθησε επίσης να μετακυλίσει μέρος της ευθύνης σε κάποιο επιπλέον προσωπικό που είχε προσλάβει για την υπόθεση. Κλασικό.

Αργότερα, ο Fourte «μπέρδεψε αυτές τις δηλώσεις μεταμέλειας», ανέφερε ο δικαστής, λέγοντας: «Ποτέ δεν είπα ότι δεν χρησιμοποίησα Τεχνητή Νοημοσύνη. Είπα ότι δεν χρησιμοποίησα μη ελεγμένη Τεχνητή Νοημοσύνη».

Ο δικαστής χαρακτήρισε τα λεγόμενά του ανοησίες. «Αν συμπεριλαμβάνετε παραπομπές που δεν υπάρχουν, υπάρχει μόνο μία εξήγηση γι’ αυτό. Είναι ότι η Τεχνητή Νοημοσύνη σας έδωσε παραπομπές και εσείς δεν τις ελέγξατε», απάντησε ο δικαστής Κοέν στις εκκλήσεις του Fourte . «Αυτός είναι ο ορισμός της μη ελεγμένης Τεχνητής Νοημοσύνης».

Μετά από όλες τις διαφωνίες, ο δικαστής Κόεν έκανε δεκτή την αίτηση του ενάγοντος για κυρώσεις.

Ο Fourte δεν δέχτηκε να κάνει κάποιο σχόλιο. «Καθώς το θέμα αυτό εκκρεμεί ενώπιον του Δικαστηρίου και από σεβασμό στη διαδικασία και το απόρρητο των πελατών, δεν θα σχολιάσουμε λεπτομέρειες της υπόθεσης», δήλωσε στο μέσο ενημέρωσης. «Έχουμε αντιμετωπίσει το ζήτημα απευθείας με το Δικαστήριο και έχουμε εφαρμόσει ενισχυμένα πρωτόκολλα επαλήθευσης και εποπτείας. Δεν έχουμε περαιτέρω σχόλια αυτή τη στιγμή».

Ενώ η υπόθεσή του φαίνεται ιδιαίτερα κραυγαλέα, ο Fourte σίγουρα δεν είναι ο μόνος. Δεκάδες άλλοι δικηγόροι έχουν πιαστεί να χρησιμοποιούν Τεχνητή Νοημοσύνη για τον ίδιο λόγο σε μεγάλο βαθμό: να υποβάλλουν εσφαλμένη ή κατασκευασμένη νομολογία. Κάποιοι χρησιμοποίησαν δημόσια chatbots όπως το ChatGPT, αλλά άλλοι χρησιμοποίησαν εργαλεία Τεχνητής Νοημοσύνης ειδικά κατασκευασμένα για τη νομική , γεγονός που καταδεικνύει πόσο ριζικά επιρρεπής σε σφάλματα παραμένει η τεχνολογία αυτή.

ΚΟΙΝΟΠΟΗΣΗ:

Leave a Response