Αντιμέτωπος με δική του δικαστική ακρόαση βρίσκεται δικηγόρος στη Νέα Υόρκη, καθώς παραδέχθηκε ότι χρησιμοποίησε το ChatGPT για νομική έρευνα που είχε αναλάβει ο ίδιος με την εταιρεία του.
Ένας εκ των δικαστών δήλωσε ότι το δικαστήριο βρέθηκε αντιμέτωπο με μια «πρωτοφανή περίσταση», αφού διαπιστώθηκε ότι μια κατάθεση αναφερόταν σε παραδείγματα νομικών υποθέσεων που δεν υπήρχαν.
Ο δικηγόρος που χρησιμοποίησε το εργαλείο δήλωσε στο δικαστήριο ότι «δεν γνώριζε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές».
Η αρχική υπόθεση αφορούσε έναν άνδρα που μήνυσε αεροπορική εταιρεία για υποτιθέμενο τραυματισμό του. Η νομική ομάδα υπέβαλε το σχετικό υπόμνημα που παρέπεμπε σε διάφορες προηγούμενες δικαστικές υποθέσεις σε μια προσπάθεια να αποδείξει, χρησιμοποιώντας δεδικασμένο, γιατί η υπόθεση θα έπρεπε να προχωρήσει.
Ωστόσο, σύμφωνα με το BBC, οι δικηγόροι της αεροπορικής εταιρείας απευθύνθηκαν αργότερα στον δικαστή για να τον ενημερώσουν ότι δεν μπορούσαν να βρουν αρκετές από τις υποθέσεις που αναφέρονταν στο υπόμνημα.
«Έξι από τις υποβληθείσες υποθέσεις φαίνεται να είναι ψεύτικες δικαστικές αποφάσεις με ψεύτικα παραθέματα και ψεύτικες εσωτερικές παραπομπές», έγραψε ο δικαστής Castel σε μια διαταγή που απαιτούσε από τη νομική ομάδα του άνδρα να δώσει εξηγήσεις.
Κατά τη διάρκεια αρκετών καταθέσεων, προέκυψε ότι η έρευνα δεν είχε εκπονηθεί από τον Peter LoDuca, τον δικηγόρο του ενάγοντος, αλλά από έναν συνάδελφό του στην ίδια δικηγορική εταιρεία. Ο Steven A Schwartz, ο οποίος είναι δικηγόρος για περισσότερα από 30 χρόνια, χρησιμοποίησε το ChatGPT για να αναζητήσει παρόμοιες προηγούμενες υποθέσεις.
Στη γραπτή δήλωσή του, ο Schwartz διευκρίνισε ότι ο κ. LoDuca δεν είχε συμμετάσχει στην έρευνα και δεν γνώριζε τον τρόπο διεξαγωγής της.
Ο Schwartz πρόσθεσε ότι «λυπάται πολύ» που βασίστηκε στο chatbot το οποίο, όπως είπε, δεν είχε χρησιμοποιήσει ποτέ πριν για νομική έρευνα και «δεν γνώριζε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές».
Ορκίστηκε να μην χρησιμοποιήσει ποτέ στο μέλλον τεχνητή νοημοσύνη για να «συμπληρώσει» τη νομική του έρευνα «χωρίς απόλυτη επαλήθευση της αυθεντικότητάς της».
Υπήρξαν ανησυχίες σχετικά με τους πιθανούς κινδύνους της τεχνητής νοημοσύνης (AI), συμπεριλαμβανομένης της πιθανής διάδοσης παραπληροφόρησης και προκατάληψης.