Ιταλία: Δικηγόρος κατέθεσε ανύπαρκτη νομολογία που του έφτιαξε το Chat GPT
Πώς επηρέασε το γεγονός την απόφαση του δικαστηρίου
Μια πρωτοφανής υπόθεση που εκτυλίχθηκε σε ακροατήριο δικαστηρίου φέρνει στην επικαιρότητα το θέμα της αλόγιστης χρήσης της τεχνητής νοημοσύνης, γεννώντας σοβαρά ερωτήματα για τα όρια και τις συνθήκες χρήσης της αλλά και την αναγκαία παρέμβαση (ως φίλτρο) του ανθρώπινου παράγοντα.
Όπως αναφέρεται σε ρεπορτάζ του Παναγιώτη Στάθη για το capital.gr, η υπόθεση προκάλεσε δικαστικό “σεισμό” στη γειτονική Ιταλία όταν αποκαλύφθηκε πως ένας δικηγόρος χρησιμοποίησε σε δίκη για να ενισχύσει τη θέση και τα νομικά επιχειρήματά του, σειρά αποφάσεων ανωτάτων δικαστηρίων (νομολογία). Όπως αποκαλύφθηκε όμως οι αποφάσεις ήταν προϊόν συλλογής με τη χρήση AI από συνεργάτη του δικηγόρου, όμως ήταν ανύπαρκτες.
Πρωτοφανές
Το περιστατικό είναι πρωτοφανές στα δικαστικά χρονικά και αποτελεί μια ακόμα ένδειξη για τους κινδύνους που μπορεί να προκαλέσει η αλόγιστη χρήση της τεχνολογίας, χωρίς να παρεμβαίνει ως “όρος αληθείας” ο ανθρώπινος παράγοντας. Προκάλεσε δε σοβαρό νομικό ζήτημα στην Ιταλία με νομικούς να θέτουν σειρά ερωτημάτων, όπως αναφέρει ο εργατολόγος Γιάννης Καρούζος:
· Μπορεί η τεχνητή νοημοσύνη να υποκαταστήσει τη νομική έρευνα;
· Ποιος φέρει ευθύνη για τα σφάλματα ενός AI εργαλείου;
· Πρέπει να υπάρξουν φίλτρα ή ακόμη κωδικοί δεοντολογίας χρήσης της τεχνητής νοημοσύνης από νομικούς;
Η δίκη
Η υπόθεση αποκαλύφθηκε τον περασμένο Μάρτιο σε δικαστήριο της Φλωρεντίας όταν ο συνήγορος του ενάγοντα, επικαλέστηκε αποφάσεις ανώτατου δικαστηρίου, οι οποίες αποδείχθηκαν ανύπαρκτες. Οι “αποφάσεις” προέκυψαν έπειτα από χρήση εργαλείου τεχνητής νοημοσύνης και δη του ChatGPT, χωρίς να έχει γίνει πρότερος έλεγχος της εγκυρότητάς τους. Ο δικηγόρος της άλλης πλευράς κατηγόρησε τον συνήγορο του ενάγοντα για παραπλανητική τακτική, παραπλάνηση των δικαστικών αρχών και ζήτησε την επιβολή κυρώσεων για δόλο ή βαριά αμέλεια.
Ο δικηγόρος του ενάγοντα ισχυρίστηκε ότι οι “ανύπαρκτες” αποφάσεις που τελικώς χρησιμοποιήθηκαν προς ισχυροποίηση των αγωγικών ισχυρισμών, προέκυψαν μετά από σχετική αναζήτηση δεδομένων συνεργάτιδάς του, με εργαλείο τεχνητής νοημοσύνης ChatGPT και έγιναν χωρίς ο ίδιος να γνωρίζει την χρήση του εργαλείου και επομένως χωρίς ο ίδιος να κάνει σχετικό έλεγχο εγκυρότητας, ως όφειλε.
Η απόφαση
Το δικαστήριο επέλεξε τελικά μια σολομώντεια λύση αφού αναγνώρισε την αμέλεια, υπογραμμίζοντας τη σοβαρότητα μη επαλήθευσης των πηγών ωστόσο, έκρινε ότι οι συγκεκριμένες “ανύπαρκτες αποφάσεις” χρησιμοποιήθηκαν απλώς προς ενίσχυση ενός ήδη παρουσιασμένου νομικού επιχειρήματος και όχι προκειμένου να παραπλανήσουν ή να αλλοιώσουν το αποτέλεσμα με κακή πίστη. Παράλληλα εισήγαγε τον όρο “ψευδαισθήσεις της τεχνητής νοημοσύνης”, καθώς όπως λέχθηκε, τα συγκεκριμένα δεδομένα, όχι μόνο ήταν αναληθή και ανύπαρκτα, αλλά πέραν αυτού η τεχνητή νοημοσύνη, μετά την σχετική αναζήτηση της συνεργάτιδας του πληρεξούσιου δικηγόρου, κατασκεύασε νομικά δεδομένα με τόση “αυτοπεποίθηση” και παρήγαγε ανύπαρκτο νομικό προηγούμενο, το οποίο παραλίγο να επηρεάσει τη δικαστική κρίση!
Όπως αναφέρει ο κ. Καρούζος “η υπόθεση της Φλωρεντίας, λειτούργησε ως καμπανάκι: δεν είναι η τεχνολογία επικίνδυνη, αυτή καθαυτή, άλλα η άγνοια ή η απερίσκεπτη χρήση της. Και η ευθύνη τελικά για αυτό ανήκει στον άνθρωπο. Το περιστατικό της Φλωρεντίας δεν είναι απλώς ένα “τεχνολογικό φάλτσο”, αλλά ένα προειδοποιητικό σήμα για τη θέση και τα όρια της τεχνητής νοημοσύνης στο νομικό κόσμο. Το μέλλον ανήκει στην τεχνολογία – αλλά μόνο όταν αυτή συνοδεύεται από την ανθρώπινη επίγνωση και τον επαγγελματισμό. Η νομοθεσία εξελίσσεται μπροστά σε μια τεχνολογία που ταξιδεύει με φρενήρεις ρυθμούς και εξαιρετικά υψηλή ταχύτητα. Άλλη μία πρόκληση ανάμεσα σε δικηγόρους και δικαστές”.