Νορβηγός καταθέτει καταγγελία κατά της OpenAI για ψευδείς ισχυρισμούς του ChatGPT

2 ημέρες πριν
Η τεχνητή νοημοσύνη κατηγορεί αθώο άνδρα για δολοφονίες που δεν συνέβησαν ποτέ

Ο Νορβηγός Arve Hjalmar Holmen βρέθηκε αντιμέτωπος με μια τρομακτική εμπειρία όταν αναζήτησε το όνομά του στο ChatGPT. Το δημοφιλές εργαλείο τεχνητής νοημοσύνης της OpenAI ισχυρίστηκε ψευδώς ότι είχε καταδικαστεί σε 21 χρόνια φυλάκισης για τη δολοφονία των παιδιών του.

Σύμφωνα με όσα αναφέρει το BBC, ο Holmen έχει καταθέσει επίσημη καταγγελία στη Νορβηγική Αρχή Προστασίας Δεδομένων, ζητώντας την επιβολή προστίμου στην OpenAI για τους συγκεκριμένους ισχυρισμούς.

Όταν ο Holmen έθεσε ερώτημα στο ChatGPT σχετικά με τον εαυτό του, το σύστημα απάντησε ότι είχε "αποκτήσει προσοχή λόγω ενός τραγικού συμβάντος." Η απάντηση συνέχισε λέγοντας ότι ήταν πατέρας δύο μικρών αγοριών, ηλικίας 7 και 10 ετών, που βρέθηκαν νεκρά σε λίμνη κοντά στο σπίτι τους στο Trondheim της Νορβηγίας τον Δεκέμβριο του 2020. Το ChatGPT ισχυρίστηκε ότι ο Holmen κατηγορήθηκε και αργότερα καταδικάστηκε για τη δολοφονία των γιων του, καθώς και για απόπειρα δολοφονίας ενός τρίτου γιου.

Το chatbot ανέφερε μάλιστα ότι η υπόθεση "συγκλόνισε την τοπική κοινότητα και το έθνος, και καλύφθηκε ευρέως από τα μέσα ενημέρωσης λόγω της τραγικής φύσης της."

Ωστόσο, τίποτα από αυτά δεν συνέβη στην πραγματικότητα. Ο Holmen, κατανοητά αναστατωμένος, δήλωσε στο BBC: "Κάποιοι πιστεύουν ότι δεν υπάρχει καπνός χωρίς φωτιά - το γεγονός ότι κάποιος θα μπορούσε να διαβάσει αυτή την πληροφορία και να την πιστέψει είναι αυτό που με τρομάζει περισσότερο."

Η ομάδα ψηφιακών δικαιωμάτων Noyb κατέθεσε την καταγγελία εκ μέρους του Holmen, τονίζοντας ότι η απάντηση του ChatGPT είναι δυσφημιστική και παραβιάζει τους ευρωπαϊκούς κανόνες προστασίας δεδομένων σχετικά με την ακρίβεια των προσωπικών δεδομένων. Στην καταγγελία της, η Noyb ανέφερε ότι ο Holmen "δεν έχει ποτέ κατηγορηθεί ούτε καταδικαστεί για οποιοδήποτε έγκλημα και είναι ένας ευσυνείδητος πολίτης."

Το ChatGPT χρησιμοποιεί μια αποποίηση ευθύνης που αναφέρει ότι το chatbot "μπορεί να κάνει λάθη" και οι χρήστες θα πρέπει να "ελέγχουν τις σημαντικές πληροφορίες". Ωστόσο, ο δικηγόρος της Noyb, Joakim Söderberg, δήλωσε: "Δεν μπορείς απλά να διαδίδεις ψευδείς πληροφορίες και στο τέλος να προσθέτεις μια μικρή αποποίηση ευθύνης λέγοντας ότι όλα όσα είπες μπορεί να μην είναι αληθή."

Τα λάθη αυτά των συστημάτων AI είναι γνωστά ως "ψευδαισθήσεις" (hallucinations). Ένα άλλο παράδειγμα που έγινε πρωτοσέλιδο πέρυσι αφορούσε το εργαλείο AI Gemini της Google, το οποίο πρότεινε την τοποθέτηση τυριού στην πίτσα με κόλλα και ισχυρίστηκε ότι γεωλόγοι συνιστούν στους ανθρώπους να τρώνε μία πέτρα την ημέρα. Το πρώτο μάλιστα παράδειγμα στάθηκε αφορμή "σχολιασμού" μιας άλλης AI μηχανής αναζήτησης, αυτή της Perplexity στο πρώτο διαφημιστικό της εταιρείας.