Γιατί παραιτήθηκαν δύο στελέχη της OpenAI

«Τα τελευταία χρόνια, η κουλτούρα και οι διαδικασίες ασφάλειας έχουν πάρει πίσω τα λαμπερά προϊόντα».

Parallaxi
γιατί-παραιτήθηκαν-δύο-στελέχη-της-openai-1110819
Parallaxi

Ένα πρώην στέλεχος στο OpenAI είπε ότι η εταιρεία πίσω από το ChatGPT δίνει προτεραιότητα στα “λαμπερά προϊόντα” έναντι της ασφάλειας, αποκαλύπτοντας ότι παραιτήθηκε ύστερα από μια μεγάλη διαφωνία.

Ο Jan Leike ήταν βασικός ερευνητής ασφάλειας στο OpenAI ως συνεπικεφαλής του τμήματος υπερευθυγράμμισης και διασφάλιζε ότι τα ισχυρά συστήματα τεχνητής νοημοσύνης τηρούν τις ανθρώπινες αξίες και στόχους. Η παραίτησή του έρχεται λίγο πριν από μια παγκόσμια σύνοδο κορυφής τεχνητής νοημοσύνης στη Σεούλ, όπου πολιτικοί, ειδικοί και στελέχη τεχνολογίας θα συζητήσουν την επίβλεψη της τεχνολογίας.

Ο Leike παραιτήθηκε λίγες μέρες αφότου η εταιρεία με έδρα το Σαν Φρανσίσκο παρουσίασε το τελευταίο της μοντέλο τεχνητής νοημοσύνης, το GPT-4o. Η αποχώρησή του έφερε την παραίτηση ακόμη δύο στελεχών ασφαλείας στο OpenAI, αλλά και την παραίτηση του Ilya Sutskever, συνιδρυτή του OpenAI και συνεπικεφαλής του superalignment.

Ο Leike περιέγραψε λεπτομερώς τους λόγους της αποχώρησής του σε ανάρτησή του στο X που δημοσίευσε την Παρασκευή, στην οποία ανέφερε πως η κουλτούρα ασφάλειας είχε γίνει κατώτερη προτεραιότητα.

«Τα τελευταία χρόνια, η κουλτούρα και οι διαδικασίες ασφάλειας έχουν πάρει πίσω τα λαμπερά προϊόντα», έγραψε.

Το OpenAI ιδρύθηκε με στόχο να διασφαλίσει ότι η τεχνητή γενική νοημοσύνη, την οποία περιγράφει ως «συστήματα τεχνητής νοημοσύνης που είναι γενικά πιο έξυπνα από τους ανθρώπους», ωφελεί όλη την ανθρωπότητα. Στις αναρτήσεις του στην πλατφόρμα Χ, ο Leike είπε ότι διαφωνούσε με την ηγεσία του OpenAI σχετικά με τις προτεραιότητες της εταιρείας εδώ και αρκετό καιρό, αλλά αυτή η αντιπαράθεση “είχε επιτέλους φτάσει σε οριακό σημείο”.

Ο Leike είπε ότι η OpenAI, η οποία έχει επίσης αναπτύξει τη γεννήτρια εικόνας Dall-E και τη γεννήτρια βίντεο Sora, θα πρέπει να επενδύει περισσότερους πόρους σε θέματα όπως η ασφάλεια, ο κοινωνικός αντίκτυπος, η εμπιστευτικότητα και η ασφάλεια για την επόμενη γενιά μοντέλων της.

«Αυτά τα προβλήματα είναι πολύ δύσκολο να διορθωθούν και ανησυχώ πως δεν θα φτάσουμε εκεί», έγραψε, προσθέτοντας ότι γινόταν «ολοένα και πιο δύσκολο» για την ομάδα του να κάνει την έρευνά της.

«Η κατασκευή εξυπνότερων από τον άνθρωπο μηχανών είναι μια εγγενώς επικίνδυνη προσπάθεια. Το OpenAI επωμίζεται μια τεράστια ευθύνη για λογαριασμό ολόκληρης της ανθρωπότητας», αναφέρει ο Leike, συμπληρώνοντας ότι το OpenAI «πρέπει να γίνει μια εταιρεία AGI που προστατεύει την ασφάλεια».

Ο Sam Altman, διευθύνων σύμβουλος του OpenAI, απάντησε στο νήμα του Leike με μια ανάρτηση στο X ευχαριστώντας τον πρώην συνάδελφό του για τη συμβολή του στην κουλτούρα ασφάλειας της εταιρείας. «Έχει δίκιο, έχουμε πολλά ακόμα να κάνουμε. δεσμευόμαστε να το κάνουμε», δήλωσε.

Ο Sutskever, ο οποίος ήταν επίσης επικεφαλής επιστήμονας του OpenAI, ανακοίνωσε επίσης μέσω της πλατφόρμας Χ την αποχώρησή του, υποστηρίζοντας ότι ήταν σίγουρος πως το OpenAI «θα κατασκευάσει AGI που είναι και ασφαλές και ωφέλιμο» υπό την τρέχουσα ηγεσία του.

Η προειδοποίηση του Leike ήρθε ενώ μια επιτροπή διεθνών ειδικών τεχνητής νοημοσύνης δημοσίευσε μια εναρκτήρια έκθεση για την ασφάλεια της τεχνητής νοημοσύνης, στην οποία αναφέρεται πως υπήρχε διαφωνία σχετικά με την πιθανότητα ισχυρών συστημάτων τεχνητής νοημοσύνης να αποφύγουν τον ανθρώπινο έλεγχο.

Πηγή: The Guardian

Σχετικά Αρθρα
Σχετικά Αρθρα