Το OpenAI δημιουργεί μια νέα ομάδα για να θέσει υπό έλεγχο την "υπερ-ευφυή" τεχνητή νοημοσύνη

9 μήνες πριν
chatgpt logo

Η OpenAI, δημιουργεί μια νέα ομάδα για να εργαστεί πάνω σε τρόπους ελέγχου των υπερ-ευφυών συστημάτων τεχνητής νοημοσύνης. Η ομάδα, που ονομάζεται Superalignment, θα διευθύνεται από τον Ilya Sutskever, τον επικεφαλής επιστήμονα και συνιδρυτή της OpenAI, και τον Jan Leike, επικεφαλής της ομάδας ευθυγράμμισης στην OpenAI.

Η ομάδα Superalignment θα έχει πρόσβαση στο 20% των υπολογιστικών πόρων που έχει εξασφαλίσει το OpenAI μέχρι σήμερα και θα έχει ως στόχο να επιλύσει τις βασικές τεχνικές προκλήσεις του ελέγχου της υπερ-ευφυούς τεχνητής νοημοσύνης μέσα στα επόμενα τέσσερα χρόνια. Η ομάδα θα συνεργάζεται επίσης με άλλους ερευνητές και μηχανικούς από όλο το OpenAI, καθώς και θα συμβάλλει στην ευθυγράμμιση και την ασφάλεια των μοντέλων που δεν ανήκουν στο OpenAI.

Το κίνητρο πίσω από την ομάδα Superalignment είναι η πεποίθηση ότι η υπερ-ευφυής τεχνητή νοημοσύνη -η οποία θα μπορούσε να ξεπεράσει την ανθρώπινη νοημοσύνη σε όλους τους τομείς- θα μπορούσε να κάνει την εμφάνισή της μέσα στη δεκαετία. Μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να θέσει υπαρξιακούς κινδύνους για την ανθρωπότητα, εάν δεν ευθυγραμμιστεί με τις ανθρώπινες αξίες και στόχους. Ωστόσο, οι τρέχουσες τεχνικές ευθυγράμμισης της τεχνητής νοημοσύνης (ΤΝ), όπως η ενισχυτική μάθηση από την ανθρώπινη ανατροφοδότηση, βασίζονται στην ικανότητα του ανθρώπου να επιβλέπει την ΤΝ, κάτι που μπορεί να μην είναι εφικτό για συστήματα ΤΝ πολύ πιο έξυπνα από εμάς.

Για την αντιμετώπιση αυτής της πρόκλησης, η ομάδα Superalignment θα εργαστεί για τη δημιουργία ενός αυτοματοποιημένου ερευνητή ευθυγράμμισης. Όπως αναφέρει η OpenAI, «βελτιώνουμε την ικανότητα των συστημάτων τεχνητής νοημοσύνης μας να μαθαίνουν από την ανθρώπινη ανατροφοδότηση και να βοηθούν τους ανθρώπους στην αξιολόγηση της τεχνητής νοημοσύνης. Στόχος μας είναι να δημιουργήσουμε ένα επαρκώς ευθυγραμμισμένο σύστημα ΤΝ που θα μπορεί να μας βοηθήσει να λύσουμε όλα τα άλλα σχετικά προβλήματα».

Η ομάδα Superalignment αναγνωρίζει ότι αυτή η προσέγγιση έρχεται με περιορισμούς και κινδύνους, όπως πιθανές προκαταλήψεις ή τρωτά σημεία στα συστήματα ΤΝ που χρησιμοποιούνται για την αξιολόγηση, ή ακόμα και ηθικές και κοινωνικές επιπτώσεις της ανάθεσης της έρευνας ευθυγράμμισης στην ΤΝ

Η ανακοίνωση έρχεται καθώς οι κυβερνήσεις σε όλο τον κόσμο εξετάζουν πώς να ρυθμίσουν την εκκολαπτόμενη βιομηχανία του AI. Στις ΗΠΑ, ο Sam Altman, ο διευθύνων σύμβουλος της OpenAI, έχει συναντηθεί με τουλάχιστον 100 ομοσπονδιακούς νομοθέτες τους τελευταίους μήνες. Δημόσια, ο Altman δήλωσε ότι η ρύθμιση της AI είναι "απαραίτητη" και ότι το OpenAI είναι "πρόθυμο" να συνεργαστεί με τους φορείς χάραξης πολιτικής.  Άλλοι πάλι αναφέρουν ότι θα πρέπει να είμαστε επιφυλακτικοί απέναντι σε τέτοιες διακηρύξεις, και μάλιστα σε προσπάθειες όπως η ομάδα Superalignment του OpenAI. Επικεντρώνοντας την προσοχή του κοινού σε υποθετικούς κινδύνους που μπορεί να μην υλοποιηθούν ποτέ, οργανισμοί όπως το OpenAI μετατοπίζουν το βάρος της ρύθμισης στον μέλλον αντί για το εδώ και τώρα. Υπάρχουν πολύ πιο άμεσα ζητήματα γύρω από την αλληλεπίδραση μεταξύ τεχνητής νοημοσύνης και εργασίας, παραπληροφόρησης και πνευματικών δικαιωμάτων που «οι υπεύθυνοι χάραξης πολιτικής πρέπει να αντιμετωπίσουν σήμερα, όχι αύριο». Αντίστοιχες ενέργειες πάντως βλέπουμε και από την πλευρά της Ευρώπης με την Ευρωπαϊκή Ένωση να συζητάει το θέμα.