Έλλειψη κοινής λογικής στα AI μοντέλα
Η Nvidia παραδέχεται ότι τα AI μοντέλα της συνήθως δεν διαθέτουν «κοινή λογική». Αυτό δεν αποτελεί κάποια συγκλονιστική αποκάλυψη—όποιος έχει παρακολουθήσει σχετικές ειδήσεις γνωρίζει ότι δεν πρέπει να βάλει κόλλα στη σάλτσα πίτσας του, αλλά αυτό δεν εμπόδισε το AI overview της Google να προτείνει κάτι τέτοιο για να γίνει πιο κολλώδης. Πώς προσπαθεί λοιπόν η Nvidia να διορθώσει το πρόβλημα; Με τη βοήθεια ανθρώπινων εκπαιδευτών.
Η προσέγγιση της Nvidia με ανθρώπινους αναλυτές
Σε πρόσφατη ανάρτηση στο blog της, η Nvidia εξηγεί πώς η ομάδα της, γνωστή ως data factory, προσπαθεί να διδάξει στα generative AI βασικές γνώσεις για τον κόσμο που οι άνθρωποι θεωρούν αυτονόητες. Η ομάδα αποτελείται από αναλυτές με διαφορετικά υπόβαθρα, όπως βιομηχανική μηχανική, επιχειρήσεις και γλωσσολογία, και εργάζεται για να αναπτύξει, να αναλύσει και να συγκεντρώσει εκατοντάδες χιλιάδες μονάδες δεδομένων, με στόχο να μάθουν τα AI μοντέλα της Nvidia να «φτιάχνουν» τη μεταφορική σάλτσα πίτσας.
Cosmos Reason: Το νέο AI μοντέλο
Cosmos Reason είναι το AI μοντέλο που η Nvidia ελπίζει ότι θα πρωτοπορήσει. Η εταιρεία αναφέρει ότι το Cosmos Reason διαφέρει από προηγούμενα vision language models (VLM), καθώς έχει σχεδιαστεί για να επιταχύνει την ανάπτυξη φυσικής νοημοσύνης σε τομείς όπως η ρομποτική, τα αυτόνομα οχήματα και οι έξυπνοι χώροι. Το μοντέλο μπορεί να εξάγει συμπεράσματα και να αιτιολογεί σε πρωτόγνωρες καταστάσεις, χρησιμοποιώντας γνώσεις φυσικής κοινής λογικής.
Εκπαίδευση μέσω ερωτήσεων πολλαπλής επιλογής
Πώς το κατάφερε αυτό η Nvidia; Μέσω μιας σειράς ερωτήσεων πολλαπλής επιλογής—σαν ένα τεστ έκπληξη για το AI. Η Nvidia εξηγεί ότι όλα ξεκινούν με μια ομάδα σχολιαστών που δημιουργεί ζεύγη ερωτήσεων-απαντήσεων βασισμένα σε βίντεο δεδομένα.
Οπτικο-γλωσσικά μοντέλα στην πράξη
Αυτό είναι το «οπτικό» μέρος του οπτικο-γλωσσικού μοντέλου. Για παράδειγμα, σε ένα βίντεο όπου κάποιος κόβει φρέσκα μακαρόνια, ένας ανθρώπινος σχολιαστής ρωτά το AI ποιο χέρι χρησιμοποιείται για το κόψιμο (και αυτό είναι το «γλωσσικό» μέρος). Το AI πρέπει να επιλέξει τη σωστή απάντηση ανάμεσα σε τέσσερις επιλογές, μία εκ των οποίων είναι «δεν χρησιμοποιεί χέρια» (κάτι που θα είχε ενδιαφέρον να δούμε).

Ενίσχυση μάθησης και ποιοτικός έλεγχος
Η διαδικασία δοκιμής του AI με ερωτήσεις και ανατροφοδότηση για λανθασμένες απαντήσεις ονομάζεται Ενισχυτική Μάθηση. Μέσα από πολλούς γύρους τέτοιων δοκιμών, καθώς και αυστηρό ποιοτικό έλεγχο μεταξύ των υπευθύνων της data factory και της ερευνητικής ομάδας του Cosmos Reason, ελπίζεται ότι το AI θα αποκτήσει καλύτερη κατανόηση του φυσικού κόσμου.
Εφαρμογές σε ρομποτική και βιομηχανία
Όλα αυτά αποσκοπούν στην ανάπτυξη AI που θα μπορεί να ελέγχει, για παράδειγμα, μηχανήματα σε εργοστασιακό περιβάλλον. Ο ερευνητής της Nvidia, Yin Cui, σχολιάζει ότι χωρίς βασικές γνώσεις για τον φυσικό κόσμο, ένα ρομπότ μπορεί να πέσει ή να προκαλέσει ζημιές, θέτοντας σε κίνδυνο ανθρώπους και το περιβάλλον.
Η σημασία της φυσικής λογικής στα ρομπότ
Η έλλειψη γνώσης για τον φυσικό κόσμο φαίνεται συχνά σε στιγμιότυπα από τα World Humanoid Robot Games. Αφήνοντας στην άκρη τα ατυχήματα των ανθρωποειδών ρομπότ, η Amazon απασχολεί πάνω από 1 εκατομμύριο ανθρώπους που εργάζονται δίπλα σε στρατιές ρομπότ, τα οποία ίσως στο μέλλον τους ξεπεράσουν αριθμητικά. Έτσι, γίνεται φανερό γιατί η ανάπτυξη AI με ικανότητα λογικής και ασφαλούς αλληλεπίδρασης με τον φυσικό κόσμο έχει τραβήξει το ενδιαφέρον των μεγάλων τεχνολογικών εταιρειών.
[ Πηγή: PCGamer ]