Η νέα συνεργασία του Google Cloud με το αποθετήριο μοντέλων τεχνητής νοημοσύνης Hugging Face επιτρέπει στους προγραμματιστές να δημιουργούν, να εκπαιδεύουν και να αναπτύσσουν μοντέλα τεχνητής νοημοσύνης χωρίς να χρειάζεται να πληρώνουν για συνδρομή στο Google Cloud. Τώρα, οι εξωτερικοί προγραμματιστές που χρησιμοποιούν την πλατφόρμα του Hugging Face θα έχουν “οικονομικά αποδοτική” πρόσβαση στις μονάδες επεξεργασίας τανυστών (TPU) και στους υπερυπολογιστές GPU της Google, οι οποίοι θα περιλαμβάνουν χιλιάδες από τις περιζήτητες και περιορισμένες σε εξαγωγές H100 της Nvidia.
Το Hugging Face είναι ένα από τα πιο δημοφιλή αποθετήρια μοντέλων τεχνητής νοημοσύνης, αποθηκεύοντας ανοιχτά θεμελιώδη μοντέλα όπως το Llama 2 της Meta και το Stable Diffusion της Stability AI. Διαθέτει επίσης πολλές βάσεις δεδομένων για την εκπαίδευση των μοντέλων.
Υπάρχουν πάνω από 350.000 μοντέλα που φιλοξενούνται στην πλατφόρμα για να δουλέψουν οι προγραμματιστές ή να ανεβάσουν τα δικά τους μοντέλα στο Hugging Face, όπως οι προγραμματιστές ανεβάζουν τον κώδικά τους στο GitHub. Η αξία του Hugging Face αποτιμάται στα 4,5 δισεκατομμύρια δολάρια και η Google, η Amazon, η Nvidia και άλλοι βοήθησαν να συγκεντρωθούν 235 εκατομμύρια δολάρια τον τελευταίο χρόνο.
Η Google δήλωσε ότι οι χρήστες του Hugging Face μπορούν να αρχίσουν να χρησιμοποιούν την πλατφόρμα κατασκευής εφαρμογών AI Vertex AI και τη μηχανή Kubernetes που βοηθά στην εκπαίδευση και την τελειοποίηση των μοντέλων “το πρώτο εξάμηνο του 2024”.
Η Google ανέφερε σε ανακοίνωσή της ότι η συνεργασία της με την Hugging Face “προωθεί την υποστήριξη του Google Cloud για την ανάπτυξη οικοσυστήματος τεχνητής νοημοσύνης ανοιχτού κώδικα”. Ορισμένα από τα μοντέλα της Google βρίσκονται στο Hugging Face, αλλά τα μεγάλα γλωσσικά μοντέλα του banner της, όπως το Gemini, το οποίο τροφοδοτεί τώρα το chatbot Bard, και το μοντέλο κειμένου σε εικόνα Imagen δεν βρίσκονται στο αποθετήριο και θεωρούνται πιο μοντέλα κλειστού κώδικα.