Καθώς οι επιχειρήσεις συνεχίζουν να πιλοτικά έργα παραγωγής τεχνητής νοημοσύνης, πολλές θεωρούν ότι το κόστος της ανάπτυξης της τεχνολογίας στα δικά τους κέντρα δεδομένων μπορεί να είναι απαγορευτικό. Οι ISV όπως η Amazon βλέπουν μέλλον στην προσφορά αυτών των περιπτώσεων τεχνητής νοημοσύνης μέσω του ιστού.
Ενώ τα μοντέλα γενετικής τεχνητής νοημοσύνης (genAI) αναμένεται να συρρικνωθούν σε μέγεθος για να ταιριάζουν σε πιο καθορισμένες ανάγκες και εταιρικούς προϋπολογισμούς, ένας μεγάλος αριθμός παρόχων υπηρεσιών εξακολουθούν να σχεδιάζουν την πορεία εσόδων τους με βάση την παροχή υπηρεσιών cloud AI. Στην ετήσια επιστολή του προς τους μετόχους την περασμένη εβδομάδα, ο διευθύνων σύμβουλος της Amazon Andy Jassy είπε ότι η εταιρεία θα επικεντρωθεί λιγότερο στη δημιουργία εφαρμογών genAI που απευθύνονται στους καταναλωτές και περισσότερο στην παροχή μοντέλων τεχνητής νοημοσύνης που μπορεί να πουλήσει μέσω διαδικτυακών υπηρεσιών σε εταιρικούς πελάτες. «Μερικές φορές, οι άνθρωποι μας ρωτούν: «Ποιος είναι ο επόμενος πυλώνας σας;» Έχετε Marketplace, Prime και AWS, τι ακολουθεί;», έγραψε ο Jassy. «Αν με ρωτούσατε σήμερα, θα οδηγούσα με τη γενετική τεχνητή νοημοσύνη. Είμαστε αισιόδοξοι ότι μεγάλο μέρος αυτής της τεχνητής νοημοσύνης που αλλάζει τον κόσμο θα κατασκευαστεί πάνω από το AWS».
Οι προσδοκίες του Jassy για ροές εσόδων από υπηρεσίες τεχνητής νοημοσύνης δεν είναι άστοχες. Οι οργανισμοί σχεδιάζουν να επενδύσουν 10% έως 15% περισσότερο σε πρωτοβουλίες τεχνητής νοημοσύνης τον επόμενο ενάμιση χρόνο σε σύγκριση με το ημερολογιακό έτος 2022, σύμφωνα με έρευνα της IDC σε περισσότερους από 2.000 υπεύθυνους λήψης αποφάσεων πληροφορικής και επιχειρηματικής γραμμής. Το περασμένο φθινόπωρο, η Amazon κυκλοφόρησε το Bedrock, το οποίο παρέχει μια ποικιλία μοντέλων μεγάλων γλωσσών (LLM) μέσω του cloud AWS μέσω του οποίου οι οργανισμοί μπορούν να δημιουργήσουν εφαρμογές genAI. Η εταιρεία παρουσίασε επίσης πρόσφατα το Amazon Q, έναν βοηθό κωδικοποίησης λογισμικού που βασίζεται σε τεχνητή νοημοσύνη. Το Bedrock της Amazon προσφέρει «θεμελιώδη μοντέλα» AI από τα AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI, μαζί με το δικό του LLM της Amazon μέσω ενός μόνο API.
Η λίστα με τους πελάτες cloud της AI της Amazon περιλαμβάνει πλέον τις ADP, Delta Air Lines, GoDaddy, Intuit, Pfizer και Siemens. Επί του παρόντος, το cloud computing οδηγεί όλες τις άλλες μεθόδους για την παράδοση εφαρμογών genAI σε επιχειρήσεις. αυτό οφείλεται στο υψηλό κόστος κατασκευής ιδιόκτητης υποδομής. Η Amazon Web Services, η Google, η IBM, η Microsoft και η Oracle έχουν επενδύσει δισεκατομμύρια δολάρια σε προσφορές cloud τεχνητής νοημοσύνης από τότε που το OpenAI πυροδότησε μια πυρκαγιά υιοθέτησης με την κυκλοφορία του ChatGPT τον Νοέμβριο του 2022. “Κανείς εκτός από τους υπερκλιμακωτές και τις μεγάλες εταιρείες δεν μπορεί να αντέξει οικονομικά να εκπαιδεύσει και να λειτουργήσει τα πολύ μεγάλα LLM και τα μοντέλα ιδρυμάτων”, δήλωσε ο Avivah Litan, διακεκριμένος αντιπρόεδρος αναλυτής της Gartner. «Το κόστος ανέρχεται σε εκατοντάδες εκατομμύρια δολάρια». Με τον όρο «μεγάλο» ο Litan αναφερόταν σε μοντέλα με εκατοντάδες δισεκατομμύρια παραμέτρους, σε αντίθεση, ας πούμε, σε αυτά με λιγότερες από 100 δισεκατομμύρια παραμέτρους. Ωστόσο, το κόστος χρήσης των LLM που παρέχονται μέσω υπηρεσιών cloud «είναι σχετικά διαχειρίσιμο από τις επιχειρήσεις και προς το παρόν επιδοτούνται επίσης από τους υπερκλιμακωτές», είπε ο Litan.
Ωστόσο, καθώς οι επιχειρήσεις συνεχίζουν να αναπτύσσουν τα πιλοτικά τους εφαρμογές genAI, το κόστος των υπηρεσιών cloud μπορεί να γίνει περιοριστικός παράγοντας. Αντίθετα, πολλοί οργανισμοί προσπαθούν να αναπτύξουν μικρότερα LLM εντός των εγκαταστάσεων που στοχεύουν στο χειρισμό συγκεκριμένων εργασιών. Τα μικρότερα μοντέλα για συγκεκριμένους τομείς που εκπαιδεύονται σε περισσότερα δεδομένα θα αμφισβητήσουν τελικά την κυριαρχία των σημερινών κορυφαίων LLM, συμπεριλαμβανομένων του GPT 4 του OpenAI, του LLaMA 2 του Meta AI και του PaLM 2 της Google. Τα μικρότερα μοντέλα θα ήταν επίσης πιο εύκολο να εκπαιδευτούν για συγκεκριμένες περιπτώσεις χρήσης, σύμφωνα με τον Dan Diasio, Global Artificial Intelligence Consulting Leader της Ernst & Young. Μέχρι το 2025, το 30% των έργων genAI θα εγκαταλειφθεί μετά την απόδειξη της ιδέας (POC) λόγω κακής ποιότητας δεδομένων, ανεπαρκών ελέγχων κινδύνου, κλιμακούμενου κόστους ή ασαφούς επιχειρηματικής αξίας, σύμφωνα με την Gartner Research. Και έως το 2028, περισσότερες από τις μισές επιχειρήσεις που έχουν δημιουργήσει τα δικά τους LLM από την αρχή θα εγκαταλείψουν τις προσπάθειές τους λόγω κόστους, πολυπλοκότητας και τεχνικού χρέους στις εγκαταστάσεις τους. Τα τρέχοντα μοντέλα τιμολόγησης προμηθευτών που μετακυλίουν το υψηλό κόστος της καινοτομίας και της ανάπτυξης, εκπαίδευσης και λειτουργίας LLM θα μπορούσαν επίσης να σημαίνουν ότι οι επιχειρήσεις δεν θα βλέπουν την απόδοση επένδυσης για τα έργα τους AI, σύμφωνα με πρόσφατη έκθεση της Gartner. Ακόμη και όταν η τιμολόγηση επιδοτείται από πωλητές που ελπίζουν να κερδίσουν νωρίς μερίδιο αγοράς, συχνά δεν αρκεί για γρήγορη απόσβεση, είπε η Gartner. Αντίθετα, οι οργανισμοί θα πρέπει να ακολουθήσουν τη μακροχρόνια προσέγγιση για τα κέρδη παραγωγικότητας και την απόδοση επένδυσης από το genAI.
Ο Lee Sustar, κύριος αναλυτής της Forrester Research, είπε ότι οι υπηρεσίες τεχνητής νοημοσύνης μέσω cloud θα συνεχίσουν να αναπτύσσονται καθώς προϊόντα όπως το AWS Bedrock, το Azure AI και το Google Cloud Vertex μειώνουν το εμπόδιο εισόδου. «Δεδομένης της βαρύτητας δεδομένων στο cloud, είναι συχνά το πιο εύκολο μέρος για να ξεκινήσετε με δεδομένα εκπαίδευσης. Ωστόσο, θα υπάρχουν πολλές περιπτώσεις χρήσης για μικρότερα LLM και εξαγωγή συμπερασμάτων AI στην άκρη. Επίσης, οι πάροχοι cloud θα συνεχίσουν να προσφέρουν επιλογές πλατφόρμας τεχνητής νοημοσύνης που θα δημιουργήσετε μόνοι σας μέσω των πλατφορμών Kubernetes, οι οποίες χρησιμοποιούνται από τους επιστήμονες δεδομένων εδώ και χρόνια», δήλωσε ο Sustar. «Ορισμένες από αυτές τις υλοποιήσεις θα πραγματοποιηθούν στο κέντρο δεδομένων σε πλατφόρμες όπως το Red Hat OpenShift AI. Εν τω μεταξύ, νέα cloud προσανατολισμένα στην GPU όπως το Coreweave θα προσφέρουν μια τρίτη επιλογή. Αυτή είναι η πρώτη μέρα, αλλά οι διαχειριζόμενες υπηρεσίες τεχνητής νοημοσύνης από παρόχους cloud θα παραμείνουν στο επίκεντρο του οικοσυστήματος της τεχνητής νοημοσύνης».
Και ενώ τα μικρότερα LLM είναι στον ορίζοντα, οι επιχειρήσεις θα εξακολουθούν να χρησιμοποιούν τις υπηρεσίες cloud τεχνητής νοημοσύνης μεγάλων εταιρειών όταν χρειάζονται πρόσβαση σε πολύ μεγάλα LLM, σύμφωνα με τον Litan. Ακόμα κι έτσι, περισσότεροι οργανισμοί θα χρησιμοποιούν τελικά μικρά LLM που τρέχουν σε πολύ μικρότερο υλικό, «ακόμη και τόσο μικρό όσο ένας κοινός φορητός υπολογιστής. «Και θα δούμε την άνοδο των εταιρειών υπηρεσιών που υποστηρίζουν αυτή τη διαμόρφωση μαζί με τις υπηρεσίες απορρήτου, ασφάλειας και διαχείρισης κινδύνου που θα απαιτηθούν», είπε ο Litan. «Θα υπάρχει αρκετός χώρος και για τα δύο μοντέλα — το πολύ μεγάλο μοντέλο θεμελίωσης παροχής υπηρεσίας cloud και το μικρό μοντέλο θεμελίωσης παροχή ιδιωτικής υπηρεσίας cloud στη GPU/CPU της επιλογής σας». Μία από τις πρώτες υπηρεσίες AI-cloud της Amazon ήταν το Sagemaker, ένα ολοκληρωμένο περιβάλλον ανάπτυξης (IDE) για προγραμματιστές και μηχανικούς για την κατασκευή, την εκπαίδευση και την ανάπτυξη μοντέλων μηχανικής μάθησης και τεχνητής νοημοσύνης. «Η Bedrock ξεκινάει πολύ δυνατά με δεκάδες χιλιάδες ενεργούς πελάτες μετά από λίγους μόλις μήνες», έγραψε ο Jassy. «Σε αντίθεση με τον μαζικό εκσυγχρονισμό της εσωτερικής υποδομής στο cloud…, αυτή η επανάσταση του genAI θα κατασκευαστεί από την αρχή πάνω στο cloud».