Amazon investe 4 miliardi di dollari in Claude di Anthropic

HomeAttualità


Indirizzo copiato


La mossa fa parte integrante della partnership annunciata dalle due aziende: Anthropic utilizzerà la piattaforma cloud di Amazon per "carichi di lavoro mission-critical" in cambio dell'investimento

Pubblicato il 26 set 2023


Redazione


Amazon ha dichiarato che investirà fino a 4 miliardi di dollari in Anthropic, la società che ha realizzato il chatbot Claude. Claude appare oggi come uno dei principali concorrenti di ChatGPT di Open AI e Bard di Google nella corsa dell’AI generativa.

L’investimento fa parte di un’importante partnership annunciata dalle due aziende, in cui Anthropic ha accettato di utilizzare la piattaforma cloud di Amazon per “carichi di lavoro mission-critical” in cambio dell’investimento. Il sostegno è il primo collegamento importante da parte di Amazon a un chatbot leader, in un momento in cui i concorrenti del cloud Microsoft e Google hanno già scommesso molto sulle rispettive piattaforme di chatbot.

Indice degli argomenti:

L’annuncio di Amazon arriva dopo quello di Alexa LLM

Amazon continua ad avere più cavalli nella corsa ai LLM, quindi questo investimento potrebbe essere stato fatto per diversificare i suoi sforzi, oltre che per assicurarsi l’accesso alla tecnologia, ai talenti e alle intuizioni. Con l’annuncio di Alexa LLM, Amazon sta entrando nella corsa ai modelli commerciali a sorgente chiusa, parallelamente alla sua attività di fornitura di una piattaforma per i modelli generativi (chiamata Bedrock).

WHITEPAPER

7 regole che dovresti seguire per risparmiare l’80% sul cloud: ecco quali sono!

IaaS

PaaS

Inizio modulo

Leggi l'informativa sulla privacy

  • Acconsento alla comunicazione dei dati a terzi appartenenti ai seguenti settori merceologici: servizi (tra cui ICT/digitali), manifatturiero, commercio, pubblica amministrazione. I dati verranno trattati per finalità di marketing tramite modalità automatizzate e tradizionali di contatto (il tutto come specificato nell’informativa)

Fine modulo

Microsoft ha investito più di 10 miliardi di dollari in Open AI, per assicurarsi i diritti esclusivi di offrire la tecnologia chatbot di OpenAI all’interno dei propri servizi cloud. Questo include la priorità di OpenAI sulla piattaforma cloud Azure di Microsoft. Nel frattempo, Google ha spinto il proprio chatbot Bard e Meta ha investito nella sua piattaforma Llama, che ha reso open source, in modo che altre aziende possano utilizzare la tecnologia LLM di base di Llama. (Anche se Google ha investito 300 milioni di dollari in Anthropic a febbraio e Anthropic ha scelto Google Cloud Platform come piattaforma cloud preferita in quel momento).

Si tratta di un’importante iniezione di sostegno per Claude, in un momento in cui la liquidità è estremamente importante per finanziare il costoso lavoro di formazione dei LLM competitivi, che utilizzano centinaia di miliardi di parametri e richiedono enormi esigenze di calcolo. Finora Claude aveva raccolto solo circa 2,7 miliardi di dollari.

Amazon e Anthropic, collaborazione strategia per un’AI più sicura

Amazon e Anthropic hanno dichiarato che la nuova collaborazione strategica metterà in comune le loro tecnologie e competenze “per un’AI più sicura” e accelererà lo sviluppo di LLM da parte di Anthropic per renderli ampiamente accessibili ai clienti AWS. Uno dei principali punti di forza di Anthropic è che l’AI può essere pericolosa se non viene protetta in modo adeguato. Anthropic ha investito molto per garantire che il suo modello di fondazione di chatbot Claude si attenga a specifiche regole di base per la produzione di risultati etici, radicati nei principi di quella che chiama AI costituzionale. Anthropic ha cercato di colmare un divario di percezione rispetto a ChaptGPT di Open AI, che non è altrettanto rigoroso.

Ecco gli elementi chiave dell’accordo:

  • Anthropic utilizzerà i chip di AWS Trainium e Inferentia per costruire, addestrare e distribuire i suoi futuri modelli di fondazione, beneficiando del prezzo, delle prestazioni, della scala e della sicurezza di AWS. Le due aziende collaboreranno inoltre allo sviluppo delle future tecnologie Trainium e Inferentia.
  • AWS diventerà il principale fornitore di cloud di Anthropic per i carichi di lavoro mission-critical, tra cui la ricerca sulla sicurezza e lo sviluppo dei futuri modelli di fondazione. Anthropic prevede di eseguire la maggior parte dei suoi carichi di lavoro su AWS, mettendo così a disposizione di Anthropic la tecnologia avanzata del principale fornitore di cloud al mondo.
  • Anthropic si impegna a lungo termine a fornire ai clienti AWS di tutto il mondo l’accesso alle future generazioni dei suoi modelli di fondazione tramite Amazon Bedrock, il servizio completamente gestito da AWS che fornisce un accesso sicuro ai migliori modelli di fondazione del settore. Inoltre, Anthropic fornirà ai clienti AWS l’accesso anticipato a funzionalità esclusive per la personalizzazione e la messa a punto dei modelli.
  • Amazon investirà fino a 4 miliardi di dollari in Anthropic e deterrà una posizione di minoranza nella società.
  • Gli sviluppatori e gli ingegneri di Amazon potranno costruire con i modelli di Anthropic tramite Amazon Bedrock, in modo da incorporare capacità di AI generativa nel loro lavoro, migliorare le applicazioni esistenti e creare nuove esperienze per i clienti in tutte le attività di Amazon.

Amazon, offerta di AI generativa a tutti e tre i livelli dello stack

Amazon ha affermato che l’investimento espande l’offerta complessiva di AI generativa a “tutti e tre i livelli dello stack”.

“Al livello inferiore, AWS continua a offrire istanze di calcolo di NVIDIA e chip di silicio personalizzati di AWS, AWS Trainium per l’addestramento AI e AWS Inferentia per l’inferenza AI”, ha dichiarato l’azienda. “A livello intermedio, AWS si concentra sull’offerta ai clienti della più ampia selezione di modelli di base di diversi fornitori leader, con la possibilità di personalizzarli, di mantenere i propri dati privati e sicuri e di integrarli perfettamente con il resto dei carichi di lavoro AWS. L’annuncio rientra in questa via di mezzo, ha dichiarato l’azienda, dando ai clienti l’accesso ai modelli personalizzabili di Anthropic e consentendo loro di utilizzare i propri dati proprietari per creare i propri modelli privati e utilizzare le funzionalità di messa a punto tramite una funzione self-service all’interno di Amazon Bedrock.

Infine, al livello superiore, AWS offre “applicazioni e servizi di intelligenza artificiale generativa per i clienti, come Amazon Code Whisperer, un potente compagno di codifica alimentato dall’intelligenza artificiale, che consiglia frammenti di codice direttamente nell’editor di codice, accelerando la produttività degli sviluppatori durante la codifica”, ha dichiarato l’azienda.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

  •  
  •  
  •  

Leave a Reply

Your email address will not be published. Required fields are marked *