L’intelligenza artificiale ha bisogno di più potenza. Forse in risposta a questa realtà, la società di analisi dei dati modulare e componibile Voltron Data ha acquisito Claypot AI, una piattaforma emergente di intelligenza artificiale in tempo reale. Questa mossa è progettata per aumentare la potenza del nostro motore di intelligenza artificiale mentre cerchiamo modi per costruire un’intelligenza artificiale più potente, più veloce e più completa. Voltron Data elabora carichi di lavoro di dati “big batch” su unità di elaborazione grafica (GPU) e l'azienda ora integrerà le funzionalità in tempo reale di Claypot AI nei carichi di lavoro GPU con l'obiettivo di velocizzare la creazione dell'intelligenza artificiale.
Come sappiamo, c’è una corsa per fornire potenza di elaborazione all’intelligenza artificiale, quindi perché la sfida della preparazione dei dati è parte di questa equazione così difficile?
Lavori di preparazione all'intelligenza artificiale
Quando si tratta di preparare e fornire l'intelligenza artificiale, le organizzazioni sono limitate da fattori quali la pre-elaborazione dei dati sulle unità di elaborazione centrale (CPU) (ovvero l'utilizzo di chip tradizionali per ottenere un vantaggio sull'intelligenza artificiale) e l'estrazione, trasformazione e caricamento (ETL ) compiti associati all'immissione di dati grezzi Nelle aree in cui i modelli di intelligenza artificiale possono funzionare… I team di intelligenza artificiale devono fornire quella che viene chiamata “ingegneria delle funzionalità”, che è un processo AWS specifica Ad esempio, estrarre e trasformare variabili da dati grezzi, come listini prezzi, descrizioni di prodotti e volumi di vendita, in modo da poter utilizzare le funzionalità di addestramento e previsione in un modello statistico finale che serve il carico di lavoro dell'intelligenza artificiale.
Tutto ciò significa che le aziende che desiderano utilizzare l'intelligenza artificiale spesso non riescono a far avanzare le capacità e le funzionalità relative all'apprendimento automatico (ML) in modo efficiente o rapido poiché faticano a costruire grandi cluster di CPU di dati (cluster di chip, progettati per essere coordinati in modo che funzionino). insieme). Di conseguenza, le GPU utilizzate per i carichi di lavoro AI/ML sono in modalità standby in attesa di dati pre-elaborati dai pool di CPU.
Acceleratore motore originale
Voltron Data ha recentemente lanciato Theseus, una tecnologia descritta come un motore di query distribuito “acceleratore nativo”. Theseus è progettato per sfruttare i vantaggi delle GPU e degli acceleratori hardware del sistema completo come memoria a larghezza di banda elevata, rete e storage accelerato. Abilita sia la preelaborazione dei dati che i carichi di lavoro AI/ML sulle GPU, il che si dice unifichi l'analisi dei dati e le pipeline AI sulla stessa infrastruttura. L’azienda promuove inoltre la propria capacità di ridurre i rischi legati ai vincoli dei fornitori, il consumo energetico e l’impronta di carbonio.
Theseus è disponibile per aziende e agenzie governative con i set di dati più grandi e tramite partner di canale. HPE è il primo partner a includere Theseus come motore di elaborazione dati accelerato nell’ambito del programma HPE Ezmeral Unified Analytics.
“Non potrei essere più entusiasta di avere a bordo l'intero team AI di Claypot [onto our staff]. Insieme, saremo in grado di accelerare la roadmap dei nostri prodotti MLOps in tempo reale con le funzionalità più recenti per i nostri clienti. Josh Patterson, co-fondatore e CEO di Voltron Data. “Con l'acquisizione di Claypot AI, Voltron Data può abilitare analisi in tempo reale, ingegneria delle funzionalità e funzionalità MLOps basate su Theseus, nonché sui prodotti open source Apache Arrow, Ibis e Substrait.”
Determinismo nominativo?
Claypot AI è stata fondata nel 2022 da Chip Hoenun informatico che ha scritto libri sulla progettazione di sistemi di apprendimento automatico e il suo partner per l'innovazione Chen Zhong Shuche ha guidato il team della piattaforma di streaming dati fornendo assistenza a migliaia di casi di utilizzo dei dati presso Netflix.
“Le strategie di intelligenza artificiale devono iniziare dalle strategie sui dati. Sono entusiasta di questo nuovo capitolo con Voltron Data e delle straordinarie opportunità che offre. Continueremo a spingere i confini di ciò che è possibile in tempo reale, ingegneria delle funzionalità e MLO aziendali”, ha affermato Hoenn.
Chiaramente c’è molto di cui parlare nell’intelligenza artificiale. Gran parte della discussione (non sorprende) si concentra sull’uso di modelli linguistici di grandi dimensioni (LLM) che forniscono archivi di dati da cui l’intelligenza artificiale può imparare, e si parla anche molto di database vettoriali a causa della loro comodità intrinseca (molti direbbero che è bisogno di base piuttosto che convenienza).Per supportare il modello di intelligenza artificiale… Poi ci sono i pregiudizi e le allucinazioni dell'intelligenza artificiale prima di passare a come possiamo automatizzare, accelerare e migliorare i flussi di lavoro umani nel mondo reale. Ma al di sotto di tutte queste discussioni c'è la potenza di elaborazione del motore e la gestione dei dati che stiamo cercando di creare per guidare in primo luogo l'intelligenza artificiale.
Sia che ora cuciniamo l’intelligenza artificiale utilizzando una moderna friggitrice o una pentola di terracotta vecchio stile, queste cose sono in voga… Quindi per favore usa una maniglia o un supporto.
“Pluripremiato specialista televisivo. Appassionato di zombi. Impossibile scrivere con i guantoni da boxe. Pioniere di Bacon.”