L’Intelligenza Artificiale è uno strumento potente che offre tante possibilità a chi ne fa uso, ma per accedervi, spesso, servono determinate competenze che ne fanno una tecnologia di nicchia. Per ovviare a questo, Oracle ha annunciato la disponibilità generale di HeatWave GenAI, che include i primi modelli linguistici di grandi dimensioni (LLM) in-database presentati sul mercato, un sistema di memorizzazione vettoriale (“vector store”) automatizzato in-database, un’elaborazione vettoriale scale-out e la possibilità di avere conversazioni contestuali in linguaggio naturale, basate su contenuti non strutturati. Queste nuove funzionalità permettono ai clienti di sfruttare la potenza dell’intelligenza artificiale generativa per operare sui propri dati aziendali – senza avere bisogno di competenze di AI o senza dover spostare i dati in un database vettoriale separato.
Con HeatWave GenAI, gli sviluppatori possono creare un vector store per i contenuti aziendali non strutturati con un singolo comando SQL, utilizzando modelli di embedding integrati. Gli utenti possono eseguire ricerche in linguaggio naturale con una singola azione, utilizzando LLM in-database o esterni. I dati non lasciano il database e, grazie all’estrema scalabilità e alle performance di HeatWave, non è necessario eseguire il provisioning delle GPU. Di conseguenza, gli sviluppatori possono ridurre la complessità delle applicazioni, aumentare le performance, migliorare la sicurezza dei dati e ridurre i costi.
“HeatWave conferma la sua straordinaria velocità di innovazione con l’aggiunta di HeatWave GenAI alle funzionalità integrate già esistenti: HeatWave Lakehouse, HeatWave Autopilot, HeatWave AutoML e HeatWave MySQL“, ha dichiarato Edward Screven, chief corporate architect di Oracle. “Le nuove potenzialità dell’integrazione dell’intelligenza artificiale e dell’automazione consentono oggi agli sviluppatori di creare applicazioni di intelligenza artificiale generativa avanzate più rapidamente, senza aver bisogno di competenze di AI o di spostare i dati. Gli utenti ora hanno un modo intuitivo di interagire con i dati aziendali e di ottenere rapidamente le risposte accurate di cui hanno bisogno”.
“HeatWave GenAI rende estremamente facile sfruttare l’intelligenza artificiale generativa“, ha dichiarato Vijay Sundhar, fondatore e chief executive officer di SmarterD, società di consulenza che combina tecnologia, processi e dati per facilitare la presa di decisioni e la gestione strategica del rischio d’impresa. “Il supporto per i LLM in-database e la creazione di vettori in-database riduce in modo significativo la complessità dell’applicazione, rende prevedibile la latenza dei processi di inferenza e e, soprattutto, aiuta a non incappare in costi aggiuntivi per utilizzare i LLM o creare integrazioni. Questa è una vera democratizzazione dell’intelligenza artificiale generativa, e crediamo che porterà alla creazione di applicazioni più ricche e a una maggiore produttività”.
Funzionalità di HeatWave GenAI
I Large Language Model all’interno del database semplificano lo sviluppo di applicazioni di intelligenza artificiale generativa, a un costo inferiore. Con HeatWave GenAI, i clienti possono trarre vantaggio dalla GenAI senza farsi carico della selezione e dell’integrazione di LLM esterni e senza preoccuparsi della disponibilità di LLM nei datacenter dei loro vari fornitori di servizi cloud. I Large Language Model in-database permettono di ricercare dati, generare o riepilogare contenuti ed eseguire la retrieval-augmented generation (RAG) con HeatWave Vector Store. Inoltre, possono combinare l’intelligenza artificiale generativa con altre funzionalità HeatWave integrate come AutoML per creare applicazioni più ricche. HeatWave GenAI è integrata anche con il servizio OCI GenAI per accedere a modelli di base pre-addestrati dai principali provider di LLM.
Il Vector Store in-database automatizzato consente ai clienti di utilizzare l’intelligenza artificiale generativa con i documenti aziendali senza spostare i dati in un database vettoriale separato e senza avere bisogno di competenze specifiche di AI. Tutti i passaggi necessari per creare un vector store e il relativo embedding (integrazione) sono automatizzati ed eseguiti all’interno del database: ciò include azioni quali la ricerca di documenti nell’object storage, la loro analisi, la generazione dell’embedding in modo altamente parallelo e ottimizzato e l’inserimento nel vector store. Il tutto rende HeatWave Vector Store efficiente e facile da usare. L’utilizzo di un vector store per la RAG, inoltre, aiuta a risolvere il problema delle cosiddette “allucinazioni” dei Large Languate Model, in quanto i modelli possono cercare dati proprietari in un contesto appropriato e fornire così risposte più accurate e pertinenti.
L’elaborazione vettoriale scale-out offre rapidamente risultati di ricerca semantica senza perdere in accuratezza o precisione. HeatWave GenAI supporta un nuovo tipo di dati VECTOR nativo e implementa in modo ottimizzato la funzione di distanza, permettendo ai clienti di eseguire query semantiche in linguaggio standard SQL. La rappresentazione a colonne ibrida in-memory e l’architettura a scalabilità orizzontale di HeatWave consentono di eseguire l’elaborazione vettoriale a una larghezza di banda near-memory e di parallelizzare fino a un massimo di 512 nodi HeatWave. Grazie a ciò, i clienti ottengono rapidamente risposte alle loro domande. Gli utenti possono anche combinare la ricerca semantica con altri operatori SQL, ad esempio per unire più tabelle con documenti diversi ed eseguire ricerche sulla base della somiglianza in tutti i documenti.
HeatWave Chat è un plugin Visual Code per MySQL Shell che fornisce un’interfaccia grafica per HeatWave GenAI e consente agli sviluppatori di porre domande in linguaggio naturale o SQL. Il Lakehouse Navigator integrato consente agli utenti di selezionare i file dallo storage a oggetti e di creare una memoria vettoriale. Gli utenti possono eseguire ricerche nell’intero database o limitare la ricerca a una cartella. HeatWave mantiene il contesto con la cronologia delle domande poste, le citazioni dei documenti di origine e il prompt all’LLM. Questo facilita una conversazione contestuale e permette agli utenti di verificare l’origine delle risposte generate dal Large Language Model. Il contesto viene conservato in HeatWave ed è disponibile poi per qualsiasi applicazione che lo utilizzi.
Benchmark per la creazione di vector store e l’elaborazione vettoriale
La creazione di un vector store per i documenti in formato PDF, PPT, WORD e HTML è fino a 23 volte più veloce con HeatWave GenAI; il suo costo è pari a un quarto del prezzo di utilizzo di Knowledge base per Amazon Bedrock.
Come dimostrato da un benchmark di terze parti che utilizza una vasta gamma di query di ricerca di somiglianza, su tabelle di dimensioni comprese tra 1,6GB e 300 GB, HeatWave GenAI è 30 volte più veloce di Snowflake e costa il -25% in meno, 15 volte più veloce di Databricks e costa l’-85% in meno e 18 volte più veloce di Google BigQuery e costa il -60% in meno.
Un altro benchmark rivela che gli indici vettoriali in Amazon Aurora PostgreSQL con pgvector possono avere un grado elevato di imprecisione e possono produrre risultati errati. Al contrario, l’elaborazione della ricerca di somiglianza HeatWave fornisce sempre risultati accurati, ha tempi di risposta prevedibili, viene eseguita a una velocità near-memory ed è fino a 10 volte più veloce di Aurora utilizzando lo stesso numero di core.
“Siamo entusiasti di continuare la nostra già consolidata collaborazione con Oracle per offrire la potenza e la produttività dell’intelligenza artificiale con HeatWave GenAI per carichi di lavoro e data-set aziendali strategici“, ha dichiarato Dan McNamara, senior vice president e general manager, Server Business Unit, AMD. “Il lavoro di progettazione congiunto intrapreso da AMD e Oracle sta consentendo agli sviluppatori di progettare soluzioni aziendali di intelligenza artificiale innovative sfruttando HeatWave GenAI, una soluzione supportata dalla densità di core e dall’eccezionale rapporto prezzo/prestazioni dei processori AMD EPYC“.
I commenti di clienti e analisti su HeatWave GenAI
“Impieghiamo molto HeatWave AutoML in-database per fornire raccomandazioni ai nostri clienti“, ha dichiarato Safarath Shafi, chief executive officer, EatEasy. “Il supporto di HeatWave per i LLM in-database e la memoria di vettore in-database è eccellente; la possibilità di integrare l’intelligenza artificiale generativa con AutoML differenzia ulteriormente le capacità di HeatWave da altre offerte nel settore, e ci consente di offrire nuovi tipi di funzionalità ai nostri clienti. La sinergia con AutoML migliora anche le performance e la qualità dei risultati LLM“.
“L’innovazione di HeatWave continua a dare risultati, nell’ottica di una visione che guarda a un database cloud universale“, ha dichiarato Holger Mueller, vice president e principal analyst, Constellation Research. “L’ultima novità è l’intelligenza artificiale generativa fatta in stile ‘HeatWave’, che include l’integrazione di una memoria di vettore automatizzata in-database e di LLM in-database direttamente nel core HeatWave. Ciò permette agli sviluppatori di creare nuove classi di applicazioni combinando elementi HeatWave. Ad esempio, possono combinare HeatWave AutoML e HeatWave GenAI in un’applicazione di rilevamento delle frodi – che non solo rileva transazioni sospette, ma fornisce anche una spiegazione comprensibile. Tutto questo viene eseguito nel database, quindi non è necessario spostare i dati in database vettoriali esterni, cosa che permette di mantenere i dati più sicuri. Inoltre, ciò rende HeatWave GenAI altamente performante a una frazione del costo, come dimostrato nei benchmark competitivi“.
Disponibilità
HeatWave GenAI è disponibile subito in tutte le Oracle cloud region, nelle OCI – Oracle Cloud Infrastructure – Dedicated Region (DRCC, “Dedicated Region Cloud@Customer”) e in vari altri cloud, senza costi aggiuntivi per i clienti che già utilizzano HeatWave.