L’innovazione della tecnologia CPO (ottica co-packaged) potrebbe sostituire le interconnessioni elettriche nei data center, offrendo miglioramenti in termini di velocità ed efficienza energetica per l’AI
Browsing: LLM
Oracle annuncia la disponibilità di Oracle Cloud Infrastructure (OCI) Supercluster che utilizza le GPU NVIDIA H200 Tensor Core
La reference architecture per i workflow basati su RAG di Infinidat rappresenta una componente chiave per migliorare la precisione dell’AI per le aziende
Il team Unit 42 di Palo Alto Networks ha scoperto Deceptive Delight una tecnica di jailbreak in grado di aggirare le protezioni di sicurezza di otto Large Language Model
Creati appositamente per il business, i modelli IBM Granite 3.0 offrono le funzionalità di protezione più complete per un’AI sicura e affidabile
Uno dei risultati più interessanti che emerge dall’ultima ricerca di MIT e Snowflake è che il 78% delle aziende non massimizza gli investimenti in AI a causa di una base di dati insufficiente
Federico Riboldi, Project Leader di adesso.it, mette in luce un aspetto critico: la capacità degli LLM di generare “allucinazioni”. Questi errori possono portare all’inclusione di pacchetti o librerie inesistenti o dannosi nel codice, rappresentando un potenziale rischio per la sicurezza informatica
Tra le ultime innovazioni appena presentate da IBM spiccano il processore Telum II e l’acceleratore Spyre che abilitano le capacità per l’AI su scala aziendale
L’ultimo report di Acronis analizza le minacce digitali del primo semestre 2024 ed evidenza un aumento allarmante degli attacchi tramite e-mail. Di seguito condividiamo i risultati principali dello studio
DeepL introduce una nuova generazione di LLM e porta la traduzione automatica su un altro livello. Scopri le funzionalità della piattaforma
Oracle annuncia la disponibilità di HeatWave GenAI, la soluzione che permette di creare app di GenAI senza bisogno di competenze specifiche
Snowflake annuncia la disponibilità immediata di Arctic per l’inferenza serverless in Snowflake Cortex e presto sarà anche disponibile su AWS
Snowflake condivide i risultati di uno studio relativo all’adozione di applicazioni LLM. Nel 2023 sono state create 90 app di Intelligenza Artificiale al giorno
In occasione della AI Week 2024 (9-12 aprile), l’evento dedicato agli imprenditori italiani che vogliono approfondire il tema dell’Intelligenza Artificiale e come adottarla nella propria azienda, SAS condivide tre strategie per utilizzare al meglio i Large Language Models (LLM)
Luciano Martinoli, Presidente non esecutivo di Axiante, ci racconta cosa sono i sistemi di LLM per farci capire che l’intelligenza artificiale non è una vera forma di intelligenza, quanto piuttosto una forma di comunicazione artificiale, che non ha nulla a che fare con l’annientamento della specie umana
La collaborazione strategica tra le due imprese prevede l’integrazione dei modelli linguistici di Mistral AI alla piattaforma Snowflake Cortex
Per diventare fornitori di LLM competitivi, le società di telecomunicazioni devono sfruttare soluzioni di sicurezza affidabili e scalabili
Se gestita dalle persone sbagliate, l’Intelligenza Artificiale rappresenta una grande minaccia per la sicurezza digitale. Domenico Iacono di Commvault spiega come difendersi
Con la versione ottimizzata di Mixtral-8x7B su watsonx, IBM offre ai clienti più scelta e flessibilità nell’ambito della governance e archivio dati
Nell’ultima versione della piattaforma Appian AI Process si uniscono Gen AI, dati di business e automazione dei processi end-to-end