PDA

View Full Version : Oltre NVIDIA: i server di Red Hat AI accelerano l'inferenza coi chip AI AWS Inferentia2 e AWS Trainium3 di AWS


Redazione di Hardware Upg
10-12-2025, 15:33
Link alla notizia: https://edge9.hwupgrade.it/news/ia-business/oltre-nvidia-i-server-di-red-hat-ai-accelerano-l-inferenza-coi-chip-ai-aws-inferentia2-e-aws-trainium3-di-aws_147417.html

La collaborazione tra Red Hat e Amazon Web Services rende possibile un'inferenza IA pił efficiente grazie al supporto di Red Hat AI Inference Server su chip proprietari AWS. L'integrazione con OpenShift e Ansible, il contributo a vLLM e llm-d e la spinta alla community open source delineano un percorso per ridurre costi e latenza nei carichi di lavoro di IA

Click sul link per visualizzare la notizia.