Redazione di Hardware Upg
10-12-2025, 15:33
Link alla notizia: https://edge9.hwupgrade.it/news/ia-business/oltre-nvidia-i-server-di-red-hat-ai-accelerano-l-inferenza-coi-chip-ai-aws-inferentia2-e-aws-trainium3-di-aws_147417.html
La collaborazione tra Red Hat e Amazon Web Services rende possibile un'inferenza IA pił efficiente grazie al supporto di Red Hat AI Inference Server su chip proprietari AWS. L'integrazione con OpenShift e Ansible, il contributo a vLLM e llm-d e la spinta alla community open source delineano un percorso per ridurre costi e latenza nei carichi di lavoro di IA
Click sul link per visualizzare la notizia.
La collaborazione tra Red Hat e Amazon Web Services rende possibile un'inferenza IA pił efficiente grazie al supporto di Red Hat AI Inference Server su chip proprietari AWS. L'integrazione con OpenShift e Ansible, il contributo a vLLM e llm-d e la spinta alla community open source delineano un percorso per ridurre costi e latenza nei carichi di lavoro di IA
Click sul link per visualizzare la notizia.