AI200: Otak Besar untuk Generative AI Skala Raksasa
Dengan desain hemat daya dan rasio performa per watt terbaik di kelasnya, AI200 menjawab kebutuhan pusat data yang ingin menghadirkan AI generatif berdaya tinggi tanpa membakar biaya energi.
AI250: Revolusi Bandwidth 10x Lebih Tinggi
Dengan kemampuan menjalankan AI inference secara terdistribusi (disaggregated inference), AI250 dapat memproses model AI berskala masif dengan efisiensi ekstrem — cocok untuk pusat data yang menuntut kecepatan tanpa kompromi.
Untuk menjaga stabilitas termal, Qualcomm juga menyematkan direct liquid cooling system, memastikan chip tetap dingin sekaligus memperpanjang usia operasional perangkat keras.
Efisiensi, Fleksibilitas, dan Ekosistem Terbuka
Dalam pernyataan resminya, Durga Malladi, SVP & GM Technology Planning, Edge Solutions & Data Center Qualcomm Technologies, menegaskan:
“Dengan AI200 dan AI250, kami mendefinisikan ulang potensi AI skala rak. Solusi ini memungkinkan pelanggan menjalankan generative AI dengan biaya total kepemilikan (TCO) terbaik, tanpa mengorbankan fleksibilitas dan keamanan.”
Qualcomm juga memperkuat posisinya dengan menghadirkan ekosistem terbuka dan software stack terpadu.
Langkah ini menjadikan Qualcomm bukan sekadar produsen chip, tetapi juga penyedia solusi AI menyeluruh — dari perangkat keras hingga software operasional.
Rilis Global dan Masa Depan Pusat Data
Dengan konsumsi daya di tingkat rak mencapai 160 kW, AI200 dan AI250 diklaim sudah siap bersaing di level hyperscaler seperti Amazon, Google, dan Microsoft — sekaligus mempertegas arah baru Qualcomm sebagai pemain serius di dunia AI Data Center Infrastructure.
Transformasi Menuju Era “AI yang Berpikir Cepat”
Dengan kemampuan memproses model besar secara cepat dan efisien, AI200 dan AI250 bisa menjadi fondasi penting bagi masa depan pusat data, cloud AI, dan transformasi industri berbasis kecerdasan buatan.
Tags: #Qualcomm #AI200 #AI250 #ChipAI #DataCenter #GenerativeAI #Teknologi #QBeritakan


