ItWorks
  • Home
  • TOP Digital Awards
  • Business Solution
  • Telco
  • Digital
  • E-Gov
  • Product
  • Forti
  • TIK Talks
  • More
    • Expert
    • ICT Profile
    • Fintech
    • Research
    • Tips & Trick
    • Event
    • Foto
No Result
View All Result
  • Home
  • TOP Digital Awards
  • Business Solution
  • Telco
  • Digital
  • E-Gov
  • Product
  • Forti
  • TIK Talks
  • More
    • Expert
    • ICT Profile
    • Fintech
    • Research
    • Tips & Trick
    • Event
    • Foto
No Result
View All Result
ItWorks
No Result
View All Result

Rilis Red Hat AI Inference Server, Red Hat Hadirkan Gen AI untuk Berbagai Model dan Akselerator di Seluruh Hybrid Cloud

Fauzi
22 May 2025 | 13:38
rubrik: Business Solution
Rilis Red Hat AI Inference Server, Red Hat Hadirkan Gen AI untuk Berbagai Model dan Akselerator di Seluruh Hybrid Cloud
Share on FacebookShare on Twitter

Perusahaan penyedia solusi open source global, Red Hat, hari ini merilis Red Hat AI Inference Server, satu langkah signifikan menuju demokratisasi AI generatif (Gen AI) di seluruh hybrid cloud.

Penawaran baru di dalam Red Hat AI, server inferensi kelas enterprise, ini lahir dari proyek komunitas vLLM yang kuat dan ditingkatkan berkat integrasi teknologi Neural Magic Red Hat, yang menawarkan kecepatan yang lebih tinggi, efisiensi akselerator, dan penghematan biaya untuk mewujudkan visi Red Hat menjalankan berbagai model gen AI di berbagai akselerator, di berbagai lingkungan cloud. Dijalankan secara mandiri atau sebagai komponen terintegrasi dari Red Hat Enterprise Linux AI (RHEL AI) dan Red Hat OpenShift AI, platform canggih ini akan memberdayakan organisasi untuk menjalankan dan meningkatkan gen AI dalam produksi dengan lebih percaya diri.

Inferensi adalah mesin eksekusi AI yang sangat penting, di mana model-model yang sudah dilatih sebelumnya akan menerjemahkan data menjadi kenyataan. Inferensi adalah titik penting dalam interaksi pengguna, yang menuntut respons cepat dan akurat. Ketika kompleksitas model AI semakin tinggi dan skala penerapannya dalam produksi makin besar, inferensi bisa menjadi hambatan yang signifikan, menghabiskan sumber daya hardware dan terancam melumpuhkan daya tanggap dan meningkatkan biaya operasional. Server inferensi yang kuat bukan lagi sebuah kemewahan, namun sebuah kebutuhan untuk membuka potensi AI pada skala besar, menavigasi berbagai kompleksitas yang ada dengan lebih mudah.

Red Hat secara langsung menjawab tantangan-tantangan ini dengan Red Hat AI Inference Server – solusi inferensi terbuka yang dirancang untuk kinerja tinggi dan dilengkapi dengan kompresi model dan tools pengoptimalan terkemuka. Inovasi ini memberdayakan organisasi untuk sepenuhnya memanfaatkan kekuatan transformatif gen AI dengan memberikan pengalaman pengguna yang jauh lebih responsif dan kebebasan yang tak tertandingi dalam memilih akselerator AI, model dan lingkungan IT.

BACA JUGA:  Ingram Micro Innovation Day 2025 Tegaskan Komitmen Dorong Pertumbuhan dan Percepatan Inovasi Berbasis AI

Joe Fernandes, vice president dan general manager, AI Business Unit, Red Hat mengatakan “Inferensi adalah tempat di mana janji-janji gen AI diwujudkan, di mana interaksi pengguna dipenuhi dengan respons yang cepat dan akurat oleh model yang tersedia, namun ini harus disampaikan dengan cara yang efektif dan hemat biaya. Red Hat AI Inference Server ditujukan untuk memenuhi permintaan inferensi yang berkinerja tinggi dan responsif dalam skala besar sambil menjaga permintaan sumber daya tetap rendah, menyediakan lapisan inferensi umum yang mendukung model apa pun, berjalan di akselerator apa pun, di lingkungan apa pun.”

vLLM: Memperluas inovasi inferensi
Red Hat AI Inference Server dibangun berdasarkan proyek vLLM terkemuka di industri, yang dimulai oleh University of California, Berkeley pada pertengahan tahun 2023. Proyek komunitas ini menghadirkan inferensi gen AI dengan throughput tinggi, dukungan untuk konteks input yang besar, akselerasi model multi GPU, dukungan untuk batching berkelanjutan dan banyak lagi.

Dukungan luas vLLM untuk model yang tersedia secara umum – ditambah dengan day zero integration dari model-model tercanggih dan terkemuka seperti DeepSeek, Gemma, Llama, Llama Nemotron, Mistral, Phi, dan lainnya, serta model-model penalaran (reasoning model) kelas enterprise seperti Llama Nemotron – menempatkannya sebagai standar de facto untuk inovasi inferensi AI di masa depan. Penyedia model tercanggih dan terkemuka semakin menggunakan vLLM, memperkuat peran pentingnya dalam membentuk masa depan gen AI.

Memperkenalkan Red Hat AI Inference Server
Red Hat AI Inference Server mengemas inovasi terdepan dari vLLM terdepan dan memadukannya ke dalam kemampuan kelas enterprise dari Red Hat AI Inference Server. Red Hat AI Inference Server tersedia sebagai penawaran terkontainerisasi secara mandiri atau sebagai bagian dari RHEL AI dan Red Hat OpenShift AI.

BACA JUGA:  Tingkatkan Kinerja dan Efisiensi Biaya, Sistem Gudang Blibli Adopsi Teknologi AI

Di setiap lingkungan di mana ia diterapkan, Red Hat AI Inference Server memberikan pengguna distribusi vLLM yang diperkuat dan disupport sepenuhnya, termasuk:

  • Tool kompresi LLM yang cerdas untuk mengurangi ukuran model AI, baik yang dasar (foundational) maupun yang sudah fine-tuned, meminimalkan penggunaan daya komputasi sekaligus menjaga dan berpotensi meningkatkan akurasi model.
  • Repositori model yang dioptimalkan, yang dihosting dalam organisasi Red Hat AI di Hugging Face, menawarkan akses cepat ke kumpulan model AI terkemuka yang telah divalidasi dan dioptimalkan serta siap untuk langsung dijalankan, membantu mempercepat efisiensi hingga 2-4 x lipat tanpa mengorbankan akurasi model.
  • Dukungan enterprise dan puluhan tahun keahlian Red Hat dalam mewujudkan proyek-proyek komunitas ke lingkungan produksi.
  • Dukungan Pihak Ketiga untuk fleksibilitas yang lebih besar dalam penerapan, sehingga Red Hat AI Inference Server dapat dijalankan di platform yang bukan Red-Hat Linux dan Kubernetes sesuai dengan kebijakan dukungan pihak ketiga Red Hat.

Visi Red Hat: Model apa pun, akselerator apa pun, cloud apa pun
Masa depan AI harus ditentukan oleh peluang yang tak terbatas, tidak dibatasi oleh infrastruktur yang mengalami silo. Red Hat melihat dalam waktu dekat organisasi dapat menggunakan model apa pun, di akselerator apa pun, di cloud apa pun, memberikan pengalaman pengguna yang luar biasa dan lebih konsisten tanpa biaya yang terlalu tinggi. Untuk membuka potensi sesungguhnya dari investasi gen AI, perusahaan membutuhkan platform inferensi yang universal, sebuah standar untuk inovasi AI yang lebih mulus dan memiliki kinerja tinggi, baik saat ini maupun di tahun yang akan datang.

Sama seperti Red Hat yang memelopori perusahaan terbuka dengan mengubah Linux menjadi landasan IT modern, perusahaan sekarang siap merancang masa depan inferensi AI. vLLM memiliki potensi sebagai landasan untuk inferensi gen AI standar, dan Red Hat berkomitmen untuk membangun ekosistem yang berkembang bukan hanya di sekitar komunitas vLLM namun juga llm-d untuk inferensi terdistribusi dalam skala besar. Visinya jelas: terlepas dari model AI, akselerator yang mendasarinya, atau lingkungan penerapannya, Red Hat bermaksud menjadikan vLLM sebagai standar terbuka yang definitif untuk inferensi di seluruh hybrid cloud yang baru.

BACA JUGA:  Riset Cloudera: Strategi Data Enterprise, Jembatan Menuju Pemulihan Ekonomi Pasca-Pandemi
Tags: AIGenerative AIRed HatRed Hat AI Inference Server
Previous Post

Terapkan Industri 4.0, IKM Binaan Kemenperin Hasilkan Inovasi Produksi Batik

Next Post

Paywatch Perluas Operasional Buka Kantor Baru Bali

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

TOP DIGITAL AWARDS

hanwha-life-top-digital-awards-2025-level-stars-5

Hanwha Life Raih TOP Digital Awards 2025 Level Stars 5

Teguh Imam Suyudi
23 December 2025 | 16:00

Rumah Pendidikan Kemendikdasmen TOP Digital Awards 2025

Rumah Pendidikan Kemendikdasmen Raih Penghargaan Bergengsi TOP Digital Awards 2025

Teguh Imam Suyudi
7 December 2025 | 09:00

Moratelindo TOP Digital Awards

Moratelindo Perkuat Kepemimpinan Transformasi Digital Lewat Dua Penghargaan Nasional TOP Digital Awards 2025

Teguh Imam Suyudi
6 December 2025 | 09:00

Ilham Habibie: Digital adalah Instrumen Strategis Daya Saing Global, Kedaulatan, dan Ketahanan Ekonomi Bangsa

Ilham Habibie: Digital adalah Instrumen Strategis Daya Saing Global, Kedaulatan, dan Ketahanan Ekonomi Bangsa

Fauzi
5 December 2025 | 13:58

PT Pertamina International Shipping (PIS) Raih Penghargaan TOP Digital Awards 2025 Bintang 5

PT Pertamina International Shipping (PIS) Raih Penghargaan TOP Digital Awards 2025 Bintang 5

Ahmad Churi
5 December 2025 | 11:14

Load More

TERPOPULER

  • Amar Bank: “Layanan Bank Digital Bukan Hanya untuk Menambah Jumlah Nasabah, yang Terpenting untuk Edukasi Keuangan”

    Amar Bank: “Layanan Bank Digital Bukan Hanya untuk Menambah Jumlah Nasabah, yang Terpenting untuk Edukasi Keuangan”

    1 shares
    Share 0 Tweet 0
  • Gelar FGD, Telkomsel Berupaya Hadirkan Solusi Inovatif untuk Dukung Bisnis Ritel

    0 shares
    Share 0 Tweet 0
  • Maxim Luncurkan Fitur e-Payment ‘Maxim Wallet KasPro’

    0 shares
    Share 0 Tweet 0
  • Garmin Ungkap Melesatnya Tren Lari di Indonesia

    0 shares
    Share 0 Tweet 0
  • Cara Mudah Cek Penerima Bansos di Cekbansos.Kemensos.go.id

    0 shares
    Share 0 Tweet 0
iklan bni
cover it works
cover it works

ICT PROFILE

Transformasi Digital Kian Gencar, Akamai Luncurkan Akamai Connected Cloud dan Layanan Baru

Tunjuk Fiona Zhang, Akamai Perkuat Strategi Channel-First Kawasan APJ

Fauzi
8 April 2026 | 16:26

Akamai menunjuk Fiona Zhang sebagai Wakil Presiden Regional Bidang Penjualan dan Program Saluran untuk kawasan Asia-Pasifik dan Jepang. Penunjukan Fiona...

Intel Tunjuk Pimpinan Baru untuk Kawasan APJ

Intel Tunjuk Pimpinan Baru untuk Kawasan APJ

Fauzi
7 April 2026 | 11:46

Intel Corporation mengumumkan penunjukan Santhosh Viswanathan sebagai Vice President and Managing Director untuk kawasan Asia Pasifik dan Jepang (APJ). Dengan...

EXPERT

Adopsi AI Dorong Perubahan Pola Konsumsi Data, 5G Jadi Fondasi Pengalaman Digital

Adopsi AI Dorong Perubahan Pola Konsumsi Data, 5G Jadi Fondasi Pengalaman Digital

Ahmad Churi
2 April 2026 | 21:21

ItWorks.id- Laporan Ericsson ConsumerLab 2026 mengungkap meningkatnya penggunaan kecerdasan buatan (AI) mulai mengubah pola konsumsi data seluler, terutama pada kebutuhan...

Pencadangan Data (Backup) dan Keamanan Kini Menjadi Persoalan Ekonomi AI

Fauzi
30 March 2026 | 14:36

Oleh: Sherlie Karnidta, Country Manager Indonesia, Cloudera IDC dalam Global DataSphere Forecast memproyeksikan bahwa volume data global akan melonjak hingga...

TIK TALKS

Stephanus Oscar – Data Center dengan Kapasitas 6 Megawatt di Jakarta | It Works Podcast #5

Stephanus Oscar – Data Center dengan Kapasitas 6 Megawatt di Jakarta | It Works Podcast #5

redaksi
16 August 2022 | 15:30

Di masa akan datang banyak aplikasi yang akan membutuhkan low latency connectivity. Lalu apa kaitannya dengan Edge DC yang hadir...

Edward Samual – Memproses Data dari Hulu Sampai Hilir | It Works Podcast #4

Edward Samual – Memproses Data dari Hulu Sampai Hilir | It Works Podcast #4

redaksi
15 August 2022 | 12:30

Bagaimana cara mengolah Big Data sehingga dapat divisualisasikan, serta bagaimana dapat melakukan analitik dan dapat memprediksikan apa yang harus dilakukan...

  • Redaksi
  • Pedoman Media Siber
  • Info Iklan
  • Disclaimer
  • Email

Itworks - Inspire Great & Telco for Business Performance | All Rights Reserved

  • Home
  • TOP Digital Awards
  • Business Solution
  • Telco
  • Digital
  • E-Gov
  • Product
  • Forti
  • TIK Talks
  • More
    • Expert
    • ICT Profile
    • Fintech
    • Research
    • Tips & Trick
    • Event
    • Foto