Nvidia mengakuisisi startup manajemen beban kerja AI Run:ai seharga $700M, kata sumber

Nvidia sedang mengakuisisi Run:ai, sebuah perusahaan berbasis di Tel Aviv yang membuat lebih mudah bagi pengembang dan tim operasi untuk mengelola dan mengoptimalkan infrastruktur hardware AI mereka. Istilah kesepakatan tidak diungkapkan secara publik, tetapi dua sumber yang dekat dengan masalah tersebut memberi tahu TechCrunch bahwa harganya adalah $700 juta.

CTech melaporkan pagi ini bahwa perusahaan tersebut sedang dalam 'negosiasi lanjutan' yang bisa membuat Nvidia membayar lebih dari $1 miliar untuk Run:ai. Ternyata, negosiasi berjalan lancar, kecuali kemungkinan perubahan harga.

Nvidia mengatakan bahwa mereka akan terus menawarkan produk-produk Run:ai 'dengan model bisnis yang sama' dan berinvestasi dalam peta jalan produk Run:ai sebagai bagian dari platform AI Cloud DGX Nvidia, yang memberikan akses kepada pelanggan perusahaan untuk infrastruktur komputasi dan perangkat lunak yang dapat mereka gunakan untuk melatih model untuk AI generatif dan bentuk AI lainnya. Pelanggan server dan workstation DGX serta DGX Cloud Nvidia juga akan mendapatkan akses ke kemampuan Run:ai untuk beban kerja AI mereka, terutama untuk implementasi AI generatif yang berjalan di beberapa lokasi pusat data.

'Run:ai telah menjadi rekan dekat dengan Nvidia sejak 2020 dan kami berbagi hasrat untuk membantu pelanggan kami mendapatkan yang terbaik dari infrastruktur mereka,' kata Omri Geller, CEO Run:ai, dalam sebuah pernyataan. 'Kami sangat senang bergabung dengan Nvidia dan berharap untuk melanjutkan perjalanan kami bersama.'

Geller mendirikan Run:ai bersama Ronen Dar beberapa tahun yang lalu setelah keduanya belajar bersama di Universitas Tel Aviv di bawah bimbingan profesor Meir Feder, pendiri ketiga Run:ai. Geller, Dar, dan Feder berusaha membangun platform yang bisa 'memecah' model AI menjadi fragmen yang berjalan secara paralel di seluruh hardware, baik di lokasi, di cloud publik, atau di ujung.

Meskipun Run:ai memiliki sedikit pesaing langsung, perusahaan lain sedang menerapkan konsep alokasi hardware dinamis untuk beban kerja AI. Misalnya, Grid.ai menawarkan perangkat lunak yang memungkinkan ilmuwan data melatih model AI melintasi GPU, prosesor, dan masih banyak lagi secara paralel.

Tetapi relative di awal kehidupannya, Run:ai berhasil membangun basis pelanggan besar dari perusahaan Fortune 500, yang pada gilirannya menarik investasi VC. Sebelum diakuisisi, Run:ai telah mengumpulkan $118 juta modal dari pendukung termasuk Insight Partners, Tiger Global, S Capital, dan TLV Partners.

Dalam pos blog, Alexis Bjorlin, Wakil Presiden DGX Cloud Nvidia, mencatat bahwa implementasi AI pelanggan semakin kompleks dan bahwa ada keinginan yang semakin besar di kalangan perusahaan untuk memanfaatkan sumber daya komputasi AI mereka dengan lebih efisien.

Survei terbaru dari organisasi yang mengadopsi AI dari ClearML, perusahaan manajemen model pembelajaran mesin, menemukan bahwa tantangan terbesar dalam menskalakan AI untuk 2024 sejauh ini adalah keterbatasan komputasi dalam hal ketersediaan dan biaya, diikuti oleh masalah infrastruktur.

'Mengelola dan mengatur AI generatif, sistem rekomendasi, mesin pencari, dan beban kerja lainnya memerlukan jadwal yang canggih untuk mengoptimalkan kinerja pada tingkat sistem dan pada infrastruktur yang mendasarinya,' ujar Bjorlin. 'Platform komputasi yang diakselerasi oleh Nvidia dan platform Run:ai akan terus mendukung ekosistem luas solusi pihak ketiga, memberikan pilihan dan fleksibilitas kepada pelanggan. Bersama dengan Run:ai, Nvidia akan memungkinkan pelanggan memiliki satu kain yang mengakses solusi GPU di mana pun.'

Run:ai adalah salah satu akuisisi terbesar Nvidia sejak pembelian Mellanox seharga $6.9 miliar pada Maret 2019.