Snowflake menyelenggarakan acara bertajuk Data Cloud World Tour (DWCT) di Jakarta hari ini (25/10/2023).
Acara yang dihadiri pemimpin di bidang data, teknologi dan bisnis seperti Satchit Joglekar, Direktur Regional ASEAN Emerging Markets, Jennifer Belissent Pemimpin Ahli Strategi Data, dan Natalie Mead Vice President dari divisi Sales Engineering, membahas soal bagaimana Data Cloud memecah silo, yang memungkinkan AI dan machine learning (ML) yang kuat dan aman, serta memberikan nilai bisnis kepada pelanggan.
Selain itu, acara ini akan menggali lebih dalam kemampuan terbaru Snowflake yang memudahkan organisasi melakukan lebih banya hal dengan data mereka serta menyederhanakan arsitektur, membangun tanpa mengorbankan tata kelola, dan menghadirkan serta memonetisasi aplikasi terkemuka dalam skala besar di Snowflake Marketplace. Snowflake Marketplace. Secara khusus, para peserta akan mempelajari kemajuan baru di bidang streaming yang sedang berkembang pesat, dukungan untuk format tabel terbuka, dan AI generatif.
Pemimpin Ahli Strategi Data Jennifer Belissent dan Vice President divisi Sales Engineering Natalie Mead juga hadir dan berbicara di acara She Loves Data bertema Women in Data and AI untuk menginspirasi lebih banyak perempuan dalam mendorong masa depan data dan AI.
Snowflake Mendorong AI Generatif dengan Inovasi dan Kemitraan Baru
Snowflake baru-baru ini mengumumkan inovasi baru yang memperluas kemampuan program data bagi ilmuwan data (data scientists), teknisi data (data engineer), dan pengembang aplikasi sehingga mereka dapat membangun dengan cepat dan lebih efisien di Data Cloud. Dengan peluncuran Snowpark Container Services (pratinjau pribadi), Snowflake akan memperluas jangkauan Snowpark Snowpark sehingga para pengembang dapat membuka banyak pilihan infrastruktur yang lebih luas, seperti akselerasi komputasi untuk menjalankan lebih banyak beban kerja dalam platform Snowflake yang aman dan terkelola tanpa kerumitan, termasuk jangkauan AI yang lebih luas. dan model ML, API, aplikasi yang dikembangkan secara internal, dan banyak lagi.
Dengan menggunakan Snowpark Container Services, pelanggan Snowflake juga mendapatkan akses ke katalog luas perangkat lunak dan aplikasi pihak ketiga termasuk LLMs (Large Language Models) Notebooks, alat-alat MLOps, dan banyak lagi dalam akun mereka. Selain itu, Snowflake menyederhanakan dan menskalakan cara pengguna mengembangkan, mengoperasionalkan, dan menggunakan model ML, serta meluncurkan inovasi baru sehingga lebih banyak organisasi dapat menghidupkan data dan model ML mereka.
Snowpark, Berdayakan Pengembang dengan Kemampuan Program Lebih Luas
Snowpark terus berfungsi sebagai penerapan dan pemrosesan kode non-SQL yang aman dari Snowflake dengan berbagai runtime dan pustaka, memperluas siapa yang dapat membangun dan apa yang dibangun di Data Cloud.
Hal ini memungkinkan si pembangun bekerja dengan data secara lebih efektif dalam bahasa pemograman dan alat pilihan mereka, sekaligus memberi organisasi otomatisasi, tata kelola, dan jaminan keamanan yang tidak terdapat pada data lake lama dan lingkungan big data. Sejak peluncurannya pada Bulan Juni 2021, Snowpark telah membantu teknisi data memigrasikan pipeline dan menjalankannya secara lebih cepat dan efisien, memungkinkan data scientist untuk membangun dan melatih model, serta menjadikan Snowflake sebagai sebuah platform canggih untuk pengembangan aplikasi.
Snowpark Container Service semakin memperluas cakupan beban kerja lebih yang dapat dibawa ke data pelanggan. Hal ini memberi pengguna dengan fleksibilitas untuk membangun dalam bahasa pemrograman apapun dan menerapkan pada pilihan infrastruktur yang lebih luas, dengan kemudahan yang sama dalam hal penggunaan, skalabilitas, tata kelola terpadu dari Data Cloud Snowflake.
Selain itu, Snowpark Container Service dapat digunakan sebagai bagian dari aplikasi asli milik Snowflake (dalam tahap pengembangan), memungkinkan pengembang mendistribusikan aplikasi yang canggih yang sepenuhnya berjalan di akun Snowflake pelanggan akhir mereka. Snowpark Container Service juga akan memungkinkan pengguna untuk secara aman menjalankan penyedia model generatif pihak ketiga terkemuka seperti Reka secara aman langsung dalam akun Snowflake mereka, menghilangkan kebutuhan untuk mengekspos data kepemilikan untuk mempercepat inovasi.
Bantu Menghidupkan Model ML, Hadirkan Pengalaman Pengembang yang Ditingkatkan
Untuk menyederhakan dan menskalakan operasi model machine learning (MLOps), Snowflake memperkenalkan Snowpark Model Registry baru, repositori terpadu untuk model ML organsisasi. Registri tersebut memungkinkan pengguna memusatkan penerbitan dan penemuan model, sehingga semakin menyederhanakan kolaborasi antar data scientist dan teknisi ML untuk menerapkan model ke dalam produksi dengan lancar.
Snowflake juga memajukan integrasi Streamlit di Snowflake, memberdayakan data scientist dan pengembang Python lainnya untuk meningkatkan dampak pekerjaan mereka dengan membangun aplikasi yang menjembatani kesenjangan antara data dan tindakan bisnis. Dengan Streamlit di Snowflake, para pembuat dapat menggunakan kode Python yang sudah dikenal untuk mengembangkan aplikasi mereka, mengubah ide menjadi aplikasi yang siap untuk perusahaan hanya dengan beberapa baris kode, lalu dengan cepat menerapkan dan membagikan aplikasi ini dengan aman di Data Cloud.
Selain itu, Snowflake membuat pengembangan dalam platform terpadunya menjadi lebih mudah dan familiar melalui kemampuan baru termasuk integrasi Git asli (pratinjau pribadi) untuk mendukung alur kerja CI/CD yang lancar, dan Antarmuka Baris Perintah (CLI; Command Line Interface) asli (pratinjau pribadi) untuk pengembangan yang optimal dan pengujian dalam Snowflake.
Inovasi baru juga mempermudah dan menghemat biaya bagi para data engineer untuk bekerja dengan data berlatensi rendah, tanpa harus menyatukan solusi atau membangun jalur data tambahan. Snowflake menghilangkan batasan antara pipeline batch dan streaming dengan Snowpipe Streaming (segera tersedia secara umum) dan Dynamic Tables (pratinjau publik), memberikan solusi yang disederhanakan dan hemat biaya bagi teknisi data untuk menyerap data streaming dan dengan mudah membangun pipeline deklaratif yang kompleks.














