Minggu ini dalam AI: Apple tidak akan mengungkapkan cara membuat sosis

Halo, teman-teman, dan selamat datang di buletin AI reguler TechCrunch.

Minggu ini dalam AI, Apple mencuri perhatian.

Pada Konferensi Pengembang Worldwide (WWDC) perusahaan di Cupertino, Apple memperkenalkan Apple Intelligence, inisiatif AI generatif secara luas yang telah lama ditunggu-tunggu. Apple Intelligence menggerakkan berbagai fitur, mulai dari Siri yang ditingkatkan hingga emoji yang dihasilkan AI hingga alat pengeditan foto yang menghapus orang dan objek yang tidak diinginkan dari foto.

Perusahaan berjanji bahwa Apple Intelligence dibangun dengan keselamatan sebagai inti, bersama dengan pengalaman yang sangat personal.

"Ini harus memahami Anda dan berada dalam konteks personal Anda, seperti rutinitas, hubungan, komunikasi, dan lainnya," kata CEO Tim Cook selama presentasi pada hari Senin. "Semua ini melampaui kecerdasan buatan. Ini kecerdasan personal, dan ini langkah besar selanjutnya bagi Apple."

Apple Intelligence secara klasik Apple: Ia menyembunyikan teknologi yang rinci di balik fitur yang jelas dan intuitif. (Tidak sekali pun Cook mengucapkan frasa "model bahasa besar.") Tetapi sebagai seseorang yang menulis tentang bagian dalam AI untuk hidup, saya ingin Apple lebih transparan - hanya sekali ini - tentang bagaimana sosis dibuat.

Contohnya, praktik pelatihan model Apple. Apple mengungkapkan dalam sebuah pos blog bahwa ia melatih model AI yang menggerakkan Apple Intelligence dengan kombinasi dari kumpulan data berlisensi dan web publik. Penerbit memiliki opsi untuk tidak berpartisipasi dalam pelatihan mendatang. Tetapi bagaimana jika Anda adalah seorang seniman yang penasaran apakah karya Anda terikut dalam pelatihan awal Apple? Kehardiran - bibirnya rapat.

Kerahasiaan itu bisa untuk alasan kompetitif. Tetapi saya curiga juga untuk melindungi Apple dari tantangan hukum - khususnya tantangan yang berkaitan dengan hak cipta. Pengadilan belum memutuskan apakah vendor seperti Apple memiliki hak untuk melatih pada data publik tanpa memberi imbalan atau mengakui pencipta data tersebut - dengan kata lain, apakah doktrin penggunaan wajar berlaku untuk AI generatif.

Sedikit kekecewaan melihat Apple, yang sering menggambar diri sebagai pahlawan dalam kebijakan teknologi yang masuk akal, secara implisit mengadopsi argumen penggunaan wajar. Tersembunyi di balik tabir pemasaran, Apple bisa mengklaim mengambil pendekatan yang bertanggung jawab dan terukur terhadap AI saat mungkin saja melatih karya-karya pencipta tanpa izin.

Penjelasan kecil akan memberikan banyak manfaat. Sayang sekali kita belum mendapatkannya - dan saya tidak berharap akan segera mendapatkannya, kecuali ada gugatan (atau dua).

Berita

Fitur AI unggulan Apple: Saya merangkum fitur AI unggulan Apple yang diumumkan selama presentasi WWDC minggu ini, mulai dari Siri yang ditingkatkan hingga integrasi mendalam dengan ChatGPT OpenAI.

OpenAI merekrut eksekutif: OpenAI saat ini merekrut Sarah Friar, mantan CEO jaringan sosial hiperlokasi Nextdoor, untuk menjabat sebagai kepala keuangan, dan Kevin Weil, yang sebelumnya memimpin pengembangan produk di Instagram dan Twitter, sebagai kepala produk.

Mail, kini dengan lebih banyak AI: Minggu ini, Yahoo (perusahaan induk TechCrunch) memperbarui Yahoo Mail dengan kemampuan AI baru, termasuk ringkasan email yang dihasilkan AI. Google juga memperkenalkan fitur ringkasan generatif serupa baru-baru ini - tetapi di balik tembok pembayaran.

Pandangan kontroversial: Studi terbaru dari Carnegie Mellon menemukan bahwa tidak semua model AI generatif diciptakan sama - terutama dalam hal bagaimana mereka menangani masalah yang polarisasi.

Penghasil suara: Stability AI, startup di balik generator seni AI berbasis AI, Stable Diffusion, telah merilis model AI terbuka untuk menghasilkan suara dan lagu yang katanya dilatih secara eksklusif pada rekaman bebas royalti.

Artikel penelitian minggu ini

Google percaya bahwa ia dapat membangun model AI generatif untuk kesehatan personal - atau setidaknya melakukan langkah awal dalam arah tersebut.

Dalam artikel baru yang ditampilkan di blog resmi Google AI, peneliti Google membuka tirai tentang Personal Health Large Language Model, atau PH-LLM singkatnya - versi disempurnakan dari salah satu model Gemini Google. PH-LLM dirancang untuk memberikan rekomendasi untuk meningkatkan tidur dan kebugaran, sebagian dengan membaca data denyut jantung dan pernapasan dari perangkat wearable seperti smartwatch.

Untuk menguji kemampuan PH-LLM memberikan saran kesehatan yang berguna, para peneliti menciptakan hampir 900 studi kasus tidur dan kebugaran yang melibatkan subjek di Amerika Serikat. Mereka menemukan bahwa PH-LLM memberikan rekomendasi tidur yang mendekati - tetapi tidak sebaik - rekomendasi yang diberikan oleh ahli tidur manusia.

Para peneliti mengatakan bahwa PH-LLM dapat membantu untuk mengonsepkan data fisiologis untuk "aplikasi kesehatan personal." Google Fit terlintas dalam pikiran; Saya tidak akan terkejut melihat PH-LLM akhirnya menggerakkan fitur baru di aplikasi Google yang fokus pada kebugaran, Fit atau lainnya.

Model minggu ini

Apple mendedikasikan cukup banyak salinan blognya yang menguraikan model AI generatif on-device dan yang di-bound cloud yang membentuk paket Apple Intelligence-nya. Namun meskipun panjangnya posting ini, ia tidak mengungkap banyak tentang kemampuan model-model tersebut. Berikut adalah upaya terbaik kami dalam menguraikannya:

Model on-device tanpa nama yang dibahas Apple memiliki ukuran kecil, tanpa keraguan agar dapat berjalan offline pada perangkat Apple seperti iPhone 15 Pro dan Pro Max. Ia berisi 3 miliar parameter - "parameter" adalah bagian dari model yang pada dasarnya mendefinisikan kemampuannya dalam menyelesaikan masalah, seperti menghasilkan teks - sehingga sebanding dengan model Gemini on-device Google Gemini Nano, yang hadir dalam ukuran 1,8 miliar parameter dan 3,25 miliar parameter.

Sementara itu, model server, lebih besar (seberapa besar, Apple tidak akan mengatakan dengan tepat). Yang kita ketahui adalah bahwa ia lebih mampu daripada model on-device. Sementara model on-device berfungsi seperti model-model seperti Phi-3-mini Microsoft, Mistral 7B dan Gemma 7B Google berdasarkan pada benchmark yang Apple sebutkan, model server "membandingkan menguntungkan" dengan model unggulan lama OpenAI GPT-3.5 Turbo, klaim Apple.

Apple juga mengatakan bahwa kedua model on device dan model server lebih sedikit kemungkinan untuk menyimpang dari jalurnya (misalnya, menyebarkan toksisitas) daripada model-model dengan ukuran yang sama. Mungkin begitu - tetapi penulis ini menahan penilaiannya hingga kita mendapat kesempatan untuk menguji Apple Intelligence.

Grab bag

Minggu ini menandai ulang tahun keenam rilis GPT-1, leluhur GPT-4o, model AI generatif unggulan terbaru OpenAI. Dan meskipun pembelajaran yang mendalam mungkin mengalami kebuntuan, luar biasa sejauh mana perkembangan bidang ini telah mencapai.

Pertimbangkan bahwa GPT-1 dilatih selama sebulan pada dataset berukuran 4,5 gigabyte teks (BookCorpus, berisi ~7.000 buku fiksi yang belum dipublikasikan). GPT-3, yang hampir 1.500 kali lipat ukurannya dari GPT-1 berdasarkan jumlah parameter dan lebih canggih dalam prosa yang dapat dihasilkan dan dianalisis, dilatih selama 34 hari. Bagaimana itu dalam hal penskalaan?

Yang membuat GPT-1 terobosan adalah pendekatannya dalam pelatihan. Teknik sebelumnya bergantung pada sejumlah besar data yang dilabeli secara manual, membatasi kegunaannya. (Memberi label data secara manual memakan waktu - dan melelahkan.) Namun GPT-1 tidak; ia dilatih terutama pada data tidak berlabel untuk "belajar" bagaimana melakukan berbagai tugas (misalnya, menulis esai).

Banyak ahli percaya bahwa kita tidak akan melihat pergeseran paradigma seberarti yang GPT-1 lagi dalam waktu dekat. Tetapi lagi pula, dunia tidak melihat kedatangan GPT-1, kan?