Slack di bawah serangan atas kebijakan pelatihan AI yang menyelinap

Di tengah masalah yang terus berlanjut seputar cara perusahaan teknologi besar mengambil data dari individu dan bisnis dalam pelatihan layanan AI, badai sedang melanda pengguna Slack yang marah atas bagaimana platform obrolan yang dimiliki oleh Salesforce ini maju dengan visi AI-nya.

Perusahaan ini, seperti banyak yang lain, menggunakan data penggunaannya sendiri untuk melatih beberapa layanan AI-nya yang baru. Namun, ternyata jika Anda tidak ingin Slack menggunakan data Anda, Anda harus mengirim email ke perusahaan untuk memilih keluar.

Dan syarat keterlibatan tersebut terselip di dalam apa yang tampaknya menjadi kebijakan privasi yang ketinggalan jaman dan membingungkan yang tidak diperhatikan oleh siapa pun. Begitulah halnya dengan Slack, sampai seseorang yang kesal memposting tentang mereka di situs komunitas yang sangat populer di kalangan pengembang, dan kemudian posting itu menjadi viral… itulah yang terjadi di sini.

Semua dimulai semalam, ketika sebuah catatan di Hacker News menyoroti masalah tentang bagaimana Slack melatih layanan AI-nya, melalui tautan langsung ke prinsip privasinya, tidak perlu komentar tambahan. Posting itu memulai percakapan yang lebih panjang — dan tampaknya berita bagi pengguna Slack saat ini — bahwa Slack secara default memasukkan pengguna ke dalam pelatihan AI-nya, dan bahwa Anda perlu mengirim email ke alamat tertentu untuk memilih keluar.

Benang Hacker News itu kemudian memunculkan berbagai percakapan dan pertanyaan di platform lain: Ada produk yang baru dengan nama yang generik bernama “Slack AI” yang memungkinkan pengguna mencari jawaban dan merangkum benang percakian, antara lain, tetapi mengapa itu tidak sekali disebutkan namanya di halaman prinsip privasi itu dengan cara apa pun, bahkan untuk menjelaskan apakah kebijakan privasi berlaku untuknya? Dan mengapa Slack merujuk pada kedua ‘model global’ dan ‘model AI’?

Antara orang-orang yang bingung tentang di mana Slack menerapkan prinsip privasi AI-nya, dan orang-orang yang terkejut dan kesal atas gagasan mengirim email untuk memilih keluar — di perusahaan yang gencar menonjolkan bahwa “Anda mengontrol data Anda” — Slack tidak terlihat baik.

Kejutan mungkin baru, tetapi syarat-syaratnya tidak. Menurut halaman-halaman di Internet Archive, syarat-syarat tersebut berlaku setidaknya sejak September 2023. (Kami telah meminta perusahaan untuk mengonfirmasi.)

Menurut kebijakan privasinya, Slack menggunakan data pelanggan secara khusus untuk melatih “model global,” yang digunakan oleh Slack untuk menggerakkan rekomendasi channel dan emoji serta hasil penelusuran. Slack memberitahu kami bahwa penggunaan data tersebut memiliki batasan-batasan tertentu.

“Slack memiliki model machine learning pada tingkat platform untuk hal-hal seperti rekomendasi channel dan emoji serta hasil penelusuran. Kami tidak membangun atau melatih model-model ini sedemikian rupa sehingga dapat belajar, menghafal, atau dapat memperbanyak sebagian dari data pelanggan,” kata juru bicara perusahaan kepada TechCrunch. Namun, kebijakan tersebut tampaknya tidak mengatasi lingkup keseluruhan dan rencana lebih luas perusahaan untuk melatih model-model AI.

Dalam syarat-syaratnya, Slack mengatakan bahwa jika pelanggan memilih keluar dari pelatihan data, mereka tetap akan mendapat manfaat dari “model AI/ML yang dilatih secara global” perusahaan. Namun lagi, dalam hal itu, tidak jelas mengapa perusahaan menggunakan data pelanggan secara pertama untuk menggerakkan fitur-fitur seperti rekomendasi emoji.

Perusahaan tersebut juga mengatakan bahwa mereka tidak menggunakan data pelanggan untuk melatih Slack AI.

“Slack AI adalah tambahan yang dibeli secara terpisah yang menggunakan Large Language Models (LLM) tetapi tidak melatih LLM tersebut pada data pelanggan. Slack AI menggunakan LLM yang dihosting langsung di infrastruktur AWS Slack, sehingga data pelanggan tetap berada di dalam perusahaan dan tidak dibagikan kepada penyedia LLM mana pun. Hal ini memastikan bahwa data pelanggan tetap berada di bawah kendali organisasi tersebut dan secara eksklusif untuk penggunaan organisasi itu,” kata juru bicara.

Sebagian kebingungan kemungkinan akan segera diatasi. Dalam balasan terhadap satu kritik dari Threads oleh insinyur dan penulis Gergely Orosz, insinyur Slack Aaron Maurer mengakui bahwa perusahaan perlu memperbarui halaman tersebut untuk mencerminkan “bagaimana prinsip privasi ini bermain dengan Slack AI.”

Maurer menambahkan bahwa syarat-syarat ini ditulis pada saat perusahaan belum memiliki Slack AI, dan aturan-aturan ini mencerminkan kerja perusahaan seputar pencarian dan rekomendasi. Akan menjadi penting untuk mengkaji syarat-syarat ini untuk pembaruan mendatang, mengingat kebingungan seputar apa yang sedang dilakukan Slack saat ini dengan AI-nya.

Masalah-masalah di Slack adalah pengingat yang jelas bahwa, dalam dunia pengembangan AI yang cepat, privasi pengguna seharusnya bukanlah hal yang disepelekan dan syarat-syarat layanan perusahaan seharusnya dengan jelas menjelaskan bagaimana dan kapan data digunakan atau jika tidak.