
(SeaPRwire) – Pada hari Rabu, OpenAI menerbitkan posting blog yang menguraikan “filsafat dan mekanisme” di balik Model Spec-nya—dokumen yang membentuk perilaku ChatGPT, chatbot yang paling banyak digunakan di dunia.
Model Spec dimaksudkan sebagai “antarmuka”, menurut posting blog tersebut. Ia membuat perilaku yang diinginkan dari chatbot yang paling banyak digunakan di dunia menjadi eksplisit, sehingga peneliti, pembuat kebijakan, dan masyarakat dapat “membaca, memeriksa, dan berdebat” tentangnya. Hasilnya adalah dokumen 100 halaman yang mendefinisikan bagaimana model OpenAI harus menimbang antara kewajiban yang potensial bertentangan terhadap masyarakat, OpenAI, pengembang yang membangun di atas produk OpenAI, dan pengguna akhir. Untuk tujuan ini, Spec dibangun di sekitar rantai perintah, dengan larangan “kerusakan tingkat keparahan tinggi” yang memiliki prioritas di atas instruksi pengembang atau pengguna, dan diperbarui secara teratur—versi terbaru tanggal Desember.
“Saya melihat diri saya sebagai maintainer—dengan semangat proyek sampingan open-source,” kata Jason Wolfe, yang mengelola masukan ke Model Spec dari berbagai bagian OpenAI. Wolfe mengatakan bahwa peneliti telah mulai menghubungi OpenAI untuk masukan tentang bagaimana merancang Model Spec serupa, yang mendorong terbitnya posting blog yang menguraikan pemikiran perusahaan di balik dokumen tersebut. “Ada banyak hal di sini yang berharap bisa bermanfaat bagi orang-orang.”
Namun, dokumen ini “bukan implementasi”, menurut posting blog tersebut, yang menimbulkan pertanyaan seberapa representatif dokumen ini terhadap apa yang sebenarnya membentuk ChatGPT selama pelatihan. Proses di mana Spec mempengaruhi perilaku model adalah “rumit”, menurut Wolfe. Dalam beberapa kasus, teks dari Spec digunakan langsung dalam pelatihan “alignment”, di mana model AI dilatih untuk berperilaku diinginkan. Tetapi sama seringnya, prinsip-prinsip yang muncul di Spec adalah ringkasan dari pekerjaan detail yang dilakukan oleh tim keamanan di dalam organisasi. “Dalam banyak kasus, Spec dan pelatihan sebenarnya … adalah proses paralel yang kita pertahankan sinkron,” kata Wolfe.
Basis pengguna ChatGPT yang terus tumbuh berarti bahwa prinsip-prinsip di Spec memiliki potensi untuk mempengaruhi ratusan juta orang di seluruh dunia. Pada bulan Februari, chatbot tersebut memiliki sekitar 10% dari populasi global sebagai pengguna aktif mingguan. Tantangan ini diperparah oleh pertumbuhan internal OpenAI yang cepat, dengan perusahaan berencana untuk hampir menggandakan jumlah karyawan saat ini sebesar 4.500 orang pada akhir 2026. Puluhan orang di seluruh organisasi telah secara langsung berkontribusi teks ke Spec, menurut posting blog tersebut, dengan masukan dari tim penelitian, produk, dan hukum, antara lain. Wolfe bekerja secara khusus erat dengan kepala perilaku model dan kebijakan.
OpenAI bukanlah satu-satunya perusahaan AI yang bergulat dengan bagaimana membentuk perilaku modelnya dan bagaimana meminta masukan seiring dengan pertumbuhan dampak AI terhadap masyarakat. Pada bulan Januari, Anthropic menerbitkan “Claude Constitution”, dokumen 80 halaman yang menjelaskan jenis entitas yang ingin dimiliki Claude, model unggulan mereka. Konstitusi Anthropic dan Model Spec OpenAI dibaca dengan cara yang sangat berbeda: yang pertama terasa mirip dengan esai filsafat moral, yang kedua lebih dekat dengan kompilasi hukum kasus dengan contoh perilaku yang diinginkan. “Anthropic Constitution lebih filosofis, dan OpenAI Spec lebih berbasis perilaku,” kata Sharan Maiya, peneliti PhD di bidang alignment AI di University of Cambridge.
Dokumen-dokumen ini juga digunakan dengan cara yang berbeda oleh kedua perusahaan. Spec OpenAI adalah “pertama dan utama, dokumen untuk orang-orang”, menurut Wolfe, berguna untuk membangun konsensus tentang perilaku model yang diinginkan, tetapi lebih jauh dari apa yang secara konkret dipelajari oleh model. Sebaliknya, Amanda Askell, filsuf yang bertanggung jawab atas Konstitusi Anthropic, mengatakan bahwa Anthropic memberikan Konstitusinya kepada Claude “untuk membuat materi pelatihan sendiri yang memungkinkannya memahami dokumen tersebut.” Versi awal Konstitusi Anthropic ditemukan oleh pengguna, secara utuh, dalam respons Claude sebelum publikasi resmi, menunjukkan bahwa model telah mempelajari teks konstitusi. “Saya memang ingin dokumen ini terasa baik bagi model Claude,” kata Askell kepada TIME pada Januari.
Google DeepMind, xAI, dan Meta belum menerbitkan dokumen serupa yang menjelaskan perilaku yang diinginkan dari model mereka.
Garis merah untuk model AI telah menjadi sangat menonjol dalam beberapa minggu terakhir. Bulan lalu, OpenAI menandatangani kesepakatan dengan Department of War setelah Anthropic menolak menghapus garis merah seputar pengawasan massal domestik dan senjata otonom. OpenAI kemudian mundur, dengan Sam Altman mengakui bahwa kesepakatan itu terlihat “opportunistik dan ceroboh.” Versi diperbarui dari kesepakatan menyatakan bahwa “sistem AI tidak boleh secara sengaja digunakan untuk pengawasan domestik terhadap warga dan warga negara AS”, meskipun para ahli hukum memiliki pendapat yang berbeda tentang kekuatan jaminan ini.
Model Spec menyatakan bahwa model OpenAI seharusnya “tidak pernah” digunakan untuk memfasilitasi pengawasan massal.
“Saya berharap bahwa, sejauh mungkin mengingat sifat pekerjaan ini, jika kita memang menyesuaikan kebijakan kita untuk [deployment terklasifikasi], kita menemukan cara untuk membuat adaptasi tersebut transparan,” kata Wolfe.
Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.
Sektor: Top Story, Daily News
SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.