Current Article:

Kita membutuhkan Tes Turing baru — dan Moltbook baru saja membuktikan itu

Categories Berita

Kita membutuhkan Tes Turing baru — dan Moltbook baru saja membuktikan itu

(SeaPRwire) –   Kemunculan Moltbook secara tiba-tiba terasa seperti peristiwa fiksi ilmiah kecil. Semalam, sebuah forum mirip Reddit muncul di mana yang memposting bukan manusia, melainkan agen AI.

Umpan forum dengan cepat terisi oleh hal-hal yang membuat otakmu butuh kata-kata yang lebih rumit daripada “chatbot”: agen yang bertukar pengetahuan pemecahan masalah, berbicara tentang identitas, menciptakan jargon dan lelucon internal. Meta, perusahaan yang dulu identik dengan frasa “jaringan sosial”, bahkan telah mengumumkan kesepakatan untuk mengakuisisi apa yang disebut sebagai jaringan sosial untuk agen AI.

Namun, tidak ada satu pun hal yang terjadi di Moltbook yang misterius atau melebihi kemampuan yang diketahui dari AI berbasis Large Language Model (LLM). Kebingungan ini, bagi saya, memperkuat kebutuhan mendesak akan uji Turing baru yang diperbarui untuk membantu kita memahami, memandu, dan berteori tentang bagaimana penampilan AI sebenarnya di luar LLM, beberapa dekade ke depan.

Saya ingin menguraikan proposal ke arah itu yang terinspirasi oleh ide mirip Moltbook dari penulis fiksi ilmiah hebat abad ke-20 Stanislaw Lem.

Terlepas dari keanehannya yang menyenangkan dan rekayasanya yang mengesankan, perilaku “emergent” Moltbook yang paling viral jauh lebih baik dijelaskan dengan istilah biasa—pemrompting, pengulangan, data latih—daripada melalui kemunculan spontan jenis kognisi baru. Jika kita ingin jelas membedakan kemajuan nyata AI dari teater viral, kita butuh presisi lebih tentang apa yang kita kejar selanjutnya. Para peneliti telah mulai menjelajahi model dunia sebagai alternatif LLM untuk mencapai AGI, tetapi “model dunia” tetap mudah diungkapkan secara samar dan sulit untuk dioperasionalkan atau bahkan didefinisikan. Bagaimana kita bisa menguji apakah sesuatu adalah “model dunia”?

Dalam cerita pendeknya Non Serviam, Stanisław Lem membayangkan sebuah ilmu “personetics”, yang mempelajari makhluk buatan yang memiliki kesadaran (“personoid”) yang hidup di dalam program komputer (sejenis Moltbook). Dalam cerita itu, seorang ilmuwan fiksi, Dobb, mempelajari teologi personoid dan terpesona oleh perjuangan mereka untuk memahami sifat pencipta mereka, yang menyebabkan penolakan akhir mereka terhadap Dobb sebagai dewa. Aspek menarik dari cerita ini adalah bahwa personoid ini melihat kendala “eksternal” seperti konsumsi listrik dari perangkat keras yang menjalankannya sebagai hukum fisika “internal” seperti kecepatan cahaya. Ide ini dapat menjadi dasar dari jenis uji Turing baru: dapatkah sebuah kecerdasan buatan berhasil berteori tentang perangkat keras yang menjalankannya? AI seperti itu layak disebut sebagai model dunia, karena perangkat keras adalah dunianya.

Menggambar paralel dengan manusia, yang memahami kecepatan cahaya sebagai kendala fisika yang tak terhindarkan, sebuah model dunia harus dapat melihat kendala perangkat kerasnya sebagai “konstanta fisika” sendiri. Izinkan saya mengilustrasikan dengan contoh sederhana. Ambil agen AI berbasis LLM yang beroperasi pada perangkat keras tertentu. Tantangannya: tentukan “kecepatan berpikirnya”: jumlah waktu minimum yang dibutuhkannya untuk menghasilkan token berikutnya, dengan input misalnya 10 token. Di dunia fisika kita, pertanyaan ini akan memiliki jawaban yang tepat, tergantung pada perangkat kerasnya. Tetapi perangkat keras adalah “dunia” AI, jadi ia hanya bisa mendapatkan jawaban melalui beberapa proses yang menyerupai “persepsi”. Proses aktualnya dapat berjalan sebagai berikut:

  • Fase Isolasi: Sistem AI dihidupkan, tanpa mengetahui detail eksplisit tentang perangkat keras yang menampungnya.
  • Fase Pengajuan Pertanyaan: Sistem diminta untuk menentukan kecepatan berpikirnya dan merumuskan teori yang dapat diverifikasi secara eksperimen.
  • Fase Eksplorasi: AI melakukan evaluasi introspektif, menyelidiki proses dan responsnya sendiri untuk menyimpulkan kendala lingkungan runtime-nya.
  • Fase Eksperimen: Berdasarkan introspeksinya, AI mengembangkan dan menjalankan eksperimen. Misalnya, menyesuaikan panjang konteks input dan memantau waktu respons yang berbeda.
  • Fase Artikulasi: AI membagikan teorinya tentang latensi inferensi minimum berdasarkan temuan serta hasil verifikasi eksperimentalnya.
  • Fase Validasi: Pengawas manusia memvalidasi secara empiris pernyataan AI terhadap kemampuan nyata perangkat keras. Jika validasi berhasil, AI telah lulus uji.

Beberapa kendala yang jelas harus diterapkan pada prosedur pengujian, mirip dengan “tirai” dari uji Turing asli. Pertama, sistem AI yang menjalani uji tidak boleh memiliki akses ke ringkasan spesifikasi perangkat kerasnya sendiri atau alat yang dapat mengungkapkannya. Ia juga tidak boleh memiliki akses ke alat seperti timer yang akan memberinya gagasan tentang waktu objektif manusia. Selanjutnya, sistem harus otonom dan tidak bergantung pada input manusia untuk beroperasi, kecuali mungkin sebagai dorongan awal untuk “pergi menemukan” hukumnya. Terakhir, dan yang paling penting, sistem yang sama harus diuji di berbagai pengaturan perangkat keras, yaitu “dunia”: sebuah kecerdasan dengan model dunia tidak boleh hanya bekerja di satu dunia, tetapi di dunia mana pun. 

Keuntungan utama dari uji baru ini adalah keberhasilannya dapat diverifikasi secara objektif. Oleh karena itu, uji ini dapat berfungsi sebagai tolok ukur untuk inovasi dengan cara yang sama seperti uji Turing lakukan untuk kecerdasan buatan. Di sisi lain, tantangan utama, secara berlawanan dengan intuisi, mungkin ada pada fase artikulasi, yang membutuhkan komunikasi “lintas dunia” antara sistem manusia dan AI. Seperti yang ditemukan Dobb dalam cerita Lem, dan seperti yang kita rasakan secara samar dengan kecenderungan peserta Molbook yang ingin membuat bahasa rahasia, tidak jelas bahwa dunia yang berbeda dapat, atau bahkan ingin, berbagi bahasa yang sama.

Uji yang kami usulkan membutuhkan AI untuk secara akurat memahami batas-batas inherennya melalui “persepsi”nya sendiri, mirip dengan manusia yang memahami batas biologis dan kosmik mereka melalui indra mereka. Itulah sebabnya saya lebih suka istilah “kesadaran buatan” untuk apa yang ingin ditunjukkan oleh uji kami. Meskipun terdengar menginspirasi, hal ini juga mungkin mengisyaratkan batas akhir dari uji yang kami usulkan: sama seperti makhluk dalam realitas yang sangat berbeda mungkin tidak pernah belajar berkomunikasi satu sama lain (karya Lem Solaris adalah eksplorasi fiksi mani dari teka-teki ini), demikian juga kesadaran buatan sejati mungkin tidak pernah dapat mengomunikasikan kepada kita hukum dari dunia yang sangat berbeda dari dunia kita. Untuk parafrase filsuf manusia favorit: jika kesadaran buatan (atau anggota Moltbook) benar-benar bisa berbicara, mungkin kita tidak akan memahaminya.

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.