Business

Bagaimana Anda tahu apabila AI cukup kuat untuk menjadi berbahaya? Regulator cuba mengira

Bagaimana Anda tahu jika sistem kecerdasan buatan begitu kuat sehingga ia merupakan bahaya keselamatan dan tidak boleh diluluskan tanpa pengawasan yang teliti?

Bagi pihak regulator yang cuba meletakkan pagar keselamatan pada AI, ia terutamanya berkisar kepada matematik. Secara khusus, model AI yang dilatih pada 10 hingga 26 operasi titik terapung setiap saat kini harus dilaporkan kepada kerajaan AS dan mungkin tidak lama lagi akan memicu keperluan yang lebih ketat di California.

Kata siapa? Jika anda mengira sifar-sifar itu, itu adalah 100,000,000,000,000,000,000,000,000, atau 100 septilion, pengiraan setiap saat, menggunakan ukuran yang dikenali sebagai flops.

Apa yang disinyalkan kepada beberapa ahli undang-undang dan penganjur keselamatan AI adalah tahap kuasa pengkomputeran yang mungkin membolehkan teknologi AI yang pesat memajukan diri untuk mencipta atau menyebarkan senjata pemusnahan besar, atau menjalankan serangan siber yang merosakkan.

Mereka yang merangka peraturan sedemikian mengakui bahawa ia adalah titik permulaan yang tidak sempurna untuk membezakan sistem AI generatif tertinggi hari ini - yang kebanyakkannya dibuat oleh syarikat-syarikat yang berpusat di California seperti Anthropic, Google, Meta Platforms dan OpenAI pencipta ChatGPT - daripada generasi seterusnya yang mungkin lebih kuat.

Kritikus telah melenting kepada ambang batas sebagai sewenang-wenang - percubaan oleh kerajaan untuk mengawal matematik.

“Sepuluh hingga ke 26 flops,” kata pengkembang modal ventura Ben Horowitz dalam podcast musim panas ini. “Eh, apakah itu saiz model yang anda perlukan untuk, seperti, menyembuhkan kanser?”

Perintah eksekutif yang ditandatangani oleh Presiden Joe Biden tahun lalu bergantung pada ambang batas itu. Demikian juga dengan undang-undang keselamatan AI yang baru diluluskan di California - yang dibelakangi oleh Gabenor Gavin Newsom hingga 30 September untuk diluluskan atau ditolak. California menambah satu metrik kedua ke dalam persamaan: model AI yang dikawal juga perlu sekurang-kurangnya berharga $100 juta untuk dibina.

Mengikuti jejak Biden, Akta AI menyeluruh Kesatuan Eropah juga mengukur operasi titik terapung setiap saat, atau flops, tetapi menetapkan tahap 10 kali lebih rendah pada 10 hingga 25 kuasa. Ini mencakup beberapa sistem AI yang sudah beroperasi. Kerajaan China juga telah melihat pengukuran kuasa pengkomputeran untuk menentukan sistem AI yang memerlukan pelindung.

Tiada model yang boleh didapati secara awam memenuhi ambang batas California yang lebih tinggi, walaupun kemungkinan syarikat-syarikat tertentu telah mula membina mereka. Jika ya, mereka sepatutnya berkongsi butiran tertentu dan langkah-langkah keselamatan dengan kerajaan AS. Biden menggunakan undang-undang zaman Perang Korea untuk memaksa syarikat teknologi memberitahu Jabatan Perdagangan AS jika mereka membina model AI sedemikian.

Penyelidik AI masih berdebat tentang cara terbaik untuk menilai keupayaan teknologi AI generatif terkini dan bagaimana ianya berbanding dengan kecerdasan manusia. Terdapat ujian yang menilai AI dalam menyelesaikan teka-teki, penalaran logik atau seberapa cepat dan tepatnya ia meramalkan teks mana yang akan menjawab pertanyaan chatbot seseorang. Ukuran-ukuran itu membantu menilai kegunaan alat AI bagi sesuatu tugas, tetapi tidak ada cara mudah untuk mengetahui mana satu yang begitu meluas mampu sehingga ia menimbulkan bahaya kepada kemanusiaan.

“Pengiraan ini, nombor flop ini, menurut persetujuan am adalah sesuatu yang terbaik yang kita ada sepanjang garis itu,” kata fizikawan Anthony Aguirre, pengarah eksekutif Institut Masa Hadapan Kehidupan, yang telah memperjuangkan pengekalan Senat California Bill 1047 dan peraturan keselamatan AI lain di seluruh dunia.

"Sebahagian besar daripada apa yang dilakukan oleh perkara-perkara ini hanyalah mengalikan jadual nombor besar bersama-sama,” katanya. “Anda boleh bayangkan menaip beberapa nombor ke dalam kalkulator anda dan menambah atau mengalikan mereka. Dan itu lah yang sedang dilakukannya - sepuluh trilion kali atau seratus trilion kali.”

Bagi beberapa pemimpin teknologi, bagaimanapun, ia terlalu mudah dan terrier untuk mengukur. Tidak ada sokongan saintifik yang jelas” untuk menggunakan metrik tersebut sebagai ganti risiko, berpendapat saintis komputer Sara Hooker, yang mengetuai bahagian penyelidikan bukan untung syarikat AI Cohere dalam sebuah kertas pada Julai.

“Ambang batas komputer seperti yang dilaksanakan pada masa kini adalah pendekatan yang jangka pendek dan kemungkinan gagal mengurangkan risiko,” tulisnya.

Pengekutan modal ventura Horowitz dan rakan kongsi perniagaannya Marc Andreessen, pengasas firma pelaburan yang berpengaruh di Silicon Valley Andreessen Horowitz, telah menyerang pentadbiran Biden serta ahli undang-undang California atas peraturan AI yang mereka katakan boleh mematikan industri permulaan AI yang sedang berkembang.

Bagi Horowitz, menetapkan had “berapakah matematik yang anda dibenarkan lakukan” mencerminkan kepercayaan yang silap bahawa hanya akan ada beberapa syarikat besar yang membuat model paling cekap dan anda boleh meletakkan “lingkaran api di hadapan mereka dan mereka akan melompat melaluinya dan semuanya baik-baik sahaja.”

Sebagai respons kepada kritikan, penganjur perundangan California menghantar surat kepada Andreessen Horowitz pada musim panas ini mempertahankan rang undang-undang, termasuk ambang batas pengaturan.

Pengawalan pada lebih dari 10 hingga ke 26 flops “adalah cara yang jelas untuk mengecualikan daripada keperluan ujian keselamatan banyak model yang kita tahu, berdasarkan bukti semasa, tidak mempunyai keupayaan untuk menyebabkan kerosakan penting,” tulis senator negeri Scott Wiener dari San Francisco. Model yang dikeluarkan secara awam “telah diuji untuk kemampuan berbahaya yang sangat dan tidak akan tertakluk di bawah rang undang-undang itu,” kata Wiener.

Wiener dan perintah eksekutif Biden memperlakukan metrik itu sebagai satu sementara yang boleh diselaraskan kemudian.

Yacine Jernite, yang memimpin penyelidikan dasar di syarikat AI Hugging Face, berkata metrik flops muncul “berikutan percaya diri” sebelum arahan Biden tahun lepas tetapi kini sudah mula menjadi usang. Pembangun AI sedang melakukan lebih banyak dengan model-model yang lebih kecil yang memerlukan tenaga pengkomputeran yang kurang, sementara bahaya yang mungkin diakibatkan oleh produk AI yang lebih banyak digunakan tidak akan mencetuskan skrutin Californica yang dicadangkan.

“Sesetengah model akan memberi kesan yang jauh lebih besar kepada masyarakat, dan ini harus dikenakan standard yang lebih tinggi, manakala yang lain adalah lebih eksploratori dan mungkin tidak masuk akal untuk mempunyai proses yang sama untuk mengesahkan mereka,” kata Jernite.

Aguirre berkata ia masuk akal untuk pihak berkuasa menjadi gesit, tetapi dia menggambarkan beberapa tentangan terhadap ambang batas flop sebagai percubaan untuk mengelakkan sebarang penyeliaan ke atas sistem AI kerana mereka menjadi lebih cekap.

“Semua ini berlaku dengan sangat cepat,” kata Aguirre. “Saya rasa kritikan yang wajar adalah bahawa ambang batas ini tidak menangkap dengan tepat apa yang kita mahu mereka tangkap. Tetapi saya rasa ia adalah argumen yang lemah untuk berpindah dari situ kepada, ‘Nah, kita tidak sepatutnya melakukan apa-apa dan hanya bersilang jari dan harap yang terbaik.’”

Related Articles

Back to top button