Saya baru saja membaca sesuatu yang cukup membuat saya gelisah tentang apa yang sebenarnya sedang terjadi di OpenAI. Ternyata baru-baru ini The New York Times menerbitkan sebuah investigasi di mana jurnalis seperti Ronan Farrow mewawancarai lebih dari 100 orang dan memperoleh dokumen internal yang belum pernah diungkap sebelumnya. Cerita yang muncul dari situ jauh lebih gelap daripada yang diketahui secara publik.



Rincian paling mencolok: Ilya Sutskever, ilmuwan utama di OpenAI, menulis sebuah memo sepanjang 70 halaman beberapa tahun lalu di mana secara dasar mendokumentasikan pola yang konsisten. Kesimpulan awalnya sangat langsung: Sam menunjukkan perilaku berbohong secara sistematis kepada eksekutif dan dewan direksi. Ini bukan spekulasi, melainkan kasus konkret. Misalnya, pada Desember 2022, Sam menjamin dalam rapat dewan bahwa fungsi GPT-4 telah melewati tinjauan keamanan. Ketika mereka meminta melihat dokumen-dokumen tersebut, mereka menemukan bahwa dua fitur paling kontroversial tidak pernah disetujui oleh panel keamanan.

Tapi yang paling membuat saya terkejut adalah apa yang mereka temukan dalam catatan pribadi Dario Amodei, pendiri Anthropic yang pernah bekerja di OpenAI. Lebih dari 200 halaman di mana dia mendokumentasikan bagaimana perusahaan mundur langkah demi langkah di bawah tekanan komersial. Amodei menemukan bahwa Microsoft memasukkan klausul veto yang secara dasar membatalkan jaminan keamanan yang paling mereka hargai dalam seluruh transaksi. Sejak hari penandatanganan, hal itu menjadi sekadar kertas basi.

Ada satu detail lagi yang membuat rambut merinding. OpenAI secara publik mengumumkan bahwa mereka akan mengalokasikan 20% dari kapasitas komputasi mereka ke sebuah tim superalignment, dengan nilai potensial lebih dari satu miliar dolar. Pengumuman itu sangat serius, berbicara tentang risiko eksistensial bagi umat manusia. Realitas menurut empat orang yang pernah bekerja di tim tersebut: kekuatan komputasi sebenarnya hanya antara 1% dan 2%, dan itu adalah hardware tertua. Setelah itu tim tersebut dibubarkan tanpa menyelesaikan misinya.

Yang absurd adalah ketika para jurnalis meminta wawancara dengan personel yang bertanggung jawab atas penelitian tentang keamanan eksistensial, jawaban dari humas adalah bahwa hal itu sebenarnya tidak ada di OpenAI.

Dan ini terjadi tepat saat terungkap bahwa CFO Sarah Friar memiliki perbedaan pendapat serius dengan Sam. Friar percaya bahwa OpenAI belum siap untuk go public tahun ini, tetapi Sam ingin mendorong IPO. Yang paling aneh adalah bahwa Friar kini tidak lagi melapor langsung ke Sam, melainkan ke eksekutif lain yang sedang cuti karena alasan kesehatan. Sebuah perusahaan yang sedang bersiap untuk IPO dengan struktur internal seperti itu.

Eksekutif internal Microsoft sudah tidak bisa lagi menahan ini. Mereka mengatakan bahwa Sam memutarbalikkan fakta, melanggar janji, dan secara terus-menerus membatalkan kesepakatan. Salah satu dari mereka bahkan membandingkannya dengan Bernie Madoff atau SBF.

Seorang mantan anggota dewan menggambarkannya seperti ini: Sam memiliki kombinasi kualitas yang sangat langka. Dalam setiap interaksi tatap muka, dia menunjukkan keinginan kuat untuk menyenangkan, tetapi secara bersamaan menunjukkan ketidakpedulian hampir sosiopat terhadap konsekuensi dari menipu orang lain. Bagi seorang penjual, ini adalah bakat yang paling sempurna.

Yang saya khawatirkan adalah bahwa OpenAI bukan perusahaan teknologi biasa. Menurut kata-kata mereka sendiri, mereka sedang mengembangkan teknologi yang mungkin paling kuat dalam sejarah manusia. Mereka bisa merombak ekonomi global, pasar tenaga kerja, dan menurut dokumen mereka sendiri, juga bisa digunakan untuk menciptakan senjata bio-kimia atau serangan siber. Semua pengaman keamanan yang ada menjadi tidak berarti. Misi non-profit berubah menjadi perlombaan menuju IPO.

Mantan ilmuwan utama dan mantan kepala keamanan menganggap CEO tidak dapat dipercaya. Apakah kita benar-benar merasa aman membiarkan satu orang memutuskan secara sepihak kapan meluncurkan model AI yang bisa mengubah nasib umat manusia?

Jawaban dari OpenAI singkat: bahwa artikel tersebut mengulang kejadian yang sudah dilaporkan dengan menggunakan klaim anonim dan anekdot terpilih. Sam tidak menanggapi tuduhan-tuduhan spesifik, tidak membantah keaslian memo, hanya mempertanyakan motifnya.

Sepuluh tahun OpenAI dirangkum: sekelompok idealis yang peduli terhadap risiko AI mendirikan sebuah organisasi non-profit. Mereka mencapai kemajuan luar biasa. Modal masuk secara masif. Misi mulai bergeser. Tim keamanan dibubarkan. Kritikus dihilangkan. Struktur non-profit diubah menjadi entitas berorientasi laba. Dewan yang sebelumnya bisa menutup perusahaan kini penuh dengan sekutu CEO. Perusahaan yang berjanji mengalokasikan 20% kapasitas komputasi untuk keamanan kini di media menyatakan bahwa hal itu tidak ada.

Lebih dari seratus saksi mata memberi label yang sama: tidak terikat oleh kebenaran. Dan mereka akan membawa perusahaan ini ke IPO dengan valuasi lebih dari 850 miliar dolar.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan