Minggu lalu saya harus berhenti dan memikirkan tentang tiga cerita yang keluar hampir bersamaan. Semuanya terkait dengan bagaimana AI sedang digunakan (atau tidak) oleh institusi penting. Dan jujur saja, mereka menceritakan kisah yang jauh lebih besar tentang di mana kita sekarang.



Dimulai dari sekolah di Manchester, Inggris. Mereka menggunakan AI untuk meninjau perpustakaan dan mesin menyarankan untuk menghapus 193 buku. Masing-masing dengan alasan otomatisnya sendiri. '1984' karya Orwell masuk dalam daftar karena 'mengandung tema penyiksaan dan kekerasan'. Maksudnya, AI menyensor sebuah buku yang secara harfiah berbicara tentang sensor. Saya bahkan tidak bisa marah - ini hampir puitis.

Pustakawan sekolah merasa itu salah dan menolak untuk menerapkannya. Lalu bagian yang membuat saya marah: sekolah membuka penyelidikan terhadap dia karena 'keamanan anak', melaporkannya ke otoritas setempat, dan dia akhirnya cuti sakit sebelum secara resmi mengundurkan diri. Kesimpulannya? Otoritas setuju bahwa dia melanggar protokol. Pada dasarnya, siapa pun yang menentang AI kehilangan pekerjaan. Siapa yang setuju saja? Tanpa konsekuensi.

Kemudian diketahui bahwa sekolah sendiri mengakui secara internal bahwa semuanya dihasilkan oleh AI, tetapi tetap menganggap itu 'hampir akurat'. Seorang manajer mendelegasikan ke mesin, mesin mengembalikan sesuatu yang tidak dia pahami sendiri, dan tidak ada yang repot-repot memeriksa dengan sungguh-sungguh.

Sekarang bandingkan ini dengan apa yang dilakukan Wikipedia di minggu yang sama. Mereka memutuskan 44 banding 2 untuk melarang LLM menghasilkan atau menulis ulang artikel. Karena sebuah akun AI bernama TomWikiAssist mulai membuat artikel secara otomatis. Butuh beberapa detik untuk menghasilkan, berjam-jam untuk diverifikasi sukarelawan. Dan inilah masalah sebenarnya: Wikipedia adalah sumber pelatihan untuk AI global. Jika data yang salah masuk ke sana, generasi berikutnya dari model melatih dengan informasi yang tercemar. Ini adalah siklus pencemaran berlapis.

Tapi biarkan saya ceritakan yang paling gila. OpenAI? Mereka juga mundur. Mereka membatalkan 'mode dewasa' ChatGPT yang akan diluncurkan. Sam Altman secara pribadi mengatakan untuk 'menganggap pengguna dewasa sebagai dewasa'. Lima bulan kemudian, dibatalkan. Karena komite kesehatan internal memilih suara bulat menentang. Alasan spesifik: ketergantungan emosional, anak di bawah umur melewati verifikasi usia (tingkat kesalahan di atas 10%), risiko kerusakan nyata.

Dalam minggu yang sama mereka juga menonaktifkan alat video Sora dan fungsi pembayaran terintegrasi. Altman bilang itu untuk fokus pada bisnis utama. Tapi mari jujur, perusahaan sedang dalam proses IPO. Kamu menghapus fungsi kontroversial saat akan go public. Jadi bahkan pencipta AI tidak tahu lagi apa yang bisa atau tidak bisa dilakukan pengguna dengan AI.

Di sinilah inti dari semuanya ini: kecepatan AI menghasilkan konten dan kecepatan manusia meninjau tidak berada di dunia yang sama. Seorang kepala sekolah memilih menggunakan AI karena membutuhkan menit daripada minggu. Bukan karena percaya pada kualitasnya. Ini murni soal ekonomi. Menghasilkan hampir tidak memakan biaya. Mengaudit membutuhkan segalanya.

Jadi setiap institusi yang terdampak merespons dengan cara paling keras. Larangan langsung. Pemotongan lini produk. Tidak ada refleksi hati-hati. Mereka hanya langkah darurat. 'Tutup lubang dulu' menjadi norma.

Dan inilah masalahnya: kemampuan AI diperbarui setiap beberapa bulan. Tidak ada kerangka kerja internasional tentang apa yang AI boleh atau tidak boleh lakukan. Setiap institusi menggambar garisnya sendiri. Garis-garis ini saling bertentangan. Dan sementara itu, kecepatan AI terus meningkat. Jumlah orang yang meninjau tidak bertambah. Perbedaan ini hanya semakin besar. Suatu saat, akan keluar sesuatu yang jauh lebih buruk daripada melarang 1984. Dan saat saat menggambar garis final tiba? Bisa jadi sudah terlambat.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan