Unbox.id – OpenAI telah menunjuk veteran dunia maya dan pejabat senior intelijen AS, Paul Nakasone, sebagai dewan direksi. Perusahaan tersebut mengatakan akan membantu melindungi pembuat ChatGPT dari serangan “pihak jahat yang semakin canggih”. Demikian dilansir AP News. Pensiunan jenderal Angkatan Darat ini menjabat sebagai komandan Komando Siber AS dan direktur NSA sebelum mengundurkan diri pada awal tahun 2024. Ia bergabung dengan dewan OpenAI yang masih merekrut anggota baru setelah peristiwa Dinamika yang berbasis di San Francisco. Perusahaan AI telah memaksa perubahan hati. ganti meja. pemimpin tahun lalu. Mantan anggota dewan tiba-tiba memecat CEO Sam Altman dan kemudian menggantikannya ketika dia kembali menjabat CEO beberapa hari kemudian. OpenAI mengembalikan Altman ke dewan direksi pada bulan Maret dan mengatakan mereka memiliki “kepercayaan penuh” pada kepemimpinannya setelah menyelesaikan penyelidikan luar terhadap masalah perusahaan. Dewan direksi OpenAI secara teknis adalah organisasi nirlaba namun juga mengarahkan bisnisnya yang berkembang pesat. Nakasone juga bergabung dengan Komite Keselamatan dan Keamanan OpenAI yang baru, sebuah kelompok yang bertugas memberikan nasihat kepada seluruh dewan mengenai “keputusan keselamatan dan keamanan utama” untuk proyek dan operasinya. Kelompok keamanan AI sebelumnya dibubarkan setelah beberapa pemimpinnya mengundurkan diri.
Eks Karyawan OpenAI Peringatkan Soal Kurangnya Sistem Keamanan AI

OpenAI Company. (Sumber: Decrypt)
Beberapa mantan karyawan OpenAI menulis surat terbuka berisi peringatan. Dalam surat tersebut, mantan karyawannya mengatakan OpenAI telah membungkam kritik mereka yang mengkhawatirkan keselamatan AI, yang juga dikenal sebagai kecerdasan buatan.
Surat terbuka yang ditandatangani oleh 13 mantan karyawan OpenAI. Surat ini menyatakan bahwa tidak ada pengawasan pemerintah yang efektif terhadap keamanan AI. Dalam surat tersebut, mereka juga meminta perusahaan AI untuk lebih terlibat dalam prinsip kritik terbuka.
Mengutip The Verge, inisiatif tersebut merilis surat terbuka yang dipromosikan oleh perusahaan AI, khususnya OpenAI, yang menyatakan keamanannya kurang memadai.
Selain OpenAI, Google juga mendapat kritik keras karena terus menggunakan fitur AI Ikhtisar di Google Penelusuran, bahkan setelah orang mengatakan fitur tersebut memberikan hasil yang aneh.
Selain kedua perusahaan tersebut, Microsoft juga dikritik karena Copilot-nya Desainer, yang menciptakan gambar AI yang bersifat seksual.
Prinsip kritik yang tertulis dalam surat tersebut termasuk menghindari pembuatan dan penegakan klausul non-penghinaan, untuk memungkinkan pihak anonim yang “dapat diverifikasi” melaporkan masalah.
Namun, surat yang ditulis oleh mantan karyawan OpenAI juga menginginkan karyawan saat ini dan mantan karyawan dapat dengan bebas mengungkapkan keprihatinan mereka tentang AI di depan umum tanpa harus khawatir bahwa masyarakat akan akan membalas “serangan” mereka.
Surat tersebut mengatakan bahwa meskipun mereka yakin akan potensi AI untuk memberikan manfaat bagi masyarakat, mereka juga melihat adanya risiko. Mulai dari meningkatnya kesenjangan, manipulasi dan misinformasi, serta kemungkinan kepunahan manusia.
Baca juga: Kecerdasan Buatan Bisa Pecahkan Password Dalam Hitungan Detik
Pelapor Kelemahan Keamanan AI Tak Dilindungi Penuh

Artificial Intelligence. (Sumber: Digital Authority Partners)
Surat tersebut juga menyatakan bahwa pelapor yang melaporkan masalah terkait AI tidak sepenuhnya dilindungi.
Faktanya, Departemen Tenaga Kerja AS menyatakan bahwa pekerja yang melaporkan pelanggaran upah Upah, diskriminasi, keamanan, penipuan, dan cuti yang tertunda dilindungi oleh perlindungan pelapor hukum. Artinya, pemberi kerja tidak boleh memecat, merumahkan, mengurangi jam kerja, atau memecat pelapor.
“Beberapa dari kita sangat takut dengan berbagai bentuk pembalasan, karena kasus serupa juga terjadi di industri ini. Kami bukan orang pertama yang menghadapi atau mendiskusikan masalah ini,” bunyi surat itu.
Baru-baru ini, beberapa peneliti OpenAI mengundurkan diri setelah perusahaan tersebut membubarkan tim “Hyperlink”. Kelompok ini berfokus pada pengelolaan risiko jangka panjang AI dan kepergian salah satu pendiri OpenAI, Ilya Sutskever, yang memperjuangkan keamanan dalam perusahaan.
Salah satu peneliti sebelumnya, Jan Leike, berkata: “Budaya dan proses keamanan tidak lagi menjadi prioritas keunggulan produk di OpenAI.
Sumber & Foto: Dari berbagai sumber
Karya yang dimuat ini adalah tanggungjawab penulis seperti tertera, tidak menjadi bagian tanggungjawab redaksi unbox.id.