Teknologi

Kebijakan OpenAI Diam-diam Diperbarui, Larangan Penggunaan Militer Dihapus

Kebijakan OpenAI Diam-diam Diperbarui, Larangan Penggunaan Militer Dihapus

MILEZONE.ID – OpenAI mungkin sedang membuka jalan untuk mengeksplorasi potensi militer kecerdasan buatannya. Dilaporkan pertama kali oleh The Intercept pada 12 Januari, perubahan kebijakan baru perusahaan sepenuhnya menghapus bahasa sebelumnya yang melarang “aktivitas yang memiliki risiko tinggi terhadap bahaya fisik,” termasuk contoh khusus seperti “pengembangan senjata” dan “militer dan perang.

Sejak 10 Januari, panduan penggunaan OpenAI tidak lagi mencakup larangan untuk penggunaan “militer dan perang” dalam bahasa yang sebelumnya mengharuskan pengguna untuk mencegah bahaya. Kebijakan sekarang hanya mencatat larangan untuk menggunakan teknologi OpenAI, seperti Large Language Models (LLMs), untuk “mengembangkan atau menggunakan senjata.”

Berita lanjutan tentang edit kebijakan ini menyoroti kemungkinan langsung adanya kemitraan menguntungkan antara OpenAI dan Departemen Pertahanan AS yang mencari untuk menggunakan kecerdasan buatan generatif dalam operasi administratif atau intelijen.

Pada November 2023, Departemen Pertahanan Amerika Serikat mengeluarkan pernyataan tentang misinya untuk mempromosikan “penggunaan militer yang bertanggung jawab terhadap kecerdasan buatan dan sistem otonom,” merujuk pada dukungan negara tersebut terhadap Deklarasi Politik Internasional tentang Penggunaan Militer yang Bertanggung Jawab terhadap Kecerdasan Buatan dan Otonomi — praktik terbaik yang dipimpin Amerika Serikat yang diumumkan pada Februari 2023 untuk mengawasi dan membimbing pengembangan kemampuan militer AI.

“Kemampuan AI militer mencakup tidak hanya senjata, tetapi juga sistem pendukung keputusan yang membantu pemimpin pertahanan di semua tingkatan membuat keputusan yang lebih baik dan lebih tepat waktu, mulai dari medan perang hingga ruang rapat, dan sistem yang berkaitan dengan segala hal mulai dari keuangan, gaji, dan akuntansi, hingga perekrutan, retensi, dan promosi personel, hingga pengumpulan dan penggabungan data intelijen, pengawasan, dan pengintaian,” jelas pernyataan tersebut.

AI telah digunakan oleh militer Amerika Serikat dalam perang Rusia-Ukraina dan dalam pengembangan kendaraan militer otonom berbasis AI. Di tempat lain, AI telah diintegrasikan ke dalam sistem intelijen dan penargetan militer, termasuk sistem AI yang dikenal sebagai “The Gospel,” yang digunakan oleh pasukan Israel untuk menentukan target dan dilaporkan “mengurangi korban manusia” dalam serangan terhadap Gaza.

AI Wtachdog dan aktivis secara konsisten menyuarakan kekhawatiran atas peningkatan penggunaan teknologi AI dalam konflik siber dan pertempuran, khawatir akan eskalasi konflik senjata serta bias sistem AI yang telah lama diperhatikan.

Dalam pernyataan kepada The Intercept, juru bicara OpenAI, Niko Felix, menjelaskan bahwa perubahan ini dimaksudkan untuk menyederhanakan panduan perusahaan.

“Kami bertujuan untuk membuat seperangkat prinsip universal yang mudah diingat dan diterapkan, terutama karena alat kami sekarang digunakan secara global oleh pengguna sehari-hari yang sekarang juga dapat membangun GPTs. Prinsip seperti ‘Jangan membahayakan orang lain’ bersifat luas namun mudah dipahami dan relevan dalam banyak konteks. Selain itu, kami secara khusus menyebutkan senjata dan cedera kepada orang lain sebagai contoh yang jelas.” papar Felix.

OpenAI memperkenalkan kebijakan penggunaannya dengan kalimat yang sama-sama sederhana: “Kami berharap alat-alat kami digunakan dengan aman dan bertanggung jawab, sambil memaksimalkan kontrol Anda atas cara penggunaannya.”

Hmmmm… semoga saja dengan adanya AI tidak memperburuk keadaan yang diakibatkan oleh peperangan!

Show Comments (0)

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *