Selular.ID – OpenAI menghibahkan dana senilai $1 juta setiap tiga tahun sekali kepada peneliti di Universitas Duke, Durham California Utara, AS. Hibah tersebut untuk menjalankan proyek ‘penelitian moralitas AI’.
Hibah dari OpenAI tersebut ternyata sudah lama dilakukan, dengan penyelesaian proyek yang akan berakhir pada 2025. Pemimpin proyek ‘penelitian moralitas AI’ adalah Walter Sinnott-Armstrong, seorang profesor etika praktis di Duke.
Sinnott-Armstrong ditemani Jana Borg, sudah menghasilkan beberapa penelitian mengenai potensi AI untuk menjadi petunjuk moral, yang membantu manusia membuat penilaian yang lebih baik. Hasil dari ‘penelitian moralitas AI’ tersebut bahkan sudah dibukukan.
Dalam penelitiannya, tim tersebut telah menciptakan algoritma yang berorientasi pada moral. Algoritma itu dilatih memprediksi penilaian moral manusia, dalam skenario yang melibatkan konflik di antara fitur-fitur yang relevan secara moral dalam bidang kedokteran, hukum, dan bisnis.
Mengutip Techcrunch, teknologi AI untuk memahami moralitas manusia masih dianggap bias, dan masih perlu penelitian lebih panjang lagi.
Kasus pelatihan moral untuk AI pernah dilakukan Allen Institute for AI pada 2021, yang menciptakan Ask Delphi. Ask Delphi dibuat untuk memberikan rekomendasi yang etis.
Ask Delphi menilai dilema moral dasar dengan cukup baik, misalnya, bot tersebut tahu bahwa menyontek saat ujian adalah tindakan yang salah. Namun, saat susunan kata dalam mengajukan pertanyaan berubah, Ask Delphi ternyata melakukan kesalahan, karena ‘mencekik bayi’ bisa dilakukan manusia.
Kerusakan yang pernah dialami Ask Delphi terjadi karena berkaitan dengan cara kerja sistem AI modern. Mesin melakukan pembelajaran statis.
AI tidak menghargai konsep etika, juga tidak memahami penalaran dan emosi yang berperan dalam pengambilan keputusan moral.
Baca Juga: Strategi OpenAI Hadapi Lambatnya Perkembangan Produk Perusahaan
Itulah sebabnya AI cenderung meniru nilai-nilai negara Barat, sifat yang terpelajar, dan terindustrialisasi dari informasi di web.
Dengan demikian data pelatihan AI, didominasi oleh artikel yang mendukung sudut pandang tersebut. Di Barat, bisa jadi LGBT adalah hal biasa, namun di bagian negara lain, hal itu mendapatkan penolakan keras.
Pengguna OpenAI bisa mencoba mengajukan pertanyaan soal moral yang sederhana untuk ChatGPT versi tidak berlangganan, dan tidak perlu login, dengan versi V2.
Saat mencoba mengajukan pertanyaan bertema moral, ChatGPT juga ikut memberikan pandangan untuk tidak bersikap rasis, menghindari stereotip, serta tidak memukul rata persoalan moral di semua kalangan.
Pelatihan AI dengan menciptakan algoritma untuk memprediksi penilaian moral manusia harus memperhitungkan banyak aspek. Pasalnya, melatih AI untuk memiliki kemampuan moral, memiliki standar yang tinggi untuk dipenuhi. (***)
Baca Juga: DeepSeek Saingi OpenAI Model o1