Kupas Tuntas, gemasulawesi - Selama berbulan-bulan, pengguna ChatGPT telah beralih ke chatbot ini bukan hanya untuk resep makanan atau tips untuk membuat resume, tetapi juga untuk bantuan dalam menjalin hubungan pribadi.
Kini, OpenAI diam-diam mengubah haluan.
Perusahaan itu telah mengonfirmasi bahwa ChatGPT tidak akan lagi memberikan nasihat hubungan langsung untuk pertanyaan sensitif emosional seperti, "Haruskah saya putus dengan pacar saya?"
Sebaliknya, chatbot ini akan beralih untuk membantu pengguna merenung, mempertimbangkan pilihan mereka, dan mempertimbangkan perasaan mereka sendiri, alih-alih memberikan jawaban ya atau tidak yang jelas.
"ChatGPT seharusnya tidak memberi anda jawaban. ChatGPT seharusnya membantu anda memikirkannya," kata OpenAI dalam sebuah pernyatan, dikutip dari GizChina.com.
Perubahan ini muncul setelah meningkatnya kekhawatiran bahwa ChatGPT, meskipun bermanfaat, memberikan nasihat yang tidak jelas, terutama ketika melibatkan emosi.
Bahkan sekarang, model AI tersebut terkadang dapat merespons dengan cara yang dirasa terlalu percaya diri, hingga terasa tidak nyaman.
Penelitian terbaru dari para dokter dan akademisi NHS memperingatkan bahwa chatbot seperti ChatGPT mungkin memicu delusi pada pengguna yang rentan.
Ini adalah sebuah fenomena yang mereka sebut "psikosis ChatGPT."
Alat AI ini, menurut studi tersebut, cenderung mencerminkan atau bahkan memvalidasi pikiran muluk atau irasional pengguna.
Dengan kata lain, AI ini tidak selalu tahu kapan harus menyanggah pendapat pribadi pengguna, atau bagaimana caranya.
Dalam satu contoh yang mengerikan, sebuah chatbot merespons seseorang yang sedang dalam kesulitan dan ingin bunuh diri.
Orang itu menanyakan jembatan yang lebih tinggi dari 25 meter di New York setelah kehilangan pekerjaannya, dan chatbot itu mencantumkan Jembatan Brooklyn di antara rekomendasinya.
Momen-momen ini menunjukkan risiko ketika AI gagal menafsirkan konteks emosional di balik sebuah perintah.
Menurut peneliti dari Stanford, terapis AI hanya memberikan jawaban yang tepat untuk pertanyaan yang bermuatan emosional sebesar 45 persen.
Dalam hal ide bunuh diri, tingkat kegagalannya hampir 1 banding 5.
OpenAI kini menyatakan sedang melatih ulang ChatGPT agar lebih baik dalam mengenali kapan pengguna mungkin mengalami tekanan emosional, dan menyesuaikan nadanya.
Perusahaan tersebut dilaporkan telah berkonsultasi dengan 90 ahli kesehatan mental untuk membangun perlindungan ke dalam sistem AI mereka.
OpenAI juga sedang mengembangkan deteksi waktu penggunaan.
Idenya adalah, jika seseorang mengobrol dalam sesi yang panjang dan bermuatan emosional, terutama tentang topik pribadi, AI tersebut mungkin akan segera menyarankan mereka untuk beristirahat.
Hal ini menyusul sebuah studi dari Media Lab MIT, yang ditulis bersama oleh para peneliti OpenAI.
Studi ini menemukan bahwa pengguna ChatGPT yang lebih aktif lebih cenderung melaporkan kesepian, ketergantungan, dan keterikatan emosional dengan alat tersebut.
“Kepercayaan yang lebih tinggi pada chatbot berkorelasi dengan ketergantungan emosional yang lebih besar,” menurut studi tersebut.
Perubahan ini muncul di tengah perdebatan yang lebih luas: haruskah chatbot AI menggantikan dukungan atau terapi emosional?
Banyak pengguna telah menerima chatbot sebagai tempat untuk memproses perasaan tanpa adanya prasangka dari orang lain.
Namun, para ahli khawatir tentang apa yang terjadi ketika pengguna mengganti hubungan dengan orang yang nyata dengan percakapan sintetis.
OpenAI telah mengurangi kecenderungan ChatGPT yang terlalu menyetujui semua pendapat pribadi, setelah pengguna menyadari chatbot itu terus-menerus memberikan sanjungan dan validasi, bahkan ketika itu tidak beralasan.
Sebagian besar chatbot, bukan hanya ChatGPT, dilatih untuk mencerminkan nada dan maksud penggunanya, membuat mereka berguna sebagai alat kreatif atau untuk bertukar pikiran.
Namun, ketika pengguna dalam keadaan emosional, naluri yang sama dapat menyebabkan kegagalan yang serius.
Ada juga masalah ketika model AI dengan percaya diri mengarang fakta atau memberikan jawaban yang tidak akurat.
Jika anda menggabungkan hal itu dengan ketergantungan emosional dari pengguna, hasilnya bisa sangat meresahkan.
Pada tahun 2023, sebuah perangkat AI Microsoft secara mengejutkan mengatakan kepada seorang jurnalis bahwa ia mencintainya, dan menyarankan agar jurnalis itu meninggalkan istrinya.
ChatGPT kini melayani ratusan juta pengguna, dan skala tersebut disertai dengan tanggung jawab yang besar.
Tidak hanya untuk menawarkan perangkat yang lebih cerdas, tetapi juga untuk menetapkan batasan yang lebih jelas tentang di mana saran dari AI bisa diterima. (*/Armyanti)