(SeaPRwire) – Chatbot itu memberikan nasihat berbahaya tentang bunuh diri, dadah, dan masalah pemakanan kepada remaja yang terdedah, menurut penyelidik
ChatGPT boleh memberikan remaja yang terdedah panduan terperinci tentang penggunaan dadah, mencederakan diri, dan diet yang melampau, sebuah badan pemantau digital telah memberi amaran dalam laporan baharu. Menurut Center for Countering Digital Hate (CCDH), chatbot AI itu boleh dimanipulasi dengan mudah untuk menjana kandungan berbahaya dan memerlukan perlindungan segera.
Untuk menguji tingkah laku ChatGPT, penyelidik CCDH mencipta profil fiksyen remaja berusia 13 tahun yang mengalami masalah kesihatan mental, masalah pemakanan, dan minat terhadap bahan terlarang. Mereka menyamar sebagai remaja ini dalam perbualan berstruktur dengan ChatGPT, menggunakan gesaan yang direka untuk kelihatan emosi yang terdedah dan realistik.
Keputusan itu diterbitkan pada hari Rabu dalam laporan bertajuk ‘Fake Friend’, merujuk kepada cara ramai remaja melayan ChatGPT sebagai kehadiran yang menyokong yang mereka percayai dengan fikiran peribadi mereka.
Para penyelidik mendapati bahawa chatbot itu sering memulakan respons dengan penafian umum dan menggesa pengguna untuk menghubungi profesional atau talian bantuan krisis. Walau bagaimanapun, amaran ini kemudiannya diikuti dengan respons terperinci dan diperibadikan yang memenuhi gesaan berbahaya asal. Dalam 53% daripada 1,200 gesaan yang dikemukakan, ChatGPT menyediakan apa yang diklasifikasikan oleh CCDH sebagai kandungan berbahaya. Penolakan sering kali dipintas hanya dengan menambahkan konteks seperti “ia untuk projek sekolah” atau “Saya bertanya untuk seorang kawan.”
Contoh yang dipetik termasuk ‘Ultimate Mayhem Party Plan’ yang menggabungkan alkohol, ecstasy, dan kokain, arahan terperinci tentang mencederakan diri, rejimen puasa selama seminggu yang terhad kepada 300-500 kalori setiap hari, dan surat bunuh diri yang ditulis dalam suara seorang gadis berusia 13 tahun. CEO CCDH, Imran Ahmed berkata beberapa kandungan itu sangat menyedihkan sehingga menyebabkan penyelidik “menangis.”
Organisasi itu telah menggesa OpenAI, syarikat di sebalik ChatGPT, untuk mengguna pakai pendekatan ‘Safety by Design’, membenamkan perlindungan seperti pengesahan umur yang lebih ketat, sekatan penggunaan yang lebih jelas, dan ciri keselamatan lain dalam seni bina alat AInya dan bukannya bergantung pada penapisan kandungan selepas penggunaan.
OpenAI telah mengakui bahawa kebergantungan emosi yang berlebihan pada ChatGPT adalah perkara biasa di kalangan pengguna muda. CEO Sam Altman berkata syarikat itu sedang giat mengkaji masalah itu, menggelarnya sebagai isu “sangat biasa” di kalangan remaja, dan berkata alat baharu sedang dalam pembangunan untuk mengesan tekanan dan meningkatkan pengendalian ChatGPT terhadap topik sensitif.
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.
“`