Senin, 18 Agustus 2025
Selular.ID -

Peneliti Kembangkan Kecerdasan Emosional di Smartphone

BACA JUGA

12 December 2012 13:00
Jika Anda berpikir memiliki smartphone yang bisa memberitahukan halte bus terdekat sudah keren, tunggu sampai ia bisa mendefinisikan suasana hati Anda!

Itulah hasil penelitian terbaru dari kelompok para insinyur di Universitas Rochester. Pada lokakarya IEEE tentang Teknologi Ucapan Bahasa (5/12) di Miami Florida, peneliti menggambarkan sebuah program baru untuk komputer yang bisa mengukur perasaan manusia melalui lisan, dengan akurasi substansial lebih baik dari pada pendekatan lain.

Anehnya, program ini tidak bekerja dengan melihat arti dari kata-kata yang terucap. “Kami menggunakan rekaman dari para aktor di akhir bulan lalu, dan program ini benar-benar tidak peduli apa yang dikatakan aktor, melainkan bagaimana cara mereka mengucapkannya, itulah yang menjadi ukuran” ujar professor tekni elektro dan komputer Wendi Heinzelman.

Heinzelman menjelaskan bahwa program ini menganalisa 12 jenis pengucapan, seperti intonasi dan volume, untuk mengidentifikasi salah satu dari enam kategori emosi. Dan hasilnya memuaskan, sampai mencapai tingkat akurasi 81 persen (studi sebelumnya hanya mencapai 55 persen).

Penelitian ini telah digunakan untuk mengembangkan prototipe dari sebuah aplikasi yang menampilkan wajah bahagia atau sedih, setelah merekam dan menganalisis suara pengguna. Aplikasi itu dibuat oleh salah satu siswa Heinzelman, Na Yang, selama masa magang di Microsoft Research. “Penelitian ini masih tahap awal, tapi bisa menjadi dasar kuat untuk membuat aplikasi yang lebih kompleks. Seperti menyesuaikan warna yang ditampilkan pada handphone sampai memainkan musik sesuai perasaan setelah ia merekam suara,” jelas Heinzelman.

Dalam mengkategorikan emosi, komputer membutuhkan jumlah yang terukur. Jadi para peneliti membangun 12 fitur ucapan yang diukur dalam rekaman dengan interval pendek. Kemudian mereka mengkategorikan masing-masing rekaman dan mengajarkan ke program komputer bagaimana yang terdengar “sedih,” “bahagia,” “takut,” “jijik,” atau “netral”.

Sistem kemudian menganalisa rekaman baru dan mencoba menentukan apakah suara dalam rekaman digambarkan salah satu emosi dikenal. Jika program tidak bisa memutuskan antara dua emosi atau lebih, maka ia hanya meninggalkannya ‘unclassified’.

Hasil terbaru penelitian kemudian mengkonfirmasi temuan ini. Jika klasifikasi emosi berbasis ucapan ini digunakan pada suara yang berbeda dari rekaman sistem, akurasi akan turun dari 81 persen menjadi sekitar 30 persen. Para peneliti sekarang mencari cara untuk meminimalkan efek ini, misalnya dengan melatih sistem dengan suara dalam kelompok usia yang sama dan dari kelamin yang sama. Heinzelman mengatakan, “masih ada tantangan yang harus diselesaikan jika kita ingin menggunakan sistem ini dalam kehidupan nyata. Yang pasti, algoritma yang kami kembangkan lebih efektif daripada upaya-upaya sebelumnya.” (Khoirunnisa)

 

Sumber : http://www.rochester.edu (4/12/2012)
- Advertisement 1-

BERITA TERKAIT

BERITA PILIHAN

BERITA TERBARU