Dalam kasus ini, berada di bawah penelitian Visual Speech Recognition (VSR), yaitu hanya menggunakan sarana visual untuk memahami apa yang disampaikan.
Teknologi ini berbanding terbalik dengan Automated Speech Recognition (ASR) yang sepenuhnya mengandalkan audio.
“Pengenalan ucapan visual VSR masih pada tahap eksploitasi yang relatif awal dan sistem akan terus matang. Ini dapat menggunakan kedua mode informasi untuk membantu mengatasi kekurangan yang lain. Di masa depan pasti akan ada sistem yang menggunakan isyarat tambahan untuk mendukung pemahaman," ujar Fabian Campbell-West, CTO pengembang aplikasi pembaca bibir, Liopa.
Lebih lanjut, Campbell mengatakan bahwa masa depan VSR bisa sangat mirip dengan masa lalu ASR meskipun ada banyak hambatan untuk adopsi VSR, seperti halnya ASR selama pengembangannya selama beberapa dekade terakhir.
Ia pun mengaku bersemangat untuk menyempurnakan kemampuan ini untuk generasi masa depan.
“Saya membayangkan sistem subtitle real-time sehingga Anda bisa mendapatkan subtitle langsung di kacamata Anda saat berbicara dengan seseorang. Bagi siapa pun yang memiliki gangguan pendengaran, ini bisa menjadi aplikasi yang mengubah hidup, tetapi bahkan untuk penggunaan umum di lingkungan yang bising, ini bisa berguna," ungkapnya.
Follow Berita Okezone di Google News
(amj)