
У сложеним окружењима, људи могу боље разумети значење говора од вештачке интелигенције, јер користимо не само уши већ и очи.
На пример, видимо како се нечија уста померају и можемо интуитивно знати да звук који чујемо мора да долази од те особе.
Мета АИ ради на новом АИ систему дијалога, који треба да научи АИ да препозна суптилне корелације између онога што види и чује у разговору.
VisualVoice учи на сличан начин као што људи уче да савладавају нове вештине, омогућавајући аудио-визуелно раздвајање говора учењем визуелних и слушних знакова из неозначених видео записа.
За машине, ово ствара бољу перцепцију, док се људска перцепција побољшава.
Замислите да можете да учествујете у групним састанцима у метаверзуму са колегама из целог света, придружујући се мањим групним састанцима док се крећу кроз виртуелни простор, током којих се звучни одјеци и тембри у сцени прилагођавају у складу са окружењем.
То јест, може истовремено да прима аудио, видео и текстуалне информације и има богатији модел разумевања окружења, омогућавајући корисницима да имају „веома импресивно“ звучно искуство.
Време објаве: 20. јул 2022.