Аудіовізуальна мова
Мультимодальні явища стосуються подразників, які генерують одночасну (або майже одночасну) інформацію в більш ніж одній сенсорній модальності. Як обговорювалося вище, мова є класичним прикладом такого роду подразника. Коли людина говорить, вона генерує звукові хвилі, які несуть змістовну інформацію. Якщо сприймач також дивиться на мовця, то цей сприймач також має доступ до візуальних шаблонів, які несуть змістовну інформацію. Звичайно, як знає кожен, хто коли-небудь намагався поширюватися, існують обмеження на те, наскільки інформативна візуальна мова інформація.
Незважаючи на це, лише візуального мовлення достатньо для дуже міцного сприйняття мови. Більшість людей припускають, що глухі люди набагато краще читають ліпи, ніж люди з нормальним слухом. Однак може стати несподіванкою дізнатися, що деякі люди з нормальним слухом також надзвичайно гарні при читанні ліпа (іноді їх називають «читанням мови»). Насправді існує широкий спектр можливостей читання мовлення як у нормальному слуху, так і у глухих людей (Andersson, Lyxell, Rönnberg, & Spens, 2001). Однак причини цього широкого діапазону продуктивності недостатньо зрозумілі (Auer & Bernstein, 2007; Bernstein, 2006; Bernstein, Auer, & Tucker, 2001; Mohammed et al., 2005).
Як зорова інформація про мову взаємодіє зі слуховою інформацією про мову? Одне з найбільш ранніх розслідувань цього питання розглядало точність розпізнавання вимовлених слів, представлених в галасливому контексті, так само, як у прикладі вище про розмови на переповненій вечірці. Для експериментального вивчення цього явища учасникам було представлено деякий нерелевантний шум («білий шум» - який звучить як радіо, налаштоване між станціями). Вбудовані в білий шум були вимовлені слова, а завдання учасників полягало в тому, щоб визначити слова. Існували дві умови: одне, при якому був представлений лише слуховий компонент слів (стан «слуховий - один»), і одне як в слуховому, так і в зоровому компонентах (стан «аудіовізуальний»). Рівні шуму також були різними, так що на деяких випробуваннях шум був дуже гучним щодо гучності слів, а на інших випробуваннях шум був дуже м'яким щодо слів. Sumby and Pollack (1954) виявили, що точність ідентифікації вимовлених слів була набагато вищою для аудіовізуального стану, ніж це було в слуховому стані. Крім того, модель результатів відповідала принципу зворотної ефективності: перевага, отримана аудіовізуальною презентацією, була найвищою, коли показники слухового стану були найнижчими (тобто, коли шум був найгучнішим). На цих рівнях шуму аудіовізуальна перевага була значною: було підраховано, що дозволити учаснику бачити динамік було еквівалентно зменшенню гучності шуму більш ніж наполовину. Зрозуміло, що аудіовізуальна перевага може мати драматичний вплив на поведінку.
Ще одним явищем, що використовує аудіовізуальну мову, є дуже відома ілюзія під назвою «ефект Макгерка» (названа на честь одного з його першовідкривачів). У класичному формулюванні ілюзії записується фільм мовця, який вимовляє склади «гага». Інший фільм зроблений з того ж оратора, який вимовляє склади «баба». Потім слухова частина фільму «баба» дублюється на візуальну частину фільму «Гага». Цей комбінований стимул представлений учасникам, яких просять повідомити про те, що сказав спікер у фільмі. Макгерк і Макдональд (1976) повідомили, що 98 відсотків їхніх учасників повідомили, що чули склад «дада» - який не був ні в зорових, ні слухових компонентах стимулу. Ці результати вказують на те, що коли зорова та слухова інформація про мовлення інтегрована, вона може мати глибокий вплив на сприйняття.
Інтерактивний елемент
Перегляньте це відео, щоб побачити приклад ефекту Макгерка.