カイロス時間:All Dogs Live in the Moment--飼い主と一緒なら、何歳からでも犬は変われる

[2014]犬は私たちの言葉だけでなく「言い方」も聞いている

Orienting Asymmetries in Dogs’ Responses to Different Communicatory Components of Human Speech

書誌情報Victoria F. Ratcliffe, and David Reby, Current Biology, Volume 24, issue-2912, DECEMBER 15, 2014. https://doi.org/10.1016/j.cub.2014.10.030

Notice

表題の論文を日本語訳してみました。翻訳アプリにかけた日本語訳を英文に照らして修正していますが、表記のゆれや訳の間違いがあるかもしれません。正確に内容を知りたい方は、原文をご覧ください。

Highlights:ハイライト

• Dogs show different orienting asymmetries depending on speech signal content
• A left-hemispheric bias was shown for meaningful phonemic cues
• Salient intonational and speaker-related cues produced a right-hemispheric bias
• Dogs’ hemispheric responses to speech are comparable to those of humans

  • 犬は音声信号の内容によって異なる指向性非対称性*1を示す
  • 意味のある音素材の手がかりに対して左半球のバイアスが示された
  • イントネーションと話者に関する顕著な手がかりは右半球バイアスを生じさせる
  • 犬の音声に対する大脳半球の反応は人間と同等である

Suzyの用語解説*1:犬の耳は左右バラバラの動きをすることができるということ(非対称性)と、音の種類によってそれをキャッチする感度が方向によってちがう(指向性)ということだと思われます。(違ったらスミマセン)

概要:Summary

It is well established that in human speech perception the left hemisphere (LH) of the brain is specialized for processing intelligible phonemic (segmental) content (e.g., [1, 2, 3]), whereas the right hemisphere (RH) is more sensitive to prosodic (suprasegmental) cues [4, 5].

ヒトの音声知覚において、脳の左半球(LH)は明瞭な音素(分節)内容の処理に特化し、右半球(RH)は韻律(超分節)手がかりに対してより敏感であることがよく知られている。

Despite evidence that a range of mammal species show LH specialization when processing conspecific vocalizations [6], the presence of hemispheric biases in domesticated animals’ responses to the communicative components of human speech has never been investigated.

哺乳類のさまざまな種において、同種の発声を処理する際にLHの特殊性を示すという証拠があるにもかかわらず、ヒトの音声のコミュニケーション成分に対する家畜動物の反応における半球の偏りの存在については、これまで調査されたことがない。

Human speech is familiar and relevant to domestic dogs (Canis familiaris), who are known to perceive both segmental phonemic cues [7, 8, 9, 10] and suprasegmental speaker-related [11, 12] and emotional [13] prosodic cues.

ヒトの音声は家庭犬(Canis familiaris)にとって身近なものであり、分節的な音素手がかりと超分節的な話者関連および感情の韻律手がかりを知覚することが知られている。

Using the head-orienting paradigm, we presented dogs with manipulated speech and tones differing in segmental or suprasegmental content and recorded their orienting responses.

頭部指向性パラダイムを用いて、分節的または超分節的な内容を持つ操作された音声とトーンを犬に提示し、その指向性反応を記録した。

We found that dogs showed a significant LH bias when presented with a familiar spoken command in which the salience of meaningful phonemic (segmental) cues was artificially increased but a significant RH bias in response to commands in which the salience of intonational or speaker-related (suprasegmental) vocal cues was increased.

その結果、犬は人為的に音素(分節)手がかりの顕著性を高めた身近な音声コマンドを提示されると有意なLHバイアスを示し、イントネーションや話者関連(超分節)音声手がかりの顕著性を高めたコマンドに反応すると有意なRHバイアスを示すことが分かった。

Our results provide insights into mechanisms of interspecific vocal perception in a domesticated mammal and suggest that dogs may share ancestral or convergent hemispheric specializations for processing the different functional communicative components of speech with human listeners.

この結果は、家畜化された哺乳類における種間音声知覚のメカニズムに関する洞察をもたらし、イヌがヒトの聞き手と音声の異なる機能的コミュニケーション構成要素を処理するための祖先的または収束的な大脳半球特殊化を共有している可能性を示唆している。

結果と考察:Results and Discussion

Each dog took part in one trial in which they were presented with a single sound stimulus from either one of eight conditions in which speech samples were resynthesized to vary the relative salience of segmental (phonemic) versus suprasegmental (speaker cues and intonation) information or from one of two control conditions (Figure 1).

犬たちはそれぞれ、音声サンプルを再合成し、分節情報(音素)と上分節情報(話者合図とイントネーション)の相対的な重要度を変化させた8つの条件のいずれか、または2つの対照条件のいずれかから1つの音刺激を提示されるテストに参加した(図1)。

Using the head-orienting paradigm, the sound was played simultaneously from both sides of the subject, and the direction of the subject’s initial orienting response (left or right) was recorded. We obtained head-orienting responses from 25 dogs in each condition.

頭部指向パラダイムでは、被験者の両側から同時に音を鳴らし、被験者の最初の指向反応の方向(左または右)を記録しました。各条件で25頭の犬から頭部指向性反応を得ることができた。

Given that auditory information entering each ear is processed mainly in the contralateral hemisphere of the brain via the dominant contralateral auditory pathways [14], it is assumed that if the dog turns with its left ear leading in response to the sound, the acoustic input is processed primarily by the right hemisphere (RH), whereas a right turn would indicate primary left hemisphere (LH) processing [15].

両耳に入った聴覚情報は、支配的な対側聴覚経路を介して主に脳の対側半球で処理されることから、犬が音に反応して左耳を先頭にして旋回した場合、音響入力は主に右半球(RH)で処理され、右旋回した場合は主に左半球(LH)の処理を示すと推測される。

A binary logistic regression analysis identified a significant overall effect of auditory condition on head-turn direction [Wald(8) = 37.61, p < 0.001], indicating that the content of the acoustic signals affected the direction of hemispheric lateralization during perception (Figure 2).

二項ロジスティック回帰分析により、ヘッドターンの方向に対する聴覚条件の有意な全体効果が確認され [Wald(8) = 37.61, p < 0.001] 、音響信号の内容が知覚時の半球側性の方向に影響することが示された(図2)。

There were no significant effects of subject sex (p = 0.76), age (p = 0.15), breed type (p = 0.37), current residence (animal shelter or private home; p = 0.16), stimulus exemplar (p = 0.23), stimulus voice gender (where applicable; p = 0.70), or test location (p = 0.18) on responses.

被験者の性別(p = 0.76)、年齢(p = 0.15)、犬種(p = 0.37)、現在の居住地(動物保護施設または個人宅;p = 0.16)、刺激模範(p = 0.23)、刺激音声性別(該当箇所)、試験場所(p = 0.18)による反応への有意な影響は見られなかった。

意味のある分節音素手がかりの顕著性が増加した音声に対する反応

Responses to Speech with Increased Salience of Meaningful Segmental Phonemic Cues

In test 1, dogs were presented with a familiar learned command in which the original positive intonational cues were artificially degraded (“come on then” with a flat intonation; meaningful speech with neutralized intonation).

テスト1では、学習したコマンドのイントネーションを人為的に低下させたコマンドを犬に提示した(「come on then」はフラットなイントネーション、「meaning speech」は中和したイントネーション)。

They showed a significant right-head-turn response bias (binomial test: 80% right head turn, p = 0.004), suggesting that when suprasegmental intonation is neutralized and segmental phonemic cues become more salient, dogs display a LH advantage.

その結果、有意な右向き反応バイアス(二項検定:80%右向き時、p = 0.004)を示し、分節上イントネーションが中和され、分節音素手がかりがより顕著になると、犬はLH優位性を示すことが示唆された。

To verify that the LH response bias was specific to the phonemic content, in test 2, we further degraded the same command by replacing the first three formants with sine waves (meaningful sine-wave speech), strongly reducing suprasegmental cues (emotional and speaker related) but retaining meaningful segmental phonemic information.

LH反応の偏りが音素内容に特異的であることを検証するため、テスト2では同じコマンドをさらに劣化させ、最初の3つのフォルマントをサイン波(意味のあるサイン波音声)に置き換え、分節上キュー(感情や話者に関する)を強く減らし、意味のある分節音素情報を保持して実施した。

Here, too, dogs showed a significant right-head-turn bias (binomial test: 76% right head turn, p = 0.015), reinforcing the interpretation that in dogs the LH is sensitive to segmental phonemic information independently of the nature and naturalness of the acoustic elements composing the signal.

ここでも、犬は有意な右向きバイアス(二項検定:76%右向き、p = 0.015)を示し、犬ではLHは信号を構成する音響要素の性質や自然さとは別に、分節的な音韻情報に敏感であるという解釈を補強した。

These observations parallel the LH bias observed in humans when processing phonemic content in natural speech (e.g., [1, 2, 3]) and sine-wave speech signals [16].

これらの観察結果は、自然音声や正弦波音声信号の音素を処理する際にヒトで観察されるLHバイアスと同様である。

超分節的手がかりの顕著性が増加した場合の音声に対する反応

Responses to Speech with Increased Salience of Suprasegmental Cues

Both speaker-related (indexical) and emotional (dynamic) cues are encoded in the suprasegmental content of speech signals.

話者に関する手がかり(指標的手がかり)と感情に関する手がかり(動的手がかり)の両方が音声信号の上位区分内容に符号化されている。

We first tested dogs’ responses to speaker-related indexical cues by exposing them to a comparable phrase with neutralized intonation, but spoken in an unfamiliar language (test 3: meaningless [foreign] speech with neutralized intonation).

まず、話者に関する指標的な手がかりに対する犬の反応を、イントネーションが中和された同程度のフレーズでありながら聞き慣れない言語で話されたもの(テスト3:イントネーションが中和された無意味な[外国]言語)にさらすことで検証した。

Here the phonemic cues were unfamiliar and the intonational prosodic cues were removed, whereas indexical speaker-related cues remained intact.

ここでは、音素の手がかりは馴染みがないもので、イントネーションの韻律的な手がかりは削除され、指標となる話者関連の手がかりについてはそのまま残された。

Dogs in this condition showed a significant left-head-turn bias (binomial test: 24% right head turn, p = 0.015), demonstrating a RH advantage when processing salient speaker-related suprasegmental content in speech.

この条件において、犬は有意な左向きバイアス(二項検定:24%右向き、p = 0.015)を示し、発話中の顕著な話者関連上位区分内容を処理する際にRHが有利であることが示された。

Dogs are known to perceive speaker-related vocal cues such as identity [11] and gender [12], and the observed RH advantage is consistent with human RH lateralization when processing these features [4, 17, 18].

犬はアイデンティティや性別など、話し手に関連する声の手がかりを知覚することが知られており、観察されたRHの優位性はこれらの特徴を処理する際のヒトのRH機能分化と一致する。

We also tested dogs’ responses to emotional prosodic cues by presenting them with a version of the original command in which the phonemic components had been removed by extracting the formants and plosives, creating unintelligible speech-like vocal stimuli with reduced speaker cues but positive emotional prosody (test 4: meaningless voice with positive intonation).

また、原文のコマンドからフォルマントとプローシブを抽出し、音素成分を除去したものを犬に提示することで、話者の手がかりは減少するが、感情の韻律はポジティブな、意味不明な音声に似た発声刺激を作り、感情の韻律に対する犬の反応を検証した(テスト4:ポジティブなイントネーションを持つ無意味な音声)。

Here, too, dogs showed a significant left-head-turn bias (binomial test: 28% right head turn, p = 0.04), showing that when segmental phonemic cues are neutralized and suprasegmental emotional prosodic cues become more salient, dogs also display a RH advantage.

ここでも、犬は有意な左向きバイアス(二項検定:28%右向き、p = 0.04)を示し、分節的音素手がかりが中和され、超分節的感情韻律手がかりが顕著になると、犬もRH優位を示すことが示された。

This result furthers recent neuroimaging evidence that auditory regions in the dog’s RH are sensitive to emotional valence in both conspecific calls and human nonverbal vocalizations, with increased activation in response to calls with greater positive valence [19].

この結果は、犬のRHの聴覚領域が、犬の鳴き声と人間の非言語的な発声の両方の感情価に敏感であり、よりポジティブな価をもつ鳴き声に反応して活性化が増加するという最近の神経画像による証拠をさらに裏付けるものである。

Similarly, humans show stronger RH activation not only in response to emotional speech prosody and vocalizations, but also when exposed to animal vocalizations with strong affective content independently from their familiarity with the species [20], suggesting that the perception of emotional content in vocalizations, and its lateralization to the RH, maybe be conservative across mammals.

同様に、ヒトは感情的な音声の韻律や発声に反応するだけでなく、種に対する親しみとは無関係に、強い感情内容をもつ動物の発声にさらされたときにもRHの活性化が強くみられる。このことは、発声における感情内容の知覚とRHへの側性化は、哺乳類全体で古来から存在するものであるかもしれないことを示唆している。

意味のある分節音韻と分節上韻律手がかりの両方が顕著なときの音声への反応

Response to Speech When Both Meaningful Segmental Phonemic and Suprasegmental Prosodic Cues Are Salient

When, in test 5, dogs were exposed to intact meaningful speech containing both segmental phonemic and suprasegmental prosodic cues (“come on then” with happy intonation; meaningful speech with positive intonation), no significant head-turn bias was found (binomial test: 48% right head turn, p = 1.00).

テスト5では分節的音韻と上分節的韻律を含む意味のある音声(幸せそうなイントネーションの「come on then」、ポジティブ・イントネーションの意味のある音声)をそのまま犬に聞かせたところ、有意な頭の向きの偏りは見られなかった(二項検定:右向き48%、p = 1.00 )。

While directing dogs’ attention to either of these components using manipulated speech was found to produce opposite hemispheric biases in the previous tests, the simultaneous presence of salient segmental and suprasegmental cues that characterizes natural speech results in the absence of a bias at the population level [14, 21].

操作された音声を用いて犬の注意をどちらかに向けると半球の偏りが生じることがこれまでの試験で確認されているが、自然音声の特徴である顕著な分節的・上分節的手がかりが同時に存在すると、集団レベルでは偏りが生じないことになる 。

大脳半球の偏りは信号の伝達内容に関係するのか?

Do Hemispheric Biases Relate to the Communicative Content of the Signal?

Two competing interpretations of hemispheric asymmetries [22, 23, 24] can be applied to our observation that in dogs the LH is primarily sensitive to segmental phonemic content, whereas the RH is primarily sensitive to suprasegmental cues.

犬においてLHはおもに分節的な音素内容に敏感で、RHはおもに超分節的な手がかりに敏感であるという我々の観察結果は、半球の非対称性に関する2つの競合する解釈を適用することが可能である。

Acoustic (cue-dependent) theories propose that in humans, auditory processing areas in the RH operate at a lower temporal resolution than those of the LH, resulting in a greater preference for processing slow acoustic modulation including suprasegmental cues in speech, whereas the LH is more specialized in analyzing rapidly changing auditory information such as phonemic cues.

音響(手がかり)依存説ではヒトの場合、RHの聴覚処理領域はLHの聴覚処理領域よりも時間分解能が低いため、音声の超分節的な手がかりを含む遅い音響変調をより優先的に処理するのに対し、LHは音素手がかりなど急激に変化する聴覚情報の分析に特化していると考えられている。

To test whether the RH bias in response to suprasegmental cues could be explained by a general preference for slow acoustic modulation, we presented dogs with a sine-wave tone matching the intonation contour of the original command (test 6: sine-wave intonation).

また、分節上合図に対するRHバイアスが、ゆっくりとした音響変調を好む一般的な嗜好性によって説明できるかどうかを調べるために、犬に元の命令のイントネーション輪郭と一致する正弦波音を提示した(テスト6:正弦波イントネーション)。

No orientation bias was found in response to this condition (binomial test: 56% right head turn, p = 0.69), signifying that the observed RH bias for suprasegmental cues in speech does not generalize to slow frequency modulation across any acoustic signals.

この条件では、方向性の偏りは見られず(二項検定:56%右向き、p = 0.69)、発話における分節上合図に対するRHバイアスが、あらゆる音響信号における遅い周波数変調に一般化しないことを意味することが示された。

Furthermore, in our study, dogs expressed opposite response biases to speech signals with equivalent spectrotemporal complexity (meaningful and meaningless [foreign] speech with neutralized intonation), suggesting that the LH bias in dogs’ responses to meaningful phonemic cues was not purely dependent on the increased salience of the rapidly modulated components in the signal, but also on the functional relevance of these cues.

さらに本研究では、スペクトルの時間的複雑さが同等の音声信号(意味のある音声とイントネーションが中和された意味のない[外国語]音声)に対して、犬は反対の反応バイアスを示したことから、意味のある音声信号に対する犬の反応のLHバイアスは、単に信号中の高速変調成分の顕著性に依存するだけではなく、これらのキューの機能関連性にも依存すると考えられた。

Our results therefore appear to be more consistent with the functional interpretation of lateralization, which proposes that hemispheric specialization is dependent on the communicative function of the acoustic content.

したがって、今回の結果は、半球の特殊性が音響コンテンツのコミュニケーション機能に依存するとする側性化の機能的解釈と、より一致するように思われる。

Indeed, the observation that the LH is preferentially recruited when dogs process the phonemic cues of the highly familiar and learned command “come on then” is consistent with reports that the LH tends to respond to familiar or learned patterns across mammals [25].

実際、犬が 「come on then」という非常に親しみやすく学習されたコマンドの音韻を処理する際にLHが優先的に使用されるという観察結果は、哺乳類全体でLHが親しみやすく学習されたパターンに反応する傾向があるという報告と一致している。

To clarify whether the LH bias observed in response to meaningful speech with neutralized intonation was related to the subjects’ familiarity with the command (which could be related to familiarity with the speakers’ accents and/or familiarity with the phonemes independently of their meaning) or whether this bias was dependent on the learned functional relevance of the command itself, we carried out additional tests changing either the familiarity of the speaker’s accent or the familiarity of the phonemic content in the signal.

イントネーションが中和された意味のある音声に対するLHバイアスが、被験者のコマンドに対する慣れ(話者のアクセントに対する慣れや音素の意味に対する慣れなど)に関係するのか、それともコマンド自体の機能的関連性の学習に依存するのかを明らかにするために、話者のアクセントに対する慣れや信号中の音素に対する慣れを変える追加テストを実施した。

Based on the significant LH response bias obtained in the meaningful sine-wave speech condition, in which the speaker-related cues were degraded, we predicted that reducing the familiarity of the speaker’s accent would not influence responses.

話者に関する手がかりを劣化させた意味ありげな正弦波音声条件で得られた有意なLH反応バイアスに基づき、話者のアクセントの親密度を下げても反応に影響を与えないことを予測した。

Dogs presented with the original command with degraded prosodic cues, but spoken by a nonnative British speaker (test 7: meaningful speech in an unfamiliar accent with neutralized intonation), also showed a significant right-head-turn bias (binomial test: 72% right head turn, p = 0.04), confirming that the LH response bias obtained in test 1 was not dependent on the familiarity of the speaker’s accent.

また、韻律を劣化させたオリジナルのコマンドを提示した犬(テスト7:馴染みのないアクセントで中和したイントネーションで意味のある発話)でも、有意な右向きバイアス(二項検定:72%右向き、p = 0.04)を示し、テスト1で得られたLH反応バイアスが話者の馴染みのなまりに依存しないことが確認された。

We then assessed whether LH responses were dependent on the presence of meaningful phonemic cues, or merely familiar phonemic cues, by presenting dogs with a pseudoword phrase using the same phonemes as the original command (“thon om ken” with neutralized intonation; meaningless phonemes with neutralized intonation; test 8): both the phonemes and speaker accent were familiar, but the phrase was meaningless.

そこで、元のコマンドと同じ音素を使った疑似単語フレーズ(「thon om ken」中和イントネーション付きの無意味な音素; テスト8)を犬に提示し、音素と話者のアクセントは知っているがフレーズは無意味な、LH反応が意味のある音素キューに依存するか、単に知っている音素キューに依存するかを評価した。

Dogs in this condition showed a significant left-head-turn response bias (binomial test: 20% right head turn, p = 0.004), which confirms that increasing the salience of segmental phonemic content in speech only generates a LH response bias in dogs if it is functionally meaningful—i.e., if it is known to trigger a specific learned response from the animal.

この条件では、犬は有意な左向きの反応バイアス(二項検定:20%右向き、p = 0.004)を示した。このことから、音声中の区分音素の顕著性を高めることは、それが機能的に意味のある場合、すなわち、動物から特定の学習反応を引き起こすことが分かっている場合のみ、犬のLH反応バイアスを生み出すことが確認された。

This is in agreement with speech perception in humans, as only intelligible speech generates a LH processing bias [3].

これは、人間の音声知覚と一致しており、明瞭な音声のみがLH処理バイアスを発生させるからである。

Our findings therefore demonstrate that in dogs, the LH also preferentially responds to phonemic content with meaningful communicative value, whereas voice or speech-like stimuli lacking this information generate RH biases.

したがって、犬においてもLHはコミュニケーションに意味のある音素材に優先的に反応し、この情報をもたない音声や音声類似の刺激はRHバイアスを発生させることが示された。

大脳半球の偏りは非音声信号にも及ぶか?

Do Hemispheric Biases Extend to Nonvocal Signals?

To test whether the LH response bias to meaningful phonemic cues would generalize to nonvocal stimuli with learned communicative value, we presented dogs with a meaningful whistle (test 9).

意味のある音素の手がかりに対するLHの反応バイアスが、コミュニケーション上の価値を学習した非音声刺激に一般化するかどうかを検証するため、犬に意味のある笛を提示した(テスト9)。

No significant head-turn bias was found (binomial test: 60% right head turn, p = 0.42), suggesting that the LH advantage for meaningful phonemic content in speech may not extend to other familiar and communicatively relevant nonvocal sounds.

その結果、有意な頭の向きの偏りは見られず(二項検定:60%右向き、p = 0.42)、音声の意味ある音素に対するLHの優位性は、他の身近でコミュニケーションに関連する非音声にも及ばない可能性を示唆した。

While this result may seem in opposition with the LH advantage that characterizes the perception of articulated whistled language by experienced human listeners [26], articulated whistled languages encode phonological segmental information [27] and are therefore more comparable to the meaningful sine-wave speech used in test 2, which also triggered a LH bias.

この結果は、経験豊富な人間の聞き手による口笛言語の知覚を特徴づけるLHの優位性と対立するようにみえるかもしれない。しかし、口笛言語は音韻分割情報をコード化しているため、テスト2で使用した意味のあるサイン波の音声と比較して、LHバイアスも誘発されるのである。

In contrast, the simple command whistles used in our study did not contain segmental information (they did not result from the combination of phonological units) and were therefore more comparable to the intonation contours used in test 6, which also failed to trigger a bias.

一方、本研究で使用した単純なコマンドホイッスルは、セグメント情報を含まない(音韻単位の組み合わせから生じるものではない)ため、テスト6で使用したイントネーションの輪郭と比較しやすく、こちらもバイアスを引き起こすことはできなかった。

Finally, because stimuli used in all of the conditions eliciting a RH response bias were resynthesized, the perceived novelty of these sounds could have generated stronger RH activation [25].

さいごに、RH反応バイアスを引き起こすすべての条件で使用された刺激が再合成されたため、これらの音の知覚された新しさがより強いRH活性化を引き起こした可能性がある。

However, at least equally novel resynthesized stimuli elicited a LH bias (e.g., meaningful sine-wave speech) or no bias (sine-wave intonation).

しかし、少なくとも同等の新奇な再合成刺激は、LHバイアス(例:意味のある正弦波スピーチ)またはバイアスなし(例:正弦波イントネーション)を惹起した。

Moreover, when dogs were exposed to a novel artificial sound (test 10: pink noise) containing neither segmental nor suprasegmental frequency modulation, they showed no significant orientation bias (binomial test: 48% right head turn, p = 1.00).

さらに、分節性・上分節性周波数変調を含まない新規人工音(テスト10:ピンクノイズ)を犬に聞かせたところ、有意な方向の偏りはみられなかった(二項検定:48%右向き、p = 1.00)。

Furthermore, analysis of each subject’s behavior across conditions after the sound was presented showed that the frequencies of occurrence of each of the observed behaviors (head tilt, startle, approach, look at owner) were not associated with conditions that produced only LH or RH biases (see the Supplemental Results).

さらに、音提示後の各被験者の行動を条件別に分析した結果、観察された各行動(頭を傾ける、驚愕する、近づく、飼い主を見る)の発生頻度は、LHバイアスまたはRHバイアスのみが生じる条件とは関連しなかった。

This suggests that the hemispheric biases did not arise from the perceived novelty or intrinsic unnaturalness associated with resynthesized stimuli.

このことは、大脳半球の偏りが、再合成された刺激に関連する新奇性や本質的な不自然さの知覚から生じたものではないことを示唆している。

まとめ

Conclusions

Our study demonstrates that dogs preferentially process meaningful segmental phonemic information in speech in the LH, while human voices lacking this information (therefore increasing the salience of prosodic and/or speaker-related cues) generate stronger RH activation.

本研究は、犬が音声中の意味のある分節音素情報をLHで優先的に処理する一方、この情報をもたないヒトの声(したがって、韻律や話し手に関連する手がかりの重要性が増す)は、RHに強い活性化をもたらすことを実証している。

The parallel between these hemispheric biases and those reported in humans suggests that dogs may dissociate and process the communicatory components of speech in a way that is broadly comparable with humans.

これらの半球の偏りは、ヒトで報告されたものと同様であることから、犬はヒトと大差ない方法で音声のコミュニケーション成分を解離・処理する可能性があることが示唆される。

Further investigations using different techniques are now necessary to identify the specific brain regions involved when dogs process speech.

今後、さまざまな手法を用いて、犬が音声を処理する際に関与する脳の部位を特定する必要がある。

The striking correspondence between dogs’ and humans’ hemispheric biases reported here may reflect convergent evolution if dogs have been selected to respond to human vocal signals during domestication [28].

今回報告された犬とヒトの半球の偏りの顕著な対応は、犬が家畜化される過程でヒトの音声信号に反応するように選択されたのであれば、収斂進化*2を反映していると考えられる。

Suzyの用語解説*2:異なる系統の生物が環境要因などで同じ選択圧にさらされることによって、似たような形態に、それぞれ進化を遂げるような現象のこと。(違ってたらスミマセン)

Alternatively, they may be indicative of shared hemispheric specializations that are present across phylogenetically distant mammal species and expressed when exposed to functionally meaningful speech signals.

あるいは、系統的に離れた哺乳類種に存在し、機能的に意味のある音声信号にさらされたときに発現する、共通の大脳半球の特殊化を示している可能性もある。

To test these hypotheses more directly, further experiments could replicate our study with other domesticated (e.g., horses) versus nondomesticated (e.g., captive wolves) species that are regularly exposed to human speech.

これらの仮説をより直接的に検証するために、さらなる実験では、人間の発話に定期的にさらされる他の家畜種(馬など)と非家畜種(飼育下のオオカミなど)を用いて本研究を再現することができる。

実験方法:Experimental Procedures

対象

Subjects

Subject animals were over 6 months old, healthy with no known hearing or sight problems, and not aggressive toward people.

対象動物は生後6ヶ月以上、聴覚や視覚に異常がなく健康で、人に対して攻撃的でないもの。

Owners of dogs exposed to the English speech confirmed that their dog responded to the command “come on then” or a similar variant.

英語音声を聞かせた犬の飼い主は、自分の犬が「come on then」またはその類似のコマンドに反応することを確認した。

Owners of dogs exposed to whistles confirmed that they regularly whistled to call their dog and chose a comparable whistle from the available stimuli.

口笛にさらされた犬の飼い主はに、愛犬を呼ぶために定期的に口笛を吹いていることを確認し、利用できる刺激の中から同等の口笛を選んだ。

Only dogs with no previous exposure to French were presented with meaningless (foreign) speech with neutralized intonation or meaningful speech in an unfamiliar accent with neutralized intonation.

フランス語に接したことのない犬にのみ、意味のない(外国語の)発話を中和イントネーションで、または意味のある発話を慣れないアクセントで中和イントネーションで提示した。

An a priori power analysis conducted using GPower [29] with power (1 – β) set at 0.80 and α = 0.05, two-tailed, showed that a minimum sample size of n = 20 was required in each condition for detecting a medium sized effect in a binomial test.

G∗Powerを用い、検出力(1-β)を0.80、α=0.05(両側)とした先験的検出力分析の結果、二項検定で中程度の効果を検出するためには、各条件でn=20の最小サンプルサイズが必要であることが示された。

We included the first 25 dogs that reacted to the stimuli in each condition.

各条件で刺激に反応した最初の25頭の犬を対象とした。

A small proportion of subjects (n = 35) failed to react to the stimuli (with an even distribution of failed responses across conditions [χ2(9) = 11.57, p = 0.24]) and were excluded from the study at the time of testing.

ごく一部の被験者(n = 35)は、刺激に反応しなかったため(条件によって反応しなかった割合が均等に分布している[χ2(9) = 11.57, p = 0.24] )、試験時に研究から除外された。

The 250 dogs retained in the analysis included 123 females and 127 males from 63 different breeds. Ages ranged from 6 months to 14 years old (mean ± SD = 4.14 ± 2.96 years).

解析に残った250頭の犬の内訳は、63種類の犬種からなるメス123頭、オス127頭であった。年齢は6カ月から14歳(平均±SD=4.14±2.96歳)であった。

A total of 221 dogs were privately owned pets, and 29 were housed in a local animal shelter.

合計で221匹が個人所有のペットで、29匹が地元の動物保護施設に収容されていた犬であった。

実験装置

Apparatus

Two speakers (SONY SRS-A60) were placed 1.5 m to the right and left of the center point. The side of each speaker was counterbalanced across subjects.

中心点から左右に1.5m離れた場所に2つのスピーカー(SONY SRS-A60)を設置した。各スピーカーのサイドは、被験者間でカウンターバランスを調整した。

The speakers were connected to a laptop placed on a table 3 m from the center point. A video camera was positioned underneath the table to record the dog’s response (Figure 3).

スピーカーは、中心点から3m離れたテーブルの上に置かれたノートパソコンに接続されていた。テーブルの下には、犬の反応を記録するためのビデオカメラが配置された(図3)。

A N05CC Digital Mini Sound Level Meter was used to ensure that the speakers broadcast at the same volume. Trials were conducted at one indoor and two outdoor locations (see the Supplemental Experimental Procedures).

スピーカーが同じ音量で放送されるように、N05CCデジタルミニサウンドレベルメーターが使用された。テストは屋内1カ所と屋外2カ所で実施した。

手続方法

Procedure

The dog was held on a loose lead by its owner (or a research assistant for shelter dogs), who was naive to the experimental conditions.

犬は、この実験条件に対して詳しくない飼い主(保護犬の場合は研究補助者)にリードなしで抱かれていた。

The owner positioned his/her dog at the center point, facing the table, and then stood still directly behind the dog.

飼い主は愛犬をテーブルに向かって中心点に配置し、愛犬の真後ろで静止するものとした。

The experimenter stood behind the table facing the dog and attracted the dog’s attention by saying its name. When the dog was stationary and facing directly forward, the experimenter looked down at the laptop (to avoid providing any gaze cues) and played the stimulus once.

実験者はテーブルの後ろに犬と向き合って立ち、名前を言って犬の注意を引いた。犬が真正面を向いて静止したところで、実験者はノートパソコンに視線を落とし(視線の合図を与えないため)、刺激を1回再生した。

Stimuli were presented at 65 dB in pseudorandomized order across trials, with equal numbers of male and female voices, until 25 subjects responded in each condition.

各条件で25人の被験者が反応するまで、試行間で擬似的にランダム化された順序で、男性と女性の声が同数で、65dBで、刺激は提示された。

Trials ended when the dog was no longer oriented toward one of the speakers. Dogs that did not react to the sound between the stimulus onset and 2 s after the offset were recorded as nonresponsive.

テストは犬がいずれかのスピーカーに向かなくなった時点で終了した。刺激開始時からオフセット後2秒までのあいだに音に反応しなかった犬については「無反応」と記録した。

References

  1. Kimura D. Cerebral dominance and the perception of verbal stimuli. Can. J. Psychol. 1961; 15166-171. 
  2. Jerger J., and Martin J. Hemispheric asymmetry of the right ear advantage in dichotic listening. Hear. Res. 2004; 198125-136.
  3. McGettigan C., Evans S., Rosen S., Agnew Z.K., Shah P. and Scott S.K. An application of univariate and multivariate approaches in FMRI to quantifying the hemispheric lateralization of acoustic and linguistic processes. J. Cogn. Neurosci. 2012; 24636-652.
  4. Lattner S., Meyer M.E., and Friederici A.D. Voice perception: Sex, pitch, and the right hemisphere. Hum. Brain Mapp. 2005; 2411-20
  5. Belin P., Zatorre R.J., and Ahad P. Human temporal-lobe response to vocal sounds. Brain Res. Cogn. Brain Res. 2002; 1317-26.
  6. Ocklenburg S., Ströckens F., and Güntürkün O. Lateralisation of conspecific vocalisation in non-human vertebrates. Laterality. 2013; 181-31.
  7. Baru A.V. Discrimination of synthesized vowels [a] and [i] with varying parameters (fundamental frequency, intensity, duration and number of formants) in dog. in: Fant G. Tatham M.A.A. Auditory Analysis and Perception of Speech. Academic PressLondon197591-101.
  8. Fukuzawa M., Mills D.S., and Cooper J.J. The effect of human command phonetic characteristics on auditory cognition in dogs (Canis familiaris). J. Comp. Psychol. 2005; 119117-120.
  9. Kaminski J., Call J., and Fischer J. Word learning in a domestic dog: evidence for “fast mapping”. Science. 2004; 3041682-1683.
  10. Pilley J.W., and Reid A.K. Border collie comprehends object names as verbal referents. Behav. Processes. 2011; 86184-195.
  11. Adachi I., Kuwahata H., and Fujita K. Dogs recall their owner’s face upon hearing the owner’s voice. Anim. Cogn. 2007; 1017-21.
  12. Scheider L., Grassmann S., Kaminski J., and Tomasello M. Domestic dogs use contextual information and tone of voice when following a human pointing gesture. PLoS ONE. 2011; 6e21676.
  13. Grimshaw G.M., Kwasny K.M., Covell E., and Johnson R.A. The dynamic nature of language lateralization: effects of lexical and prosodic factors. Neuropsychologia. 2003; 411008-1019.
  14. Siniscalchi M., Quaranta A., and Rogers L.J. Hemispheric specialization in dogs for processing different acoustic stimuli. PLoS ONE. 2008; 3: e3349.
  15. Möttönen R., Calvert G.A., Jääskeläinen I.P., Matthews P.M., Thesen T., Tuomainen J., and Sams M. Perceiving identical sounds as speech or non-speech modulates activity in the left posterior superior temporal sulcus. Neuroimage. 2006; 30563-569.
  16. von Kriegstein K., Eger E., Kleinschmidt A., and Giraud A.L. Modulation of neural responses to speech by directing attention to voices or verbal content. Brain Res. Cogn. Brain Res. 2003; 17: 48-55.
  17. Belin P., and Zatorre R.J. Adaptation to speaker’s voice in right anterior temporal lobe. Neuroreport. 2003; 142105-2109.
  18. Andics A., Gácsi M., Faragó T., Kis A., and Miklósi A. Voice-sensitive regions in the dog and human brain are revealed by comparative fMRI. Curr. Biol. 2014; 24: 574-578.
  19. Belin P., Fecteau S., Charest I., Nicastro N., Hauser M.D., and Armony J.L. Human cerebral response to animal affective vocalizations. Proc. Biol. Sci. 2008; 275: 473-481.
  20. Mitchell R.L.C., Elliott R., Barry M., Cruttenden A., and Woodruff P.W.R. The neural response to emotional prosody, as revealed by functional magnetic resonance imaging. Neuropsychologia. 2003; 41: 1410-1421.
  21. Zatorre R.J., and Belin P. Spectral and temporal processing in human auditory cortex. Cereb. Cortex. 2001; 11: 946-953.
  22. Poeppel D. The analysis of speech in different temporal integration windows: cerebral lateralization as ‘asymmetric sampling in time’. Speech Commun. 2003; 41: 245-255.
  23. van Lancker D. Cerebral lateralization of pitch cues in the linguistic signal. Linguist. 1980; 13: 201-277.
  24. Vallortigara G., Snyder A., Kaplan G., Bateson P., Clayton N.S., and Rogers L.J. Are animals autistic savants. PLoS Biol. 2008; 6: e42.
  25. Carreiras M., Lopez J., Rivero F., and Corina D. Linguistic perception: neural processing of a whistled language. Nature. 2005; 433: 31-32.
  26. Meyer J. Typology and acoustic strategies of whistled languages: phonetic comparison and perceptual cues of whistled vowels. J. Int. Phon. Assoc. 2008; 38: 69-94.
  27. Hare B., Brown M., Williamson C., and Tomasello M. The domestication of social cognition in dogs. Science. 2002; 298: 1634-1636.
  28. Faul F., Erdfelder E., Lang A.G., and Buchner A. G∗Power 3: a flexible statistical power analysis program for the social, behavioral, and biomedical sciences. Behav. Res. Methods. 2007; 39: 175-191.

関連記事