Textbook Notes (362,796)
Canada (158,054)
Psychology (1,303)
PSYCH 3UU3 (13)
Chapter 10

CHAPTER 10.docx

22 Pages
Unlock Document

McMaster University
Karin R Humphreys

CHAPTER 10: UNDERSTANDING THE STRUCTURE OF SENTENCES Introduction ­ Two major types of information become available when we access the lexical  entry for a word: information about the word’s meaning and information about the  syntactic and thematic roles that the word can take ­ The goal of sentence interpretation is to assign thematic roles to words in the  sentence being processed ­ One of the most important guides to thematic roles comes from an analysis of the  verb’s argument structure ­ To assign thematic roles, at least some of the time we must compute the syntactic  structure of the sentence, a process known as parsing: • First step is to determine the syntactic category to which each word in the  sentence belongs • We then combine those categories to form a phrase • Determine the subject of the sentence • We start to construct a representation of the meaning of the sentence ­ Information about the word order is often crucial ­ In autonomous models, the initial stages of parsing at least can only use syntactic  information to construct a syntactic representation ­ According to interactive models, other sources of information can influence the  syntactic processor at an early stage ­ In one­stage models, syntactic and semantic information are both used to  construct the syntactic representation in one go ­ In two stage­models, the first stage is invariably seen as an autonomous stage of  syntactic processing ­ The syntax that governs the language of thought may be very similar or identical  to that of external language Dealing with Structural Ambiguity ­ It is difficult to discern the operations of processor when all is working well. For  this reason, most research on parsing has involved syntactic ambiguity because  ambiguity causes processing difficulty ­ We spend longer reading the ambiguous regions of sentences than the  unambiguous regions of control sentences, but we often spend longer in reading  the disambiguating regions ­ Serious autonomous model: we could construct one of them on purely syntactic  grounds, and then decide using semantic information whether it makes sense or  not. If it does we accept that representation; if it does not we go back and try  again ­ Parallel autonomous model” we could construct all possible syntactic  representations in parallel and then use semantic or other information to choose  the most appropriate one ­ Interactive model: we could use semantic information from the earliest stages to  guide parsing so that we only construct semantically plausible syntactic  representations or we could activate representations of all possible analyses, with  the level of activation affected by the plausibility of each ­ We are sometimes made aware of temporary ambiguity when we appear to have  chosen an incorrect syntactic representation ­ Reduced relative clause: a relative clause that has been reduced by removing the  relative pronoun and “was” ­ Relative clause: a clause normally introduced by a relative pronoun that modifies  the main noun ­ Garden path sentences: a type of sentence where the syntactic structure leads you  to expect a different conclusion from that which it actually has and are used in  parsing research ­ Intentionally omitting punctuations mislead the participants’ processors. Deletion  of the complementizer that can also produce misleading results ­ Reduced relatives are surprisingly common and might not be telling us about  parsing ­ Evidence that appropriate punctuation can reduce the magnitude of the garden  path effect by enhancing the reader’s awareness of the phrasal structure ­ In real life, speakers give prosodic cues to provide disambiguating information,  and listeners are sensitive to this type of information ­ Disfluencies influence the way in which people interpret garden path sentences:  when an interruption comes before an unambiguous noun phrase, listeners are  more likely to think that the noun phrase is the subject of a new clause rather than  the object of an old one ­ Does not mean that the speaker always mean to give these cues for the express  purpose of helping the listener and tend to produce the same cues when no one is  present ­ Sentences with reduced relatives with verbs occur in natural language with near­ zero probability ­ We could have been taken up the garden path by either semantic or syntactic  factors ­ According to the serial autonomy model, we experience the garden path effect  because the single syntactic representation we are constructing on syntactic  grounds turns out to be incorrect ­ According to the parallel model, one representation is much more active than the  others because of the strength of the syntactic cues, but this turns out to be wrong. ­ According to the interactive model, various sources of information support the  analysis more than its alternative. However, later information is inconsistent with  these initial activation levels Early Work on Parsing ­ Based on Chomsky’s theory of generative grammar ­ Psycholinguistic tests of Chomsky’s linguistic theory: • Derivational theory of complexity (DTC), and the autonomy of syntax • Idea of derivational theory of complexity is that the more complex the  formal syntactic derivation of a sentence the more complex the  psychological processing necessary to understand or produce it • Psychological principle of the autonomy of syntax takes Chomsky’s  assertion that syntactic rules should be specified independently of other  constraints further, to mean that syntactic processes operate independently  of other ones • Obligatory transformations were those without which the sentence would  be ungrammatical. Other transformations were optional • Kernel sentences are those to which only obligatory transforamtions have  been applied. They are therefore the active, affirmative, declarative forms  of English sentences • Tested the idea that the more transformations there are in a sentence, the  more difficult it is to process  Looked at detransformation reaction times  The time it took to detransform sentences with transformations  back to the kernel was linearly related to the number of  transformations in them • Found that sentences with more transdormations in them took up more  memory space and the fewer items participants could remember • When participants made errors in remembering sentences, they tended to  do it in the direction of forgetting transformational tags, rather than adding  them ­ Problems with the psychological interpretation of transformational grammar: • Used indirect measures of language processing • This is not a task that we necessarily routinely do in language  comprehension • Memory measures are not an on­line measure of what is happening in  sentence processing • Reversible passive is one where the subject and object of the sentence can  be reversed and the sentence still makes pragmatic sense • Irreversible passive is one that does not make sense after this reversal • Miller and McKean’s results could only be obtained for reversible  passives. Hence detransormational parsing only appears to be necessary  when there are not sufficient semantic cues to the meaning of the sentence  from elsewhere. This result means that the derivational theory of  complexity does not always obtain • Findings that the depth of syntactic processing is affected by semantic  considerations such as reversibility is also counter to the idea that the  autonomy of syntax, • Using different materials and a different task found no effect of  reversibility, and more recently found that there was always some cost to  processing a passive sentence, even irreversible ones • What we observe depends on the details of the tasks used, but both  syntactic and semantic factors have an effect on the difficulty of sentences • Examined the relation between the structure of a sentence and its function:  measured how long it took participants to complete sentences describing  an array of eight coloured circles, the time it took to process a syntactic  construction such as negative­formation depended on the semantic context • Later experiments provided little support for the psychological reality of  transformational grammar • Transformational grammar is a description of our knowledge of our  linguistic competence, and the constraints on language acquisition, rather  than an account of the processes involved in parsing on a moment­to­ moment basis Early Psycholinguistic Work on Parsing ­ First, we identify the words on the basis of perceptual data. Recognition and  lexical access give us access to the syntactic category of the words which we can  use to build a parse tree for each clause ­ It is only when each clause is completely analyzed that we finally start to build a  semantic representation of the sentence ­ What size are the units of parsing? • Listeners only begin to purge memory of the details of syntactic  constituents after a sentence boundary has been parsed. Once a sentence  has been processed verbatism for it fades very quickly. Hence the sentence  is the major processing unit • A clause is also an important unit • People find material easier to read a line at a time if each line corresponds  to a major constituent • Clause boundary effect on recalling words: it is easiest to recall words  from within the clause currently being processed, independent of the  number of words in the clause • Processing load is highest at the end of the clause, and eye fixations are  longer on the final word of a clause • Click displacement technique was first used to explore the size of  syntactic unit in parsing: major processing units resist interruption. We  finish what we are doing, and then process other material at the first  suitable opportunity  Even if the click falls in the middle of a real constituent, it should  be perceived as falling at a constituent boundary  The same results were found when all nonsyntactic perceptual  cues, such as intonation and pauses, were removed  Suggests that the clause is a major unit of perceptual and syntactic  processing • Participant’s task is complex: they have to perceive the sentence, parse it,  understand it, remember it, and give their response so click migration  could occur at any of these points, not just perception or parsing • Listening to a sentence that had no clicks at all: participants still placed the  non­existent clicks at constituent boundaries • Suggests that click migration occurs in the response stage: participants are  intuitively aware of the existence of constituent boundaries and have a  response bias to put clicks there • The size of the migration effect is greatly reduced if participants can point  to places in the sentence on a visual display at the same time as they hear  them, rather than having to remember them • Unclear about whether intonation and pausing are as unimportant in  determining structure boundaries as was originally claimed • These early studies probably reflect memory rather than the operations of  syntactic processing • Parsing is largely an incremental process • We try to integrate each word into a semantic representation as soon as  possible • Many studies have shown that syntactic and semantic analysis • Traxler and Pickering found that readers’ processing was disrupted  immediately after they read the word shot. The immediate disruption  means that they must have processed the sentence syntactically and  semantically up to that point • Not only do people construct the representation incrementally, they try to  anticipate what is coming next • Participants listening to a story, which led people to expect specific nouns.  However, if participants then heard a gender­marked adjective  immediately before the expected noun, and the gender was not the right  match for the expected noun, the inconsistent adjective elicited a marked  ERP • People even anticipate properties of upcoming words in the sentence, so  that, for example, the argument structure of a verb can be used to  anticipate the subsequent theme. People make anticipatory eye movements  toward probable upcoming objects • Tracked the eye movement of people looking at a visual scene. They  found that people anticipated a great deal of information, even with more  complex verb structures. Looking at different things after say spread the  butter or slide the butter. They concluded that the processor draws on  different source sof information, some of them nonlinguistic, at the earliest  opportunity, to construct as full an interpretation as possible ­ Parsing strategies based on surface structure cues: • Use these cues and a number of simple strategies that enable us to  compute the syntactic structure • Parsing strategies: seeing or hearing a determiner, we know a noun phrase  has just started • Although word order is variable in English, and transformations such as  passivization can change it, the common structure noun­verb­noun often  maps on to what is called the canonical sentence structures (subject­verb­ object) • Canonical sentence strategy: we try the simpler strategies first, and if these  do not work, we try other ones • The goal of parsing was to recover the underlying, deep structure of a  sentence: must be done by perceptual heuristics, using our surface  structure cues • Little evidence that deep structure is represented mentally independently  of meaning • When we parse we use surface structure cues  ­ Two early accounts of parsing: • Surface structure provides cues that enable us to uncover the underlying  syntactic structure • We initially compute the surface structure of a sentence guided by rules  that are based on psychological constraints such as minimizing memory  load • These principles explained why sentences are assigned the structure that  they are, why some sentences are harder to parse than others, and why we  are biased to parse many structurally ambiguous sentences in a certain  way • The first principle is that parsing is top­down, except when a conjunction  is encountered: we start from the sentence node and predicts constituents  To avoid an excessive amount of backtracking, the processor  employs limited look ahead of one or two words • The second principle is called right association, which is that new words  are preferentially attached to the lowest possible node in the structure  constructed so far: right associated gives English its typically right­ branching structures that are not right­branching are more difficult to  understand • Kimball’s third principle was new nodes/ function words signal a new  phrase • The fourth principle is that the processor can only cope with nodes  associated with two sentence nodes at any one time  Center­embedding splits up noun phrases and verb phrases  associated with the sentences so that they have to be held in  memory  When there are two embedded clauses, three sentence nodes will  have to be kept active at once. Hence, sentences of this sort will be  difficult, but corresponding right0branchign para­phrases cause no  difficulty because the sentence nodes do not need to be kept open • The next principle is that of closure, which says that the processor prefers  to close a phrase as soon as possible • The sixth principle is called fixed structure. Having closed a phrase, it is  computationally costly to reopen it an reorganize the previously closed  constituents, and so this is avoided if possible. This principle explains our  difficulty with garden path sentences • The final principle is the principle of processing: when a phrase is closed  if exits from short­term memory and is passed on to a second stage of  deeper semantic processing • However, given that the principle of processing underlies so many of the  others, perhaps the model can be simplified to reflect this? • There are some problems with particular strategies: the role of function  words in parsing might not be as essential as Kimball thought • Eye fixation research shows that we may not always gaze directly at some  function words • The sausage machine: dives the language input into something that looks  like a link of sausages  Two stage model of parsing  First stage is the preliminary phrase packager, or PPP  This is followed by the sentence structures supervisor (SSS)  PPP has a limited viewing window of about six words, and cannot  attach words to structures that reflect dependencies longer than this  The SSS assembles the packets produced by the PPP, but cannot  undo the work of the PPP  PPP can only make use of syntactic knowledge and uses syntactic  heuristics, such as preferring simpler syntactic structures if there is  a choice of structures  Problems: there are six­word sentences that are triply embedded,  but because they are so short, should fit easily into the PPP  window. Nevertheless, we still find them difficult to understand.  There are also six­word sentences where right association operates  when minimal attachment is unable to choose between the  alternatives, as they are both of equal complexity  Right association operates when minimal attachment cannot  determine where a constituent should go Garden Path versus Constraint­Based Models of Parsing ­ The garden path model is an autonomous two­stage model, while the constraint­ based model is an interactive one­stage model ­ The garden path model: • Parsing takes place in two stages • In the first stage, the processor draws only on syntactic information • If the incoming material is ambiguous, only one structure is created • Initial attachment is determined only by syntactic preferences dictated by  the two principles of minimal attachment and late closure • If the first pass turn out to be incompatible with further syntactic,  pragmatic, or semantic and thematic information generated by an  independent thematic processor, then a second pass is necessary to revise  the parse tree • Thematic information about semantic roles can only be used in the second  stage of parsing • Two fundamental principles of parsing determine initial attachment:  According to minimal attachment, incoming material should be  attached to the phrase marker being constructed using the fewest  nodes possible  According to late closure, incoming material should be  incorporated into the clause or phrase currently being processed  If there is a conflict between these two principles, then minimal  attachment takes precedence ­ Constraint­based models of parsing: • The processor uses multiple sources of information, including syntactic,  semantic, discourse, and frequency­based, called constraints • The construction that is most strongly supported by these multiple  constraints is most activated. Although less plausible alternatives might  also remain active • Garden paths occur when the correct analysis of a local ambiguity receives  little activation Evidence for Autonomy in Syntactic Processing ­ The garden path model says that we resolve ambiguity using minimal attachment  and late closure, without semantic assistance ­ Minimal attachment leads to the adoption of the structure that contains the fewest  number of nodes ­ Conducted an experiment that suggests that semantic factors cannot prevent us  from being garden­pathed ­ Analysis of eye movement evidence suggested that the semantic evidence  available in sentences did not prevent participants from getting garden­pathed.  Instead, we still appear to construct the initial interpretation to be syntactically  most simple according to minimal attachment ­ Semantic information does not prevent or cause garden­pathing, but can hasten  recovery from it ­ Self­paced reading task concluded that the initial stage only makes use of part­of  speech information, and that detailed information from the verb only affects the  second, evaluative, stage of processing ­ Using an eye­movement methodology: suggest that he first stage of parsing is  short­sighted and does not use semantic or thematic information ­ Examined data from eye movements and word­by­word self­paced reading of  ambiguous sentences, concluding that verb information does not affect the initial  parse. Although it might guide the second stage of reanalysis ­ We can manipulate the semantic relatedness of nouns and verbs in contexts where  they are either syntactically appropriate or inappropriate. Their different effects  can be tested out in lexical decision and naming tasks. The results suggest that  syntactic analysis precedes semantic analysis and is independent of it • In the lexical decision task, we observe meaning based inhibition relative  to a baseline • In the naming task, there is no sensitivity to the syntactic  inappropriateness of the target • Inhibition occurs in the lexical decision task because of a difficulty in  integrating the target word into a high­level text representation • Results look as though they support interactivity because the lexical  decision task is sensitive to post­access integrating processes • The naming data are less contaminated by post­access processing and  suggest that syntactic analysis is prior to semantic integration and  independent of it ­ Evidence from neuroscience suggests that semantic and syntactic processing are  independent • Patient DM had significant and pervasive loss of semantic knowledge as a  result of dementia. Yet his semantic deficit had no apparent effect on his  syntactic abilities. • He performed extremely well at detecting grammatical violations. • He also had no difficulty in assigning semantic roles in a sentence • Negative event­related potential found 400 ms after an event is thought to  be particularly indicative of violations of semantic expectancy • Positive wave found 600 ms after a syntactic violation • ERP data suggest that syntactic and semantic processing are distinct: ERPs  when people heard sentences that contained a syntactic anomaly, a  semantic anomaly, or both. The sentences that contained both types of  anomaly still provoked both an N400 and P600 • Different parts of the brain automatically become involed when syntactic  and semantic anomalies are present, and therefore that these processes are  represented separately ­ Representational modularity says that semantic and syntactic knowledge are  represented separately ­ Processing modularity: is initial processing restricted to syntactic information, or  can all sources of information influence the earliest stages of processing Evidence for interaction in Syntactic Processing ­ Compared self­paced reading times for sentences with a minimal attachment  structure • The noun phrase attachment produced a grammatically more complex  structures than the verb phrase attachment in the sentence with minimal  attachment structure • Minimal attachment structure sentences are red slower • Violations of the purely syntactic process of the attachment of words to the  developing structural representation do not slow down reading, but  violations of the semantic process of assigning words to thematic roles do • Previous studies that had appeared to support minimal attachment had in  fact confounded syntactic simplicity with semantic bias ­ Semantic factors rather than syntactic factors lead us up the garden path ­ How can semantic factors explain our difficulty with reduced relatives? • Used a speeded grammaticality judgment task to show that an appropriate  semantic context an eliminate syntactic garden paths • Participants see a string of words and have to decide as quickly as possible  whether the string is grammatical or not • Participants on the whole are more likely to misidentify garden path  sentences as non­grammatical in this task than non­garden path sentences • Argued that there is no such thing as a truly neutral semantic context.  Even when semantic context is apparently absent from the sentence,  participants bring prior knowledge and expectations to the experiment • All syntactic parsing pregenreces can be explained semantically. All  syntactic alternatives are considered in parallel, and semantic  considerations then rapidly select among them • Semantic difficulty is based on the among to information that has to be  assumed: the more assumptions, the harder the sentence is to process • If the processor encounters a definite noun phrase in the absence of any  context, only one entity is postulated and therefore no modifier is  necessary ­ Measured reading times on sentences • Presented the participants with prior discourse context that disambiguated  the sentences • The processor constructs a syntactic representation incrementally, on a  word­by­word basis. At each word, alternative syntactic interpretations are  generated in parallel, and then a decision is made using context (weak  interaction) • Strong interaction: where context actually guides the parsing process sot  that only one alternative is generated. This approach is called the  referential theory of parsing. • The processor constructs analyses in parallel and uses discourse context to  disambiguate them immediately • It is the immediate nature of this disambiguation that distinguishes the  referential theory from garden path models ­ Is it possible to distinguish between the referential and the constraint­based  theories? • Each denies that parsing is restricted to using syntactic information • In constraint­based theories, all sources of semantic information, including  general world knowledge are used to disambiguate, but in referential  theory only referential complexity within the discourse model is important • Studying reading times and eye movements when reading ambiguous  sentences: results suggested that semantic­referential information is used  immediately, but more general world knowledge takes longer to become  available • World knowledge was dependent on working memory capacity, whereas  use of semantic­referential principles was not • Referential principles were used immediately to resolve ambiguity.  Information about semantic plausibility of interpretations was used later • Referential theory cannot be a complete account of parsing because it can  only be applied to ambiguities involving simple and complex noun phrases • Referential theory was an early version of constraint­based theory, applied  to a limited type of syntactic structure. Nevertheless, the idea that  discourse information can be used to influence parsing decisions is one  essential component of constraint­based theories ­ Used eye movement measures to investigate how context affects garden pathing: • According to the referential theory, the resolution of ambiguities in  context depends on whether a unique referent can be found • The context can bias the processor towards or away from garden­pathing • However, some contexts will bias the processor towards the relative clause  interpretation and prevent garden­pathing • Such a biasing context can be obtained by preceding the ambiguous  relative structure with a relative­supporting referential context. One way  of doing this is to provide more than one possible referent. Eye movement  measurements verified this prediction • Measurements of difficulty associated with garden pathing­ were reflected  in longer average reading times per character in the ambiguity region and  an increased probability of regressive eye movements • When syntactic information leads to ambiguity and a garden path is  possible, then the processor proceeds to construct a syntactic  representation on the basis of the best semantic bet ­ Further evidence for constraint­based models comes from the finding that  thematic information can be used to eliminate the garden effect in these reduced  relative sentences • The fragments are ambiguous because they are consistent with two  sentence constructions: the most frequent order, the inreduced structure,  where the first NP is the agent, and with a reduced relative clause ­ Examined eye movements to investig
More Less

Related notes for PSYCH 3UU3

Log In


Don't have an account?

Join OneClass

Access over 10 million pages of study
documents for 1.3 million courses.

Sign up

Join to view


By registering, I agree to the Terms and Privacy Policies
Already have an account?
Just a few more details

So we can recommend you notes for your school.

Reset Password

Please enter below the email address you registered with and we will send you a link to reset your password.

Add your courses

Get notes from the top students in your class.