Textbook Notes (362,790)
Canada (158,054)
Psychology (1,303)
PSYCH 3UU3 (13)
Chapter 11

CHAPTER 11.docx

20 Pages
Unlock Document

McMaster University
Karin R Humphreys

CHAPTER 11: WORD MEANING Introduction ­ There is further intuitive evidence to support this dissociation: first we can  translate words from one language to another, even though not every word  meaning is represented by a simple, single word in every language. Second, there  is an imperfect mapping between words and their meaning such that some words  have more than one meaning, while some words have the same meaning as each  other. Third, the meaning of words depends to some extent on the context ­ Episodic memory is our memory for events and particular episodes; semantic  memory is our general knowledge ­ Semantic memory develops from or is abstracted from episodes that may be  repeated many times ­ A concept determines how things are related or categorized. It is a mental  representation of a category. It enables us to group things together, so that  instances of a category all have something in common ­ The way in which we categorize the world is not arbitrary, but determined by two  important features of our cognitive system 1. The categories we form are determined in part by the way in which we  perceive the structure of the world 2. The structure of categories might be determined by cognitive economy • Trade­off between economy and informativeness • May also need to make distinctions between members of some categories  more often than others • Increased retrieval time ­ What distinguishes items of one category from items of another? And how are  hierarchical relations between categories to be captured? • Category relations between words: superordinate levels and subordiantes • Some words refer to associated of a thing • Some words are opposites in meaning ­ Words can be related in meaning without being associated, so any theory of word  meaning cannot rely simply on word association ­ Words with similar meanings tend to occur in similar contexts ­ Associations arise from words regularly occurring together, while semantic  relations arise from shared contexts and higher level relations ­ Grammatical constraint says that we should prefer a semantic theory that explains  otherwise arbitrary generalizations about syntax and the lexicon • AI theories and theories based on logic fail this constraint • Says that syntact and semantics should be related in a sensible way ­ Cognitive constraint: • There is a level of representation where semantic must interface with other  psychological representations, such as those derived from perception Classic Approaches to Semantics ­ Denotation of a word is its core, essential meaning ­ Connotations of a word are all of its secondary implications, or emotional or  evaluative associations ­ Referential theory of meaning: words mean what they refer to. However, there are  two major problems 1. It is not at all clear how such a theory treats abstract concepts 2. There is a dissociation between a word and the things to which it can refer ­ Intension of a word’s sense: it is its abstract specification that determines how it is  related in meaning to other words ­ Extension is what the word stands for in the world; that is, the objects picked out  by that intension ­ Model­theoretic semantic: formal semantics approach of building logical models  of meaning into complex systems of meaning Semantic Netowrks ­ The meaning of a word is given by how it is embedded within a network of other  meanings ­ There is no structure in an associative network, with no relation between words,  no hierarchy of information, and no cognitive economy. ­ In a semantic network, this additional power is obtained by making the  connections between items to something The Collins and Quillian Semantic Network Model ­ A semantic network is particularly useful for representing information about  natural kind terms (words that denote naturally occurring categories and their  members) ­ The scheme attributes fundamental importance to their inherently hierarchical  nature ­ In the network, nodes are connected by links that specify the relation between the  linked nodes; the most common, ISA link ­ Attributes are stored at the lowest possible node at which they are true of all lower  nodes in the network ­ Sentence verification task: • Subjects are presented with facts and have to determine if they are true or  false • The reaction time is an index of how difficult the decision was • Participants produce responses by starting off from the node in the  network that is the subject in the sentence, and traveling through the  network until they find the necessary information • The farther away the information is, the slower the response time ­ Problems with the Collins and Quillian model: • Clearly not all information is easily represented in hierarchical form • The materials in the sentence verification task that appear to support the  hierarchical model confound semantic distance with what is called  conjoint frequency • Conjoint frequency is a measure of how frequently words co­occur. When  you control for conjoint frequency, the linear relation between semantic  distance and time is weakened • An alternative interpretation of the sentence verification results is that the  sentences that give the faster verification times contain words that are  more closely associated • Another possible confound in the original sentence verification  experiments is with category size • The hierarchical model makes some incorrect predictions: memory  structure does not always reflect logical category structure • Relatedness effect: the more related two things are, the harder it is to  disentangle them, even if they are not ultimately from the same class • Prototypicality effect • Non­necessary features are involved in classification: we are faster to  categorize instances the more features they share with a concept ­ Revisions to the semantic network model: • Based on spreading activation • The structure of the network becomes more complex, with the links  between nodes varying in strength or distance • Access and priming in the network occur through a mechanism of  spreading activation Semantic Features ­ Views the meaning of a word as determined not by the position of the word in a  network of meaning, but by its decomposition into smaller units of meaning  called semantic features ­ Semantic features work well in simple domains where there is a clear relation  between the terms ­ We can take the idea of semantic features further, and represent the meanings of  all words in terms of combinations of as few semantic features as possible  (Semantic primitives). This approach has been influential in AI ­ One possibility is that all words are represented in terms of combinations of only  semantic primitives ­ Another possibility is that words are presented as combinations of features not all  of which need be primitives. These non­primitive features might eventually be  represented elsewhere in semantic memory as combinations of primitives Early Decompositional Theories: Kat and Fodor ­ Showed how the meaniings of sentences could be derived by combining the  semantic features of each individual word in the sentence ­ Emphasized how we understand ambiguous words ­ Decompositional theory of meaning so that the meanings of individual words in  the sentence are broken down into their component semantic features ­ The combination of features across words is governed by particular constraints  called selection restrictions ­ One of the problems with this type of approach is that for most words it is  impossible to provide an exhaustive listing of all of its features Feature List Theories and Sentence Verification: Feature Comparison ­ Defining features are essential to the underlying meaning of a word, and relate to  properties that things must have to be a member of that category ­ Characteristic features are usually true of instances of a category, but are not  necessarily true ­ Sentence verification and feature­list theories: • Sentence verification involves making comparisons of the feature lists  representing the meaning of the words involved in two stages • Feature comparison theory • In the first stage, the overall featural similarity of the two words is  compared, including both the defining and characteristic features • If the amount of overlap is neither high nor low, then we have to go on to a  second stage of comparison, where we consider only the defining features • The advantage of the first stage is that although the comparison is not  detailed, it is very quick • One problem is that it is very closely tied to the sentence verification  paradigm • A more general problem is that many words do not have obvious defining  features • Probabilistic feature model in this approach there is an important  distinction between the core description and the identification procedures  of a concept • The core description comprises the essential defining features of the  concept and captures the relations between concepts • The identification procedures concern those aspects of meaning that are  related to identifying instances of the concept  • For physical objects, perceptual features form an important part of the  identification procedure • Semantic features are weighted according to a combination of how salient  they are and the probability of their being true of a category • The revised model has the advantage of emphasizing the relation between  meaning and identification, and can account for all the verification time  data ­ Evaluation of decompositional theories • It is possible to devise an experiment to distinguish between feature list  and semantic network theories because they are formally equivalent, in  that it is impossible to find a prediction that will distinguish between them • On the one hand, decompositional theories have an intuitive appeal, and  they make explicit how we make inferences based on the meaning of  words in the sentence verification task. In reducing meaning to a  small  number of primitives, they are very economical • On the other hand, it is difficult to construct decompositional  representations for even some of the most common words • Even when we apparently define words, the features we come up with are  not particularly appealing or intuitively obvious; one suspects that an  alternative set could be generated with equal facility • We have more knowledge about word meaning than can be represented as  a list of features. We also know relationships between features • Very specific to the sentence verification task • There are some methodological problems: semantic relatedness and  stimulus familiarity were confounded in the original experimental  materials showed that if you reverse the order of the nouns in the  sentences sued in sentence verification, you find effects not predicted by  the theory • Noun order is important • People may have specific strategies for disconfirming sentences • It is not easy to distinguish empirically between defining and characteristic  features • Model still cannot easily account for the finding that some categories have  unclear or fuzzy boundaries • Semantic features or primitives need not have ready linguistic counterparts ­ Is semantic decomposition obligatory • Two important issues: whether we represent the meanings of words in  terms of features and whether we make use of those features in  comprehension • In featural terms, the meaning of a word must clearly contain features that  correspond to the word, although these in turn might summarize  decomposition into yet more primitive features, or there might also be  others • Obligatory automatic decomposition is a very difficult theory to test  experimentally: some words have a negative implicit in their definition  (pure definitional negatives), and double negatives are harder to process • Concluded that features are not accessed automatically, and instead  proposed a non­decompositional account in which the meaning of words is  represented as a whole • To draw an inference, you have to make a special type of inference • However, difficult to make up good controls for this study • Lexical causatives: verbs that bring about or cause new states of affairs • In a decompositinal analysis such verbs would contain this feature in their  semantic representation • Asked participants to rate the perceived relatedness between similar verbs  and found no difference in the perceived relatedness rating in these  sentences, and therefore no evidence that participants decompose lexical  causatives • Questioned whether perceived relatedness between words truly is a  function of their structural distance: the technique of intuitions about the  relatedness of words cannot be used to test the relative underlying  complexity of semantic representations • The conclusion also depends on a failure to show a difference rather than  on obtaining a difference, which is always less satisfactory • Some studies have concluded that complex sentences that are  hypothesized to contain more semantic primitives are no less memorable  or harder to process than simpler sentences that presumably contain fewer  primitives • On the other hand, these experiments confounded the number of  primitives with other factors, particularly syntactic complexity. • Argued that semantic complexity should slow processing down, it is more  likely that it speeds processing up • Features also provide scope for interconnections • Sentences that contain features that facilitate interconnections between its  elements are recalled better than those that do not • People with aphasia tend to be more successful at retrieving verbs with  rich semantic representations compared with verbs with less rich  representations • Semantically related word substitution speech errors always show a  featural relation between the target and occurring words • Young children automatically decompose early words into semantic  primitives, but as they get older, they mainly decompose them into non­ primitive features Prototype Theories ­ A prototype is an average family member ­ Potential members of the category are identified by how closely they resemble the  prototype or category average ­ Showed participants a pattern of dots that were distortions of just one underlying  pattern of dots that the participants did not actually see. Even though participants  never saw this pattern, they later treated it as the best example, responding to it  better than the patterns they did see ­ A prototype is a special type of schema: a frame for organizing knowledge that  can be structured as a series of slots plus fillers ­ A prototype is a schema with all the slots filled in with average values ­ Measured family resemblance among instances of concepts by asking participants  to list their features. Although some features were given by all participants for  particular concepts, these were not technically defining features, as they did not  distinguish the concept from other concepts ­ A number of results demonstrate the processing advantage of a prototype over  particular instances ­ Sentence verification time is faster for prototypical members of a category.  Prototypical members can substitute for category names in sentences, whereas  non­prototypical members cannot ­ Words for typical objects are named before words for atypical ones ­ In free recall task, adults retrieve typical members before atypical ones ­ Prototypes share more features with other instances of the category, but minimize  the featural overlap with related categories ­ There are prototypes that posses an advantage over other members of the category  even when they are all formally identical ­ The closer an item is to the prototype, the easier we process it ­ According to prototype theories, word meaning is not only represented by  essential features; non­essential features also play a role ­ Theories based on features have the additional attractive property that they can  explain how we acquire new concepts: we merely combine existing features ­ Network models can also form new concepts, by adding new nodes to the network  with appropriate connections to existing nodes ­ On the other hand, new concepts are problematical for non­decompositional  theories. One suggestion is that all concepts, including complex ones, are innate ­ Basic levels: • Compromise between cognitive economy and maximum informativeness  results in a basic level of categorization that tends to be the default level at  which we categorize and think, unless there is particular readon to do  otherwise • There is a basic level of categorization that is particularly psychologically  salient • The basic level is the level that has the most distinctive attributes and  provides the most economical arrangement of semantic memory • There is a large gain indistinctiveness from the basic level to levels above,  but only a small one to levels below • Objects at the basic level are readily dinstinguished from each other, but  objects in levels beneath the basic level are not so easily distinguished  from each other • Nevertheless, objects at the same basic level share perceptual contours;  they resemble each other more than they resemble members of other  similar categories • The basic level is the most general category for which a concrete image of  the whole category can be formed • Basic levels have a number of advantages over other categories:  participants can easily list most of the attributes, it is the level f description  most likely to be spontaneously used by adults, sentence verification time  is faster for basic­level terms, and children typically acquire the basic level  first ­ Problems with the prototype model: • Abstract concepts are difficult to fit into this scheme • Does not explain why categories cohere • Cannot explain why typicality judgments vary systematically depending  on the context • Relies on similarity risk being circular • Characterization of the basic level as the most psychologically  fundamental is not clear­cut as at first sight Instance Theories ­ Each concept is representing a particular, previously encountered instance ­ We make semantic judgments by comparison with specific stored instances ­ Exemplar theory ­ The instance approach provides greater informational richness at the expense of  cognitive economy ­ Many of the phenomena explained by prototype theory can also be accounted for  instance­based theories ­ Predict that people process central members of the category better than peripheral  members • Prototype: central members are closer to the abstract prototype • Instance: central instances are more similar to other instances of the  category ­ Specific instances should affect processing of other instances regardless of  whether or not they are close to the central tendency ­ Abstraction theories correctly predict that people infer tendencies that are not  found in any specific instance ­ The predictive power of instance­based models increases as the number of  instances considered increases ­ Abstraction­based theories and instance­based theories have been implemented in  connectionist models ­ Instantiation principle: a category includes detailed information about its range of  instances. This idea represents a shift from emphasizing cognitive economy in our  theories ­ Category membership decisions are made by retrieving instances one at a time  from semantic memory until a decision can be made ­ The more instances you have stored, the faster you can respond Theory Theories ­ People represent categories as miniature theories that describe facts about those  categories and why the members cohere ­ Sets of beliefs about what makes instances members of categories, and an idea  about what the normal properties of an instance of a category should process Evaluation of Work on Classification ­ The current battleground on how we classify objects is between instance theories  and theory theories Combining Concepts ­ Instance based theories run into obvious difficulties in providing account of how  we combine concepts ­ Theory theories have less difficulty in accounting for concept combination ­ Mini­theories alone cannot account for how we combine concepts and they must  be combined with some other mechanism ­ Proposed a dual approach combining mini­theories with a fixed atomic symbol  for each category ­ Thematic relation, property link and hybridization ­ People try the thematic relation first, and only if this fails to generate a plausible  combination do they attempt a property interpretation ­ Property interpretations appear to be rare in natural, communicative contexts: one  reason for this bias is that relation interpretations preserve the meaning of each  noun in the combination, whereas property interpretations use just one property of  the noun that is acting as a modifier ­ Last resort: people prefer to assume that combinations involve the usual meanings  of their constituents, so they prefer to use this strategy first. ­ In certain circumstances, people prefer to comprehend noun combinations on the  basis of property relations. People then look for a critical difference between them  that can act as the basis of the interpretation ­ People are also influenced by a noun=s combinatorial history. The modifying first  noun of the pair is the most important in determining this ­ Further evidence that experience matters is that exposure to a word pair related in  a similar way makes it easier to understand a new word pair (example glass eye  and copper horse) ­ The interpretation of compound nouns depends on a number of factors, including  past experience, similarity, and whether plausible relations between the stimuli  exist Processing Figurative Language ­ Metaphor: involves making a comparison, or drawing a resemblance • There is no dichotomy between literal and metaphoric usage: rather, there  is a continuum • Standard theory is that we process non­literal language in three stages 1. We derive the literal meaning of what we hear 2. We tst the literal meaning against the context to see if it is consistent  with it 3. If the literal meaning does not make sense with the context, we week  an alternative, metaphorical meaning • One prediction of the three­stage model is that people should ignore the  non­literal meanings of statements whenever the literal meaning makes  sense, because they never need to proceed to the third stage • When good metaphoric interpretations of literally false sentences were  available, people take longer to decide that such sentences are literally  false • Metaphors are interpreted through a pragmatic analysis in the same way  that we process conversational implicatures: we assume that what we read  is maximally informative. • Class­inclusion model claims that metaphors are meant to be taken  literally as assertions of category membership: when we are faced with a  metaphor we use the vehicle to create the category; we then include the  topic in this category to generate an interpretation of the metaphor • Priming with a metaphor increases the probability that a person will judge  the topic (lie) to be an actual member of the vehicle category, compared  with a similar but literal prime ­ Idioms: have a fixed form and are in general use • The meaning of an idiom is usually quite unrelated to the meaning of its  component words • Participants take less time to comprehend conventional uses of idioms  than unconventional, literal uses, suggesting that people analyze the  idiomatic senses of expressions before deriving the literal, unconventional  interpretation • People are as fast to understand familiar idioms as they are comparable  phrases used non­idiomatically • People store idioms like single lexical items ­ In order to construct a new metaphor we have to generate just the right amount of  overlap ­ Producing metaphors and jokes is an aspect of our metalinguistic ability The Neuropsychology of Semantics ­ Some people who are having difficulty accessing the whole phonological form  might be able to access part of it. ­ These people might be able to comprehend the word in speech or produce the  word in spontaneous speech ­ Know how to use the objects, and they can group pictures together appropriately ­ Conclude that the word meanings are intact, and that such people are having  difficulty with later stages of processing ­ Central semantic deficit when a concept is truly lost vs. access semantic  impairment when there is difficulty gaining access to the concept ­ Five criteria that could distinguish p
More Less

Related notes for PSYCH 3UU3

Log In


Don't have an account?

Join OneClass

Access over 10 million pages of study
documents for 1.3 million courses.

Sign up

Join to view


By registering, I agree to the Terms and Privacy Policies
Already have an account?
Just a few more details

So we can recommend you notes for your school.

Reset Password

Please enter below the email address you registered with and we will send you a link to reset your password.

Add your courses

Get notes from the top students in your class.