Chapter 7 and 8 Psych.docx

24 Pages
66 Views
Unlock Document

Department
Biological Sciences
Course
BIOA02H3
Professor
Steve Joordens
Semester
Winter

Description
7.2 The Development of Classical Conditioning: Pavlov’s Experiments  Involved dogs in a harness to administer the foods and to measure the salivary  response  Unconditioned stimulus (US): something that reliably produces a naturally  occurring reaction in an organism  Unconditioned response (UR): a reflexive reaction that is reliably produced by  an unconditioned stimulus  Make the dogs salivate to stimuli that don’t usually make animals salivate  Conditioned stimulus (CS): a stimulus that is initially neutral and produces no  reliable response in an organism  Conditioned response (CR): a reaction that resembles an unconditioned  response but is produced by a conditioned stimulus 7.3 The Basic Principles of Classical Conditioning  Behaviourist psychology John B. Watson was proposing: an organism experiences  events or stimuli that are observable and measureable, and changes in that  organism can be directly observed and measured  There was no need to consider the mind in this classical­conditioning paradigm,  which appealed to Watson and the behaviourists  Acquisition: ⇒ The phase of classical conditioning when the CS and the US are presented  together ⇒ During the initial phase of classical conditioning, typically there is a  gradual increase in learning: It starts low, rises rapidly, and then slowly  tapers off ⇒ After learning has been established, the CS by itself will reliably elicit the  CR  Second­Order Conditioning: ⇒ Conditioning where the stimulus that functions as the US is actually the  CS from an earlier procedure in which it acquired its ability to produce  learning ⇒ Helps explain why some people desire money to the point that they hoard  it and value it even more than the objects it purchases  Extinction: ⇒ The gradual elimination of a learned response that occurs when the US is  no longer presented ⇒ CR is extinguished and no longer observed  Spontaneous Recovery: ⇒ The tendency of a learned behavior to recover from extinction after a rest  period ⇒ Recovery takes place even though there have not been any additional  associations between the CS and US ⇒ The ability of the CS to elicit the CR was weakened, but it was not  eliminated  Generalization and Discrimination: ⇒ The phenomenon of generalization tends to take place, in which the CR is  observed even though the CS is slightly different from the original one  used during acquisition ⇒ Conditioning generalizes to stimuli that are similar to the CS used during  the original training ⇒ The more the new stimulus changes, the less conditioned responding is  observed ⇒ When an organism generalizes to a new stimulus, two things are  happening. ⇒ First, by responding to the new stimulus used during generalization  testing, the organism demonstrates that it recognizes the similarity  between the original CS and the new stimulus ⇒ Second, by displaying diminished responding to the new stimulus, it also  tells us that it notices a difference between the two stimuli ⇒ Discrimination: the capacity to distinguish between similar but distinct  stimuli 7.4 Conditioned Emotional Responses: The Case of Little Albert  Classical conditioning demonstrates that durable, substantial changes in behavior  can be achieved simply by setting up the proper conditions  Associating a naturally occurring US with an appropriate CS, an organism can  learn to perform a variety of behaviours, often after relatively few acquisition  trials  Don’t need to consider internal and cognitive explanations to demonstrate the  effects of classical conditioning: the stimuli, the eliciting circumstances, and the  resulting behavior are there to be observed by one and all  Watson and Rayner developed that any behavior though that it was possible to  develop general explanations of pretty much any behavior of any organism based  on classical­conditioning principles  9 month old Little Albert  See if a child could be classically conditioned to experience a strong emotional  reaction (fear)  Watson proposed that fears could be learned, just like any other behavior  His experiment went against ethnics  Jennifer, who experienced fear and anxiety when hearing the previously innocent  sound of an approaching helicopter as a result of her experiences in Iraq 7.5 A Deeper Understanding of Classical Conditioning The Cognitive Elements of Classical conditioning  Why didn’t the dogs salivate when they saw Pavlov?  The dogs were sensitive to the fact that Pavlov was not a reliable indicator of the  arrival of food  He was linked to many things, this these observations suggest that perhaps  cognitive components are involved in classical conditioning after all  Robert Rescorla and Allan Wagner were the first to theorize that classical  conditioning only occurs when an animal has learned to set up an expectation  The Rescorla­Wagner model introduced a cognitive component that accounted  for a variety of a classical­conditioning phenomena that were difficult to  understand from a simple behaviourist point of view  The model predicted that conditioning would be easier when the CS was an  unfamiliar event than when it was familiar  Being familiar already have expectations associated with them, making new  conditioning difficult  Classical conditioning might appear to be a primitive and unthinking process,  but it is actually quite sophisticated and incorporates a significant cognitive  element  The Role of Consciousness: ⇒ Rescorla­Wagner model reflect the operation of non­conscious  associative mechanisms that do more than just record co­occurrences  of events – they link those co­occurrences to prior experiences,  generating an expectation ⇒ Involve nonhuman animals ⇒ In delay conditioning, the CS is a tone that is followed immediately by  the US, a puff of air, which elicits an eye blink response. Importantly,  the tone and air puff overlap in time – the air puff follows the tone, but  the tone remains on when the air puff is delivered, Then, the tone and  air puff end at the same time. After a few pairings of the tone and air  puff, conditioning occurs and the tone alone elicits an eye blink  response. ⇒ Trace conditioning uses the identical procedures, with one difference:  In trace conditioning, there is a brief interval of time after the tone  ends and the air puff is delivered. ⇒ Amnesic patients showed normal delay conditioning of eyeblink responses  compared with non­amnesic control subjects ⇒ Clark and Squire studied both delay and trace conditioning in healthy  volunteers, and after each procedure gave participants a true­false test with  questions that probed their awareness of the contingency between the tone  and the air puff ⇒ Delay conditioning does not require awareness of the contingency  between the tone and the air puff, whereas trace conditioning does  Implications for Patients in a Vegetative State: ⇒ Examined trace conditioning in 22 patients with a diagnosis of either  vegetative state  ⇒ Used a standard trace conditioning procedure in which the CS (a tone) was  followed a half­second later by the US (an air puff), and assessed  conditioned responses by measuring changes in the activity of eye muscles ⇒ Showed robust trace conditioning  Implications for Understanding Schizophrenia ⇒ Pairing a rewarding stimulus such as a sugar solution with nausea will  cause the animals to reduce their subsequent intake of sugar ⇒ McDannald and Schoenbaum proposed using conditioning procedures to  test hypotheses concerning impaired reality testing in schizophrenia The Neural Elements of Classical Conditioning  Cerebellum is critical for both delay and trace conditioning  It is part of the hindbrain and plays an important role in motor skills and learning  Hippocampus is important for trace conditioning but not delay conditioning  Amygdala plays an important role in the experience of emotion, including fear  and anxiety  Central nucleus is also critical for emotional conditioning  Central nucleus of the amygdala plays a role in producing both of these outcomes  through two distinct connections with other parts of the brain  The action of the amygdala is an essential element in fear conditioning, an its link  with other areas of the brain are responsible for producing specific features of  conditioning  The amygdala is involved in fear conditioning in people as well as rats and other  animals The Evolutionary Elements of Classical Conditioning  Could have adaptive value  Focused on conditioned food aversions  Case of bad hummus: the hummus was the CS, a bacterium was the US, and the  resulting nausea was the UR  John Garcia and his colleagues illustrated the adaptiveness of classical  conditioning in a series of studies with rats  Used a variety of CSs (visual auditory, tactile, taste, and smell) and several  different USs (injection of a toxic substance, radiation) that cause nausea and  vomiting hours later  Found weak or no conditioning when the CS was a visual, auditory, or tactile  stimulus  Strong food aversion developed with stimuli that have a distinct taste and smell  Developed of technique for dealing with an unanticipated side effect of radiation  and chemotherapy 7.7 Operant Conditioning: Reinforcements from the Environment  The study of classical conditioning is the study of behaviours that are reactive  These animals exhibit these responses involuntarily during the conditioning  process  Operant conditioning: a type of learning in which the consequences of an  organism’s behavior determine whether it will be repeated in the future  The study of operant conditioning is the exploration of behaviours that are active 7.8 The Development of Operant Conditioning: The law of Effect  Thorndike’s research focused on instrumental behaviours, that is, behavior that  required an organism to do something, solve a problem, or otherwise manipulate  elements of its environment  Used a puzzle box  Cats became skilled at triggering the lever for their release  Thorndike developed the law of effect, which states that behaviours are followed  by a “satisfying state of affairs” tend to be repeated and those that produce an  “unpleasant state of affairs” are less likely to be repeated  In classical­conditioning experiments, the US occurred on every training trial no  matter what the animal did  In Thorndike’s work, the behavior of the animal determined what happened next  If the behavior was “correct”, the animal was rewarded with food  Incorrect behaviours produced no results and the animal was stuck in the box until  it performed the correct behaviour 7.9 B. F. Skinner: The Role of Reinforcement and Punishment  In Skinner’s system, all of these emitted behaviours “operated” on the  environment in some manner, and the environment responded by providing  events that either strengthened those behaviours or made them less likely to  occur  Developed Skinner Box: observe the behavior of small organisms in a controlled  environment  Skinner’s approach to the study of learning focused on reinforcement and  punishment  Reinforcer: is any stimulus or event that functions to increase the likelihood of  the behavior that led to it  Punisher: is any stimulus or event that functions to decrease the likelihood of  the behavior that led to it  Positive reinforcement (where a rewarding stimulus is presented)  Negative reinforcement (where an unpleasant stimulus is removed)  Positive punishment (where an unpleasant stimulus is administered)  Negative punishment (where a rewarding stimulus is removed) Primary and Secondary Reinforcement and Punishment  Reinforcers and punishers often gain their functions from basic biological  mechanisms  Secondary reinforcers derive their effectiveness from their associations with  primary reinforcers through classical conditioning  Example: money starts out as a neutral CS that, though I association with primary  USs like acquiring food or shelter, takes on a conditioned emotional element  Rewards can cause exactly the opposite effect: a decrease in performing the  behavior  Extrinsic reinforcement – rewards that come from external sources – don’t always  capture the reasons why people engage in behavior in the first place  Overjustification effect happens when external rewards undermine the intrinsic  satisfaction of performing a behavior 7.10 The Basic Principles of Operant Conditioning Discrimination, Generalization, and the Importance of Context  Thorndike: Learning takes place in contexts, not in the free range of any plausible  situation  Skinner: most behavior is under stimulus control, which develops when a  particular response only occurs when an appropriate discriminative stimulus is  present  “Three­term contingency”: in the presence of a discriminative stimulus  (classmates drinking coffee together in Starbucks), a response (joking comments  about a psychology professor’s increasing waistline and receding hairline)  produces a reinforce (laughter among classmates)  The same response in a different context would most likely produce a very  different outcome Extinction  In classical conditioning, operant behavior undergoes extinction when the  reinforcements stop  On the surface, extinction operant behavior looks like that of classical  conditioning: The response rate drops off fairly rapidly and, if a rest period is  provided, spontaneous recovery is typically seen  In classical conditioning, the US occurs on every trial no matter what the  organism does  In operant conditioning, the reinforcements only occur when the proper response  has been made, and they don’t always occur even then Schedules of Reinforcement  Skinner stopped giving his rats a pellet for every bar press but instead delivering  food on some intermittent schedule  Not only did the rats continue bar pressing but they also shifted the rate and  pattern of bar pressing depending on the timing and frequency of the presentation  of the reinforcers  In operant conditioning, the pattern with which reinforcements appeared was  crucial  Skinner explored with schedules of reinforcement  Two most important are interval schedules, based on the time intervals between  reinforcements, and ratio schedules, based on the ratio of responses to  reinforcements  Interval Schedules: ⇒ Under a fixed interval schedule (FI), reinforcers are presented at fixed  time periods, provided that the appropriate response is made ⇒ Example: on a 2­minute fixed interval schedule, a response will be  reinforced, but only after 2 minutes have expired since the last  reinforcement. ⇒ Under a variable interval schedule (VI), a behavior is reinforced based  on an average time that has expired since the last reinforcement ⇒ Example: on a 2­minute variable interval schedule, responses will be  reinforced every 2 minutes on average but not after each 2­minute period.  Ratio Schedules: ⇒ Under a fixed ratio schedule (FR), reinforcement is delivered after a  specific number of responses have been made th ⇒ One schedule might present reinforcement after every 4  response, a  different schedule might present reinforcement after every 20 response;  the special case of presenting reinforcement after each response is called  continuous reinforcement ⇒ Under a variable ratio schedule (VR), the delivery of reinforcement is  based on a particular average number of responses ⇒ Example: if a laundry worker was following a 10­response variable ratio  schedule instead of a fixed ratio schedule, she or he would still be paid, on  average, for every 10 shirts washed and ironed but not for each tenth shirt. ⇒ Helps casinos stay in business ⇒ Variable ratio schedules produce slightly higher rates of responding than  fixed schedules primarily because the organism never knows when the  next reinforcement is going to appear ⇒ A 20­response variable ratio schedule will produce considerably more  responding than a 2­response variable ratio schedule ⇒ When schedules of reinforcement provide intermittent reinforcement,  when only some of the responses made are followed by reinforcement,  they produce behavior that is much more resistant to extinction than a  continuous reinforcement schedule. ⇒ The more irregular and intermittent a schedule is, the more difficult it  becomes for an organism to detect when it has actually been placed on  extinction ⇒ Intermittent­reinforcement effect: the fact that operant behaviours that  are maintained under intermittent reinforcement schedules resist extinction  better than those maintained under continuous reinforcement Shaping through Successive Approximation  Behavior rarely occurs in fixed frameworks where a stimulus is presented  Continuously acting and behaving  Most of our behaviours, then, are the result of shaping, or learning that results  from the reinforcement of successive steps to a final desired behavior  Successive approximation: a behavior that gets incrementally closer to the  overall desired behavior Superstitious Behaviour  One of the keys to establishing reliable operant behavior is the correlation  between an organism’s response and the occurrence of reinforcement  Skinner put several pigeons in the boxes, set the food dispensers to deliver food  every 15 seconds, and left the bird to their own devices  Later he finds the bird aimlessly pecking in a corner or turning in circles  Referred to these behaviours as “superstitious” and offered a behaviourist analysis  of their occurrence  The pigeons acted as though there was a casual relationship between their  behaviours and the appearance of food when it was merely an accidental  correlation  Delusions, like superstitious behaviours, are based on mistaken beliefs regarding  causal relationships 7.11 A Deeper Understanding of Operant Conditioning The Cognitive Elements of Operant Conditioning  Tolman argued that there was more to learning than just knowing the  circumstances in the environment and being able to observe a particular outcome  Proposed that an animal established a means­ends relationship  Produced knowledge or belief that, in this particular situation, a specific reward  (the end state) will appear if a specific response (the means to that end) is made  Establishes an internal cognitive state, which then produces the behavior  These cognitive theories of learning focus less on the SR connection and more on  what happens in the organism’s mind when faced with the stimulus  Latent Learning and Cognitive Maps: ⇒ In latent learning, something is learned but it is not manifested as a  behavioural change until sometime in the future ⇒ These results suggested to Tolman that beyond simply learning “start here,  end here”, his rats had developed a sophisticated mental picture of the  maze  Future Support for Cognitive Explanations: ⇒ Rat mazes with alternative paths ⇒ Latent learning and cognitive maps suggest that operant conditioning  involves much more than an animal responding to a stimulus  Learning to Trust: For Better or Worse: ⇒ Participants in such experiments typically find out who is trustworthy on  the basis of trial­and­error learning during the game, transferring more  money to partners who reinforce them by sharing The Neural Elements of Operant Conditioning  The first hint of how specific brain structures might contribute to the process of  reinforcement came from the discovery of what came to be called pleasure centers  Limbic system produced what appeared to be intensely positive experiences  Rats would ignore food, water, and other life­sustaining necessities for hours on  end simply to receive stimulation directly in the brain (pleasure centers)  The neutrons in the medial forebrain bundle, a pathway that meanders its way  from the midbrain through the hypothalamus into the nucleus accumbens, are the  most susceptible to stimulation that produces pleasure  Neurons all along this pathway and especially those in the nucleus accumbens  itself are all dopaminergic; that is, they secrete the neurotransmitter dopamine  Higher levels of dopamine in the brain are usually associated with positive  emotions  If drugs that block the action of dopamine are administered to the rats, they cease  stimulating the pleasure centers  Drugs such as cocaine, amphetamine, and opiates activate these pathways and  centers, but dopamine­blocking drugs dramatically diminish their reinforcing  effects    fMRI studies show increased activity in the nucleus accumbens in heterosexual  men looking at pictures of attractive women and in individuals who believe they  are about to receive money  Rats given primary reinforcers such as food or water or who are allowed to  engage in sexual activity show increased dopamine secretion in the nucleus  accumbens—but only if the rats are hungry, thirsty, or sexually aroused The Evolutionary Elements of Operant Conditioning  Rats are foragers, and like all foraging species, they have evolved a highly  adaptive strategy for survival. They move around in their environment looking  for food. If they find it somewhere, they eat it (or store it) and then go look  somewhere else for more. If they do not find food, they forage in another part of  the environment. So, if the rat just found food in the right arm of a T­maze, the  obvious place to look next time is the left arm. The rat knows that there isn’t any  more food in the right arm because it just ate the food it found there! 7.13 Observational Learning: Look at Me  The administration of punishment led to a learned change in his behavior  Observational learning: learning takes place by watching the actions of others 7.14 Observational Learning in Humans  Children aggressively hitting the Bobo doll  When children see the adults being punished for behaving aggressively, they  showed less aggression  When children see adults being praised for being aggressive, they showed more  aggression  Diffusion chain: individuals initially learn a behavior by observing another  individual perform that behavior, and then serve as a model from which other  individuals learn the behavior  Example: sports 7.15 Observational Learning in Animals  Monkeys observing fear reaction to snakes  Monkeys observing how to capture food by using a rake (effective and non­ effective ways)  Chimpanzees raised in a more human­like environment showed more specific  observational learning than did those who had been reared by their mothers,  performing similarly to human children  Enculturation hypothesis: being raised in a human culture has a profound effect  on the cognitive abilities of chimpanzees, especially their ability to understand the  intentions of others when performing tasks such as using tools, which in turn  increases their observational learning capacities  Evidence imp
More Less

Related notes for BIOA02H3

Log In


OR

Join OneClass

Access over 10 million pages of study
documents for 1.3 million courses.

Sign up

Join to view


OR

By registering, I agree to the Terms and Privacy Policies
Already have an account?
Just a few more details

So we can recommend you notes for your school.

Reset Password

Please enter below the email address you registered with and we will send you a link to reset your password.

Add your courses

Get notes from the top students in your class.


Submit