Study Guides (248,366)
Canada (121,505)
Psychology (1,882)
PSYC31H3 (25)
Midterm

PSYC08 MIDTERM NOTES

7 Pages
277 Views
Unlock Document

Department
Psychology
Course
PSYC31H3
Professor
Zachariah Campbell
Semester
Winter

Description
STATISTICS MIDTERM NOTES Central Tendency ­ a statistical measure to determine a single score that defines the center of a distribution ­ goal is to find a single score representative of entire group 1. Mean= sum of all scores/n ­ weighted mean= overall mean for a combined group of scores ­ changing the mean: ­ changing a score will change the mean ­ adding/removing a score will change mean unless score=mean ­ multiplying/dividing each score by a constant will change the mean in the same  way ­ uses every value in the distribution, is an unbiased estimator but is vulnerable to  extreme scores, causes a skewed distribution 2. Median ­ divides the distribution into exactly half ­ if even number add together 2 middle numbers /2 ­ not affected by extreme scores, commonly used for skewed distributions, open ended  distributions and ordinal scales 3. Mode ­ used to determine typical value for any scale of measurement ­ only measure in nominal scales ­ can have more than one mode with 2+ categories/scores have equal frequencies  (bimodal) ­ can have 2 major peaks: major mode, minor mode ­ useful for knowing the most typical score and describing the distribution shape Kurtosis: playkurtic (low, wide) , mesokurtic (normal), leptokurtic (narrow, tall) Variability: provides a quantitative measure of the degree to which scores in a  distribution are spread out of clustered together. Measures of variability: 1. Range • largest value­ smallest value 2. Interquartile range • Range covered by middle 50% of distribution • IQ= Q3­Q1 3. Variance • distance from the mean • Population variance: mean squared deviation • Sum of squared deviations/N • Sample variance uses degrees of freedom as demoninator 4. Standard Deviation • SD= square root of variance • Average distance from the mean T­ Distribution • Hypothesis testing for means when variance is unknown o Estimate using SS/df 2 o Estimate SD using √ (S /n) • Variance underestimates SD, causes a positive skew One Sample T Test • Tests whether a single group mean is different from the population mean • T= (X­M)/Sx 2/ • Sx= square root of(S N) Independent Samples T Test • For 2 independent samples • Test if group means are different • Degrees of freedom (N­2) • T= (x­m) /Sp 2 • S P= SS1+SS2/df1+df2 • Sx= square root of (S P/n1 + S P/N2) Related Samples T Test • 2 related samples, same participants, or similar participants matched • tests if groups means are different • df (n­1) 2 •  (D­X) /Sd ANOVA • Treatment Between Groups/ Treatment Within groups=  • MS Treatment/MS Error • Central limit theorem: as n increases, o Sampling Distribution becomes normal o Sample mean approaches mew o Sample variance approaches pop variance • More than 2 means/levels of IV • Factor: the variable (IV) that designates the groups being compared (ex: kinds of  therapy, caffeine) • Level: individual conditions or values that make up a factor (ex: caffeine dose,  between gender) • Structural Model: o X  –ij + t +jj o T =ijj­u (between) o Eij= Xij­uj  (within) • Assumptions o Normality of sampling distribution o Homogeneity of variance o Independence of Observations • Error Variance: one estimate we can generate makes no assumptions about  veracity of null hypothesis o Best estimate of error variance is a mean of group variances • Best estimate of population variance is the mean squared error (MS error, MS  within) • Treatment variance estimate: if null is true, can use variance of means across the  groups S x/n o Sensitive to differences in means, where error is not • If null is true; treatment variance= error variance • T= different between sample means/ difference expected by error • F= variance differences between sample means/ variances differences expected by  error Sum of squared deviations from the mean 2 • SS total = sum of (XijGM)2 • SS treatment= n(X­Gj) • SS error= (Xij­ Xj)2 Degrees of freedom • Df total= N­1 • Df error= k(n­1) • Df treatment= k­1 MS error by dividing SS/df F ratio by MStreat/MSerror Testing homogeneity of variance using F­max • F test given: o Random and independent samples o Both samples approach normal distribution o DF= (nlarge­1) + (nsmall­1) 2 2 o F= S large/S small • The average differences between pairs will be less than the difference between  smallest and largest variance • Fmax critical (k, n­1) • Want F0.25 = large • Omega squared accounts for sampling bias, but not used here Power • Type 1: true null is incorrectly rejected • Type 2: False null is accepted • Use power measures only in nonsignificant results, represents the amount that is  not overlapping • Cohen’s D and Hedges’ G for 2 independent means o D=m1­m2/SD o G= d (square root of (n/2)) o Use power table and alpha 
More Less

Related notes for PSYC31H3

Log In


OR

Join OneClass

Access over 10 million pages of study
documents for 1.3 million courses.

Sign up

Join to view


OR

By registering, I agree to the Terms and Privacy Policies
Already have an account?
Just a few more details

So we can recommend you notes for your school.

Reset Password

Please enter below the email address you registered with and we will send you a link to reset your password.

Add your courses

Get notes from the top students in your class.


Submit