Fusk i personlighetstest. Ett problem, men vi har idag inga metoder för att upptäcka vem som fuskar.

ben-johnson7Som tidigare sagts här på psychometrics.se är forskningen splittrad i fuskfrågan avseende personlighetstest. Nedan kommer  jag klargöra vissa grundläggande frågor som måste besvaras innan vi kan ta ställning till om det finns en praktisk användning av ”fusk forskningen” vid urvalsbeslut. Innan jag går igenom forskningsresultat vill jag säga att det är ett problem när folk fuskar, inte bara i ett personlighetstest, utan i alla sammanhang.

Rakt till problemet. Arne och Beata har svarat på ett personlighetstest när de sökt samma jobb. Arne har fått 5 poäng på målmedvetenhets-skalan och Beata har 9 poäng på samma skala. Men frågan är om Beata har fuskat och skönmålat sitt resultat och Arne har varit ärlig? Om Beata skulle få jobbet baserat på resultatet, då är det ju fusk?

Men för att besvara den frågan måste två saker uppfyllas;

Det finns en metod för att upptäcka fusk

Det finns en metod för att korrigera resultatet

Forskningen ger ett glasklart svar på första frågan, NEJ det finns idag inte en säker metod för att upptäcka att en individ fuskar.

Och eftersom det är ett FETT NEJ på första frågan så blir det problematiskt att göra något åt den andra frågan, eller hur? Om du inte kan vara säker på vem som fuskar så blir det problematiskt att göra något åt det.

Onekligen finns det en hel del personlighetstest som ändå försöker komma undan med att man har någon form av ”lögn skala”. Om det nu inte finns en 100% säker metod att upptäcka om någon fuskar på ett personlighetstest betyder detta att korrigeringen kan göra att oskyldiga ”döms”. Dvs om jag har varit ärlig och upptäcks av en lögnskala så kan mina resultat korrigeras så att jag inte får jobbet. Endast en liten chans att detta sker är en ”rättsskandal” om man översätter denna situation i juridiska termer. Personen är som bekant oskyldig tills motsatsen bevisats. Det finns också en lite ideologisk frågeställning här, om testleverantören har en ”lögn skala” betyder det att testleverantören misstänker att du fuskar, detta är inte en särskilt sympatisk framtoning i urvalsprocessen.

Så hur ser det ut i praktiken då. Jo, många test innehåller dessa sk lögnskalor som på något sätt i första steget ska upptäcka fusk och sedan föreslå att resultatet korrigeras på något sätt.

Ett första exempel är att skalan har ett gränsvärde, kommer kandidaten över detta gränsvärde är resultatet ej tolkningsbart, kandidaten har således inget resultat på testet .

Ett annat exempel är att det finns en eller fler lögnskalor bland item du svarar på och per automatik så korrigeras resultatet (med en statistisk ekvation) så att ditt resultat blir ”mer korrekt”.  Detta är inte konstigare än att ditt höga resultat på en skala sänks med ett antal poäng, eftersom du varit ”oärlig” får du ett straffvarv och hamnar längre ned i resultatlistan. Ju mer du fuskar desto längre ned i listan hamnar du.

Ett tredje exempel är att resultat du uppnår når ett visst gränsvärde som anges i manualen, och då ska ditt resultatet tolkas med försiktighet, vad nu detta betyder!

Alla dessa förslag på lösningen är som ni förstår inte relevanta eftersom det inte idag finns en metod att upptäcka fusk. Så i praktiken skulle vi kunna rangordna leverantörer hur bra de är att upptäcka fusk, de som säger sig klara detta till 100% ljuger mest.

Nedan kommer några rekommendationer för er som testar personlighet.

  1. Fuskskalor bör inte användas (i varken forskning och praktik), dessa skalor oavsett vad de heter (lögnskalor, skönmålning, social önskvärdhet) gör mer skada än nytta i ett personlighetstest.
  2. Om man misstänker att en individ att ha fuskat, testa om personen igen istället för att korrigera resultatet på något sätt.
  3. Praktiker gör bättre att försöka förhindra fusk innan personlighetstestet administreras (tydliga instruktioner, testning under kontrollerade former, omtestning, testa med andra metoder för att verifiera resultat) istället för att jaga fuskare.
  4. Det är bättre att använda personlighetsskalor för ”screen out” istället för ”screen in”. Dvs ha ett lågt gränsvärde, det är osannolikt att ”fuskare” finns kring medelvärdet och under.

En annan intressant vinkling är det faktum att många testleverantörer som nyttjar lögnskalor säger till kandidaterna att det inte finns ett rätt eller fel svar i på frågorna, men det är ju inte sant om det finns en lögnskala som ”rättar” ditt resultat.

Mitt råd är, använd personlighetstest för att ”screen out”. Lär er leva med att människor säger i allmänhet att de är lite bättre än vad de är, det är en mänsklig sida som finns och inte går att korrigera med statistiska metoder.

Och framför allt, använd, förutom ditt peronlighetstest andra reliabla och valida urvalsmetoder för att ta rätt beslut.

Referens

Ziegler, M., Maccann, C., & Roberts, R.D. (2012). New perspectives on faking in personality assessment. Oxford.

Det senaste inom organisationspsykologi, kolla in SIOP Professional Practice Series

Om ni vill uppdatera er kunskap för att bli bättre på organisationspsykologi rekommenderar psychometrics.se att ni tittar närmare på denna bokserie, en av de bästa källorna för att skapa er den absolut senaste kunskapen inom området.

THE PROFESSIONAL PRACTICE SERIESWiley

The Professional Practice Series är sponsrad av The Society for Industrial and Organizational Psychology, Inc. (SIOP). Serien publicerades första gången 1988 för att på ett professionellt sätt sprida god forskning och praktik till olika yrkesgrupper. Professional Practice Serien fokuserar på dessa områden

Praktisk grund på vetenskapliga studier

Översätta organisationspsykologisk vetenskap till praktik genom att ge nua ”guidelines”, principer and lärdomar som kan forma och vägleda praktiker. 

Lösa organisatoriska problem.

Dokumentera och visa ”industrial and organizational-based practices”.

Stimulera ny research inom området.

Sammanfattningvis

”The volumes seek to inform those interested in practice with guidance, insights and advice on how to apply the concepts, findings, methods, and tools derived from industrial and organizational psychology to solve human-related organizational problems”.

Dag 3 SIOP 2013

HAWAI SIOP 2014

Med raska steg gick jag idag på morgonen till den en första session som var ett seminarium om ”New insight into personality test faking: consequencies and detection”. Alltså här skulle man få ny insikt, går det att hitta fusk när man testar personlighet? Och framför allt vad ska jag göra då?

Men nej det var inga nya insikter. Och inte heller de poster jag tittade på verkar hitta ett svar. Forskningen är totalt splittrad och den mesta tilltron nu verkar vara att forskarna skulle hitta ett sätt genom avancerade statistiska korrektioner, särkilt verka item response theory vara ett sätt att ta reda på om du fuskar när du svarar på frågorna. Själv tycker jag att 90% av forskningen vilar på ett horribelt antagande, ATT DET FINNS EN SANNING, en personlighetstest som är mer eller mindre tillförlitlig (förutom den reliabilitet och validitet som finns rapporterad i manulen). Eftersom detta antagande görs i de flesta studier så har jag svårt att hänga på. Håller med Bob Hogan, ”it is part of the construct”

Istället vandrade jag vidare till ett sk utbildningsseminarium som skulle handla om bifactor analys av personlighetsdata. Michael Biderman höll en inspirerande föreläsning under nästan två timmar (utan paus). Även om det inte var något som var särkilt nytt för mig var det oerhört intressant att höra om hans forskningsresultat. Bifactoranalys är den analys jag själv använt, och många andra, vid studier av intelligens. Han hade gjort samma sak på Big Five och funnit att mycket av den variation som finns i ett Big Five test kan samlas till en gemensam faktor. Detta brukar ”fusk” forskarna tolka att det är en sk halo faktor och inte ”riktig variation”. Biderman kunde i studie på studie visa att denna generella faktor istället hade positiva samband med externa kriterier, bland annat arbetsprestation som var högre i jämförelse med det man funnit på Big Five nivå. Hade en pratstund med Michael efteråt  och berättade bland annat om att Bifactor modellen är väl använd i Sverige, och gav exempel på ett sådant test som utvecklats inom den militära forskningen i Sverige, Command Trait Inventory (CTI) som används vid urval för officerare. Vi bytte visitkort så förhoppningsvis kommer ni höra mer från hans forskningsgrupp i framtiden.

Efter lite möte och pratstunder med test publishers och hamnade jag avslutande på ett tema som funnits förut på SIOP ”Robots and Fortune Tellers: Realities of Making Selection Decisions. Ett känt tema där förespråkare för att holistisk synsätt kämpade hårt i en timme med att kasta ur sig argument för att komma runt det faktum att forskningsresultat talar emot dem. Av någon outgrundlig anledning kom diskussionen delvis handla om development iställer för selection (vilket titeln säger) där en person i panelen (jag satt längst bak så jag såg inte vad han hette) att det kanske funkar i en feedback-process att skruva lite på resultatet, de som har bra resultat sänks lite och de som har dåliga resultat höjs lite. Varför det skulle vara bra framgick inte! En annan person i panelen sa att en orsak till att det finns så ”mycket tolkning” i personlighetsformulär är att test-publishers vill sälja fler rapporter och att kandidaterna vill ha mer information om sig själva (även om den inte är reliabel, min kommentar). Tangerar lite min syn på det, alla dessa rapporter man får ut från olika personlighetstest, vilken nytta har det egentligen?

Sedan tog jag en tur och shoppade, för att nu vänta på mitt flyg hem till Sverige. Och efter tre ytterst intensiva dagar kan jag inte avgöra om var på min SIOP skala (0-10, medel 5 och SD 2) detta års utgåva hamnar (har ett gäng rapporter att läsa på hemvägen), dock vet jag att jag siktar på att åka till Hawai nästa år!

Goodbye Houston

 

Det här hände dag 2 på SIOP

bild Hilton

Denna dag började med att jag deltog i en paneldiskussion där jag representerade den svenska synen vad som är bra med ISO 10667 ur ett ”selection” perspektiv. Andra i panelen var Dave Bartram (UK), Nancy Tippins (US) och Peter Macqueen (Australien). Moderator var Rosalind Searle.

Panelen kunde konstatera att det finns ett stort intresse för ISO 10667, men att intresset är fokuserat på Europa, mycket tack vare Toni Ahlströms perspektiv att starta en LinkedIn grupp (Tack Toni från hela panelen). Det rör på sig när det gäller certfieringssystem där UK och Norge ligger längst fram. Fördelar och nackdelar med en certifieringsordning diskuterades samt en förhoppning från några i publiken att standarden skulle vara gratis istället för att som idag kosta en hel del pengar. Inte minst från studenter blir det ett hinder att de måste betala för standarden konstaterades. En utmaning är också att få båda delarna av standarden att leva, när certfieringstinstituten i Norge och UK nu drar igång är det endast del 2 (krav på service provider) som är i fokus, detta tycker jag är olyckligt, det är två parter i processen och det bör uppmärksammas av certifieringsinstituten.

Efter detta presenterade jag, tillsammans med Kristina Langhammer resultatet av urvalsgruppens studie om beslutsfattande bland svenska rekryterare (se tidigare inlägg). En hel del intresserade kom förbi för att titta på vår poster. Vid samma postersession träffade jag också Bennet Postlethwaite som forskar om intelligens, utbildningsprestation och arbetsprestation (se tidigare inlägg). Jag berömde honom för en ytterst intressant avhandling och han lovade att skicka mig en kort sammanfattning av vad han kommit fram till. Jag nämnde också att en av mina doktorander (Stefan Annell) har data som delvis kan testa Bennets idéer om vilka test som är bäst prediktorer.

”Big data” är ett stort ämne på SIOP i år, dock är det svårt att förstå vad som egentligen är nytt, som researcher har det alltid varit så att ”big data” är bra så länge du har bra mått en god teori att testa. På seminariet ”BIG DATA: A Big Opportunity for Industrial and Organizational Psychology” (ca 450 åhörare i publiken) gav Todd Carlislie från Google exempel på hur de med data på sina anställda både ändrat deras kostvanor samt kunnat förutsäga vilka som kommer att lyckas vid anställningar. Dessutom hade de förändrat sin belöningsmodell efter att man gjort experiment på anställda där de fick välja mellan olika alternativ att bli belönade på. Google är ett exempel på en organisation som lyckats på grund av ett analytiskt tankesätt som bygger på data, inte intuition.

En alltid lika rolig Eugene Burke från SHL förklarade för oss i publiken hur de nyttjar deras databas med 4 miljoner personerns testresultat, men påpekade att för att få gehör för sina resultat har du fem minuter på dig att presentera resultatet för beslutsfattare i organisationer, har du inte övertygat dem då så är det kört. Eugene kunde också ge exempel på där man hjälpt en organisation att hitta talanger inom egna ledet, trots att de själva var 100% övertygade om att de inte hade de talangerna fanns framför näsan på dem.

Det är en skillnad hur olika grupper av analytiker (psykologer attackerar data), psykologer har ofta en teoretisk utgångspunkt när de börjar analysera data, medan statistiker kör mer teorilöst, fördelar och nackdelar med dessa synsätt diskuterades, konstaterade hela panelen.

Janet Manzullo från Time Warner har med hjälp av analys av stora datamängder en konstant levererans av beslutsunderlag som stödjer deras chefer att ta beslut baserat på empiri. Debora D. Mitchell från företaget Sprint har kunnat identifiera att 37% av högpresterare lämnar urvalsprocessen innan de blir erbjudna jobbet, med andra ord företaget tappar talanger under urvalsprocessen. Hon berättade också att deras resultat säger att en bra prediktor till om anställda sa upp sig från Sprint var helt enkelt var de bodde!

Jag avslutade eftermiddagen med att sitta i ett möte med den nya ”Editorial Board” för SIOPs egna bokserie SIOP Professional Practice Series.

Good night Houston

SIOP 2013 en rapportering efter första dagen

generalbadge siopIdag startade SIOP.

Dagen startade med den traditionella öppningscermonin. Där utdelades pris för extraordinera prestationer under många års forskning. Där fick bland annat Nancy Tippins pris för ”Distinguished Professional Contribution”. Nancy var bland annat en av pionjärerna på datorbaserad testning långt innan det var känt i Norden. Nancy är en av två medförfattare till den bok som jag använder i min undervisning om evidensbaserat urval och Nancy var också med i den grupp som utvecklade ISO 10667. Nancy är inte bara en bra författare forskare och praktiker, hon är också en väldigt trevlig person, grattis Nancy.

Ordförande för SIOP påpekade i sitt tal till ca 4000 åhörare vikten av att vi som är här ska föra ut resultat av forskningen till den praktiska verkligheten och att SIOP ska vara en organisation som befinner nära den praktiska tillämpningen av god forskning.

En forskare till som jag inspirerats mycket av är Wayne Cascio, han fick priset ”Distinguished Scientific Contribution”. Wayne har bland mycket annat varit en förespråkare att införa nyttotänkadent (utility) vid valideringsstudier och har skrivit bra läroböcker om detta.

Av första dagens symposier som jag hann besöka (det är en hel del att välja på) var det någras saker som stack ut.

På det första seminariet jag var på diskuterades urval inom utbildning. Det första exemplet beskrev Sheldon Zeneck en väldigt ambitiös valideringsstudie bland jurister (blivande advokater) där både prediktorer (nya test) och nya kriterier i form av beteenden undersöktes för att utröna om hur nya mått på personlighet, värderingar och beteenden kan förutsäga vem som blir bäst advokat. Resultatet visade att både personlighet och värderingar kartlagda med dessa test ger tilläggsvaliditet utöver de kognitiva test som används idag. Presentationen var ganska kort, ca 12 minuter så jag hade en kort pratstund med Sheldon efteråt, där han berättade att projektet lades ned och dessa prediktorer används inte idag. Så tyvärr ytterligare ett exempel på där en god valideringsstudie inte kommer till praktisk användning!

Patrick Kyllonen berättade om ett instrument som utvecklats för att välja ut studenter från grundutbildning till vidare studier. Det bygger på att andra studenter bedömer varandra i konkreta beteenden (hålla deadline, förmåga att jobba i team, trevliga i klassrummet). Kyllonen visade på de psykometriska egenskaperna i testet som visade vara goda, och han lovade att nästa år komma tillbaka (SIOP är då på Hawai!) och redovisa valideringsdata, dvs om det funkar. Wayne Camara avslutade med att säga att det är svårt att få ut dessa resultat inom det amerikanska utbildningsväsendet, det finns en tradition i USA att endast använda kognitva test, som är varianter på vårt högskoleprov, på de flesta skolor. Wayne menade att forskare från detta område (I/O) har mycket att lära ut till skolor i USA.

I det andra seminariet jag var på diskuterades metodfrågor i form av myter som finns inom vårt forskningsområde. Den första talaren Scott Donidandel berörde en av den vanligaste frågan jag får på universitet, hur många personer behöver jag i min undersökning för att besvara min forskningsfråga? eller frågan jag kan få från testkonstruktörer, hur många behövs det för att göra en normgrupp? Svaret som jag ger lyder; allt annat lika så många som möjligt. Detta är inget bra svar, det krångliga svaret är då att göra en power analys, som är en ganska krånglig historia, vilket leder till att olika tumregler utvecklats under tiden, dock finns det inget konsensus om dessa regler. Att göra en power analys bygger på att räkna ut hur många personer man behöver för att resultatet ska ”bli signifikant”. Scott avslutar med med att detta i praktiken ofta är en irrelevant fråga, istället är vi i praktiken intresserad vilken effekt jag får av tex av ett urvalstest? eller hur osäkra kan normerna vara? Svaret är då att använda konfidensintervall, har du få personer blir ditt mått på effektivitet osäkert, har du många personer i analysen blir du säkrare på effekten. Ganska självklart, men bra att bli påmind om.

Neil Scmitt berörde ett ämne som jag stött på på som testutvecklare, när är vi nöjda med att ett instrument (ett psykologiskt test) har samma psykometriska egenskaper i olika grupper (tex språkversioner av personlighetstest). Det finns en hel del avancerade statistiska metoder som ofta visar på signifikanta skillnader på item nivå, men det finns nu också en hel del forskning på att dessa skillnader är så små att de i praktiken inte betyder något för beslut som ska tas efter att ett test genomförts. Själv har jag länge varit skeptisk att övertolka dessa skillnader. Så här fick jag stöd för min hypotes.

I det tredje seminariet jag var på samlades meriterade forskare och praktiker för att diskutera gapet mellan forskning och praktik. Leaetta Hough började med att säga att det inte behöver vara en konflikt vi har helt enkelt valt att ”use scientific models to solve practical questions”. Det blev sedan en ganska förvirrad diskussion om vad som egentligen var problemet. En student frågade vad panelen hade för förslag hur hon skulle tänka kring att bli forskare eller praktiker, där Morton McPhail mycket bra konstaterade, att det är fel ställd fråga du kan vara forskare (använda scientific models) men arbeta praktiskt. Vilket också var Elaine Pulakos egna syn på det hela; att efter en längre tid arbetat inom forskningen och där hon nu jobbar idag med praktiska situationer som assessement ansvarig på PDR, an SHL company, så använder hon samma tankesätt, Men hon tillade att forskningen har inte svar på allt inom vårt område, men det är inte heller någon som sagt (min kommenter).

Det fjärde seminariet var en paneldiskussion om ”executive assessment”. Tre praktiker inom DDI (som är en jättestor konsultfirma här) diskuterades fakta att trots att så mycket assessment görs är de flesta missnöjda hur ledare fungerar i organisationer. En diskussion där mycket handlade om att desto mer information man får om ledaren desto bättre beslut tas om ledarskapsträning. Scott Highhouse påpekade att på detta forskningsområde har inget hänt på 40 år och hänvisade till forskning på 70-talet som visade, 1) att det verkar finnas en g faktor av ledarskap och 2) det är bättre att summera upp alla de assessment som genomförs än att hålla på att subjektivt försöka vikta det på olika sätt. En ganska svag diskussion där inget nytt kunde presenteras.

Over and out from Houston

 

 

 

 

 

Psychometrics program för SIOP 2013

28th Annual Conference. Society for Industrial and generalbadge siopOrganizational Psychology (SIOP).

På Torsdag börjar den kanske mest intressanta kongressen om året för oss som arbetar inom ämnet arbetspsykologi. SIOP detta år går av stapeln i Houston, Texas. Årets program är mycket intressant läsning. Efter en första genomgång har jag satt upp ett preliminärt schema att gå på. Det betyder att jag valt bort en hel del intressant som jag hoppas mina kollegor kan täcka upp för. Förväntar mig som vanligt att komma tillbaka från SIOP med den senaste informationen om senaste nytt inom forskning och praktik avseende bedömningstjänster i arbetslivet.

My Preliminary Program this year

Session Title

Opening Plenary Session

Of Course It Was! Emphasizing Intuition in Dual-Process Organizational Decision Making

Dark Organizational Climates and Cultures

A Model for Teaching Individual Assessment in Doctoral I-O Programs

Scientist–Practitioner Divide: Try to Eliminate or Accept as Inevitable?

The Science and Practice of Social Media Use in Organizations

Normality of Job Performance: A Reply to O’Boyle and Aguinis

Is Overprediction of Black Performance an Artifact of Observed Validity?

A Meta-Analysis of the Criterion-Related Validity of Physical Ability Tests

Institutional Versus Individual Decision Models for Assessing Test Utility

Differences in Worldwide Selection Practices: The Impact of an International Standard on Assessment

Genes and Jingle-Jangle: Embracing and Evaluating New Personality Research

Individual Psychological Assessment: Integrating Science and Practice

Big Data: A Big Opportunity for Industrial and Organizational Psychology

The Topography of Performance: Maximum, Typical, and Dynamic Performance

Creating Synergies: Competency Models to Develop and Integrate HR Systems

Practical and Legal Considerations for Alternative Validation Processes in Organizations

Steve Jobs’ Leadership Style: Good or Not?

New Procedures for Measuring Correlation: Introducing MIC and MINE

New Insights Into Personality Test Faking: Consequences and Detection

Common Method Variance Biases: Evidence and Remedies

Need for Autonomy and Resistance to Standardized Employee Selection Practices

Destructive Leadership: A Holistic View for Minimizing its Toxic Influence

OCB: Exploring New Directions in Multilevel, International Contexts

Turn Skeptic Into Champion: Demonstrating Business Impact to HR

Closing Plenary Session

 

 

 

 

 

Psychometrics i Personal & Ledarskap

pl_400_3Majoriteten av de som testar kandidater med arbetspsykologiska test använder inte resultatet alls. Det menar Anders Sjöberg, docent i psykologi, som är mycket kritisk till hur urvalsprocesser vanligtvis går till.

– Gapet mellan forskning och praktik är enormt stort, säger Anders Sjöberg, docent i psykologi. Valideringsresultat och praktisk användning av test är helt olika saker idag, tyvärr.

Användare av arbetspsykologiska test vill att de ska vara så vetenskapligt tillförlitliga som möjligt. Assessment-barometern bekräftar att validiteten är av hög vikt när man väljer test. Anders Sjöberg, docent i psykologi vid Stockholms universitet, menar att många ändå kastar pengar i sjön och ödslar med kandidaternas tid eftersom de inte använder testen på rätt sätt.

– Att säga att validiteten är viktig när man inte fattar några beslut med vägledning av ett testresultat är ett cirkelresonemang. 80-90 procent av de som köper test i dag använder inte testresultatet till urvalsbeslut, enligt min uppskattning. De skulle egentligen kunna strunta i att göra testet, det skulle både spara massa pengar och tid för kandidaterna, säger han.

Anders Sjöberg är en av Sveriges främsta experter på arbetspsykologiska tester. Han har en bakgrund som testutvecklare på ett stort testföretag och var ordförande i den svenska grupp som bidrog till ISO 10667, standarden för bedömningstjänster i arbetslivet. Som forskare och genom sin kontakt med organisationer i det egna företaget Psychometrics har han gång på gång förundrats över hur testresultat används – eller snarare inte används – i rekryteringsurval.

– Man rekryterar i stället genom en mängd osystematiska metoder. Så fort testresultatet behandlas kliniskt – det vill säga att jag tittar på det och väger in annat, som dina referenser, att du är en väldigt trevlig person, verkar ha rätt värderingar och så vidare, så viktas testresultatet längre och längre bort från beslutet. Detta gör att valideringsstudier är helt ointressanta att diskutera innan en organisation kan visa hur man använder ett testresultat.

Anders Sjöberg vill alltså att vi ska sluta prata om hur tillförlitliga tester är – det är en ickefråga i dag då alla ledande seriösa leverantörer minutiöst kan redovisa hur träffsäkra deras test är – och i stället börja prata om hur vi använder dem i en beslutsprocess.

– Om rekryterare ska få en mer professionell stämpel gäller det att bli mer transparenta när det gäller hur de lägger ihop informationen från alla källor, inklusive test. Det räcker inte att säga att de görs en ”helhetsbedömning”. De företag som på ett tydligt sätt kan redovisa hur och varför urvalsbeslut tas kommer i framtiden var de förtag som är bäst på rekrytering och samtidigt bidrar till att diskriminering minskar i Sverige.

Läs hela intervjun och mer om arbetspsykologiska test i P&L nr 3/2013.

Personlighet och team: vad säger forskningen?

grupp 3Personlighet-arbetsprestation sambandet undersöks ofta genom att personlighets -testa individer och sedan relatera resultatet till individuell arbetsprestation, ofta bedömd av närmaste chefen.

Men ibland är inte den individuella prestationen i fokus, istället kan intresse vara prestationen av en grupp. En vanlig tanke som jag ofta hör är att anpassa urvalet av individer så att de passar ihop i det team de ska arbeta i. Detta betyder att det skulle vara är en fördel att få en heterogen grupp där personers olika personlighet kan komplettera varandra för att maximera grupp-prestationen, men stämmer verkligen detta?

I en meta-analys (Bell, 2007) testas bland annat denna sk heterogenitets-hypotes. Denna hypotes går ut på en grupps maximala prestation uppnås om variationen i gruppens personlighet är stor. Eller, om samma personlighet finns i gruppen blir det ingen dynamik, och då sjunker hela gruppens prestation.

Resultatet av analysen av fem faktormodellens relationer visar att det inte finns stöd för heterogenitets-hypotesen. Ingen av faktorerna Stabilitet, Extraversion, Öppenhet, Sympatiskhet och Målmedvetenhet variation bidrar till prestationen i gruppen. Däremot visar studien att prestationen blir hämmad att ha en person med låg sympatiskhet i gruppen, då sjunker prestationen betydligt. Anledningen till att en person med mycket låg sympatiskhet inte fungerar i gruppen kan vara att hen är skeptiskt inställd till sin omgivning och antar lättare ett alltför kritiskt synsätt mot andra i gruppen. Dessa personer kan också vara stridslystna och hårdhudade, vilket inte främjar gruppdynamiken.

Så, svaret är nej, stöd finns inte för att en heterogen grupp presterar bättre i jämförelse med en homogen grupp avseende personlighet.

Däremot finns det stöd för att välja målmedvetna och känslomässiga stabila personer, dessa bidrar till gruppens goda prestation. Med andra ord, en grupp med bara personer som är stabila och målmedvetna är presterar sannolikt bra. Detta betyder att det som visat sig i forskningen tidigare, nämligen att målmedvetenhet och stabilitet utgör viktiga egenskaper för arbetsprestation, även gäller för team. Dessutom är det bra att ha begåvade människor i gruppen, allt enligt forskningen.

Referens

Bell, S. T. (2007). Deep-level composition variables as predictors of team performance: a meta-analysis. Journal of Applied Psychology, 92, 595-615.

Aspiranza sertifisert av DNV Business Assurance

Aspiranza_R_ORIG

Som det første rekrutteringsselskapet i verden ble Aspiranza den 19. mars 2013 sertifisert av DNV Business Assurance etter den nylig lanserte standarden ISO 10667 Levering av vurderingstjenester – Prosedyrer og metoder for vurdering av personer i arbeids- og organisasjonsmessig sammenheng. I praksis betyr dette at Aspiranzas rekrutteringsprosess; Spesifikasjon, Søk, Seleksjon og Støtte/Oppfølging har blitt sertifisert av DNV.

Les videre

Aspiranza homepage

 

TESTDAGEN 27 maj 2013

Dave Bartram 3webbTema: Rationellt och kulturellt urval/rekrytering. Plats: Operaterrassen, Karl XII:S torg Stockholm. Datum: 27 maj

Mer information

KEYNOTE Dave Bartram

Personality at the country level: The Big Five, culture and international competitiveness

Dave Bartram Chief Psychologist for SHL Group Ltd. Prof Bartram will talk about personality data considered at the level of countries rather than individuals. He will summarise some large international studies using OPQ32i and OPQ32r data which show very strong correlations between the Big Five and Hofstedes cultural dimensions, measures of global competitiveness and other country-level performance measures. The analyses show that while relatively small amounts of variance (around 7%) are accounted for by differences between countries this between-country variance is very stable across samples and strongly related to other criteria, indicating that country differences in personality reflect real differences and are not due to bias or test adaptation effects.