Minnesanteckning om Tarde – DeFleur och Asplund

Jag sitter för närvarande och läser in mig på det sena 1800-talets sociologi, framförallt för att försöka få ett slags helhetsgrepp över de svarta hålen som avgör hur denna tid senare har kanoniserats.

Eftersom jag är en slarvig person som lätt tappar bort mina utskrifter lägger jag en minnesanteckning här på bloggen.

1970 skriver kommunikationsvetaren Melvin DeFleur en recension av Gabriel de Tardes nyligen översatta On Communication and Social Influence. Recensionen är kritisk, men ganska typisk för hur funktionalistiska (medie)-sociologer tänkte (och tänker). Motståndet mot Tarde är i grund och botten Durkheimianskt. Några citat:

If one is looking for ideas that will aid in developing conceptual frameworks or research designs that will be applicable to modern problems, then the work has very
limited value
/…/
… one cannot help comparing the latter’s [Tarde’s] work with that of his arch rival, Emile Durkheim. The impressive mobilization of evidence and the relentless logic of Le Suicide, for example, stand in sharp contrast to the rambling and vague discourses of Tarde.

De funktionalistiska amerikanska medievetarna var troligtvis ganska infångade i ett Durkheimskt systemtänk, något som Johan Asplund kommenterar i Det sociala livets elementära former:

Attitydmätning och opinionsundersökning kunde ha inspirerats av Tarde, men torde i realiteten ha uppstått och utvecklats av andra skäl. Ett begrepp som ”korstryck” framstår som nytt i amerikansk efterkrigssociologi, men det hade faktiskt formulerats av Tarde redan på 1890-talet. Den så kallade tvåstegshypotesen om kommunikation och påverkan formulerades likaledes i ovetskap om Tardes tidiga idéer om samma fenomen. Erving Goffman, slutligen, torde vara lyckligt ovetande om att han framstår som samma andas barn som Tarde (157)

Asplunds referat av Tarde är intressant, även om jag är lite skeptisk till hans försök att relatera till ett sociologiskt ”tänkande”. Asplund skriver exempelvis att Tarde går att uppfatta som ”socialpsykolog”, vilket jag tror är alldeles för begränsande. Tarde skulle lika gärna gå att läsa som en makrosociolog som en mikrosociolog. Att Tarde ens skulle erkänna att mikro och makro är giltiga distinktioner är tveksamt. Asplund skriver vidare:

Tarde avvisade fysiska och biologiska förklaringar av sociala fenomen. På så sätt och vis avvisade han faktiskt också psykologiska förklaringar. Han ansåg, i likhet med Durkheim, att sociologin har sitt eget karakteristiska studieobjekt. Detta studieobjekt utgörs av vad han kallade för den ”inter-mentala” sfären, av det som finns ”i” indivuduella psyken, utan snarare av det som finns mellan individuella psyken. (158)

Detta är antingen en grov anpassning till standardsociologisk tolkning eller så är det direkt felaktigt. Tvärtom skulle jag argumentera att Tarde är den artonhundratalssociolog som verkligen tar fysiken och biologin på allvar i relation till sociologin! Förvisso avvisas tanken om att sociologin har som uppgift att
efterhärma naturvetenskaperna i den mening att man söker efter enkla, isolerade kausala egenskaper (vilken naturvetenskap som nu är så enkelspårig vet jag inte). Istället kan man argumentera att Tarde vill lägga sociologin på samma nivå som naturvetenskaperna. Ett belysande citat ur The Laws of Imitation lyder:

And now my readers will realise, perhaps, that the social being, in the degree that he is social, is essentially imitative, of heredity in organic life or to that of vibration among inorganic bodies. If this is so, it ought to be admitted, in consequence, that a human invention, by which a new kind of imitation is started or a new series opened, – the invention of gunpowder for example, or windmills, or the Morse telegraph, – stands in the same relation to social science as the birth of a new vegetal or mineral species /…/ to biology, or as the appearance of a new mode of motion comparable with light or electricity, or the formation of a new substance, to physics or chemistry. (11-12)

Ytterligare en passage hos Asplund som jag är skeptisk till är när han skriver ”Vi bör inte främst fästa oss vid den extrema idealismen i Tardes framställning. Det i sammanhanget viktigaste är inte att Tarde låter det sociala livet utspelas i en idévärld” (163). Att Tarde skulle vara idealist är gravt missvisande och motsägs av Asplund själv när han referrerar L’Opinion et la foule:

Vad handlar den allmänna opinionen om? Tardes svar lyder, såvitt jag kan se: den handlar om det som råkar stå i tidningen. Det vill säga: den handlar om vad som helst. (163)
/…/
Den opinion som utbildas i en publik förutsätter följaktligen heller inte att publikens medlemmar sinsemellan utbyter åsikter. Det räcker med att alla är kopplade till samma massmedium: pressen. (166)

Precis. Mediematerialism om något. Det är inte innehållet (”idéerna”) som sätter konturerna för opinionen utan mediet. Idag skulle vi kanske svara att opinionen är vad som skickas i fiberledningen, vad som sänds i etern, eller varför inte vad som skrivs i tidningen. Man skulle lika gärna kunna säga att Tarde föregriper McLuhan med ett halvsekel. Google vet att opinionen är det som finns (delvis) i fiberledningarna, det är just därför de vill veta så mycket som möjligt därom.

Detta om DeFleur och Asplund. Poängen var inte att gå till angrepp mot deras Tarde-läsningar, utan snarare att samla anteckningar som leder vidare till en ny Tardeläsning.

Flattr this!

Pfannenstill: postskriptum

För de troligtvis ganska få läsare som intresserar sig för samhällsvetenskapernas historia kan jag bjuda på en kort uppföljning om Bertil Pfannenstill.

För i tiden gick det ju lite vildare till på universiteten och professorer kunde ”inkompetensförklaras”. Detta hände med Pfannenstill, dock orelaterat till ”tattarundersökningen” som jag skrev om i den tidigare posten. Istället skulle det delvis handla om hans bok Sociologiens grundförutsättningar.

1989 gjordes en intervju med Pfannenstill, som återfinns i boken Den svenska sociologins födelse av Bengtsson och Molander (1998). Följande citat tål att skrivas ut:

Anders Molander: Du sökte den första professuren i sociologi i Lund [ca. 1959], men Gösta Carlsson blev satt i första rummet.

Bertil Pfannenstill: Förutom Gösta Carlsson och jag sökte även Georg Karlsson och Börje Hansson tjänsten. Jag blev satt i första rummet av professor Wikman från Åbo och inkompetensförklarad av Boalt och [Torgny] Segerstedt.

Jan Bengtsson: Inkompetensförklarad?

Bertil Pfannenstill: Ja, just det. Så gjorde Uppsalafilosoferna. Jag förstår väl inte varför Segerstedt gjorde det. Han hade sagt att han inte skulle göra det. Det var för övrigt han som hade sagt att jag skulle söka professuren i Stockholm. […] Både Wedberg och Hedenius hade inkompetensförklarat mig, och då kunde inte Segerstedt senare kompetensförklara mig. Han skrev visserligen positivt om avhandlingen på sitt sätt, medan Boalt gick till hårt angrepp, särskilt mot Sociologiens grundförutsättningar. Om den boken menade han att den blott innehöll tokigheter. Han undrade till och med om en helt normal person kunde skriva sådant larv.

Nu har jag inte hunnit läsa Sociologiens grundförutsättningar, men anledningen till att Uppsalafilosoferna tyckte att den var ”larv” berodde på att den var teoretisk snarare än strikt empirisk.

Pfannenstill fick efter denna inkompetensförklaring nöja sig med att bli lärare på Folkhögskolan i Eslöv.

Flattr this!

1948 – Pfannenstill, "tattarna" och Borås

I mitt avhandlingsskrivande stötte jag på en massa trådar som inte kunde följas hela vägen ut. Jag antar att en avhandlings stora gissel är att man vill skriva för mycket och tvingas välja bort. En passage som dock endast figurerar som ett exempel i The Quantification of Society är sociologen Bertil Pfannenstills studie med titeln ”Tattarna – en sociologisk grupp och ett socialt problem”, publicerad som två artiklar i Statsvetenskaplig Tidskrift 1948. Eftersom jag endast omnämner den i korthet, kan det vara på sin plats att också sätta in den i ett annat sammanhang än min avhandlings snäva fixpunkter. Först ett introducerande självcitat ur avhandlingen:

Another case that clearly illuminates this strong state-science interface in this historical era is the work on the Romani minority by sociologist Bertil Pfannenstill (1948). During the spring of 1944, the National Board of Health and Welfare (Socialstyrelsen) commissioned a census of ”tattare”, a term for the Romani minority that is currently considered derogatory. According to the census, there were 8,000 ”tattare” living in Sweden. In this investigation, scientists were commissioned to conduct further research on this population. For example, racial biologists conducted ”anthropological” investigations of 60 individuals. However, these results were considered inconclusive […] (Kullenberg 2012: 181)

1948 utspelas även de så kallade tattarkravallerna i Jönköping, kravaller där både polisväsende och de tre tidningarna såg åt andra hållet medan en uppeldad lynchmobb kunde härja fritt i kristallnattsliknande misshandel och förstörelse. Om dessa händelser finns fortfarande några vittnen kvar, och det verkar som om det skrivs en avhandling om ämnet.

Men för att återknyta här till sociologin och vetenskapernas roll, är det intressant att se till Pfannenstills artikel. Efter det att Socialstyrelsen har fått i uppgift att registrera alla ”tattare” genom att skicka ut diverse lokala förmågor (oftast poliser) och producerat ett register på 8000 ”tattare”, lämnades frågan över till bland annat Rasbiologiska institutet i Uppsala. Professor Gunnar Dahlberg började mäta skallar på 60 individer, men lyckades inte hitta några signifikanta drag som skulle kunna definiera vad en ”tattare” egentligen var för något. Pfannenstill kommenterar:

Varför Dahlberg misslyckats i att över huvud taget göra en begreppsbestämning [av tattare] beror framför allt på att han uteslutande låtit den antropologiska synpunkten vara den avgörande. Även om tattarna ej utgöra en från den övriga befolkningen antropologiskt skiljbar grupp, kunna de dock utgöra en sociologisk grupp. Sociologiska skiljemärken få ej betraktas som mindre verkliga än de antropologiska. (p. 228)

Disciplinbeteckningen ”antropologisk” betydde vid den här tiden ”rasbiologisk” eller ”eugenisk”. Mot detta ställde Pfannenstill det sociologiska begreppet ethos och han var i viss mån influerad av Gunnar Myrdals studie An American Dilemma från 1944.

Pfannenstill definierar därefter sitt bredare syfte som:

[…] varför folk kommit att betrakta vissa släkter som tattarsläkter, är naturligtvis också en sociologisk fråga, som kräver sin lösning, om man vill göra allvar av alla de begrepp, som ligga i min defintion på tattre, och ur socialreformatorisk synpunkt gäller det sålunda att försöka förändra de betingelser – vare sig dessa äro rasbiologiska eller sociala -, som ligga till grund för uppkomsten av tattarsläkter, eller förhindra de icke önskvärda konsekvenserna av dessa betingelser.

Med denna oerhörda biopolitiska ambition ger sig sedan Pfannenstill ut för att göra sociologiska ”fältstudier”, vad vi idag skulle kalla ”kvalitativa intervjuer”, i staden Borås (en stad som några år senare skulle beforskas med helt andra metoder). En lång serie intervjuer genomförs, och Pfannenstill visar sakta men säkert att begreppet ”tattare” är mycket dåligt definierat både som ett vardagligt begrepp och som ett vetenskapligt.

I den andra delen av studien, börjar Pfannenstill ge sig in i att kommentera de olika åtgärder som föreslagits för att lösa ”tattarfrågan” som ett ”socialt problem”. Det förslag som vid denna tid sågs som helt legitimt, och som skulle komma att praktiseras fram till 1976, var tvångssteriliseringarna. Pfannenstill avvisade förslaget mycket bestämt:

En mycket pessimistisk syn på tattarnas anpassningsmöjligheter framträder i förslaget att låta sterilisering komma till flitigare användning för tattarna än för övriga befolkningsgrupper. Ett sådant förslag måste emellertid bestämt avvisas, ty som jag redan påpekat, är det många medlemmar av mycket ökända tattarsläkter, som äro på god väg att assimileras med den övriga befolkningen. (p. 316)

Eftersom Pfannenstill såg ”tattarnas” livssituation som i huvudsak orsakad av sociala faktorer, såsom fattigdom, alkoholism och utanförskap i förhållande till majoritetsbefolkningen, motsatte han sig dessa eugeniska metoder som antog att sociala egenskaper gick i biologiskt arv.

Pfannenstill avslutar sin artikel med att dra följande slutsats:

Det betyder, att man måste förändra såväl tattarnas livsföring som den övriga befolkningens attityd till tattarna. Kan man ej ändra tattarnas livsföring, har man ej heller stora utsikter att kunna ändra inställningen till tattarna, men kan å andra sidan ej denna inställning förändras, blir det svårt för tattarna att ändra om sin livsföring. (p. 335)

Att stoppa tvångssteriliseringarna blev inte av. Det rådde fortfarande politisk enighet i denna fråga. Inte heller fick Pfannenstill särskilt gehör för sin kanske för tiden radikala idé att även majoritetsbefolkningens attityder kunde spela in i att skapa ”sociala problem”.

Troligtvis är detta en av de första rent sociologiska undersökningarna av romer som gjordes i Sverige. Om man vill förstå de svenska samhällsvetenskapernas historia, måste man även betrakta dessa mörka episoder.

Flattr this!

Från Borås till Ohio

I mitt avhandlingsskrivande stöter jag ibland på diverse kopplingar som saknar direkt analytiskt värde, men som ändå har karaktären av på-spåretkunskaper. Denna lättsamma form av kunskap roar mig, speciellt när den handlar om diverse lantliga ställen.

Som läsarna av denna hemsida är väl förtrogna med, startade den akademiska valforskningen i Sverige 1954 för pilotstudier, och 1956 för nationella surveyundersökningar, något som tidigare endast genomförts av det privata företaget Gallup Sverige under 1940-talet.

1954 genomförde Jörgen Westerståhl och Bo Särlvik vad som i Tiden 1955:6 beskrivs som den första ”Lazarsfeldska” undersökningen. Paul Lazarsfeld hade under 40-talet genomfört en enkätstudie som kom att bli stilbildande, och som publicerades i boken The People’s Choice. Denna bok inspirerade Westerståhl och Särlvik och de körde med ungefär samma upplägg, dvs. panelstudier där man följde väljare över tid, samt att man studerade de olika källor för valpropaganda (press, radio, affischer, möten) för att sedan försöka mäta effekterna.

En skillnad ligger dock i att Göteborgarna använder sig av en mera raffinerad samplingsteknik, det slumpmässiga urvalet. Amerikanarna fick däremot nöja sig med stratifierade urval, troligtvis av praktiska skäl. I Sverige har vi ju både personnummer och en statistisk centralbyrå (redan innan den stora centraliseringen av statistik).

En följd av stratifierade urval är att man försöker finna ”miniatyrsamhällen” som kan beskriva större helheter. För Lazarsfeld et. al. föll valet på Ohio, närmare bestämt i Erie County eftersom ”for forty years in – every presidential election in the twentieth century – it had deviated very little from the national voting trends” (Lazarsfeld 1968 (1944), p. 3). Dock tilläggs brasklappen att ”because of the diversity of American life, there is no such thing as a ”typical American county””(Ibid).

Den största staden i Erie County är Sandusky. I allmänhet låter det som en ganska trist stad: ”The people depended on simple things for pleasures /…/ By and large, the people in Erie County gave the appearance of mingling without any great degree of ”class consciousness.”” (p. 11):

En rolig detalj är att stadsplanerarna var inspirerade av frimureri och drog vägar enligt kryptisk symbolism:

För göteborgsforskarna blev motsvarigheten för ett lantligt populationsurval inget mindre än Borås med omnejd:

Bild från Klubbmästerskapet i Bredared (utanför Borås):

Flattr this!

Sigmaformeln

Jag hittade sigmaformeln såsom den användes i de första Gallupundersökningarna för att beräkna ”felmarginaler” i kvoturval. I Sven O. Blomquists text Om opinionsundersökningarnas metoder från 1950. Att detta ej räknas som äkta felmarginaler, vilka förutsätter sannolikhetsurval, är oerhört spännande kring 1950.

Nu hitta miniräknare…

Uppdatering Jag fattar inte hur man skriver ut ovanstående formel i LaTeX. 3 sigma = 3 sqrt{p q over n} ger massa error, men ser ok ut i en kompilerad form.

Flattr this!

Felmarginaler och Sigmaformler

I en fotnot hittade jag en referens till en artikel i Dagens Nyheter från den 21 December 1948 (ovan). Under 40-talet gjorde Svenska Gallupinstitutet de första opinionsmätningarna i Sverige, och dessa intresserade såväl forskare som politiker.

Men, frågan som jag är intresserad av är hur man visste hur de fungerade. Förutom att de var gjorda enligt den amerikanska modellen som föreskrivits av George Gallup, så är alla undersökningar så att säga beroende av delvis ”externa” verifikationer, såväl som matematiska sätt att kontrollera huruvida datan är korrekt eller inte. Den externa verifikationen för politiska opinionsmätningar har länge varit de faktiska valresultaten, men för att det ska bli rätt, så är även de matematisk-statistiska av synnerlig vikt.

På 50-talet började Göteborgsforskarna med slumpmässiga urval. För dessa är det oproblematiskt att kalkylera felmarginaler, och idag är det en standardfras att säga att en surveyundersökning ligger ”inom (den statistiska) felmarginalen”.

Men 1948 var läget annorlunda. Svenska Gallupinstitutet hade kopierat den amerikanska modellen och gjorde istället kvoturval, istället för slumpmässiga urval. Då kan man inte kalkylera felmarginalen på samma sätt, eftersom populationen inte är ”äkta slumpmässig” (dvs. att alla analysenheter har samma chans att komma med i urvalet).

Istället, och här kommer mitt huvudbry, använde man sig av något som kallades för ”sigma-formeln”. Låt mig citera ur den lite suddiga bilden ovan (som jag scannat från mikrofilm på Kurs- och tidningsbiblioteket).

För de sedvanliga opinionsundersökningarna som i Sverige göres som styrda samplingar med 2.000 – 3.000 intervjuer, brukar från tid till annan anföras ur statistisk synpunkt nödvändiga reservationer för en felmarginal som beräknas efter den s. k. sigma-formeln. Även om de använda samplingsmetoderna icke tillåter en exakt beräkning av felmarginalen, synes den praktiska erfarenheten, icke minst från de svenska Gallupundersökningarna, peka på att vid alla de tillfällen är man kunnat göra jämförelser med känd statistik, felmarginalen visat sig uppgå endast till några få procent och oftast väl håller sig inom de av sigmaformeln tillåtna gränserna (2,5 – 3,5 %). För de allra flesta fall, när opinionsundersökningarna inriktar sig på att teckna utvecklingstendenser eller konturerna till vissa problem, saknar denna felmarginal praktisk betydelse.

När vi har hämtat oss från denna mycket vackra kaskad av ord, och den oerhörda formuleringen med avsaknad av verbet ”har” i ”felmarginalen visat sig uppgå…”, så kommer jag till min fråga: Hur beräknar man denna s. k. sigmaformel? Mina statistikkunskaper är bristfälliga, dock lärde jag mig att räkna felmarginaler på slumpmässiga urval en gång i tiden. Men hur gör man egentligen med dessa kvoturval? Jag kommer inte längre än till Wikipedia.

Fotnoten som jag hittade denna artikel via skrevs 1950 av Jörgen Westerståhl. Han själv genomförde som tidigare nämnt surveyundersökningar som var ordentligt slumpmässiga. Så kanske försvann Sigmaformeln ur samplingsförfarandena i Sverige (jag hittar dem iallafall inte i några akademiska undersökningar).

Flattr this!

Kostnader för survey-undersökningar

Just nu skriver jag empiriska kapitel i avhandlingen, varav ett av dem kan sägas handla om ”surveymetodens historia”. Djupt inne i metodkapitlena till diverse undersökningar finns här intressanta små svarta lådor som man kan följa fram och tillbaka genom historien. Ibland är metoder, mätinstrument och statistiska standarder oproblematiska, och ibland öppnas dessa upp på ett kristalliserande sätt.

Just nu läser jag med stor sannolikhet de första akademiska surveyundersökningarna av väljarbeteenden från 1954/1956, genomförda av Jörgen Westerståhl och Bo Särlvik. Tidigare hade Svenska Gallupinstitutet under 40-talet gjort en hel del mätningar, men dessa skiljer sig både metodologiskt (de hade kvoturval och inte sannolikhetsurval, exempelvis) och organisatoriskt (Gallup var ett företag).

Men mer om detta en annan gång. En detalj, som förvissor är organisatoriskt väldigt intressant, är vad undersökningarna kostade att genomföra. 1954 kostade en enkätstudie med besöksintervjuer som genomfördes lokalt i Göteborg och kringliggande landsbygd 14 950 kronor, vilket enligt SCBs prisomvandlare motsvarar 202 640kr i januari 2011. Men detta var endast kostnad för själva urvalet och intervjuerna som genomfördes av Statistiska Centralbyrån. Då räknas ej lönerna för forskarna in, som enligt arbetsrapporten Valundersökningen 1954 (Westerståhl & Särlvik, 1954 (opublicerad)) gjorde delar av studien som ”oavlönade seminarieuppgifter”.

Jag har vid det här laget läst oräkneliga metodkapitel. Där förekommer oerhört sällan några uppgifter om vad kostnaden för undersökningarna uppgick till. Vill man veta sådant, får man söka sig till annat material. Dock finns ett annat intressant fall som kanske tål att jämföras med. Den första SOM-undersökningen från 1986 kostade 200 000kr, vilket motsvarar 382 144kr i dagens penningvärde. Dock var detta å ena sidan en postalenkät, vilka är betydligt billigare, men å andra sidan innefattas i denna siffra troligtvis mer än bara urval och fältarbete (vilket även 30 år senare utfördes av SCB).

Just kostnadsfrågan är som sagt inte helt central i min avhandling, även om just priset motiverar att man hellre föredrar postalenkäter än ansikte-mot-ansikteintervjuer, framförallt under 1980-talet. Men, i jämförelsen mellan postalenkäter och andra enkäter finns det teoretiskt sett oerhört mycket mera intressanta saker än pengar att tala om. Vilket jag gör i avhandlingen… och kanske här på bloggen nån gång.

Nu åter till akademisk svengelska i dokumentet avhandling20111020.tex.

PS. Är det bara jag som tycker att omslaget till Valundersökningen 1956 (ovan) är sjukt snyggt??? Så vill jag layouta min avhandling! Och sätta den i A4. Kunglig vetenskap!

Flattr this!

How to study the social sciences, part VI

Time for another piece from my in-the-making dissertation, this time on the blackboxing of statistical measurements. It took more time than I expected, mostly because I had to struggle with statistics :D. Comments by statisticians are mostly appreciated (in Swedish or English). Here we go!

The black boxes of quantification and statistics

So far we have looked very directly at how blackboxing takes place, how it is communicating via interfaces, and how black boxes and interfaces are combined in epistemic assemblages. There is however, another riddle that has to be solved, namely that of quantification and statistics. Once more I shall give an example from the Sociology of Scientific Knowledge, to be more precise of one work of Donald MacKenzie. I will also consider Latour’s notion of centers of calculation, the history of statistics and its epistemic status, and further advance into some more recent research in the sociology of quantification.

Pearson and Yule – A statistical controversy

In his article Statistical Theory and Social Interests (1978), Donald MacKenzie analyzes a controversy, and an emerging breakthrough in statistical methods, that took place during the first one and a half decades of the 20th century, between Karl Pearson and Udny Yule, both regarded as two pioneering statisticians today.

The controversy between Pearson and Yule concerned how to measure association on a nominal scale level. Pearson had in 1905 suggested the tetrachoric coefficient as a solution to how to quantify nominal scales, something which Yule criticized openly during several years (1). MacKenzie’s elaboration on this controversy is interpreted through an analysis of their respective differences in social interests:

/…/ Pearson’s commitment to eugenics played a vital part in motivating his work in statistical theory. Pearson’s eugenically-oriented research programme was one in which the theories of regression, correlation and association played an important part /…/ Regression was originally a means of summing up how the expected characteristics of an offspring depended on those of its parents; the bivariate normal distribution was first constructed by [Francis] Galton in an investigation of the joint distribution of parental and offspring characteristics. (MacKenzie 1978: 53)

MacKenzie’s point is that advances in statistics, even though regarded to be esoteric and mathematically ‘disembodied’, are guided and influenced by a set of social and cognitive interests, that orient the goals and directions of what to develop and what to disregard of. The early 20th century statistics in Britain was thus, at least partially, influenced by a need within eugenics and population control. In Britain, at the time, eugenics and ‘national efficiency’ were regarded as legitimate political options, and were even discussed in government departments. Yule, on the contrary, had no affection for eugenics, and instead argued that heredity was a largely unimportant factor in comparison with environmental ones (MacKenzie 1978: 58-59).

What we have is thus a classical social explanation of how statistics develops in line with the needs defined by group (such as the eugenics movement) interests and larger social interests (for example state governance). What MacKenzie pays less attention to is what happens next:

Contemporary statistical opinion takes a pluralistic view of the measurement of association, denying that any one coefficient has unique validity /…/ Yule’s Q remains a popular coefficient, especially amongst sociologists. Pearson’s tetrachoric coefficient, on the other hand, has almost disappeared from use except in psychometric work. (MacKenzie 1978: 65)

I am not in the position to evaluate whether this is valid or not for statistics in general. What I on the other hand find necessary, is to think the dispersion, usage and effects of statistical methods within the terminology of blackboxing. Back in the early 20th century, many of the core statistical measurements today used for the social sciences were developed, for example the chi-square test, Pearson’s r, advances in correlation and regression by Galton, etc. (see Hacking 1990: 180-188).

Just like the case of the Michelson-Morley experiments, also now deprecated statistical methods, may very well come to reinforce or weaken what black boxes to open and which ones to leave closed. Statistical methods may be blackboxed, taken out of its context of discovery, and applied widely. Or, it may be broken, considered obsolete, or just veiled in historical darkness for other reasons, perhaps only to emerge in the detailed archives of the historian of science.

An example of a ‘successful’ blackboxing is the Pearson r. In a textbook on social scientific methods, which is written by Gothenburg researchers close to the SOM-institute, and taught in many social science classes locally, an interesting passage appears:

The calculation of Pearson’s emph{r} is complicated to say the least /…/ Even though it can be useful to on some occasion make the calculations yourself /…/ – not long ago the researchers had to employ assistants to be able to do these calculations at all /…/ it is of course [today] the computers that calculate Pearson’s r for us.
(Esaiasson et. al. 2002: 392)

The Pearson product-moment correlation coefficient (r) demands a time consuming work and plenty of mathematical skills to calculate manually. Then the first moment of delegation meant to involve more humans to do this work (assistants). And finally, we today have computers doing the same work in milliseconds. A statistician, or social scientist for that matter, must of course be able to master the usage and interpretation of the output of the computer, but in routine work, he or she is able to forget the assistants and hard work it once took to use this statistical tool.

This it is possible to conclude that the statistical measurements, developed in a context of the British eugenics movement, can dislodge from its context of discovery through blackboxing, and find its way into the software packages that are used today in statistical calculation, as standardized measurements and tests to evaluate the quality of survey data. Now, this de-contextualization not only means that it is possible to forget the tedious work that had to be done before computers. It also means that it would be absurd to accuse someone calculating the Pearson’s r for being a follower of eugenics, just as it is equally absurd to accuse someone of militarism for using the internet, just because the internet was originally constructed as a military computer network. For statistics, Latour’s actualist principle still applies: The fate of facts and machines are in later users hands, and their qualities are a consequence of collective action (Latour 1987: 29, see also the above sections on Latour).

But not only are statistics blackboxed as they are assembled as research practices. They also function as interfaces that are able to translate research results into comprehensible facts. The time is ripe to go further along this line, to investigate how especially the modern state has requested such scientific information.

Footnotes:

1. The controversy is much more elaborate than this. To save space, I refer to MacKenzie’s article to be read in its entirety.

Flattr this!

How to study the social sciences, part V.

Today was an very good day in my dissertation writing. I managed to scribble down 10k characters and I decided to instantly put them here on interweb. This draft concerns what I will call ”withdrawn hardened functions” in epistemic objects. It is partly influenced by object oriented ontology which I am trying to enrich the standard Science and Technology Studies terminology with. It’s quite a heavy read, so enjoy or surf along!

So far I have only dealt with the positive domains of scientific knowledge; blackboxing, interfaces and assemblages as productive elements. But a core problem in theory of science is what is unknown, what hides in the unconscious or hidden domains of imperceptibility, what is included and what is left behind. This means that in order to deal with this complex issue I need to adapt also a terminology for talking about what evades a concrete epistemic assemblage.

To these questions, at first glance, pure actualism gives little room to navigate. I will propose that the black boxes I encounter have withdrawn hardened functions, which makes them combinable and plastic. This feature has been called ”immutable mobiles” by Latour (1999: 306-307), and it falls close to what Star & Griesemer (1989) call a ”boundary object”. Since as mentioned already before, blackboxing actually is a process of forgetting, embedding and ‘hard coding’ tasks and processes that are needed to produce on a surface level something that is positive knowledge. For example, a pre-compiled dataset of statistical information gathered from a survey makes computerized statistical calculation possible, and quite user friendly compared to doing it manually, precisely because it in a given moment gives us the opportunity to forget thousands of questionnaires and how they were collected and assembled, to instead paying attention to creating bars and diagrams for a scientific report.

This is a wholly different approach than what is the outcome of a Kuhnian thinking. Whereas the process of forgetting is historically very dramatic in Kuhn, I shall argue that it is shallow compared to the sort of object oriented aspect of blackboxing. Lets take a look at a central passage in The Structure of Scientific Revolutions:

In short, they [textbooks] have to be rewritten in the aftermath of each scientific revolution, and, once rewritten, they inevitably disguise not only the role but the very existence of the revolutions that produced them. Unless he has personally experienced a revolution in his own lifetime, the historical sense either of the working scientist or of the lay reader of textbook literature extends only to the outcome of the most recent revolutions in the field. (Kuhn 1996: 137)

This leads Kuhn to thinking about different historical paradigms as incommensurable, and that the disguising of past revolutions leads to a view of scientific progress as being linear and cumulative. But, while these two points are valid and refreshing to the history of science, they are indeed very clumsy for the more close studies of scientific activities. A paradigm, would then appear as a monstrously large black box, where a whole generation of scientists are only able to think ‘within the box’, while the actual workings of the machinery is veiled. Only, according to Kuhn, when enough anomalies appear the scientists start to doubt that the whole paradigm might be wrong.

Two problems arise here. The ‘monstrous’ aspect of Kuhnian historicity leads to a sort of empirical over-determination. In the reports of the SOM-institute we find for example a terminology resembling the sociology of Durkheim, Parsons, Merton etc. The methods of surveys and quantification are also ‘borrowed’ from the intensified usage of these methods in sociology towards the end of the 19th century. Even though this is true on one level, I argue that it adds very little to our understanding what is done, and what that practice means. The abstractness of paradigms, rather ironically, makes the co-production of scientific objects and other objects invisible. To make a crude example (which is unfair to attribute to Kuhn himself); if I read in the local newspaper ”The researchers talk about a Gothenburg effect and a slow norm shift” (as already quoted in the prelude section of this chapter), and then conclude that this is knowledge within a Durkheimian paradigm since it talks about norms and norm shifts, I would instantly remove myself from a process that has significant value for translating the research practice of the SOM-institute into a circulation of facts. The concept of norms is indeed built into theoretical tools used (which in turn may be blackboxed), but if we ignore the relevance of that another actor, the Göteborgs Posten local newspaper, made use of and valued highly enough the much debated question of corruption scandals, the role of science and its interfacing with other societal assemblages is abruptly veiled in darkness, and analysis would stop on what I consider to be a shallow level.

Another more serious flaw in Kuhnian-inspired theories of science is their human-centered character. For science to change, either the scientists need to change their beliefs, theories and everyday practices, or they have to be replaced by a new generation of scientists (1). This is not true for technology, and with technoscience, it is not valid either. Let me give two examples, one simple and one advanced:

Example 1 – The hammer

A carpenter uses hammers (2) as a routine piece of equipment when building houses. It is connected to other objects such as nails, human users, and wooden planks. Hammers are constructed objects, and in one respect they reconfigure the human user too, which has to learn how to use it. One could even say that hammers are paradigmatic technologies of house building, since they imply methods, can be calculated with by architects, etc. Now, the hammer may also be used for committing a brutal murder. Then it becomes a piece of evidence in a murder investigation, is placed in a plastic bag, checked for fingerprints and may even be a technical evidence putting the murderer away for prison for several years. A skilled carpenter knows the difference between a good and a bad hammer, but in the moments of driving nails into wood his or her attention lies elsewhere than with the technological advances, means of production, and the price of the hammer. It is precisely because it is blackboxed, that it may withdraw from full inspection and reflection, that is is a powerful tool. As the house is completed, and populated with new people, they in turn do not need to know anything about hammers, even though they may be ‘implicated’ in the house, and need to be brought forth once again as the house is repaired. The hammer is thus more than its use together with nails and planks, more than the carpenter’s skills, and more than evidence in a courtroom. The hammer survives the house.

Example 2 – Experiments in relativity

Even though I consider the Sociology of Scientific Knowledge to be unsuitable to my theoretical needs, Harry Collins and Trevor Pinch (1993) have produced a textbook example of how scientific experiments may reinforce each other throughout historical paradigms. In their chapter Two Experiments that ‘Proved’ the Theory of Relativity, Collins & Pinch set out to understand how the 1919 solar eclipse experiment led by physicist Arthur Eddington was accepted very swiftly, even though the results of the actual experiments were quite poor and inconclusive due to harsh conditions of photographing light as it was supposed be displaced by the large gravity field of the sun (and thus proving the theory of relativity). The experiment was very difficult to perform at the time, cameras had to be mounted on remote islands to be in time for the solar eclipse, and they were sensitive to temperature and vibrations due to the long exposures needed to make the photographs.

A contributing factor to the quick acceptance of the inconclusive results of the Eddington experience, was according to Collins & Pinch, that beginning in 1881 Albert Michelson (later in collaboration with Edward Morley) had performed series of experiments of a wholly different purpose. They wanted to measure the ‘aether drift’ that was thought to occur as earth moved across space. It was believed that light traveled through the medium ‘aether’, and thus the movement of the earth would produce slightly different speeds of light in different directions. These experiments, that over time took place for half a century, however failed to account for any significant variations, and thus many considered the speed of light to instead be constant.

Now, it may seem that the Eddington experiment and the Michelson-Morley experiments are disconnected. But Collins and & Pinch connect them despite being about two different things:

The way the 1919 observations fit with the Michelson-Morley experiment should be clear. They were mutually reinforcing. Relativity gained ground by explaining the Michelson-Morley anomaly. Because relativity was strong, it seemed the natural template through which to interpret the 1919 observations. (Collins & Pinch 1993: 52)

As the Michelson-Morley experiments kept failing, they unintentionally reinforced the Einsteinian relativity theory, because it presupposes the constant speed of light. The results of Michelson-Morley, even though they were a ‘failure’, could be a component part in strengthening the Eddington experiments, even though Eddington had a wholly different theoretical purpose. What I am getting at here is a somewhat dramatic comparison: Just like the hammer can be used both for carpentry and murder, scientific results, methods and machinery can be used for very different purposes, in different setups and epistemic practices. Even though carpentry and relativity physics are radically different activities, the point is that parts and components can be taken out of their contexts, since they are rendered mobile by way of blackboxing. Assemblages, architectural or scientific, mobilize and assemble their equipment, where most of them are already there. But assembling and selecting what components to choose is not only about actively knowing where to go. It is equally important to forget. Be it about the theoretical functioning about the hammer or the ‘aether wind’, exclusion is as important as exclusion.

This is, I will argue also the case for the social sciences, and especially concerning its use of quantification, which will be the topic for the next section.

(1) Of course paradigms may extend over centuries, but it can still be said that Kuhn also classifies the durability of scientific beliefs around scientists and communities of researchers.

(2) Selecting this example is a tribute to Heidegger’s tool analysis in §15 in Sein und Zeit (1972[1926]) where the hammer is used as an example on how a piece of equipment is always in relation to other objects, and that equipment has to withdraw from consideration to be used for something.

Flattr this!

Hacknight

Ni har väl inte glömt att skriva in Hacknight 3, 6-7 Augusti, i kalendrarna? Inbjudan och call for papers ligger redan ute.

Förra året medverkade jag genom att presentera Telecomix olika kryptoprojekt, och Raccoon gick in på detaljerna. Sen satt jag hela natten med hackarvänner och reverse-enginerade en Fonera-router. (dagen efter var jag så trött att jag glömde vilket lösenord vi satte, men det gör inget, det lyckades ju).

Året dessförinnan, dvs. ”Summer of Datalove, E01”, så besökte jag även den första iterationen av hacknight.

Forskningsavdelningen har haft lite bekymmer med folk som tror att modem är farliga. Dessutom nämns ”Forsken” i boken Svenska Hackare. Så, vill man se lite hackarhistoria när den skrivs, så är det bara att komma!

Alltså, jag uppmanar vem som helst att komma och delta. Man behöver inte kunna mer än 9000 tekniska ord, och har man Windows på datan så är allt förlåtet. Dessutom har Forskningsavdelningen ett nytt spejs i år som jag är mycket sugen på att se. Bli gästforskare för en natt. Nätter med hack, då kan allt hända!

Vi syns!

Flattr this!