Monadologiska undersökningar 2 – Överlappande facebooksidor

Jag snubblade över en liten idé (eller så snubblade den på mig) när jag satt och kodade på en anonymiseringsteknik för facebookdata. Det konventionella sättet att se på politiska ideologier är ju att de formas och formuleras ”uppifrån”, att de har en normkälla och är underblåsta av en kraftig bas som skapar dess centraliserande kraft kring ett Budskap (som forskaren tolkar och säger Sanningen om till de som inte vet bättre).

Ett annat sätt att se på saken är att börja ”nedifrån och upp”, alltså i det sorlande hav av monader, divider, aktanter (vad vi kallar dem spelar inte särskilt stor roll). Här blir det intressant att studera de politiska varelsernas rörelser, eftersom det är dessa mönster och interaktioner, dessa översättningar och allianser, som i sin tur konstituerar det som vi ser som en politisk helhet. Här talar man mindre om de totalitära idéerna som texter och teser, utan letar efter totalitära affekter, begär, existensformer, interaktionsformer etc. Här hittar man inte fascismen, utan mikrofascismen.

Den empiriska data som presenteras nedan är bara ett litet test och det går inte att dra några slutsatser av dem. Själva insamlingen gjordes medelst det lilla pythonbiblioteket facepy. Jag gick till de öppna sidorna för Sverigedemokraterna, Miljöpartiet, Svenskarnas parti och Avpixlat och laddade ned så mycket jag kunde med Facebooks API-nyckel. Inga speciella tankar om urval alltså, jag hämtade bara vad jag fick, vilket varierade från några hundra till några tusen poster. Därefter valde jag ut alla kommentarer på alla poster och förvandlade varje användares unika Facebook-id till en kryptografisk hashsumma (för anonymisering). Dessa extraherades och skrevs till nya filer som sedan jämfördes i en korstabell:

Sd Mp Svp Avpixlat
Sd 80 92 47
Mp 80 22 3
Svp 92 22 5
Avpixlat 47 3 5

Vad säger då denna figur? Den visar på samförekomst (co-occurrence) av (hashade) Facebook-id mellan Facebooksidorna. Det finns alltså 80 tillfällen då samma person har kommenterat på både Miljöpartiet och Sverigedemokraternas sida, 92 gånger på Sd och Svenskanas Partis sidor, osv. Vi följer alltså konkreta personer, men har avidentifierat dem (visst skulle detta vara en läskig form av ”åsiktsregistrering”).

Men det känns ju väldigt kontraintuitivt att det skulle vara större samförekomst mellan Sd och Mp än vad det skulle vara mellan Sd och Avpixlat. Sd och Svp ligger förvisso nära varandra ”ideologiskt”, men å andra sidan konkurrerar de om om röster. Som ni märker förklarar den aggregerade nivån väldigt lite. Men den kan ändå ge oss vissa riktningar att gå i, vissa spår att följa.

Vad är det då som förklarar siffrorna? Svaret är att informationsrikedomen ökar med förstoringen. Vi måste alltså dyka ned i de 80 samförekomsterna (i ett datamaterial av tiotusentals interaktioner) för att se vad Miljöpartister och Sverigedemokrater har gemensamt (inom ramen för mitt slarvigt genomförda testurval). Men om vi gör det så bryter vi anonymiteten!

Nu kan man förvisso tänka att det är oproblematiskt att ändå analysera detaljerna i helt öppna Facebooksidor och därmed tumma på anonymiteten, eftersom de är tillgängliga för vem som helst på internet.

En viktig sak är nämligen att varje enskilt fall av samförekomst kan ha diametralt olika anledningar till varför den uppstod. Jag hittar exempelvis en miljöpartist som gillar djur som har kommenterat på Sverigedemokraternas sida med:

”Något Sd borde fundera över? Man måste inte alltid tycka som storebror?”

Å andra sidan kommenterar en Sverigedemokrat så här på Miljopartiets sida:

TBC-fall ökar och ökningen härrör uteslutande från personer som kommer hit utifrån. Vad gör ni konkret för att säkerställa att inte diverse smittsamma sjukdomar sprids (dvs det handlar om upprätthållande av folkhälsan)? Vilka resurser tillför ni nu skolor, sjukvård, sociala myndigheter,polis, säkerhetspolis, skolor, kommuner när belastningen på dem ökar kraftigt?

Två exempel av 80 möjliga, totalt icke-representativa. Poängen med detta är bara att göra en distiktion mellan det molekylära och det molära. Hade vi genomfört en opinionsundersökning hade vi fått en jämförelse av folks åsikter utefter kategoriella frågor; vad anser du om X, Y, Z? Resultat: ett genomsnitt.

Men med denna approach, å andra sidan, får vi istället ett ”omvänt arbete”. Varje monad som interagerar med andra monader definierar själva frågan som ställs av dem, men inte utifrån en given kategori, utan snarare utefter imitation/repetition.

Vad som är målet är alltså att kvantifiera dessa kvalitéer så att man dels kan se aggregatens struktur utan att tumma på monadernas myller. Men detta sker nu  utan abstraktioner och ”abstrakt tänkande”. Istället når vi framkomlighet genom repetitioner och associativt tänkande. Lättare sagt än gjort.

Vad tror ni? Förslag på saker som skulle vara intressanta att titta närmare på?

\\

Några skriptsnuttar jag använt mig av.

För att kryptera de enskilda användarnas id-nummer i kommentarsfältena:

from json import load
from os import listdir
import hmac
import hashlib


#### Multi file parser from directory
for filename in listdir("miljopartiet/"): #change path here (1/2)
    with open("miljopartiet/" + filename) as currentFile: #change path here (2/2)
        jsondata = load(currentFile) #parse json.

        #This loop extracts comments. make sure to separate "i" and "item"
        #and hashes them
        try:
            if item['comments']['data']:
                for i in item['comments']['data']:
                    digest_maker = hmac.new(b'r3placewithmegasecretk3y', i['from']['id'].encode(), hashlib.sha256)
                    print(digest_maker.hexdigest())
        except KeyError:
            break

För att räkna fram co-occurrences är det bara att jämför hashsummorna som extraherats ovan, fil för fil. Ungefär:

with open('mpencrypted.txt', 'r') as file1:
    with open('sdencryptedt.txt', 'r') as file2:
        same = set(file1).intersection(file2)

same.discard('\n')

print(same)
print("Number of co-occurences: ")
print(len(same))

Lite mer om felmarginalsuträkningar

Sitter och uppdaterar det lilla hobbyprojektet felmarginalen. Eftersom jag precis håller på att lära mig javascript är jag inte helt säker på att jag får de olika matematiska formlerna rätt när jag översätter dem till kod.

För att räkna ut felmarginalen har jag kodat:

Math.sqrt(((procentsats * (100 - procentsats)) / urval)) * 1.96

och, för att räkna baklänges, alltså för att få ut hur stort urval man behöver, har jag vänt på ekvationen så här:

Math.pow(1.96, 2) * (procentsats * (100 - procentsats)) / Math.pow(felmarginal, 2)

Ni som är bra på statistik och javascript, visst funkar detta?

Nästa steg blir att göra så att man kan välja säkerhetsnivåer (90, 95, 99 procent) samt eventuellt göra en graf i D3.js. Förslag och kommentarer mottages varmt.

Mitt grymma öde

För närvarande befinner jag mig i ett barockt sinnestillstånd. Detta gäller även för den ringa dos litteratur jag läser. Att då läsa Carl-Michael Edenborgs Mitt grymma öde ter sig som det mest harmoniska jag kan göra.

Jag gjorde det. Konsekvensen är att jag aldrig kommer lyssna på Händel på samma sätt igen.

Mitt grymma öde är alltså en roman om Händels liv, från det att han föds till att han dör. Den är kronologiskt skriven. Men någonstans där upphör den att vara en konventionell roman. Denna fantastiska bok är åtminstone två ytterligare saker: ett spekulativt affektfilosofiskt verk i barock anda, samt en idéhistorisk tes om hur Händel föregriper det moderna trots att han befinner sig i det för/tidigmoderna. Eftersom jag inte kan någon om romaner tänker jag uppehålla mig vid dessa två senare aspekter av Mitt grymma öde.

Min läsning kommer framöver att hänvisa till den Händel som Edenborg har frammanat i sin roman, inte den historiska Händel. Den senare lämnar vi till musikhistoriker att beforska. Från och med nu ger vi oss i kast med en ny Händel, som bör läsas som en musikalisk filosofisk-etisk berättelse av spekulativ art, snarare än mätas mot historiska fakta. Och då framträder ett mycket grymmare öde.

//

Händels primära affekt är hat. Hat mot allt och alla, förutom sig själv (inte förrän i slutet av hans liv vänder han hatet inåt). Händel hatar sin fader som slog honom, sin moder som våldtog honom, sin musiklärare som trakasserade honom sexuellt, och därefter nästan varenda människa han träffar vidare i sitt liv. Händel hatar dessutom kvinnor.

Hans främsta hämnd på världen består paradoxalt nog av hans fantastiska musik. Med sin förmåga att skriva fantastiska operor och oratorier, vilket möjliggörs av hans genius, kan han få människor att känna, att gråta och att bete sig som barn. Genom musiken kan Händel ta makten över andra människor och denna makt använder han för att uttrycka sitt hat. Han hatar inte längre Gud, han har gjort sig själv till Gud.

Därmed kommer vi till det moderna i denna barocka berättelse. Genom sitt tragiska liv har Händel konstant blivit utsatt för maktmissbruk och misshandel. Denna makt producerar hans motstånd, en figur som återkommer genom hela romanen. Denna manöver, som Foucault explikerade så noga i första bandet av Sexualitetens historia, gör att Händel överskrider sin egen tid. Nu är jag ju inte idéhistoriker, så jag vet egentligen inget om denna tids tänkande. Men, om vi skulle vara strikta Foucaltianer, innebär Händels manöver att ersätta Gud med Människan, samt att hämnas på världen genom mänskliga handlingar (att ta världen som objekt innebär att man måste definiera en ”position”), en omöjlig figur. Händel spränger barockens gränser med sitt hat och hans drivkraft är viljan till makt (i universell mening, tänk Nietzsche).

Att Händel är ”ur tiden” blir som allra tydligast i hans möten med de samtida naturfilosoferna. Det är dags att citera ur den fantastiska dialog som utspelar sig i mötet med Leibniz:

Filosofen [Leibniz] fortsatte:

– Vad säger ni om Bach? Han är i er ålder men har gjort sig ett ännu större namn i världen än ni.

– Vad önskar ni att jag ska säga?

– Bachs verk är en musikalisk översättning av min universalfilosofi. Hans kompositioner byggs upp av monader till andliga gestalter som skänker människan hennes rätta plats i det andligt-materiella kosmos, där allting motsvarar allting annat. Mannen Bach har förstått varats matematiska väsen.

Som en spottloska.

– Min musik är inte ämnad att göra oss hemmastadda utan att förvandla oss till monster för oss själva. Min musik är Guds röst som fräter bort köttet från människans ben.

Brottet kan inte bli tydligare. Om vi filosofiskt skapar en syntes mellan Bach och Leibniz, vilket jag tror är möjligt via Deleuze, får vi musik och existens för en barock människa. Inför den himmelska ordningen är vi antingen fromma, eller så utforskar vi den med proto-naturvetenskaper – sann upplysning. Jag står personligen nära Bach och Leibniz i denna fråga. På samma sätt som Newton upptäckte den klassiska mekaniken och Leibniz infinitesimalkalkylen, upptäckte Bach kontrapunkten och publicerade sitt fynd som das Wohltemperierte Klavier. Efter Newton fick vi en Einstein, men efter Bach har vi inte fått någonting (atonal musik är blott en negation av hans funna positiviteter). Men, jag ska inte ägna tid åt att argumentera om detta här.

Händel, å andra sidan, förkroppsligar fullständig ikonoklasm: Människans fromhet ska destrueras, hon ska inte längre känna sig hemma i världen (unheimlich), hon ska bli ett monster inför sig själv och inför andra. Musiken är inte längre en del av ett perfekt system eller ordning, den har förvandlats till en våldsam kraft. Musik ska beröra, fast den vackra och sentimentala beröringen utgör endast ett förstadium till en trollbunden förtvivlan och paralyserande sorg. När Händel får Europas furstar att bryta samman i tårar har han dem i sitt fullständiga välde, då är han gudomlig genom sitt genius. Då har han fått sin hämnd.

//

Mitt grymma öde är ett viktigt bidrag till den underrepresenterade genren ”spekulativ musikfilosofi”. Ibland ser vi glimtar av denna genre via film. I den fantastiskt vackra Amadeus framställs Antonio Salieri som ansvarig för Mozarts död. Eftersom Mozart har genius istället för Salieri, det är Mozart som har belönats med Guds röst, hämnas Salieri genom att sakta driva honom i fördärvet tills det att han avlider. Även denna berättelse är spekulativ. Men den mejslar fram musikaliskt intressanta aspekter.

Att lyssna på musik som föregår det moderna epistemet, den moderna produktionensformen och det moderna sättet att lyssna, kräver att vi utforskar de kringliggande förutsättningarna för dess tillblivelse. Detta kan vi göra genom historiska studier, filosofiska reflektioner och spekulationer. Till den sistnämnda kategorin utgör Mitt grymma öde ett fantastiskt intressant bidrag.

Uppdatering: Vertigomannen svarar.

Felmarginaler och Sigmaformler

I en fotnot hittade jag en referens till en artikel i Dagens Nyheter från den 21 December 1948 (ovan). Under 40-talet gjorde Svenska Gallupinstitutet de första opinionsmätningarna i Sverige, och dessa intresserade såväl forskare som politiker.

Men, frågan som jag är intresserad av är hur man visste hur de fungerade. Förutom att de var gjorda enligt den amerikanska modellen som föreskrivits av George Gallup, så är alla undersökningar så att säga beroende av delvis ”externa” verifikationer, såväl som matematiska sätt att kontrollera huruvida datan är korrekt eller inte. Den externa verifikationen för politiska opinionsmätningar har länge varit de faktiska valresultaten, men för att det ska bli rätt, så är även de matematisk-statistiska av synnerlig vikt.

På 50-talet började Göteborgsforskarna med slumpmässiga urval. För dessa är det oproblematiskt att kalkylera felmarginaler, och idag är det en standardfras att säga att en surveyundersökning ligger ”inom (den statistiska) felmarginalen”.

Men 1948 var läget annorlunda. Svenska Gallupinstitutet hade kopierat den amerikanska modellen och gjorde istället kvoturval, istället för slumpmässiga urval. Då kan man inte kalkylera felmarginalen på samma sätt, eftersom populationen inte är ”äkta slumpmässig” (dvs. att alla analysenheter har samma chans att komma med i urvalet).

Istället, och här kommer mitt huvudbry, använde man sig av något som kallades för ”sigma-formeln”. Låt mig citera ur den lite suddiga bilden ovan (som jag scannat från mikrofilm på Kurs- och tidningsbiblioteket).

För de sedvanliga opinionsundersökningarna som i Sverige göres som styrda samplingar med 2.000 – 3.000 intervjuer, brukar från tid till annan anföras ur statistisk synpunkt nödvändiga reservationer för en felmarginal som beräknas efter den s. k. sigma-formeln. Även om de använda samplingsmetoderna icke tillåter en exakt beräkning av felmarginalen, synes den praktiska erfarenheten, icke minst från de svenska Gallupundersökningarna, peka på att vid alla de tillfällen är man kunnat göra jämförelser med känd statistik, felmarginalen visat sig uppgå endast till några få procent och oftast väl håller sig inom de av sigmaformeln tillåtna gränserna (2,5 – 3,5 %). För de allra flesta fall, när opinionsundersökningarna inriktar sig på att teckna utvecklingstendenser eller konturerna till vissa problem, saknar denna felmarginal praktisk betydelse.

När vi har hämtat oss från denna mycket vackra kaskad av ord, och den oerhörda formuleringen med avsaknad av verbet ”har” i ”felmarginalen visat sig uppgå…”, så kommer jag till min fråga: Hur beräknar man denna s. k. sigmaformel? Mina statistikkunskaper är bristfälliga, dock lärde jag mig att räkna felmarginaler på slumpmässiga urval en gång i tiden. Men hur gör man egentligen med dessa kvoturval? Jag kommer inte längre än till Wikipedia.

Fotnoten som jag hittade denna artikel via skrevs 1950 av Jörgen Westerståhl. Han själv genomförde som tidigare nämnt surveyundersökningar som var ordentligt slumpmässiga. Så kanske försvann Sigmaformeln ur samplingsförfarandena i Sverige (jag hittar dem iallafall inte i några akademiska undersökningar).

How to study the social sciences, part VI

Time for another piece from my in-the-making dissertation, this time on the blackboxing of statistical measurements. It took more time than I expected, mostly because I had to struggle with statistics :D. Comments by statisticians are mostly appreciated (in Swedish or English). Here we go!

The black boxes of quantification and statistics

So far we have looked very directly at how blackboxing takes place, how it is communicating via interfaces, and how black boxes and interfaces are combined in epistemic assemblages. There is however, another riddle that has to be solved, namely that of quantification and statistics. Once more I shall give an example from the Sociology of Scientific Knowledge, to be more precise of one work of Donald MacKenzie. I will also consider Latour’s notion of centers of calculation, the history of statistics and its epistemic status, and further advance into some more recent research in the sociology of quantification.

Pearson and Yule – A statistical controversy

In his article Statistical Theory and Social Interests (1978), Donald MacKenzie analyzes a controversy, and an emerging breakthrough in statistical methods, that took place during the first one and a half decades of the 20th century, between Karl Pearson and Udny Yule, both regarded as two pioneering statisticians today.

The controversy between Pearson and Yule concerned how to measure association on a nominal scale level. Pearson had in 1905 suggested the tetrachoric coefficient as a solution to how to quantify nominal scales, something which Yule criticized openly during several years (1). MacKenzie’s elaboration on this controversy is interpreted through an analysis of their respective differences in social interests:

/…/ Pearson’s commitment to eugenics played a vital part in motivating his work in statistical theory. Pearson’s eugenically-oriented research programme was one in which the theories of regression, correlation and association played an important part /…/ Regression was originally a means of summing up how the expected characteristics of an offspring depended on those of its parents; the bivariate normal distribution was first constructed by [Francis] Galton in an investigation of the joint distribution of parental and offspring characteristics. (MacKenzie 1978: 53)

MacKenzie’s point is that advances in statistics, even though regarded to be esoteric and mathematically ‘disembodied’, are guided and influenced by a set of social and cognitive interests, that orient the goals and directions of what to develop and what to disregard of. The early 20th century statistics in Britain was thus, at least partially, influenced by a need within eugenics and population control. In Britain, at the time, eugenics and ‘national efficiency’ were regarded as legitimate political options, and were even discussed in government departments. Yule, on the contrary, had no affection for eugenics, and instead argued that heredity was a largely unimportant factor in comparison with environmental ones (MacKenzie 1978: 58-59).

What we have is thus a classical social explanation of how statistics develops in line with the needs defined by group (such as the eugenics movement) interests and larger social interests (for example state governance). What MacKenzie pays less attention to is what happens next:

Contemporary statistical opinion takes a pluralistic view of the measurement of association, denying that any one coefficient has unique validity /…/ Yule’s Q remains a popular coefficient, especially amongst sociologists. Pearson’s tetrachoric coefficient, on the other hand, has almost disappeared from use except in psychometric work. (MacKenzie 1978: 65)

I am not in the position to evaluate whether this is valid or not for statistics in general. What I on the other hand find necessary, is to think the dispersion, usage and effects of statistical methods within the terminology of blackboxing. Back in the early 20th century, many of the core statistical measurements today used for the social sciences were developed, for example the chi-square test, Pearson’s r, advances in correlation and regression by Galton, etc. (see Hacking 1990: 180-188).

Just like the case of the Michelson-Morley experiments, also now deprecated statistical methods, may very well come to reinforce or weaken what black boxes to open and which ones to leave closed. Statistical methods may be blackboxed, taken out of its context of discovery, and applied widely. Or, it may be broken, considered obsolete, or just veiled in historical darkness for other reasons, perhaps only to emerge in the detailed archives of the historian of science.

An example of a ‘successful’ blackboxing is the Pearson r. In a textbook on social scientific methods, which is written by Gothenburg researchers close to the SOM-institute, and taught in many social science classes locally, an interesting passage appears:

The calculation of Pearson’s emph{r} is complicated to say the least /…/ Even though it can be useful to on some occasion make the calculations yourself /…/ – not long ago the researchers had to employ assistants to be able to do these calculations at all /…/ it is of course [today] the computers that calculate Pearson’s r for us.
(Esaiasson et. al. 2002: 392)

The Pearson product-moment correlation coefficient (r) demands a time consuming work and plenty of mathematical skills to calculate manually. Then the first moment of delegation meant to involve more humans to do this work (assistants). And finally, we today have computers doing the same work in milliseconds. A statistician, or social scientist for that matter, must of course be able to master the usage and interpretation of the output of the computer, but in routine work, he or she is able to forget the assistants and hard work it once took to use this statistical tool.

This it is possible to conclude that the statistical measurements, developed in a context of the British eugenics movement, can dislodge from its context of discovery through blackboxing, and find its way into the software packages that are used today in statistical calculation, as standardized measurements and tests to evaluate the quality of survey data. Now, this de-contextualization not only means that it is possible to forget the tedious work that had to be done before computers. It also means that it would be absurd to accuse someone calculating the Pearson’s r for being a follower of eugenics, just as it is equally absurd to accuse someone of militarism for using the internet, just because the internet was originally constructed as a military computer network. For statistics, Latour’s actualist principle still applies: The fate of facts and machines are in later users hands, and their qualities are a consequence of collective action (Latour 1987: 29, see also the above sections on Latour).

But not only are statistics blackboxed as they are assembled as research practices. They also function as interfaces that are able to translate research results into comprehensible facts. The time is ripe to go further along this line, to investigate how especially the modern state has requested such scientific information.

Footnotes:

1. The controversy is much more elaborate than this. To save space, I refer to MacKenzie’s article to be read in its entirety.

How to study the social sciences, part III


Today seems to be a good day for empirical philosophy. I wrote this section after lunch, so its freshly converted from LaTeX to HTML, and thus tentative in character. This section is supposed to come after the part on blackboxing, which in turn comes after the prelude to the chapter. Or, for those interested, just read it :D. The philosophical problem is the zeitlichkeit of black boxes, how they invent their own time. The empirical problem is to describe what quantitative social sciences are really doing. Hence, empirical philosophy!

Blackboxing and time

The historicity of a black box is not necessarily so that going back in time means that they are more open. This is sometimes true for machines as they are invented, where you would usually travel back in time to find the origin of of a technology in a research lab. Blackboxing is however ‘anti-genealogy’ because when they break down, when they fail, they are as easily reversed, perhaps to an even more primitive stage as when they were invented. Moreover, due to the implicated actualism, blackboxing as a process never ends. Machines, concepts, methods and procedures have to be constantly used, maintained and upgraded to keep working, even though this is usually invisible to the ‘ordinary user’. Even though we usually never think about it, there are technicians employed around the clock to keep our mobile telephony working, scientists in labs doing everyday research in standard procedures to keep our facts straight (Landström 1998), and teachers in schools repeating the instructions of grammar to pupils five days a week.

On a more profound ontological level, this goes as well for actants, entelechies and hybrids (these concepts will be explained below):

1.2.8 Every entelechy makes a whole world for itself. It locates itself and all the others; it decides which forces it is composed of; it generates its own time; it designates those who will be its principle of reality. It translates all the other forces on its own behalf, and it seeks to make them accept the version of itself that it would like them to translate. (Latour 1988: 166)

It is thus imperative not to study blackboxing in conventional linear time frames. The SOM-institute is actually a good example of this. When going from the 1999 survey, as described above, to the 2010 survey, by looking at the methodological chapter, the box is more open than roughly a decade earlier. The method documentation chapter from the 1999 survey is six pages long (Lithner 2000), the one from the 2010 survey is 33 pages (Nilsson & Wernersdotter 2011). At least in writing, it seems to take more words to account for the same type of survey. Word quantity can however be deceiving, instead the openness of a black box is where to look, to the amount of work needed to make it work:

During recent years it has become more difficult to reach a high response rate, and moreover the SOM-surveys have increased in size. This year’s number [response rate] hence must be regarded as high. In the 1999 survey the response rate was 67 per cent, which is on the same levels as the average fourteen nationwide SOM-surveys made so far along /…/ (Litner 2000: 398)

And for the 2010 survey:

From the 2000:s the level [of response rates] has however gone down. If the average up until 1999 was 68 per cent, the first decade of the 2000:s was 63 per cent. The 2008 survey became the first one to go below 60 per cent, which was also the case in 2009. This year’s survey did however reach 60 per cent again. (Nilsson & Wernersdotter 2011: 557-558)

Then another seven pages are spent analyzing who and why some people are not responding to the questionnaires. What was unproblematic a decade earlier, is debugged, analyzed and progressively made to work again. Black boxes are deceptive in this way, they only withdraw when they function as they were supposed to. Layer by layer (or rather, variable by variable) the missing respondents are localized. One such example is the group of young men:

The lower response rate among the young groups is especially clear among young men. For men in the ages 20-29 years the response rate is 36 per cent, compared to 48 per cent among women in the same age. (Nilsson & Wernersdotter 2011: 562)

The traditional way of thinking scientific discoveries is that phenomena were discovered, then, once they are discovered, they were there all along. The standard way of thinking innovations, is that once someone invented a technology, a method or a formula, it is there for us only to use (if we just can afford it or know how to use it). This, however, only works for studying ready-made science. When analyzing science in action, time is relative to the speed of black boxes. Intercontinental telephony works with the speed of fiber-optic cables, as long as they work. But when they break down, their speed is reduced to the time it takes for technicians to localize and mend the failed components. The quantitative social sciences, I shall argue, are no different in this respect. And as we saw in the prelude of this chapter, they are no less ‘cutting edge’ than the latest cellular networks.

Off topic, kind of: So what then is cutting edge technology? Is it the latest iPhone or the skyline of Dubai? Well, so may be, but it is also your kitchen knife (pun intended), the shoes you wear, even though they might be really old, or the turbofan jet engines on your recent flight, even though its 1960:s tech. The Minicall, the fleece sweatshirt or dialup modems are however not cutting edge. They came after jet engines, still, when nobody uses them, they are no longer in networks, so they retire as obsolete artifacts in museums and deep in your closet.

Epistemes and networks

I wrote this little comparison of Latour and Foucault on a plane. Since I’m mildly scared of the flying monsters we call aeroplanes, I scribble down things in my hipster moleskine notebook very swiftly while taking off and landing, so I better put this text on interwebs before I insert it to my dissertation. So, the question is, would this be a correct interpretation of the differences and similarities? (of course there are many more, please comment).

In Foucault there is a double articulation in the emergence of the social sciences; on the one hand there is the qualitative function in biopolitics, as an administrative, surveying and organizing science, in what he called the emergence of disciplinary societies. On the other hand, the positive domain of knowledge became possible through the void that had to be filled as there was a ‘tectonic’ rupture between the classical episteme and the modern episteme, a reconfiguration that was external to the social sciences themselves, and occurred in conjunction with how the other sciences rapidly discovered new grounds of knowledge.

This could have been another way of describing what Latour calls the modern constitution, if it were not for the drastic philosophical differences between Latour and Foucault. Latour argues that the purification of the modern constitution is an ever ongoing, tedious process. If it is not maintained, it breaks down, and we realize that all we have are ‘savage’ hybrids. The modern episteme, as described in The Order of Things, on the contrary, would postulate that the qualitative reconfiguration that took place towards the end of the eighteenth century, made thought possible in only one particular way(1). This has sometimes been called a ”structuralist” explanation, even though this is a bad word(2), both since it is quite empty of meaning, and because its association with linguistics.

The key figure to understand these differences is what I previously mentioned as actualism. But first, there is a similarity, in at least one respect. In a very interesting passage in Pandora’s Hope, on how human and non-human agency are related, Latour goes:

Purposeful action and intentionality may not be properties of objects, but they are not properties of humans either. The are the properties of institutions, of apparatuses, of what Foucault called dispositifs. Only corporate bodies are able to absorb the proliferation of mediators, to regulate their expression, to redistribute skills, to force boxes to blacken and close. Objects that exist simply as objects, detached from a collective life, are unknown, buried in the ground. (Latour 1999: 192-193)

The concept of dispositif and assemblages are closely related, in their collectivity, positivity, and also in the sense that they are actualist concepts. They configure and enable a collectivity of human and non-human agency to express knowledge in specific ways. The Hubble telescope would be such a dispositif, or assemblage, composed and held together by hundreds of scientists, thousands of technical components, billions of dollars and even the gravity of planet Earth. All of these links need to be aligned or the black boxes have to be patched and fixed. And the result is nothing less than images of distant galaxies. Remove the humans, and the telescope slowly runs out of power or burns up in flames as it falls through the atmosphere. Remove one lens, and we see nothing more than before Galileo. Thus, it is not the biopolitical side of Foucault that is a problem for Latour.

But, the problem instead is the model of epistemes. Indeed, along the lines of Foucault, Latour also acknowledges ”Kantianism” as one of the leitmotifs of modern thought (pre-dated by Hobbes and Boyle, see Latour 1991: 57ff). But while introducing hybrids, the amodern networks, which when multiplied fold together heterogeneous elements through moments of utterly concrete translations, there can be no prior historical rupture, as Foucault argues in The Order of Things, no void that emerges simultaneously in all the sciences. To put it in another way, Linnaeus and Darwin, even though the former belonged to the classical episteme and the latter in the modern, they would according to Latour have done the same primary things; collapsed the inside/outside division by bringing samples of minerals, birds and flowers back into their ‘labs’, inscribing them into systems, classifications; forced them to crack open, while struggling with kings and churches, perhaps even public opinions to support their assemblages. Neither Linnaeus nor Darwin was ever modern, even though the latter lived in a time when the proliferation of hybrids had become much more swift, more efficient, desired by institutions of immunology, public health, anatomy and medicine.

Footnotes
1.For example the presence of fossils was an unthinkable figure, a monster, before modern biology introduced ”historicity” into Life, see the chapter ”Monsters and Fossiles” in The Order of Things

2. Foucault himself rejected this label as nothing but fancy words of ”commentators”, see ”Preface to the English edition in emph{The Order of Things} INSERT PAGE}

Samhället som helhet, del VI

Hur kommer det sig att det gick ett Intercitytåg mellan Värnamo och Göteborg för en vecka sedan? Om vi konsulterar expertis inom olika områden får vi olika svar. En ekonom skulle kanske säga att givet vissa investeringar, statliga understöd, konsumtionsmönster, arbetsförhållanden och marknadsföringsstrategier så blev det ekonomiskt lönsamt för ett samhälle att satsa på en tågförbindelse just här. En ingenjör skulle kanske svara att vi för ett halvt sekel sedan hade bra elmotorer, god elförsörjning och bra kullager, och genom att sätta samman dessa kunde vi bygga bra tåg. En fysiker skulle kunna svara att effekten i motorerna var tillräcklig för att överstiga de kiloNewton som krävs för att flytta några hundra ton framåt, givet att friktionen och luftmotståndet var tillräckligt lågt. Och så vidare… (en litteraturvetare skulle kanske tala om tågets roll i fiktionen, som symbol för modernism och framsteg).

Dessa traditionella förklaringsmodeller har som gemensam nämnare att de ofta faller tillbaka på en kraft utanför det partikulära fenomenet. Det kan röra sig om ”ekonomin”, ”teknologin”, ”fysikens lagar” eller ”den symboliska världen” i fallen ovan. Detta medför att själva objektet decentreras och måste ge vika för en reducerande totalitet.

Finns det då ett annat sätt att tänka alla de artefakter som ständigt omger oss. Vi klarar inte att gå utanför lägenheten eller huset utan att foga proteser till våra kroppar (kläder), proteser som gjorde det möjligt att vandra ut ur savannernas tempererade klimat och gjorde det möjligt att uthärda den bistra småländska kylan. Idag talar vi ofta om H&Ms börskurs, klädfabriker i Kina och intellektuell egendom på Gucci-väskor. Men för stenåldersmänniskan var kanske Mufflonfår på modet, utan att varken förutsätta pengar, börser eller marknadsanalyser.

Latour har en lösning, som sedan plockas upp och modifieras av Harman (som diskuterades utförligt i förra bloggposten och dess tillhörande kommentarsfält. Big ups till alla som kommenterar på denna bloggserie!).

”Lösningen”, eller kanske snarare utgångspunkten, för Latour är den ”svarta lådan”. Dock leder i viss mån ”låda” till att man lätt tänker sig något statiskt. Begreppet introduceras i Science in Action från 1987, där det rånas från cybernetiken där det myntades en gång för länge sen. Men svarta lådor fortsätter att vara en essentiell byggkomponent för Latour även långt fram i tiden. I den fin-du-millennariska (undrar om jag stavar rätt där) essäsamlingen Pandora’s Hope (1999) har den svarta lådan modifierats en aning och dyker upp som ett verb istället; blackboxing.

Men för att vara konservativ börjar vi 1987. Här definieras den svarta lådan som något som reducerar komplexitet och smälter in i våra liv till den grad att vi endast behöver bry oss om input och output. Vi behöver inte veta hur varje detalj i en mobilmast fungerar för att ringa, vi behöver inte veta något om väteatomer för att dricka ett glas vatten och en orkidé behöver inte veta något om en getings fortplantningsmekanismer för att ingå i en symbiotisk relation med den.

Latours paradexempel är dock Eagle-mikrodatorn (bild ovan), som måste tinkas och fixas med för att möjliggöra upptäckten av dubbelhelixstrukturen för DNA.

But it was not a good machine before it worked. Thus while it is being made it cannot convince anyonebecause of its good working order. It is only after endless little bugs have been taken out, each bug being revealed by a new trial imposed by a new interested group, that the machine will eventually and progressively be made to work. (Latour 1987: 11, italics in original)

En fungerande svart låda märker vi sällan av förrän den bryter samman, eller i ett tidigt skede när den fortfarande inte är färdigbyggd. För det mesta leder en svart låda till en annan. En gång när jag gjorde en yttre resa med ett x2000-tåg stannade det. Lokföraren sade att de behövde ”starta om en vagn”. För ett kort ögonblick blev jag varse om att hela tåget bestod av vagnar (mindre komponenter) och att dessa (troligtvis) hade en dator i sig som hade hängt sig. Men, om datorn fick jag inte lära mig något mer än att den behövde ”startas om”. Kanske visste inte lokföraren mer än så heller, men kanske skrevs en incidentrapport och en ingenjör fick i uppgift att mödosamt söka i loggfilerna efter ett fel. Kanske skulle det visa sig att det var fel på en strömbrytare. Då skulle denna nya svarta låda behöva öppnas. Kanske visar det sig då att den frusit sönder. I en tänkbar framtid skulle då en ingenjör på Siemens kanske sitta och rita nästa generations strömbrytare för tågset i ett mera temperaturbeständigt material. Och så vidare… lådor på lådor på lådor. Så länge de funkar kan de vara stängda och vi ”tror” på dem.

Harman går ett steg längre i sin läsning av Latour, i Prince of Networks. När Latour skrev Science in Action syftade han till att skriva en ”lärobok” för STS-studenter. Harman läser den dock som metafysik (helt rätt gjort!):

For Latour, the black box replaces traditional substance. The world is not made of natural units or integers that endure through all surface fluctuation. Instead, each actant is the result of numerous prior forces that were lovingly or violently assembled. While traditional substances are one, black boxes are many—we simply treat them as one, as long as they remain solid in our midst. Like Heidegger’s tools, a black box allows us to forget the massive network of alliances of which it is composed, as long as it functions smoothly. Actants are born amidst strife and controversy, yet they eventually congeal into a stable configuration. But simply reawaken the controversy, reopen the black box, and you will see once more that the actant has no sleek unified essence. Call it legion, for it is many. (p. 34)

Å ena sidan är svarta lådor mycket enkla när man tänker exempelvis människans geologiska framfart, som gör det rätt svårt att i sin tur ens tänka artonhundratalets identitära begrepp ”natur”, ”jord” eller ”jordklot”. När vi stoppar en skiva bröd i munnen äter vi en ”legion” av svarta lådor, från det att den första stenåldersmänniskan började domesticera gräsarter som sedan maldes med stenar till mjöl och bakades över den Prometheuska elden, till det intrikata nätverka av lastbilar som fraktar Hönökaka från en datoriserad fabrik till Konsum. Brödets transsubstantiation är inte en inre egenskap, utan flera relationer. Och dessa relationer måste hela tiden göras, annars försvinner de. Harman igen:

Third, Latour’s black boxes do not automatically endure through time, unlike most traditional versions of substance. Since they are events, they include all of their relations as parts of themselves. But since these relations shift from moment to moment, the black boxes do not endure for more than an instant, unless we consider them as ‘trajectories’ crossing time across a series of minute transformations. They must also be constantly maintained. This makes Latour an ally of the doctrine of continuous creation, which is also a frequent feature of occasionalist philosophy. (p. 46)

Detta leder åter till en processontologi, eller relationism som Harman kallar det. En svart låda som undandrar sig från alla relationer finns inte, i Latours tappning. Innan man avfärdar detta med spontan externrealism, så måste man tänka på att relationerna kan vara vad som helst. En trasig bilstereo på en soptipp är förvisso inte längre en ”bilstereo”. Men den är fortfarande tusen saker: 700 gram metall i ett helt nätverk av återvinningsprocesser, ett konstverk för en diskbänksrealistisk soptippsfotograf, en miljöfara enligt lagen om farligt avfall, ett bo för bakterier som trivs i syrehaltiga miljöer, en potentiell livsfara för en fiskmås som letar föda. Att vara en bilstereo, tågvagn, dator eller stol, att vara det som vi ”menade” med den svarta lådan, är bara en händelse. Kosmiskt sätt är hela jordklotet en megastor svart låda, vars inre komponenter vi för det mesta tar för givna, även om vi då och då är upptagna med att fixa ”buggarna” (global uppvärmning, kärnavfall i Fukushima, utfiskade hav, diktaturer med galna ledare).

Den svarta lådan korsar tvärt igenom det som Latour sedan kom att kalla den ”moderna konstitutionen”, alltså tron på, och tanken om, att natur och samhälle är två separata poler, som har gett upphov till de två stora filosofiska misstagen; A) Att samhället orsakas av naturen (naiv realism, reduktionism), eller B) att våra sociala konstruktioner styr hur och vad vi uppfattar som natur (humanism, korrelationism, kritik). Svartlådning gör ingen skillnad mellan när vi upptäckte ljusets krökning vid stora gravitationsfält 1919 eller när vi tillverkade en bronsyxa i Thailand 3000 f. Kr.

Samhället som helhet, del III

Jag inser att temat Samhället som helhet börjar utveckla sig till en så kallad ”bloggserie”. Denna genre brukar kännetecknas av baklänkar, och enär jag är en slav under format så följer här länkar till del 1 och del 2. Bloggserier brukar vara resultatet av att jag läser massa böcker, som jag sedan ska återgå till i andra sammanhang. Därav har de karaktären av ”anteckningar” snarare än sammanhållna bloggposter som är genomtänkta.

För att summera upp: Det finns ett spår via vetenskapssociologin (Mannheim, Merton, Zilsel) som förutsätter samhället som en helhet för att förstå hur vetenskaplig kunskap och teknik blir till, formas och sedimenteras. Detta spår finns även inom grenar av kritisk teori, där det inte med nödvändighet måste grundas i sociologism, utan själva ”totaliteten” kan ha andra orsaker (ekonomiska, klassmotsättningar, dialektiska).

Kan vi då hitta en helt motsatt ansats i samtida filosofi? Utan tvekan är Bruno Latour en sådan figur, en figur som utan tvekan har fått ett varmt mottagande inom vetenskaps- och teknikstudier. Johan Söderberg avfärdar dock Latours ansats i sin avhandling genom sin fallstudie om Ronja-projektet:

Crucially, these entitites are not just ‘scaled-up networks’ as Bruno Latour would have us believe (Latour 1983). My counter argument is that it is insufficient to follow material connections alone in this fasion. These empirically observable traces must be seen as folded into historically developed forms which constitute reality on multiple levels of abstraction. (51)

Kritiken är befogad när det kommer till Latour, och hänger samman med det som Graham Harman kallar för ‘relationism’, som finns inbyggd i Latours begreppsapparat. Men innan vi går in i den diskussionen finns det anledning att i detalj kolla upp vad Latour egentligen har för utgångspunkter. Det är dags att ta tag i texten ”Irreductions”, som är den andra delen av boken The Pasteurization of France. Texten är skriven i traktatformen, som vi känner igen från bland annat Spinoza, Wittgenstein och Deleuze & Guattari (i kapitlet ”Treatise on Nomadogy”).

Inledande axiom

1.1.1 Nothing is, byt itself, either reducible or irreducible to anything else.

1.1.2 There are only trials of strength, of weakness. Or more simply, there are only trials. This is my point of departure: a verb, ”to try.”

1.14 Everything may be made to be the measure of everything else.

1.1.5. Whatever resists trials is real.

Dessa inledande axiom utgör grunden i det som senare har kommit kallas för Aktör-nätverksteori. Här finns uppenbarligen ingen plats för varken totaliteter eller helheter. Strikt taget kan inget reduceras till något annat, någonsin. Det finns inga ostensiva eller givna entiteter, utan Latour presenterar här en fullfjädrad processontologi, där allting ”testas” fram (översättningen av ”to try” är egentligen irrelevant, eftersom Latour menar det kan ersättas med alla andra verb likaväl). Det enda sättet som något kan existera på ett reellt plan är genom att det gör motstånd, och detta gäller för allt, vare sig det är mänskligt, materiellt, immateriellt eller fiktivt.

Detta leder ju till att man egentligen inte kan tala om ”entiteter”. Detta begrepp är ju redan alldeles för belastat med tillvaro. Latour fortsätter:

1.1.7 What is a force? Who is it? What is it capable of? Is it a subject, text, object, energy or thing? How many forces are there? Who is strong and who is weak? Is this a battle? Is this a game? Is this a market? All these questions are defined and deformed only in further trials.

– In place of ”force” we may talk of ”weaknesses” ”entelechies”, ”monads”, or more simply ”actants.”

Huruvida något kan bli ett objekt, en text, en energi eller ett subjekt är alltså alltid beroende av processerna (trials). Det finns inga givna egenskaper hos något förrän någon annan/annat kolliderar och gör motstånd mot ‘aktanterna’. Form uppstår, det är inget som är givet på förhand.

1.1.14 Nothing is by itself ordered or disordered, unique or multiple, homogenous or heterogenous, fluid or inert, human or inhuman, useful or useless. Never by itself, but always by others.

1.1.14.1 Order is extracted not from disorder but from orders.

Något kan alltså bara får egenskaper genom andra (aktanter). Datorn jag skriver på har inga egenskaper förrän jag skriver på den, eller ett program använder den till något oberoende av mig, eller förrän den kopplar ihop sig med andra datorer. Detta händer ju som tur är hela tiden, vilket gör att det finns miljoner datorer i världen, men de finns bara så länge de definieras av andra. Den tillfälliga stabiliteten som uppstår när jag skriver på tangentbordet, när datorn blir en persondator och jag blir en användare, är inte ordning ur kaos, utan ordning ur tidigare ordningar. Jag lärde mig data när jag var typ tio år, och när jag sitter och skriver nu, fortsätter jag en rörelse som pågått sedan jag skrev LOAD första gången på min C64. (inte helt sann historia, jag hade en sån där cartridge till min C64 som gjorde att man kunde klicka med joysticken(!)).

Dessa processer som hela tiden skruvar ihop och isär världen leder dock inte till slutsatsen att de föregås av kaos och oordning, inte heller ställer de till med rörigheter i en tidigare harmonisk ordning:

1.2.3.1 There are neither wholes nor parts. Neither is there harmony, composition, integration, or system. How something holds together is determined on the field of battle, for no one agrees who should obey and who command, who should be a part and who the whole.

– There is no preestablished harmony, Leibniz notwithstanding, harmony is postestablished locally through tinkering.

Det finns varken delar eller helheter. Dessa postetableras endast av tidigare processer. Om något framträder som en helhet för oss, så är det blott resultatet av aktanters ”kommenderande” i vissa riktningslinjer. Datorn framträder för mig som en helhet. En hel turingmaskin. Den ”harmoni” som uppstår när datorn översätter mina knapptryckningar till binärkod som körs genom ett chip med miljoner transistorer, och som utan att jag riktigt tänker på det skickar data till en skärm, ut över världen via nätverksporten (ja, jag skriver ofta i Etherpad, detta dokument skrevs här), är blott en harmoni som uppstår i det kontingenta mötet mellan mig och datorn och datorerna på internet.

Detta leder till att harmonier och helheter aldrig kan vara entydiga ur ett transcendent perspektiv:

1.2.8. Every entelechy makes a whole world for itself. It locates itself and all the others; it decides which forces it is composed of; it generates its own time; it designates those who will be its principle of reality. It translates all the other forces on its own behalf, and it seeks to make them accept the version of itself that it would like them to translate. Nietzsche called this ”evaluation,” and Leibniz ”expression.”

Varje aktant, eller ”entelechy”, skapar sin egna värld. Processorn i min dator tar emot signaler och skickar signaler, dess territorium och dess tidsuppfattning skiljer sig radikalt från mig som köttmänniska. Den opererar på en atomär nivå, med ljusets hastighet, och behöver inte bry sig om datorn i Kina, eftersom det tar nätverkskortet ändå hand om. Jag behöver inte bry mig om binärkod, inte heller behöver jag bry mig om datorn i Kina, eftersom min webbläsare inte gör någon skillnad på geografisk position. Allt som behövs är att datorn i Kina delar protokollet ipv4 med mitt operativsystem (samt med en massa andra datorer och sladdar som leder till andra sidan jorden).

Utvikning om totaliteten ”kapitalism”

Latours inledande axiom, som presenterades ovan, får radikala konsekvenser för totaliteterna. För att belysa Söderbergs kritik ovan så finns det en poäng att se precis hur Latour resonerar kring nittonhundratalets ”stora totalitet”. I ett långt citat avfärdar han implicit både Deleuze & Guattari (”deterritorialization”) och Derrida (Difference), till förmån för Fernand Braudel:

1.4.6.2 It has often been said that ”capitalism” was a radical novelty, an unheard-of rupture, a ”deterritorialization” pushed to the ultimate extreme. As always, the Difference is mystification. Like God, capitalism does not exist. There are no equivalents; these have to be made, and they are expensive, no not lead far, and do not last for very long. We can, at best, make extended networks. Capitalism is still marginal even today. Soon people will realize that it is universal only in the imagination of its enemies and advocates. Just as Roman Catholics believe in the universality of their religion even though it only flows in Roman channels, the enemies and supporters of capitalism believe in what is perhaps the purest of mystical dreams: that an absolute equivalence has been achieved. Even the United States, the country of true capitalism, cannot fully live up to its ideal. Despite the efforts of the trade unions and the employers’ associations, forces swarm that cannot be made equivalent without work. My homage to Fenand Braudel, who does not hide this fact and shows how long-distance control may be achieved through tenous networks.

Det kan inte finnas ”ekvivalens” i universum. Det kan inte finnas några abstrakta logiker alls, och i synnerhet inte sådana marginella fenomen som ”kapitalismer”. Precis som in de inledande axiomen måste även ekonomiska aktanterna hållas samman enbarat av trials of strength, vilka möjliggör ”action on a distance”. Det kan strikt taget inte finnas några kompositionsplan, förutom i den mening att aktanter kan göra sig så starka att de tillåts dirigera andra aktanter (Seven-eleven koloniserar stadsrummet och konkurrerar ut lokala caféer genom antimarknader).

Om det inte finns några ”logiker”, inga abstrakta maskiner, inga naturlagar, inget undermedvetet, vad återstår då? I det andra kapitlet av Irreductions, ”Sociologics”, blir detta tydligare:

2.1.7.3 Daily practice needs no theorist to reveal its ”underlying structure”. ”Consciousness” does not underlie practice but is something else sowhere else in another network. Practice lacks nothing.

2.1.10 Since nothing is inherent in anything else, the dialectic is a fairy tale. Contradictions are negotiated like the rest. They are built, not given.

Latour är inte bara anti-sociologisk, han är anti-teori. Det finns ingenting ”bakom”, ingenting ”underliggande”. Det finns bara praktiker, och dessa praktiker har alltid karaktären av förhandlingar. Det finns alltså ingen grundläggande motsättning, ingen dialektik. För att det ska finnas motsättningar måste dessa först byggas och förhandlas som allt annat. Motsättningen mellan kapitalägare och proletär finns inte som ett tillstånd före det moment en aktör ansamlar pengar, köper en fabrik och anställer människor att arbeta där. Varje steg (sånt som ekonomer kallar för ”innovationer och entreprenörskap”) måste föregås genom att varje litet steg förhandlas in i minsta detalj, även om det går fort och smidigt.

Men då kommer vi till den kritiska frågan. Hur kommer det sig då, att under en trehundraårig epok i vår historia, att fabrikerna ser ungefär likadana ut, först i Europa och USA, idag lika väl i Indien, Kina, Zimbabwe? Hur kommer det sig att en viss motsättning ser likadan ut, i generella drag, över hela världen? Hur kommer det sig att lokala förhandlingar tycks följa ett globalt (totaliserande) mönster?

Detta går inte att besvara utifrån Irreductions. Men det går att hitta vägar framåt genom att läsa den kritiska läsningen av denna text som Grahamn Harman gör i Prince of Networks.

Men, det blir temat för del 4 i denna serie.

Samhället som helhet

Den senaste tiden har det varit väldigt tyst här på bloggen av den enkla anledningen att jag försjunkigt med hela min tillvaro in i de akademiska långsamma hastigheterna. Med andra ord har jag arbetat intensivt på min avhandling, som enligt planerna ska vara färdig någon gång i höst.

Avhandlingen behandlar många problem. Men ett av dem kan man säga är filosofiskt, alltså hur är helheter, totaliteter, sammanhållna entiteter möjliga?

Detta problem diskuteras bland annat hos Kalle (jordbruk och ekonomi) och Rasmus (kapitalet).

Man skulle kunna tänka sig att frågan om helheter blott är en filosofisk-exegetisk manöver, något som inte egentligen har några konsekvenser annat än för tänkandet självt. Men så är det inte riktigt. Vad som finns, är vad som vi agerar efter. Finns ekonomin som en helhet? Finns staten? Finns samhället? Finns liv? (i den moderna biologin).

Även om de kanske mest spännande diskussionerna här pågår i den såkallade bloggkloaken, så letar sig som tur är dessa frågor då och då in i akademiska texter. Ett aktuellt exempel är Johan Söderbergs avhandling Free software to open hardware: Critical theory on the frontiers of hacking (som jag ännu inte läst i sin helhet, utan endast den kappa som finns länkad).

Inom STS-forskningen har man länge ignorerat helheterna och istället sysslat med fallstudier, och empirinära mikroanalyser av hur bland annat vetenskaplig kunskap blir till, som en praktik, ofta med betoning på det konkreta istället för det abstrakta. Söderberg föreslår därmed att STS kan befruktas med kritisk teori för att på så sätt kunna vässa sin kritiska skärpa:

In one sentence, this is the dialectical heritage of the former which clashes with the post-structuralist influences of the latter. In particular, a key sticking point between the two traditions is the concept of ‘totality’. What political strategies follow from either maintaining or abandoning this concept? /…/ It is from the point of view of the social whole that critical theory claims to be able to transcend the horizons of the individual actors themselves. In other words, this philosophical idea is the key for engaging in ideology critique and for guiding praxis.

Söderberg menar alltså att när man överger totaliteter så förlorar man, eller åtminstone riskerar man att förlora, en viktig form av ideologikritik och därmed även en strategisk kompass för politisk handling. Det krävs ett ‘social whole’ för att ta sig ur individuella erfarenheter, ut ur mikropolitiken, och in på en samhällskritisk arena. Å ena sidan är detta en utgångspunkt för nästan all modern sociologi, från Durkheim till Marx. Å andra sidan formerar totaliteter utgångspunkterna för nästan alla politiska rörelser.

Den givna frågan, som intresserar mig väldigt, blir då huruvida det motsatta perspektivet uppfyller eller inte uppfyller dessa kriterier. Vad händer om delen är större än helheten, om komposit föregår totalitet, och om sammanhållna entiteter endast håller samman av på grund av pågående processer? Om axiomatik föregås av rhizomatik?

I ett mycket preliminärt skede av min avhandling, som på ett plan syftar till att förklara hur dessa ‘social wholes’ blir till, ställer jag följande fråga (med utgångspunkt i staden Borås):

The main problem, as well as the main challenge, then becomes how these elements hold together, not by a totality, nor by a certain logic, but by way of historical consolidations; sedimentations which were once fuzzy, then progressively growing harder (the opposite, disintegration, is of course also possible). To say that, for example, the inhabitants of Borås think and feel in a particular way, is only possible to do with accuracy and credibility if there is something which embodies that statement. The social sciences never depart from a clean slate, they do not appear out of nothing. Rather, they need a ’full body’ of composite parts, which are aligned in certain configurations. I want to see how they have been connected, how they have been assembled in a fashion which today renders the quantitative social sciences able to speak in the name of the Borås urban dwellers, or for that matter, any other object as which falls within epistemic domains.

Min fråga här är hur ”samhället som helhet” kan bli till som ett epistemiskt objekt? Exempelvis Durkheim löste detta problem, mycket förenklat, med att förutsätta att det fanns ett sanktionerande normsystem som överskred individen, som var mät- och beskrivbart. Nu handlar inte min avhandling om Borås (vetenskapliga mätningar säger att Borås är en tråkig stad), men min fråga är hur kan vi tänka Borås, som en del i en helhet (Sverige), som en del av en kultur (ytterligare en totalitet) som följer vissa mönster och upprepningar, som både konstituterar och är konstituerat av ett ‘samhälle’.

Så, i sin förlängning har denna debatt en slags yttersta spets: Leder ett avfärdande av totaliteter till ”metodologisk Thatcherism” eller inte? Att det finns totaliserande processer är det nog ingen som underkänner: De går under en rad beteckningar såsom fascism, kapitalism, byråkratisering, asketism, etc. Frågan är kanske istället, är de entiteter eller processer, sammansättningar eller objekt, relationer eller bifurkationer, cement eller sediment?

För den intresserade finns ett mycket tidigt utkast av min avhandling på ett avsides kryphål i webben. Observera att detta är ett tidigt och ofullständigt utkast, som mycket väl kan förändras mycket innan det blir en så kallad avhandling av det. Detaljer om seminariet finns i pdf-filen.

För att ytterligare beskiffra webben finns den även som AES256-krypterad fil, med namnet insurance.aes256. Avkryptera i Linux medelst openssl enc -d -aes-256-cbc -in insurance.aes256 -out fil.pdf. Lösenord: fraktalpolitik.