Mårdhunden, Judasdjuret och Människan

Racoondogskull

I helgen har jag testat att analysera biodiversitetsdata från Analysportalen från Svenska Lifewatch. Analysportalen innehåller enorma mängder artobservationer från bland annat det stora medborgarforskningsprojektet Artportalen.

Mårdhunden är en invasiv art. Den introducerades under perioden 1928-1950 i Ukraina för att jagas för pälsens skull. Människans fåfänga har ofta ekologiska konsekvenser och så även i detta fall. Mårdhunden etablerade sig och spred sig, från post-Sovjet hela vägen över Finland, till Sverige.

För att få bukt med spridningen av mårdhundarna använder man sig av ”Judasdjur”. I Jägareförbundets rapport 2015 kan man läsa följande mycket poetiska stycke:

Sändarmärkta mårdhundar (Judasdjur) letar dygnet runt efter  nya  mårdhundar  som de sedan  leder  oss  till.  Mårdhunden  är  monogam  och  dess  första  prioritet  förutom  egen  överlevnad är att finna en partner som den sedan aldrig lämnar förrän en av dem dör, då den  återigen  börjar leta en ny  partner.  Sterilisering av  sändardjuren  utförs  innan de släpps så att de inte ska kunna reproducera sig om vi skulle förlora dem genom sändarfel.Båda  könen  fungerar  lika  bra  som  Judasdjur.  Sändardjuren  fungerar  effektivare  ju  lägre  täthet det är eftersom det då är mycket svårt för oss människor att ens hitta ett spår. En annan  mårdhund  kommer  dock  att  förr  eller  senare  finna  sin  artfrände.  De  ägnar  all  sin  tid åt detta och vandrar över mycket stora områden (ibland långt över 100 000 hektar) i sitt  sökande.  I  figur  1  ser  vi  området  en  mårdhund  har  täckt  under  två  år  i  sitt  sökande  efter  en  partner,  området  är  större  än  de  flesta  län  i  landet.  När  de  finner  en  partner  avslutas  vandringen  och  paret  stannar  därefter  inom  ett  mycket  begränsat  område,  det  är också så vi ser att de har funnit en partner.

Framtiden ser inte ljus ut för mårdhunden.

screen-shot-2016-12-05-at-09-53-15

Mårdhundsobservationer per län, se källkod.

Men vad har vi för data på mårdhundens utbredning? Analysportalen är ett fantastiskt verktyg för öppna data, och man kan med enkla medel ladda hem alla observationer. Med lite helghackande lyckades jag få till lite kod som kan användas på lite olika sätt. All kod och data som behövs för att replikera figurerna finns här.

Med lite kod kan man skapa en karta över de inrapporterade observationerna (klicka för att få fram info om varje observation).

Se kartan i större format.

Men hur ska vi förstå mårdhunden och dess relation till territoriet, människan och ett processfilosofiskt tänkande?

Deleuze och Guattari’s berömda passage i Tusen platåer ger oss ett tankeuppslag:

Orkidén avterritorialiseras genom att skapa en bild, en kalkering av en geting; men getingen återterritorialiseras på denna bild. Getingen avterritorialiseras emellertid, i det att den själv blir en del av orkidéns reproduktionsapparat; den återterritorialiserar orkidén genom att transportera pollen. Getingen och orkidén bildar ett rhizom just därför att de är heterogena. (s. 27)

Människans fåfänga skapade en bild av mårdhundens päls i relation till hur människans semiotiska signaler (pälskläder) territorialiserar ett socialt stratum (jag är rik, jag har ”stil”). Detta ledde till att fåfängans logik översattes en kapitalistisk utbyteslogik av de Sovjetiska(!) aktörerna som gjorde vad de kunde för att introducera mårdhunden i östra Europa och västra Asien. Det var främst i Baltikum som mårdhunden kunde återterritorialisera sig i de födorika skogarna. Men den skulle sakta men säkert börja vandra norrut genom Karelen, samtidigt som den avterritorialiserade de djupa skogarna och kastade om den ekologiska balansen. I mårdhundarnas magar skapade dvärgbandmaskar och parasiter kalkeringar av en mårdhund och gjorde denna plats till sin reproduktionsapparat. I detta moment skapade människan en ny bild av mårdhunden som en invasiv art. Man uppfann Judasdjuret, som med avsaknad av reproduktionsapparat (steriliserad) kunde röra sig över hundratals hektar av skog i jakt på en förvildad mårdhund.

Människan, Judasdjuret, mårdhunden och dvärgbandmasken bildar ett rhizom, vars utbredning är en ständig kamp om territorium.

Anonymisera facebookdata för forskning med hmac och hashlib

Om man vill samla in data från Facebook i forskningssyfte stöter man genast på forskningsetiska problem. Facebook ger alldeles för mycket information om informanterna, utan att man ens behöver be om lov.

Här tänkte jag bara ta upp en detalj som handlar om den ”farligaste” uppgiften i den datamängd som man kan extrahera med Facebooks API: det unika id-numret.

Varje Facebookanvändare har ett femtonsiffrigt nummer tatuerat i sitt digitala skinn. Det ser ut så här (i (förkortat) json-format):

    {
     "id": "48236456782311475_63332119186437",
     "message": "This is a message written by an informant",
     "type": "status",
     "from": {
         "id": "121506454323368",
         "name": "Jane Doe"
     },
     "created_time": "2011-06-11T25:48:31+0000",
     "status_type": "wall_post",
     "is_expired": false
    }

De två fält som är uppenbart identifierande är alltså id och name. Här tänkte jag bara ta upp id-numret. Att ersätta namnet men behålla man/kvinna-distinktionen är ett problem som måste lösas på ett annat sätt.

För att kunna bevara det unika med id-numret utan att kunna identifiera en riktig person tänkte jag att man skulle kunna använda kryptering. Men jag är inte så duktig på det så jag undrar nu om detta kan vara ett vettigt angreppssätt.

Eftersom id-numrena alltid är femtonsiffriga så är det nämligen möjligt att räkna fram alla hashsummor, även om det skulle ta lite tid. Men om man däremot använder HMAC så lägger man till ett lager av säkerhet genom att man använder en unik hemlig nyckel och krypterar med. Så här tänkte jag ungefär:

from json import load
from os import listdir
import hmac
import hashlib

#Some code for reading files and parsing the data to jsondata

    for item in jsondata['data']:
        print("-" * 20)
        print("Name: " + item['from']['name'])
        print("Facebook id: " + item['from']['id'])
        digest_maker = hmac.new(b'replacewithsuperecretk3y', item['from']['id'].encode(), hashlib.sha256)
        print("Encrypted id: " + digest_maker.hexdigest())

Detta skriver ut:

Name: Jane Doe
Facebook id: 121506454323368
Encrypted id: dfef8d5bed530668b004e28a29488e8252e5a5224d3178f00c0f7d0bf48e4b6a

Detta gör att man kan bygga om forskningsdatan och ersätta id-numret med det krypterade numret.

Nu finns det tusen andra saker i materialet som kan avslöja en användares identitet. Men, bortsett från detta, tror ni att den här krypteringsmetoden är tillräckligt bra?

Lite mer om felmarginalsuträkningar

Sitter och uppdaterar det lilla hobbyprojektet felmarginalen. Eftersom jag precis håller på att lära mig javascript är jag inte helt säker på att jag får de olika matematiska formlerna rätt när jag översätter dem till kod.

För att räkna ut felmarginalen har jag kodat:

Math.sqrt(((procentsats * (100 - procentsats)) / urval)) * 1.96

och, för att räkna baklänges, alltså för att få ut hur stort urval man behöver, har jag vänt på ekvationen så här:

Math.pow(1.96, 2) * (procentsats * (100 - procentsats)) / Math.pow(felmarginal, 2)

Ni som är bra på statistik och javascript, visst funkar detta?

Nästa steg blir att göra så att man kan välja säkerhetsnivåer (90, 95, 99 procent) samt eventuellt göra en graf i D3.js. Förslag och kommentarer mottages varmt.

SOUernas geografi

Var är Sverige utrett? Oftast frågar man efter hur och så tänker man sig att svaret skulle vara av kvalitativ art. Men det finns en annan väg, givet att man vet exakt vilka platser som har skrivits ned i alla statliga offentliga utredningar. Rad för rad. I denna bloggpost och instruktion hade jag tänkt att försöka mig på att ta ett steg närmare en sådan empirisk datamängd.

En spännande teoretisk fråga man då kan ställa sig handlar om hur staten ”blir till” (performativt) genom att utreda ort för ort. På samma sätt som ett nätverk av ryska gasledningar kan göra anspråk på ett territorium, kan ett nätverk av utredningar sakta men säkert släppa på och av flöden av ”statsgas” som letar sig ända ut i skogarna och värmer (eller kyler) stugorna med en känsla av att tillhöra ”staten Sverige”.

Nationens gränser finns inte, de måste hela tiden (om)skapas.

Jag tänkte med denna bloggpost lägga ut steg för steg hur jag har lyckats extrahera alla ortnamn ur SOUer 1922–1996. Jag lägger ut all rådata och alla steg i bearbetningen. Det blir kanske inte så läsvänligt, men å andra sidan kan alla mina steg replikeras och kritiseras så att datan blir fullt användbar för vem som helst att använda eller publicera. Dessutom krävde det hela mycket datorkraft, så det är en miljöinsats att använda mina filer.

Med andra ord, det är alltså fritt fram att göra vad ni vill!

\\
Steg 1 – Extrahera ortsnamn
Detta tog en vecka. I skripten som Peter Krantz publicerade finns lista på ortsnamn som man kan matcha mot alla SOUer med hjälp av:


grep -owf features.txt data/30tal/*.txt > trettiotal.txt

Jag körde detta för varje katalog i åtta screens på en riktigt snabb server. I detta läge använder sig grep av Aho Corasick strängmatchning. Den letar alltså efter träffar från en (jättelång) lista av ord och så printar den ut dessa till en fil. Kanske hade jag kunnat distribuera processorlasten över alla 32 processorer i mitt system, men jag ville heller inte krascha maskinen som delas med andra. Den råa datamängden från detta kan laddas ned som:

Men dessa filer innehåller massvis av skräpdata och är bökiga att arbeta med statistiskt. Således måste de bearbetas.

\\

Formatera data

För att göra datamängden statistiskt läsbar började jag karva fram variablerna Årtal, SOU-Nummer och Ortnamn enligt följande trixande med reguljära uttryck (kommentera gärna om ni har smidigare lösningar).

Först gjorde jag en första grov extrahering av Årtal (\d{4}), Nummer (:\d{2}) och sedan Ortsnamen som kommer sist på varje rad (.*):


ag -o '\d{4}:\d{2}.*(?<=:\d{2}.txt:).*' SOU1922-1996.txt > 1.txt

Sedan gjorde jag två olika versioner. Den första filen (2.6Mb)inneåller År, Nummer, Ort och gjordes om till en kommaseparerad fil med ett enkelt perl-handgrepp:


perl -p -i -e 's/.txt:/, /g' 1.txt

Men, för enkelhets skull gjorde jag även (2.4Mb) en version med bara År och Ort ur ovanstående fil:


perl -p -i -e 's/:\d{2}//g' 1.txt

\\

Stoppord

Men nu framträder ytterligare ett problem. Ortnamn, speciellt svenska ortnamn, har ju ibland betydelser även i vardagsspråket. Staden Kista och en sådan där trälåda man läggs i när man dör, stavas likadant. Ännu värre blir det med orten ”Vi” eller ”Gran”. Jag började först med att bläddra igenom filerna induktivt och hittade själv följande lista:

Vi|Bet|När|Bön|Håll|Mark|Böj|Vad|Färjan|Kap|Så|Alla|Verksamheten|Vecka|Källa|Varmvattnet|Hallen|Bo|Gran|Björk|Viken

Men detta var väldigt tidsödande, så jag frågade runt i sociala medier och fick massvis av svar. Här är de jag samlade in i går kväll:

Lyckan|Önska|By|Ön|Holmen|Strand|Vara|Mannaminne|Ensamheten|Bor|Kärleken|Skara|Bro|Viken|Skruv|Tving|Råda|Torp|Näs|Berg|Lugnet|Torp|By|Sand|Slut

För att sortera ut dessa falska positiver använde jag mig av lite perl.


perl -p -i -e 's/^.*\b(Vi|Bet|När|Bön|Håll|Mark|Böj|Vad|Färjan|Kap|Så|Alla|Verksamheten|Vecka|Källa|Varmvattnet|Hallen|Bo|Gran|Björk|VikenLyckan|Önska|By|Ön|Holmen|Strand|Vara|Mannaminne|Ensamheten|Bor|Kärleken|Skara|Bro|Viken|Skruv|Tving|Råda|Torp|Näs|Berg|Lugnet|Torp|By|Sand|Slut|Mom)\b//g' test.txt

Detta tar bort alla rader som innehåller något av ovanstående ord. Däremot lämnar det kvar blanka rader som jag tar bort med:


perl -p -i -e 's/^(\s*|\r|\n)$//mg' test.txt

Av någon anledning fanns fortfarande orten ”Så” med, så jag fick köra en ny vända med:


perl -p -i -e 's/.*Så//g' test.txt

Och sedan ta bort blanka rader igen.

\\
Datamängden

Sedan är det bara att döpa om txt-filen till .csv. Och så har vi datamängden SOU1922-1996artal-ort-filtered.csv.zip (1.5Mb).

Denna kommaseparerade fil borde man kunna läsa in rakt i Excel om man vill. För att göra allt replikerbart har jag dock bara gjort lite enkel statistik i R. För att skapa en enkel lista över orter i SOUer (i fallande ordning), kör jag bara (byt ut sökväg):


mydata <- read.csv("/home/anon/Desktop/SOU1922-1996artal-ort-filtered.csv") sink("Platserfrekvens.txt") df <- as.data.frame(table(mydata$Place)) ; df[order(df$Freq, decreasing=T), ]

Här instruerar jag R att skriva ut hela resultatet till filen Platserfrekvens.txt vars topplista ser ut så här:

Stockholm 73039
Göteborg 28937
Uppsala 26130
Malmö 20032
Danmark 17324
Norrland 15245
Örebro 14191
Lund 14143
Kalmar 10821
Bohus 8124
Frankrike 7372
Umeå 6948
Gävle 6569
Norrköping 6013
Västerås 5777
Luleå 5389
Skåne 5249
Linköping 5125
Karlskrona 5015
Hälsingborg 4695
Växjö 4190
Os 4069

Jag antar att "Os" är ytterligare en sökanomali. Stoppordslistan måsta alltså uppdateras.

Men detta vara bara ett test och ett sätt att få ut datamängden så att ni andra kan börja tinka med den. Det borde vara enkelt att skapa fina grafer över tid, kanske ned till varje enskild rapport. Det skulle även vara helt magnifikt med en sverigekarta som över tid uppdaterades dynamiskt med en "prick" på kartan varje gång en SOU nämnde en ort. Då skulle man, precis som med tekniska nätverk, se precis var någonstans det finns "täckning" och var någonstans det finns "vita fläckar". Tänk en täckningskarta för mobiltelefoner.

Kommentera mer än gärna. Vad finns det mer för idéer?

Relationer i SOUniversum 2 : SOUlab

skriptet

I förra blogginlägget gick jag den långa omvägen till att bygga upp en nätverksfil som man kan visualisera med program som Gephi. Det var aningen krångligt, men ganska roligt.

Peter Krantz har skrivit en knippe pythonskript som gör allt mycket enklare. Bilden ovan (klicka för förstoring) är genererad på alla SOUer från 1922–1993, storleken justerad efter ”indegree”, dvs. ju fler citeringar en SOU får, desto större ”boll”. Exakt hur detta ska analyseras är något jag får återkomma till, så kommentera gärna!

Krantz skript är väldigt användbart men för att det ska gå att metodredovisa i detalj (ex. om man funderar på att publicera artiklar på materialet) måste man analysera enventuella felkällor.

SÅ jag tänkte att jag skriver ut en liten instruktion om hur man får igång skripten, dels för mitt eget minne, dels för om någon vill pröva själv. All kod är släppt under MIT licens av Krantz.

\\

Nu, över till terminalen.

1. Först och främst måste du ha Python installerat på din dator. Kör du Linux är det troligtvis redan installerat, annars är det lätt att hämta via distributionens pakethanterare. På MacOS går det att hämta här.

2. Python behöver några extra moduler. Dessa installeras med kommandot pip install peewee==2.6.1 lxml pygexf (lägg till sudo före pip i Linux).

3. Om du inte redan har gjort det, ladda hem alla SOUer som individuella textfiler och packa upp.

4. Om du har Git installerat kör du sedan bara:

git clone https://github.com/peterk/SOUlab.git

Annars kan du ladda ned och packa upp manuellt från Github-sidan.

5. Nu kan skripten börja köras. Det är tre stycken som körs efter varandra. Tänk på att hela tiden ange rätt sökväg, alltså till den katalog som blev till när du packade upp alla SOU-textfilerna:

python build_db.py /katalog/till/SOUfilerna
python parsesou.py /katalog/till/SOUfilerna
python gen_graph.py filnamn.gexf

Programmet bör då ge följande lilla meddelande om allt funkar


Writing to filnamn.gexf
SOU-grafen directed static
number of nodes : 4894
number of edges : 20943

.gexf-filen går sedan att öppna med Gephi.

Tack Peter Krantz för detta verktyg. Det sparar oändligt med arbete och eftersom det är öppet kan det användas för riktig forskning framöver!

Instabila installationer av Manylines och Hyphe

I anslutning till de föregående inläggen om Manylines och Hyphe tänkte jag att jag på prov släpper ut tjänsterna på internet.

Ni får gärna testa mina installationer på följande adresser:

Observera att det rör sig om mycket tidig mjukvara (version 0.1) som har utvecklats av Médialab Sciences Po. Så använd inte dessa tjänster till något seriöst. Spara ned ofta och räkna med att det kommer att krascha. Även rent hårdvarumässigt finns det begränsningar. Jag kör allt på en överbliven eee-pc minilaptop under Ubuntu Linux. Detta förklarar att det troligtvis går ganska segt när ni använder Hyphe.

Kommentera gärna om det inte funkar.

Uppdatering:

Jag uppgraderade Hyphe till version 0.2. Observera att för att få den senaste versionen måste man klona via git istället för att ladda ned .zip-filen. På Ubuntu Server 14.04.2 (den senaste versionen) räcker det med följande kommandon för att snabbt installera hela paketet:


git clone git://github.com/medialab/hyphe.git
cd hyphe
./bin/install.sh
./bin/hyphe start

Eventuellt behöver man se över Apache-konfigurationsfilerna för att se att allt funkar mot internet. Eller så ssh-proxar man bara in till maskinen och går till localhost/hyphe, vilket även är smidigt om man kör det hela som en virtuell maskin och bara jobbar lokalt.

Jeremy Bentham och kvantifieringen av lycka – En djupanalys av Marco Guidi och en jämförelse med Bergson

Jag har tidigare varit inne på att Jeremy Bentham troligtvis var först ut i med att förbereda och utforma ett lyckobegrepp som kunde mätas. Ett lyckobegrepp som var kvantifierbart. Ett lyckobegrepp som kunde integreras i en vetenskap om samhället (scientia felicitas?).

Tidigare trodde jag att denna proto-kvantifiering var begränsad till  kapitel 4 i An Introduction to the Principles of Morals and Legislation. Där fann jag början till en ”skala” för att mäta lycka, även om Bentham aldrig realiserade en sådan mätning på ett vetenskapligt sätt.

Men, givetvis var jag inte först med att upptäcka detta!

I kapitlet Jeremy Bentham’s quantitative analysis of happiness and its asymmetries 1, skriver den italienska ekonomen Marco E. L. Guidi om Benthams kvantitativa ansats i förhållande till lycka och välbefinnande (happiness/well-being). Denna briljanta och djuplodande text är publicerad i boken Handbook on the Economics of Happiness, och är på så sätt en del av den syntes som sker mellan ekonomer och lyckoforskare, som jag är på spåren och försöker begripa.

Guidis text går in på flera av Benthams källtexter och den är så precist skriven att jag tänker att det är värt att lägga ut mina anteckningar om den.

\\

Guidi inleder med att argumentera mot att Bentham skulle vara en ”primitiv och naiv” filosof, vars resonemang i huvudsak fungerar som reduktionismer. Paradoxalt nog har samma filosofer ändå givit honom en upphöjd position, som källa till den hedoniska psykologin, utilitarismen och rational choice-teorin. Jag vet varken in eller ut i denna idehistoriska diskussion, men det kan ändå utgöra en intressant sensation, att öppna sig bortom historieskrivningarnas -ismer och förhålla sig öppen till att göra saker mera komplicerade. Det är ju trots allt det som är poängen med humaniora.

När det gäller Benthams lyckokalkyl, hans felicific calculus 2, finns det nämligen två tolkningar enligt Guidi. Den första utgår från att Bentham ville kvantifiera lycka/välbefinnande så precist som möjligt, med numeriska heltal; the cardinalist approach (p. 68). Den andra utgår från att Bentham började tveka på sin kvantifiering och snarare rörde sig i en taxonomisk riktning, i ett försök att klassificera de olika storleksgraderna av njutning och smärta, något Guidi kallar för the ”ordinalist approach” (Ibid).

Det kan tyckas vara en detalj. Men för att göra ”samhället” mätbart måste vi uppfinna skalor som mäter denna container, som uppstår i samma moment som vi konstruerar den. Att mäta är alltid en performativ handling, mätningen är i sig beroende av vad Austin långt senare kallade ”felicity conditions”.

Vad som gör lycka till en ”kalkyl” kommer ur att definitionen, enligt Guidi, alltid är en relation mellan njutning och smärta:

Good – at and individual level as well as at a social level – is therefore happiness, and happiness is a ‘balance’ between the sum of pleasures enjoyed by the individual in question, and the sum of their pains (p. 70)

Eftersom vi kan räkna både på njutning och smärta (givet att vi har ett ”instrument”) uppstår ”this sort of economy” (p. 70=) som en slags summa, som förhoppningsvis lutar mot njutningssidan. Men för att vi ska få en summa måste njutningen vara mätbar. Jag är så fräck att jag tar ett Benthamcitat ur Guidis text:

Body, to exist, must in like manner possess those those things: length, breadth, and thickness…. By them it is measured. Mathematicians call them its Dimensions. ‘Dimension’ comes [from] form ‘Dimetior’, or ‘to measure’.
Of Mathematicians then let us borrow the appelation: and let us begin with saying: Pleasure is comprised under two dimensions, Intensity and Duration. (Original Italics), Bentham, in Guidi, p. 71).

Så vad Bentham gör är inget mindre än motsatsen till vad Bergson skulle komma att göra lite mer än hundra år senare. Bentham tänker sig njutningens intensitet och varaktighet som exterioriteter! De kan mätas precis som ”matematikern” mäter kroppar (Cartesianska), som längd, bredd och tjocklek. De kan mätas som ”dimensioner” på detta sätt.

Detta är helt centralt! Det Bentham gör i ovanstående citat är precis det som gör att hans sätt att mäta lycka, även om det hos honom själv inte hann blomma ut i sin fulla kraft, är det dominerande sättet att mäta lycka på idag! Bentham gör känslorna av njutning och smärta mätbara som extensiteter/exterioriteter.

Detta ville som bekant Bergson bryta med i Tiden och den fria viljan. Han ville visa att känslorna inte var mätbara eftersom de inte kunde omvandlas till numeriska storheter. Jag gillar Bergsons angreppssätt. Men, det finns inget Bergsonskt sätt att mäta lycka idag, troligtvis för att det inte gick att kvantifiera sättet som han tänkte ”storheter” på.

Den Benthamianska vägen, menar Guidi, går däremot rakt mot ett mätbart ”kardinalvärde” (finns det någon som vet hur man säger ”cardinal value” på svenska? Det är uppenbarligen en term uppfunnen av ekonomer snarare än matematiker):

After calculating the value of pleasures and pains at an individual level following these dimensions /../ the total value of social happiness is derived as the linear sum of individual balances /../ This obviously implies a cardinal measure of value. (p. 71)

Återigen, det är i dessa detaljer som det moderna lyckobegreppet tar sin form. Den positiva balansen mellan njutning och smärta kallar Bentham för well being (Guidi, p.81). Och vad han sedan gör är inget mindre än att skapa den så nödvändiga (numeriska) relationen mellan individ och samhälle. Vi kan mäta och räkna ut en individs summa mellan njutning och smärta. Och vi kan mäta tusen individer och räkna ut dess genomsnittliga summa mellan njutning och smärta. På samma sätt som vi kan få fram en lycklig eller olycklig individ, kan vi observera ett lyckligt eller olyckligt samhälle.

Samhällsvetenskaperna vilar på denna symmetri. Deleuze och Kafka såg hur denna symmetri fick konkurrens av en annan form – dividen.

Men för Bentham (och hans samtida tänkare) fanns bara denna ursprungliga numeriska relation mellan individ och samhälle, när de blickade ut över den tilltagande moderniten.

Higher numbers represent higher degrees of intensity. He [Bentham] then repeats the same reasoning for duration and states that the limits of of probability and remoteness are represented by certainty and presence, respectively, pointing out that ”the degrees of intensity and duration must med express’d by whole numbers: that of proximity and that of certainty by fractions. (p.71)

Men vad finns det då för instrument som kan mäta njutning och smärta? Här finns det risk för att man inledningsvis blir lite besviken på Bentham, men kopplingen till ekonomi är här väldigt intressant. Återigen lånar jag ett benthamcitat av Guidi, som i sin tur lånat det av Baumgardt:

The Thermometer is the instrument for measuring the heat of the weather: the Barometer is the instrument for measuring the pressure of the Air. Those who are not satisfied with the accuracy of those instruments must find out others that shall be more accurate, or bid adieu to Natural Philosophy. Money is the instrument for measuring the quantity of pain and pleasure. Those who are not satisfied with the accuracy of this instrument must find out some other that shall be more accurate, or bid adieu to Politics and Morals. (Bentham, J., Transcribed by Baumgardt 1952 3, in Guidi, M.E.L, p. 72)

Detta kan ju tyckas vara primitivt på många sätt. Termometern är ett instrument som mäter temperatur enligt en skala. Pengar är ett instrument för att mäta smärta+njutning (well-being). Som tur är kan vi balansera detta med ytterligare citat. För Bentham är relationen mellan rikedom och lycka inte alls linjär:

The effect of wealth in the production of happiness goes on diminishing, as the quantity by which the wealth of one man exceeds that of another goes on increasing: in other words, the quantity of happiness produced by a particle fo wealth (each particle being of the same magnitude) will be less and less at every particle (Bentham, in Guidi, p. 84)

Denna koppling mellan ekonomi och lycka föregriper Easterlins paradox med två hundra år. Men, skillnaden är dock fundamental. Bentham arbetar filosofiskt. Easterlin jobbar empiriskt, och argumenterar således medelst referens (så som Latour menar referens).

Men frågan är helt central inom lyckoekonomin: vad är egentligen relationen mellan välbefinnande och ekonomi?

Oikos nomos,

Oikos logos,

scientia felicitas.

krísis.

Notes:

  1. Guidi, Marco E. L. (2007) ”Jeremy Bentham’s quantitative analysis of happiness and its asymmetries”, in Bruni, L. & Porta, P. L. Handbook on the Economics of Happiness, Cornwall, MPG Books Ltd.
  2. Jag försöker fortfarande hitta en källa där Bentham själv använder begreppet ”felicific calculus”, men har ännu inte lyckats
  3. Baumgardt, D. (1952) Bentham and the Ethics of Today, Princeton, NJ: Princeton University Press

Tutorial: Running Histcite on Ubuntu Linux 14.04 using Wine 1.7.24

For some time I have tried to run the HistCite software package on my Linux laptop. But, since this is an old and outdated piece of software, it will not run with a default install of Wine. I searched around but couldn’t find any solution. Thus, I present my workaround here as step-by-step instructions that worked on my computer.

1. Download HistCite.

2. Install the development version of Wine using the following commands:


sudo add-apt-repository ppa:ubuntu-wine/ppa
sudo apt-get update
sudo apt-get install wine1.7

3. Change the Wine environment into 32-bit mode with the following command:


WINEARCH=win32 PREFIX=/home/yourhomedirectory/.wine/ winecfg

4. Now, Histcite should start with the following command. Go to the directory where you downloaded it, then use the terminal command to check for possible errors:


wine HistCite.exe

5. Histcite is optimized for Internet Explorer 6 or something. Now, I did not get it to work with the Wine version of Internet Explorer, neither with Firefox. However, using the simple Epiphany Browser, which should be included in you Ubuntu install already, works just fine.

6. If you are lucky, things should look like this:

histcite

7. But, there is another weirdness with HistCite. Once you have some data (usually an exported .txt file), HistCite will only find the data files if they are located in the following Wine directory:


~/.wine/drive_c/fakepath

So, you need to create the fakepath directory, then place your data there. Then HistCite should work as ”normal” (on a Windows machine).

Please comment if this works/not works.

Pfannenstill: postskriptum

För de troligtvis ganska få läsare som intresserar sig för samhällsvetenskapernas historia kan jag bjuda på en kort uppföljning om Bertil Pfannenstill.

För i tiden gick det ju lite vildare till på universiteten och professorer kunde ”inkompetensförklaras”. Detta hände med Pfannenstill, dock orelaterat till ”tattarundersökningen” som jag skrev om i den tidigare posten. Istället skulle det delvis handla om hans bok Sociologiens grundförutsättningar.

1989 gjordes en intervju med Pfannenstill, som återfinns i boken Den svenska sociologins födelse av Bengtsson och Molander (1998). Följande citat tål att skrivas ut:

Anders Molander: Du sökte den första professuren i sociologi i Lund [ca. 1959], men Gösta Carlsson blev satt i första rummet.

Bertil Pfannenstill: Förutom Gösta Carlsson och jag sökte även Georg Karlsson och Börje Hansson tjänsten. Jag blev satt i första rummet av professor Wikman från Åbo och inkompetensförklarad av Boalt och [Torgny] Segerstedt.

Jan Bengtsson: Inkompetensförklarad?

Bertil Pfannenstill: Ja, just det. Så gjorde Uppsalafilosoferna. Jag förstår väl inte varför Segerstedt gjorde det. Han hade sagt att han inte skulle göra det. Det var för övrigt han som hade sagt att jag skulle söka professuren i Stockholm. […] Både Wedberg och Hedenius hade inkompetensförklarat mig, och då kunde inte Segerstedt senare kompetensförklara mig. Han skrev visserligen positivt om avhandlingen på sitt sätt, medan Boalt gick till hårt angrepp, särskilt mot Sociologiens grundförutsättningar. Om den boken menade han att den blott innehöll tokigheter. Han undrade till och med om en helt normal person kunde skriva sådant larv.

Nu har jag inte hunnit läsa Sociologiens grundförutsättningar, men anledningen till att Uppsalafilosoferna tyckte att den var ”larv” berodde på att den var teoretisk snarare än strikt empirisk.

Pfannenstill fick efter denna inkompetensförklaring nöja sig med att bli lärare på Folkhögskolan i Eslöv.

Krigssociologi

Ytterligare en tråd som jag aldrig följde upp i min avhandling är samhällsvetenskapernas relation till kriget. Nu är det lite så att om man inte klipper vissa trådar slutar det med att man sitter med ett helt nystan i knät, och då blir aldrig avhandlingen färdig. Men som tur är kan man framlägga hypoteser i efterhand. Vetenskaperna och kriget är en sådan tråd som jag tänkte kasta ut på internet, så att någon annan kan trassla in sig, eller så att jag själv snubblar över den i framtiden.

Just nu läser jag sporadiskt Olof Peterssons biografi om Jörgen Westerståhl. Jag läser sällan biografier, men Peterssons bok är ovanligt rik i och med att den ger en inblick i relationen mellan samhällsvetenskaperna, politiken och staten. För den som är intresserad av hur täta skott intim relationen var mellan framförallt Socialdemokraterna, vetenskaperna och staten efter kriget är denna bok så kallad måsteläsning!

I avhandlingen citerar jag Petersson framförallt på ett ställe:

On December 12, 1954, prime minister Tage Erlander wrote in his diary: ”Westerståhl[is] now here, asking for my support for [conducting] an investigation on what methods of agitation that give results in the electoral campaign” (Petersson 2011: 178). Moreover, Särlvik was recruited by Erlander in 1953 together with Olof Palme (prime minister 1969–1976 and 1982–1986) and the two of them worked as advisors in the electoral campaigns for the Social Democrats (Ibid.: 185). (Kullenberg 2012: 199-120)

Westerståhl och Särlvik var således tätt inkopplade på det som jag kallar ”state-science interface”, ett gränssnitt mellan vetenskaperna och staten som var mycket starkt under 1950-talet.

Men, åter till kriget. En ganska okänd del av samhällsforskningen utgjordes (och kanske även utgörs) av de undersökningar som Beredskapsnämnden för psykologiskt försvar anordnade. Ur Peterssons bok:

Samhällsforskare gavs viktiga uppgifter i det psykologiska försvaret. Vetenskapliga undersökningar fick stor betydelse i flera olika avseenden. Radioavlyssning skulle ge besked om vilka propagandabudskap som främmande makter spred till svenska radiolyssnare. Opinionsmätningar behövdes för att följa den allmänna opinionen i Sverige; utredningen hade själv tagit initiativ till en intervjuundersökning om försvarsviljan […] Ryktesanalys skulle ge underlag för att bekämpa den flora av rykten som kunde utöva en >>deprimerande verkan på motståndsandan<<. (Petersson 2012: 136-137)

Ur detta kan vi härleda en rad tentativa hypoteser. För det första hade forskningen om propaganda och opinioner sitt ursprung i amerikansk sociologi. Både de teoretiska och metodologiska inspirationerna kom från transatlantiska forskare, exempelvis Paul Lazarsfeld. En hypotes är alltså att det implicita eller explicita program för samhällsvetenskapernas funktion i staten formulerades i USA, men fick där aldrig ordentligt fäste. Istället blev det i Sverige, där gränssnittet mellan vetenskap, stat och politik var mycket hårdare, som vi fick en situation som resulterade i en historiskt sett unik ställning för samhällsvetenskaperna.

En annan hypotes springer ur krigets logik. Infrastrukturen för internet, som jag skriver i Det nätpolitiska manifestet, växte fram i det kalla krigets antimarknader och kärnvapenparanoia. Hotet om krig fick staten att skapa sandlådor där innovationsprocesser fick stora resurser att utveckla militära lösningar. Frågan är om samhällsvetenskaperna åtnjöt samma typ av ”militärindustriella privilegier”?

Två Popperskt falsifierbara hypoteser! Får stanna där nu eftersom jag måste rätta tentor.