Varför lade man ned låginkomstutredningen

Jag undrar varför man lade ned låginkomstutredningen 1971. Mitt intresse väcktes av en fotnot i Sten Johanssons artikel ”The Level of Living Survey” i Acta Sociologica. Här skrev han:

The political turmoil that followed the dissolution of the Low Income Committee in 1971 has forced some thinking on this problem and on the role of the expert.
Men varför upplöstes den av socialdemokraterna? En tes är att den visade på en utbredd fattigdom som gick emot den socialdemokratiska självbilden av att ha skapat ett jämlikt samhälle.
Journalisten Peter Antman skriver:

I mitten av 1960-talet hade också den så kallade låginkomstutredning startats under ledning av LO-ekonomen Per Holmberg. I slutet av 1960-talet började den publicera sina förfärande resultat, som pekade på en verklighet som sällan varit synlig – kanske var tredje löntagare hade mycket låga inkomster.

Alla i partiledningen uppskattade inte utredningens resultat. I slutet av 1960-talet hade Gunnar Sträng börjat tala om att välfärdsbygget var färdigt, att det bara återstod några smärre finjusteringar. Låginkomstutredningen innebar ett grundskott mot Strängs slutsatser. Han blev så förfärad att han i ett bekant uttalande undrade hur man är ”funtad å kroppens och huvudets vägnar” om man har så låga inkomster som låginkomstutredningen redovisat. Utan att tala med Palme lade han och inrikesminister Eric Holmqvist ner utredningen.

Det paradoxala är att utredningen till och med gillades av högern. Olof Johansson (Centerpartiet) motionerade 1972 att Låginkomstutredningen skulle göras permanent. Till och med de borgerliga ville ha kvar den utredning som visade att klassamhället var större än vad man tidigare trott.

Men, var det verkligen så här det gick till? Jag hittar inget bra som är skrivet om detta och letar därför litteraturtips.

Uppdatering:

Jag hittade en lite mera ingående förklaring i Robert Eriksons text ”Svensk välfärdsforskning”. Återigen citat ur en fotnot:

En redogörelse för arbetet i utredningen och en sammanfattning av resultaten från de undersökningar som den initierade finns i den i samband med utredningens nedläggning bildade Arbetsgruppens för låginkomstfrågor Kompendium om Låginkomstutredningen, DS IN 1971:16. Det formella skälet till att utredningen lades ner var att Rudolf Meidner lämnade uppdraget som utredningsman. Att någon ny utredningsman inte utsågs torde dock ha sammanhängt med att delar av regeringen, och då särskilt finansminister Gunnar Sträng, inte kunde fördra Per Holmbergs agerande som huvudsekreterare (ett misshag som nog delades av arbetsmarknadens parter) utan föredrog att det fortsatta arbetet skedde i en interdepartemental arbetsgrupp inom  regeringskansliet. Samtliga som skrev  underlagsrapporter till utredningen fick dock möjlighet att fullfölja detta arbete och Per Holmberg gavs  utrymme att skriva ett betänkande om hur  låginkomstutredningens arbete skulle fortsättas.
Uppdatering 2: Hittade följande mycket intressanta passage i Jenny Anderssons ”Between growth and security : Swedish social democracy from a strong society to a third way ” (2006).

During a historic radio debate, the Minister of Finance Gunnar Sträng greeted Per Holmberg with this question: “What person, sound of body and mind, would work for less than five kronor an hour)” The Implication was clear: en a social democratic society of full employment and solitary wage bargaining, only thoese in some way handicapped could possibly remain poor. In 1971, the Committee on Low Income was disbanded by the prime Minister and party leader Olof Palme. Palme’s act was widely perceived as a way of quick silencing criticism that had become increasingly difficult to refute and that pointed to the failure of the SAP to create security for all. Later, in a 1977 book on current affairs, Olof Palme commented on the termination with the argument that the Committee had produced enough statistics.

“[Palme] I wish to categorically deny that the Committee on Lown Income was, in this case, cut off. This is the way it was portrayed, but we were able to verify that all the fundamental empirical evidence we needed had already been produced and published. At that level, there were no more reports to be written. Now it was time to take action. “ (p. 54)

Uppdatering: Jag hittade ytterligare en förklaring av Carsten von Otter i Acta Sociologica, Vol. 16, No. 3 (1973), pp. 229-239 .

Truth is valuable – be chary with it

Studies of social indicators present the politicians with a dilemma. The yare aware of the need for normative empirical research, but at the same time they are afraid of the consequences when the public is presented with more facts. The history of the Swedish Low Income Committee, of which the Level of Living study formed a part, is illustrative It was setup in 1965 In 1967 a special survey, the Level of Living study, was ordered from Sten Johansson at the Dept. of Sociology, Uppsala University. In August 1970 reports began to be published. Its head secretary, Per Holmberg, took an active part in the public debate in these issues. By summer 1971 the Committee was told to terminate its work within a few months, much earlier than previously planned. This was the first time in some thirty years that a government appointed committee had been discontinued prematurely. A new committee was then formed under the chairmanship of the right-hand man of the prime minister, with Johansson as its secretary. Its purpose was to evaluate the material of the low-income committee and come forward with concrete political proposals. As a rating of its political relevance this is of course a high mark for the committee. Sweden, like most countries, lacks proper social statistics related to different social groups and classes. When all this information became available to the public, it was just a little too much, for some members of the cabinet, to stand. Continued enquiry was asked for but under better political control.

Korrekta filer för SOU 1922 – 2015

I anslutning till förra posten så länkade jag en zip-fil till alla SOUer 1922-2015. När jag packade upp denna fil på min dator med Ubuntu Linux så saknades det ett hundratal SOUer. Detta skulle visa sig berodde på en bugg i programmet unzip som bara verkar drabba vissa versioner av Ubuntu.

Innan jag hittade denna bugg tänkte jag att det var fel på zip-filen, eftersom den innehåller många och långa filnamn. Men i mitt felsökande lyckades jag ändå korrigera bort några små artefakter som operativsystemet Mac OS lämnat efter sig (i princip bara av kosmetiska skäl). Så nu ska den fil som jag länkade till vara korrekt.

Alltså, det var nog inget fel på den förra filen. Har ni 8059 text-filer så är det nog rätt. Men om ni kör Ubuntu, dubbelkolla då att detta stämmer.

Alltså, de 8059 filerna ligger i filen SOU19222015.zip. När ni laddat hem den kan ni först kolla en md5-summa så här (i Linux/Mac OS):


$ md5sum SOU19222015.zip
7b1a25b8cc259662b7423415b021531d  SOU19222015.zip

Sedan packa upp och kontrollera att alla 8059 text-filer finns med genom:


$ unzip SOU19222015.zip

$ cd SOU19222015

$ ls *.txt | wc -l
8059

Troligtvis funkar den förra filen helt OK förutom på Ubuntu. Men likabra att lägga upp ordentlig filbeskrivning. Kan ju lätt bli fel när det är så många filer med så lustiga filnamn.

#SOUhack

På väg hem från #SOUhack, ett mycket lyckat seminarium/workshop kring vad man kan göra med Statens offentliga utredningar medelst digitala metoder.

Jag tänkte bara passa på att posta ett par länkar samt ge en uppdaterad instruktion för ett litet sökskript som jag använde mig av i min presentation. Först länkarna:

      • Här är slides till min presentation med titeln ”Statens röst digitaliserad?”
      • Här är en direktlänk till en uppdaterad datamängd som innehåller alla SOUer 1922–2015 (förutom år 1996) som en zip-fil (1.2 Gb). Sammanställningen av SOUer från 1997-2015 har gjorts av min kollega Sverker LundinCentrum för Digital Humaniora, GU. Så nu kan man nästan söka på ALLT!

Om någon vill använda (eller återanvända) det lilla python-skriptet med det tråkiga namnet SOUsearchplot som jag skrev i somras kan man göra så här.

        1. Ladda ned skriptet SOUsearchplot.
        2. Om du kör Windows måste du ha Python installerat.
        3. Installera modulen ”progress bar” med pip install progress.
        4. Ladda ned SOU-datamängden (länkad ovan).
        5. Ändra på TVÅ ställen i skriptet till exakt den katalog som filerna ligger i.
        6. Kör skriptet från kommandoraden med python SOUsearchplot.py.
        7. Om allt går rätt till ska det börja laddas massa data till din dators minne. OBS. Detta kommer att kräva ca. 3,7 Gb av datorns minne. Jag har bara testat på en dator med 8 Gb i totalt RAM-minne. (Av vad som framgår av kommentarerna nedan är det en dålig idé att testa med bara 4Gb i minne).
        8. Kommentera om det ändå inte funkar!

Inom kort kommer det troligtvis att lanseras aningen mera moderna gränssnitt. Under seminariet diskuterade vi många intressanta ingångar till att göra SOUerna inte bara sökbara, utan även begripbara bortom söktermernas begränsningar.

Men mer om det i framtiden.

SOUminarium på Kungliga Biblioteket

Den 20e oktober anordnar Kungliga Biblioteket ett seminarium med titeln #SOUhack.

Under 2015 har Kungl. biblioteket digitaliserat och tillgängliggjort Statens offentliga utredningar, SOU:er, från 1922 till 1999, totalt ca 5600 dokument. Flera forskare har analyserat materialet och denna workshop syftar till att dela erfarenheter mellan forskare från olika discipliner och andra som är intresserad av textanalys.

Jag kommer att prata kort under titeln ”Statens röst digitaliserad?”. Exakt vad som menas med ”stat”, ”röst” och ”digitaliserad” är en öppen fråga. Något jag inte borde missa?

Det mest intressanta med seminariet tänker jag är det ”open space/hack” som anordnas efter lunch. Ser fram emot att diskutera idéer kring vad som kan göras med materialet framöver.

Statens röst om migranter och flyktingar

För snart en månad sedan meddelade Al Jazeera att de skulle sluta använda beteckningen ”migrant” för de flyktingar som färdades (och drunknade) i Medelhavet. Istället menade man att ”flykting” var en mera korrekt term för att tala om den pågående krisen.

På svenska känns ordet ”migrant” som ett låneord från engelskan. Det känns också som att det alldeles nyligen har tillkommit vissa sammansatta varianter, exempelvis ”EU-migrant” och ”migrantläger”. Känslor är dock suboptimala empiriska indikatorer. Datamängden över alla SOUer 1922-1996 är ett bättre material.

Jag skrev (famlande) ett litet Python-skript som kan söka i alla Statens Offentliga Utredningar och sedan tillverka ett diagram över ordfrekvensen för varje år. När det kommer till variationerna i hur ofta ett ord förekommer, betyder detta inte att det skulle motsvara en generell tendens ”i samhället”. Snarare utgör serien av Statens Offentliga Utredningar sitt egna lilla samhälle (som kopplar ihop sig med andra samhällen, speciellt ofta med den där ”föreningen” som sammanträder i Rosenbad). En plötslig uppgång hänger därmed oftast samman med att en eller flera specifika utredningar har skrivits. Istället är det så att ett SOUniversum hänger samman med andra universa. (Därav formeln ”Mekanosfär = Multiversum”, som ersätter ”Samhället är en Totalitet”).

Vi börjar med termen ”flykting”:

flykting.*

Om man tittar på sökresultaten som mitt skript producerar kan man härleda den kraftiga ökningen 1946 till utredningen Statsmakterna och folkhushållningen under den till följd av stormaktskriget 1939 inträdda krisen. – SOU 1946:35. Här finner vi ordsammansättningar som ”flyktingförhören”, ”flyktingskap”, ”flyktingadministrationen”, ”flyktingpolis”, ”flyktingar som intogos i läger”…

1972 publicerades Flyktingskap – SOU 1972:84 som ger nästa topp i statistiken. Här finner vi nya ord, såsom ”flyktingkommissarie”, ”flyktingkonvention” och ”flyktinggrupper”.

Termen ”migrant” ser lite annorlunda ut:

migrant.*

Läser man i sökresultaten kan man utröna att 1974 års topp beror på dels Att utvärdera arbetsmarknadspolitik – SOU 1974:29 och Invandrarutredningen – SOU 1974:69 från samma år. Här hittar vi termer som ”migrationsforsknig” och ”migrationsstatistik” Men, kanske mera intressant är Betänkande med förslag till vissa åtgärder beträffande emigrationen- SOU 1928:8, då ”emigration” används istället för ”migration” (det reguljära uttrycket migration.* ger ju träffar på båda).

Bara en kort anteckning. Vill du ha hjälp med skriptet eller att jag ska söka på några andra termer – kommentera!

Söka i SOU via Linköpings universitet

Linköping University Electronic Press har gjort SOU-materialet sökbart i fulltext. Sökresultaten levereras i form av länkar till fulltext-pdferna på Kungliga Bibliotekets hemsida.

Testa sökverktyget här.

I en kommentar av signaturen MartLenn föreslogs programmet Solr som ett bra sökverktyg, vilket ledde till att Anders Fåk satte upp en testversion, som nu gjorts mera permanent tillgänglig.

Tjänsten är väldigt smidig för att snabbt hitta till rätt utredning, som genast blir tillgänglig. Att jämföra detta med att släpa sig ned till hyllorna för SOUer på biblioteket snuddar vid det bisarra. Detta gör det tusen gånger enklare att söka ofta och mycket.

\\

När det kommer till sökfunktionaliteter finns det ju många ingångar. Själv har jag mest jobbat med olika varianter av Grep för att även kunna inkludera sökträffarnas ”sammanhang”, alltså, för att få fram hela kontexten som ett ord figurerar i.

Men sökningar i textfiler som ligger på en hårddisk är långt ifrån optimalt. Mina programmeringskunskaper är ännu inte riktigt där, men snart tänkte jag bygga något som har ungefär den här funktionaliteten:

  • Läser in alla SOUer och sparar dem i en databas eller hashtabell som kan hållas i datorns minne. Exempelvis borde SQLite fungera bra.
  • Tillåter sedan sökningar både med enkla ord och reguljära uttryck.
  • Returnerar resultat dels som länkar till pdf-filerna (som ovan) men även som direkta textsjok ur plaintext-databasen.
  • Ovanpå detta bygger man ett gränssnitt som går att lägga ut på webben.

Funderingar kring detta?

Jag har en kraftfull maskin på GUs nät som kan användas för att göra en sådan söktjänst permanent tillgänglig för allt och alla.

SOUernas geografi 2

För några månader sedan extraherade jag alla ortsnamn ur Statens offentliga utredningar i ett försök att skapa en bild av utredningarnas geografiska ”räckvidd”. Men jag körde fast när det kom till att visualisera denna datamängd. Jag visste inte hur jag skulle gå vidare för att lägga ”data på karta”.

Men under sommaren har jag haft som hobbyprojekt att lära mig programmeringsspråket Python. Jag kan verkligen rekommendera alla som vill öka sin digitala bildning att lära sig ett programmeringsspråk. Om man vill göra något som går utöver de formpressade och anpassade verktygen är det en sann frihet att kunna skriva sina egna små program och skript. Det är inte alltid det finns en ”app” för det problem man vill undersöka, och även om det finns en app är det inte säkert att man kan bryta ned i minsta detalj vad den gör (vilket är ett krav om man vill arbeta vetenskapligt, dvs. ”metodredovisning).

Trots att jag verkligen inte har blivit särskilt ”bra” på Python, kan jag med väldigt enkla medel göra massor av saker som tidigare begränsade mig. Till exempel följande.

De hundra mest frekvent omnämnda ortsnamnen i alla SOUer 1922-1996 ser ut så här på en världskarta:

Vi zoomar lite:

Lite till:

För att till sist landa i Sverige:

Jag har begränsat mig till de hundra mest omnämnda platserna (ladda ned både filen med ortnamn (SOU100utf.txt) och pythonskriptet (soukarta.py) från min Github-sida).

Det mest uppenbara är att topp 100-listan för var någonstans SOUerna gör nedslag följer ungefär de områden som är mest befolkade. Nu gör denna karta ingen skillnad mellan att Stockholm nämns tio gånger oftare än Umeå (ett framtida projekt).

Skriptet som jag skrev för att skapa denna karta har vissa begränsningar. Det läser först in en lista med ortnamn från en fil och skickar sedan namnet till Googles databas över orter som returnerar longitud och latitud. Här är man alltså begränsad av att Google i sin tur har en lika hög ”upplösning” som ”staten” (kanske är Google en ny stat?). Dessutom har Google en begränsning hur många anrop man får göra per dygn och per sekund. Således är detta första test begränsat till hundra platser.

Hur går man vidare härifrån? Finns det andra intressanta visualiseringar man kan göra? Fler orter? (det går att fixa så att skriptet tuggar mot Googles maxgräns vecka ut och vecka in). Andra visualiseringsformer? Kommentera gärna!

Uppdatering: Gustaf Nelhans har gjort en liknande visualisering.

SOU om Digitalisering re-digitaliserad och kvantifierad enligt sina referenser

Jag kunde inte hålla mig från att testa några saker på text-versionen av SOU 2015:65 – En antologi om digitaliseringens möjligheter. Jag är intresserad av att hitta olika sätt att förstå den kunskapsform som en SOU innehåller, och jag funderar på hur man kan begripa detta bortom de hermeneutiska cirklarna.

Ett sätt att ta tempen på en kunskapsform kan vara att se vilka andra källor av kunskap som åberopas. Detta är en slags paradigmatisk uppställning där en dimension består av en slags tidslighet. Hur gamla eller unga är de källor man hänvisar till? Vilken historicitet har citeringsnätverket?

Det trubbigaste men samtidigt det tydligaste sättet är att helt enkelt se hur gamla texterna är som man hänvisar till. Ämnet ”digitalisering” kommer givetvis vara ”ungt” i jämförelse med en utredning som har historiska inslag eller handlar om ämnen som inte har påverkats av en vis teknikutveckling osv. Men, det är bara hypoteser! Här har jag bara gjort ett litet stickprov.

Eftersom vi numera har nästan alla SOUer under våra fingertoppar är det bara fantasi och kod som sätter gränserna.

Vad säger detta tänker ni?

\\

Metod

När jag skriver fram metoden kan det tyckas att jag krånglar till det med terminalkommandon och kodsträngar. Anledningen till detta är 1) reproducerbarhet och 2) att arbetsflödet ska kunna skalas upp och automatiseras. I detta fall rör det sig ju bara om en SOU. Men låt säga att man vill göra samma sak på tusen dokument. Då går det inte att ”peka och klicka” för då blir man aldrig klar.

Först hämta pdf-filen och göra om den till text:


wget -U firefox http://www.regeringen.se/contentassets/bacbfd7c61ac4e4eaff7cd3a7505e6c4/sou-2015_65-webb.pdf; pdftotext sou-2015_65-webb.pdf

Observation: Regeringens hemsida gillar inte att wget kommer och hämtar filer. Så man får lura regeringen att tro att det är en vanlig firefox som kommer och vill vara en informerad medborgare. (regeringen diskriminerar robotar, något Robotpartiet kanske vill reagera på).

När vi sedan har textfilen redo kan vi analysera hur en referens ser ut. För det mesta följer de detta mönster:


Morozov, E. (2012). The Net Delusion: The Dark Side of InterneFreedom. PublicAffairs.

Det som verkar vara beständigt i denna SOUs referenslista är årtal inom parentes, eller \(\d\d\d\d\) som reguljärt uttryck. För vårt nuvarande syfte räcker detta. Om man däremot skulle vilja ha ut författarnamn, titlar osv. blir det lite svårare eftersom det är långt ifrån homogent hur litteraturlistorna skrivs ut. (se nedan exempelvis i om man skriver punkt före förnamnsinitial eller inte).

För att få ut alla årtal som finns inom parenteser:


egrep -io '\((\d\d\d\d)\)' sou-2015_65-webb.txt > file.txt

Som vi sedan gör till en kommaseparerad fil som går att räkna lätt på.


perl -p -i -e 's/\(|\)//g' file.txt

Sist men inte minst kan vi lägga till ett ”Year” allra först i filen, samt döpa om till .csv.


(echo "Year" ; cat file.txt) > file.csv

Nu är det bara att ladda in i R och tillverka ett enkelt histogram. Kör antingen rad för rad i Rs kommandotolk eller kopiera och kör hela skriptet med Rscript skriptnamn.r :


mydata <- read.csv("file.csv") hist(mydata$Year,main='SOU 2015:65 - Citation Frequency per Year',xlab='Years',col='green',breaks=100,xlim=c(1980, 2016),prob = TRUE) lines(density(mydata$Year))

Som ni ser har jag exkluderat de sporadiska referenser som finns till texter före 1980. De är kvalitativt intressanta, men kanske inte kvantitativt. Alla metoder har ju sina gränser (som tur är).

Sorlet från Statens Offentliga Utredningar

Kungliga biblioteket har nu digitaliserat alla Statens offentliga utredningar från 1922 till 1996. Detta material är ju väldigt intressant för alla som vill förstå samhället. Men i formen av pappersböcker har möjligheterna för att söka I SOUer varit mycket begränsade. I min avhandling analyserar jag exempelvis fyra SOUer som handlar om samhällsvetenskaper och statistik. Men, en fråga som man ibland ställer sig, och som ibland infinner sig med en tonalitet av ångest är; om jag hade kunnat söka i fulltext i ALLA utredningar hade jag kanske hittat något mera, någonting avgörande.

Eftersom SOUerna numera är inskannade som pdf-filer och dessutom är OCR-behandlade är det bara en fråga om lite digital handpåläggning för att göra allt som är digitaliserat sökbart. Datan finns, men den måste förbehandlas för att det ska gå att söka med det allra mest kraftfulla sättet att söka på: reguljära uttryck.

Jag tänkte i denna post lägga ut lite av det material jag hittills har skapat, i tid- och bandbreddssparande syfte, ifall att någon vill experimentera. SOUerna finns även tillagda i Korp, men då med ett annat sökgränssnitt.

Jag började med att ladda hem alla SOUer från KBs servrar med hjälp av ett litet pythonskript som jag fick skickat till mig på IRC och som finns att hämta på Github. Eftersom hela materialet väger in på cirka 400Gb rekommenderar jag att man tänker efter i termer av att bandbreddsbesparingar innan man ger sig på detta. Om målet är att bara skapa textfiler så delar jag med mig av dessa nedan.

När detta var klart (2 dagar senare) så körde jag det lilla programmet pdftotext på alla filer och väntade ytterligare några timmar. Pdftotext gör precis vad det säger, det konverterar de tunga pdf-filerna till textfiler. Jag är osäker på om det finns mera exakta konverterare, så om ni känner till några, kommentera gärna.

Här är ett exempel på en enskild utredning som ren text-fil.

Att söka inne i en pdf-fil kan vara användbart om man vet vilken SOU man ska arbeta med. Men för att söka i alla SOUer är det klumpigt.

Så, här kommer det råa output från textkonverteringen i tre olika ”klumpar”.

Textversionerna är för det första inte helt exakta. Detta hänger samman med hur Kungliga bibliotekets robot skannade in dem och hur själva OCR-hanteringen gick till. Sedan borde det finnas någon form av felkälla i pdftotext. Oavsett vilket är det nu möjligt att tillämpa avancerade sökningar i hela materialet, behandla det hur man vill och göra statistik hur man vill.

Jag gillar att använda 70-talsprogrammet grep (med alternativet -E för att expandera de reguljära uttrycken) för att söka i filer med. Man kan såklart ladda in i en texteditor, men hela textmassan är 2.7Gb stor, så det är ganska körigt med minne osv. Grep är bra för att det inte behöver ladda allt till datorns minne. Men ha ändå överseende med att vissa sökningar kan dröja.

Nu kan man börja få väldigt intressanta resultat. Här ett exempel från den stora filen (det går att köra mitt lilla kommando i terminalen på ett Unix-system, ex. Linux, MacOs):

grep -Eoi 'knark.*' SOUtxtAllBigFile.txt

Så får man följande poetiska resultat (utdrag):

knarkklubbar.
knarkarkvart
knarkarkvarf”.
knarkarkvartar
knarkotikamissbruket
knarkare eller
knarkarnästen
knarkarna en dominerande
knark.
knarkare visar
knarkas inte vid kiosken, utan på andra
knarkhärvan i Växjö
knarkligan» eller »ungdomsligan» och uppgav att några
knarkade sista gången» ganska kort tid före intervjun.
Knarkar du för närvarande?» med nej och
knarket verkar. Till övervägande del tycks de ha positiva förväntningar
knarkets förmodade effekt, att de
Knarkhäktningar på löpande band
Knarkares far klagar hos JO
Knarkkliniker planeras i H-borg och Lund
knarkande. Ett exempel:
Knarkargrupper» bildas. Narkomanenernas

Ofta anklagas SOUer för att innehålla ett torrt språk. Dessa kreativa kombinationer bevisar motsatsen.

Så här långt har jag kommit. Är det någon som har bra förslag på vad nästa steg ska vara? Vilket gränssnitt kan man bygga? Vilka analyser kan man göra? Vad är intressant att göra statistik på?

Bryt facebookdriften och kommentera!

\\

Uppdatering, 2015-06-01

Det enklaste sättet att söka verkar vara att ladda ned alla utredningar som individuella textfiler. Dels kommer datorn att indexera filerna. Men framförallt får man ut filnamnet, och därmed utredningens titel, när man kör en rekursiv grep. Då kan man ställa sig i katalogen med de uppackade filerna och köra exempelvis denna söksträng för att upptäcka på vilka olika sätt begreppet ”tredje uppgiften” har använts på:


$ grep -r -Eio '.{10,100}tredje uppgift.*.{0,100}' *

30tal/Utredning rörande flottans fartygstyper m. m. - SOU 1937:25.txt:Till dessa uppgifter anslöt sig sedermera 1907 års försvarskommitté, med undantag av att i den tredje uppgiften tillfogades »i den mån sådant är behövligt och möjligt». 3
40tal/1940 års skolutrednings betänkanden och utredningar. - SOU 1947:34.txt:»Studentexamen», fortfar skolöverstyrelsen, »har emellertid ännu en tredje uppgift.
40tal/Kommunal upplysningsverksamhet - SOU 1947:76.txt:uppgiften gäller informations- och studieverksamheten bland nyvalda förtroendemän. Den tredje uppgiften gäller information för innehavare av
50tal/Kristidspolitik och kristidshushållning i Sverige under och efter andra världskriget - SOU 1952:49.txt:surserna och att på ändamålsenligaste sätt tillvarataga och fördela förefintliga varutillgångar. En tredje uppgift slutligen — vilken dock väsentligen var av handelspolitisk natur — var att till det yttersta begagna de
50tal/Högertrafik - SOU 1954:30.txt:kostnad och materialkostnader. Från karosDen tredje uppgiften har varit att med
60tal/Skoglig yrkesutbildning - SOU 1967:38.txt:huvuddelen av eleverna kommer att rekryteras. En tredje uppgift för nämnden
60tal/1960 års gymnasieutredning. - SOU 1963:42.txt:av gymnasiets mål betonade skolutredningen gymnasiets tredje uppgift, den
70tal/TRU:s försöksverksamhet 1967-1972 - SOU 1973:19.txt:den första och tredje uppgiften, eftersom man
70tal/Invandrarutredningen. - SOU 1971:51.txt:deltagande i den allmänna vuxenutbildningen. En tredje uppgift är åtgärder för att
70tal/Trafikpolitik - behov och möjligheter - SOU 1975:66.txt:skall ske. Den tredje uppgiften
70tal/Abortfrågan - SOU 1972:39.txt:Kommitténs tredje uppgift gällde att utreda frågan om samhällets åtgärder i abortförebyggande syfte samt att överväga, hur
80tal/Skolforskning och skolutveckling - SOU 1980:2.txt:att ta på sig en tredje uppgift, att svara för den
90tal/Dagspressen i 1990-talets medielandskap - SOU 1994:94.txt:fram. Det är uppenbart att den tredje uppgiften kritisk granskning har sina
90tal/Löneskillnader och lönediskriminering - SOU 1993:7.txt:ekonomiska incitamenten för kvinnor jämfört med män.--- En tredje uppgift
90tal/Kvalitet och dynamik - SOU 1993:102.txt:Hur väl fakulteterna löser högskolans s.k. tredje uppgift, dvs. att sprida


Uppdatering 2: Gustav Holmberg har bloggat om sina sökningar i materialet samt Copyriot.