Instabila installationer av Manylines och Hyphe

I anslutning till de föregående inläggen om Manylines och Hyphe tänkte jag att jag på prov släpper ut tjänsterna på internet.

Ni får gärna testa mina installationer på följande adresser:

Observera att det rör sig om mycket tidig mjukvara (version 0.1) som har utvecklats av Médialab Sciences Po. Så använd inte dessa tjänster till något seriöst. Spara ned ofta och räkna med att det kommer att krascha. Även rent hårdvarumässigt finns det begränsningar. Jag kör allt på en överbliven eee-pc minilaptop under Ubuntu Linux. Detta förklarar att det troligtvis går ganska segt när ni använder Hyphe.

Kommentera gärna om det inte funkar.

Uppdatering:

Jag uppgraderade Hyphe till version 0.2. Observera att för att få den senaste versionen måste man klona via git istället för att ladda ned .zip-filen. På Ubuntu Server 14.04.2 (den senaste versionen) räcker det med följande kommandon för att snabbt installera hela paketet:


git clone git://github.com/medialab/hyphe.git
cd hyphe
./bin/install.sh
./bin/hyphe start

Eventuellt behöver man se över Apache-konfigurationsfilerna för att se att allt funkar mot internet. Eller så ssh-proxar man bara in till maskinen och går till localhost/hyphe, vilket även är smidigt om man kör det hela som en virtuell maskin och bara jobbar lokalt.

Tutorial: Running Histcite on Ubuntu Linux 14.04 using Wine 1.7.24

For some time I have tried to run the HistCite software package on my Linux laptop. But, since this is an old and outdated piece of software, it will not run with a default install of Wine. I searched around but couldn’t find any solution. Thus, I present my workaround here as step-by-step instructions that worked on my computer.

1. Download HistCite.

2. Install the development version of Wine using the following commands:


sudo add-apt-repository ppa:ubuntu-wine/ppa
sudo apt-get update
sudo apt-get install wine1.7

3. Change the Wine environment into 32-bit mode with the following command:


WINEARCH=win32 PREFIX=/home/yourhomedirectory/.wine/ winecfg

4. Now, Histcite should start with the following command. Go to the directory where you downloaded it, then use the terminal command to check for possible errors:


wine HistCite.exe

5. Histcite is optimized for Internet Explorer 6 or something. Now, I did not get it to work with the Wine version of Internet Explorer, neither with Firefox. However, using the simple Epiphany Browser, which should be included in you Ubuntu install already, works just fine.

6. If you are lucky, things should look like this:

histcite

7. But, there is another weirdness with HistCite. Once you have some data (usually an exported .txt file), HistCite will only find the data files if they are located in the following Wine directory:


~/.wine/drive_c/fakepath

So, you need to create the fakepath directory, then place your data there. Then HistCite should work as ”normal” (on a Windows machine).

Please comment if this works/not works.

Kopimismreligionen: Psykosemiotisk översiktskarta

Ladda ned som .svg

I kölvattnet av den förvirring som uppstått kring Kopimistsamfundets erkännande av staten, kan det vara på sin plats att försöka skapa en slags översiktskarta över de sekter/separatistlinjer som vi kan hitta i olika hörn av internäten.

Ambitionen är inte att vara heltäckande. Snarare är det kanske ytterligare förvirring som är målet.

Modellen utgår från en realaxel där graden av territorialisering går från å ena sidan tillvaromässig bofasthet och bundenhet, till fullständig nomadism och rotlöshet. På imaginäraxeln finner vi istället graden av signifiering (i vid mening, från subjektivering till tendens att benämna världen i ord).

På så sätt finner vi en dialektisk motsatspunkt mellan Informationskopimismen, som ger namn åt ting (samfund, tro, information) och är territoriellt signifierande (erkännande av staten) och Fraktalkopimismen som oscillerar mot designifiering (fjärde parameterrymden innehåller omöjliga figurer) samt bedriver en nomadisk kartografi (territoriet har ingen mittpunkt, algoritmiska vektorer).

Om vi istället vänder oss mot den Mystiska kopimi fungerar den delvis de-territorialiserande genom sitt förkastande av -ismer samt infogandet av kopians värdekritik. Den universella konjugationen av flöden, energi och dess förslösande, står i centrum av en kritisk utsiktspunkt. Detta kan i viss mån kontrasteras mot den Vitalistiska kopimismens okritiska hållning, vilken istället inbegriper en slags tekno-animistisk livsdyrkan, och en ”liberal” inställning till kopimis tendens till heterogen pluralism.

En ofta förbisedd riktning är den Polyteistiska kopimismen, som i vissa tolkningar närmar sig shintoistisk tekno-animism i kombination med en from syn på det icke-mänskliga livet. Fromheten kännetecknas av en vilja till erkännande genom signifiering (ge robotarna rättigheter).

De olika inriktningarna kan dateras rent idéhistoriskt. Den mystiska kopimismens värdekritik samt den Vitalistiska kopimismens smittontologi faller både tillbaka på 1800-talets ekonomi och biologi (Marx/Tarde). Den Ortodoxa kopimismen faller å andra sidan tillbaka på 1999-tänket, Fraktalkopimismen på 1970-talets matematik (B. Mandelbrot), den Polyteistiska kopimismen på 1990-talets singularitetshypoteser.

Än så länge har man inte kunnat skönja någon öppen konflikt eller strid mellan dessa inriktningar. De överlappar varandra på ett komplicerat sätt, och kanske rör det sig om alltför småskaliga inriktingar för att separatistgrupper ska ha hunnit formera sig på ett militant sätt.

Oavsett vilket försjunker samtliga uttryck in i en dimma av förvirring, ibland som en uttänkt rökridå, ibland enbart genom att de är så obskyra.

Tingets rätta rum

Idag kikade jag förbi tingsrätten där den så kallade 15-åringen friades från åtalet om att olagligen ha delat filer. Själva rättegången blev det bara några minuter av, eftersom försvaret ville att det skulle ske bakom stängda dörrar med hänsyn till den ringa ålder som den åtalade hade. Det gjorde inget, för den stora behållningen ligger för det mesta i de samtal som tillåts uppstå kring ett fall.

Paradexemplet på produktiva tingsrättsseminarier, som jag skriver om i det nätpolitiska manifestet, är Spectrial 2009, dvs. rättegången mot The Pirate Bay. Dags för citat:

Spectrial utspelade sig istället på en fysisk plats och utgjorde därmed en mötespunkt for människor som flödade in och ut ur stadsrummet. I tingsrätten bildades små öar av människor som planerade framtida aktiviteter, utanfor trotsade aktivister vinterkylan i Piratbyråns buss, ett par kvarter bort samlades folk på cafeer för att blogga om vad som hade hänt under dagen och på pubar och klubbar arrangerades fester mer eller mindre anslutna till dramat i tingsrätten. Spectrial var, som händelse betraktat, lika mycket en ockupation av en mängd lokala platser som en tre veckor lång juridisk process.

Tingsrätter är sannerligen underskattade offentliga platser! Men offentliga platser finns inte utan offentligheter. De måste först ‘ockuperas’ och sedan måste det offentliga samtalet göras. Det första som gjordes var att ett fildelningsnätverk sattes upp. Bland annat laddades min bok ned.

Sedan talade vi om proteströrelserna Netopia, Rättighetsalliansen, och Ifpi. Dock var det ingen av dem som anordnade en protest mot oss just där. Istället skedde det via åklagaren innanför de stängda dörrarna.

Därefter gjorde vi ett tappert försök att bryta med publiken när en reporter från GT ställde olika frågor. En vanlig fråga är ju ”vad representerar du?”. Representation kräver ju att någon står för något/någon annans intressen, eller för andras talan. Så i det här läget pekade vi på datorerna och menade att det inte behövdes föras någon talan för någon annan. Filerna delades ju redan när vi talade. Representations- och publiktänkandet genomsyrar ju vår kultur till den milda grad att det har blivit en slags gängse abstraktion som man ofta hänvisar till: ”Det sker en diskussion i offentligheten”, ”Vi ska informera allmänheten”, ”Jag för mina medlemmars talan i den här frågan”.

Nätpolitikens karaktär av tunnel undflyr alltid den typen av abstraktioner. Det är hög tid att vi skärper analysen ett par nivåer. Jag tror nämligen att den absurda situationen att en rektor går och polisanmäler sina elever, och därmed riskerar att sabba deras liv för några filers skull, går att undvika om vi demonstrerar kopian (i betydelsen förevisa, instruera) i sin helt enkla tillvaro. Först kom kopian, sen kom proteströrelsen med sina advokater och industrier!

Det kommer fler rättegångar på samma tema framöver i Göteborg. Hoppas att vi får fler tillfällen att bygga nät och bygga samtal. (nästa gång tar vi med bättre routers och mera fika).

Teser om digiten

Myror utväxlar digiter med varandra när de samarbetar kring att ha ihjäl en annan myra.

I en kommentar till en föregående bloggpost om analogisering och digitalisering framförde @ozonist-Marcus följande provokativa tes, som har hemsökt mig de senaste dagarna:

Det finns inget analogt. Det finns inget kontinuum. Allt är diskret (detta är poängen med kvantfysiken, gubevars). Allt är digitalt.

Analoga signaler och flöden är hur ett trubbigt sinne uppfattar diskreta fenomen på lägre nivåer. “Digitalisering” handlar då om att modulera en finkornig digital signal till en signal av diskreta digits på en (större) skala. som är optimerad för de entiteter som kommunicerar och de medier som registrerar, lagrar och återger.
/…/
Alltså: Vi borde kanske tala om det postanaloga istället för det postdigitala.

Eftersom sommaren är till för vågade utsvävningar, tänkte jag att jag skulle sammanställa några teser om digiten. Visserligen tentativa sådana, och visserligen har jag en inneboende skepsis till det jag tänker säga.

Först en mycket skissartad idéhistoria. På åttio- och nittiotalet härskade tanken om en slags ontologisk dualism där det digitala var en värld och köttet något annat. Denna historia är vida känd så den behöver inte upprepas här.

Ca. 2005 började det analoga hålet diskuteras, främst i förhållande till att den konsekvent digitaliseringsvurmande Hollywoodindustrins högsta dröm vara att täppa till alla analoga läckor. Det analoga ljudet och bilden har alltid varit svårt att tämja. Folk kan ju kopiera utan att vi vet om det! En svensk milstolpe i debatten: Copyriot. Samma år framförde Ibi K. Botani tesen om kopimi, och analogiserings- och digitaliseringsprocesserna fick en djupare filosofisk, estetisk och etisk innebörd.

Samtidigt hamnade diskreta entiteter i skymundan för en västkustlig ”flödesontologi”, som premierade magmatiska flöden, bifurkationer, emergens och hastigheter framför objekt. Dock, för att göra en återblick till skiftet 2008/2009, året då Boken framtiden lokaliserar en höjdpunkt i digitaliseringsoptimism, lanseras samtidigt smittontologin/civilsociologins forskningsprogram på ett typiskt 2009-manér. Dock kan inte detta program beskyllas för att vara digitaliseringsoptimistiskt. Tvärtom är panspektrontesen kritisk, och vore i det närmaste dystopiskt om det inte vore för kopimi fyra år tidigare.

När vi sedan träder in i den objektorienterade filosofin börjar dock vissa grundpremisser i digitaliserings- och analogiseringsprocesserna att skälva. Kanske är det så att dessa aldrig varit två separata domäner, utan snarare modulationer av de ”digiter”, som kan deriveras av en värld av objekt. Eftersom digiterna hittills endast har figurerat i kommentarsfält och i arkivlösa twitterflö.. twitterdigiter, är det kanske dags att sammanfatta. Ur @ozonists citat ovan kan vi härleda följande axiom (jag citerar, remixar och blandar fritt in med egna konklusioner från detta snart borttynande twitterflöde. Skam till twitter som inte har ett vettigt arkiv):

1. Axiom: Det finns inget analogt. Det finns inget kontinuum. Allt är diskret. Allt är digitalt.

2. Demonstration: Digitaliseringen av tonbandet är en modulering av tonbandets mer heterogena (och brusiga) digitspår till det mer[a] homogen[t]a.

3. Konklusion: Det finns inga analoga medier, eftersom de då inte kunno mediera. Allt som finns är modulationer av digiter, dessa kan bli fler eller färre (musiken ur en Commodore 64 har färre digiter kommo den ur en iPod, fast kan få fler än en .mp3-fil om det återdigitaliseras med än högre upplösning).

Digiter är således finita*. På en CD-skiva kan man räkna dem om man har ett mikroskop eller en lejserstråle som kopierar dem till ett arbetsminne. Men vi ska inte bedras av de gamla klassifikationerna. En CD-skiva som rymmer en timmes symfoniorkestermusik är inte mera digital än när symfoniorkestern spelade upp verket i en konserthall. CD-skivan är bara mer homogen i förhållande den singulära konserten. Men även konserten innehöll digiter, annars skulle ingen kunna höra den eller spela in den på varken tonband eller hårdskiva.

* Antites: Fraktaler är ju infinita och innehåller oändlig komplexitet.

** Syntes: Endast i teorin, endast i ett platonskt universum finns den typen av oändlighet. Även fraktaler måste kompileras på energibaserade maskiner i ma[rs]chfart mot entropidöden. /mvh Hegel.

Nu förhindrar detta givetvis inte oss människor för att kanske i högre grad uppskatta en konsert framför en CD-skiva. Det är trots allt rätt ovärdigt att lyssna på viss musik i en iPod. Heterogenitet är ett etiskt och estetiskt ideal som förtjänar sin rätt. (Första gången jag svepte en cutoff i ”analog” subtraktiv syntes bleknade alla mjukvarusynthar till gult papper). Men vi ska inte förledas av sådan antropocentrism (även kallat ”Hölderlin på Evenemangsstråket”).

För att två eller tusen objekt ska kunna ingå i relationer mellan varandra krävs mediering. Och mediering kräver i sin tur diskretion. Digiterna är i sin tur kraftfulla hävstänger för emergens. Myror lyckas kommunicera och samarbeta genom feromoner. Feromonerna är digiter, på så sätt diskreta, annars vore kommunikationen helt meningslös, ett brus. (Ni har väl inte glömt Tardes utläggningar om myrors imitationsmönster).

Således, en tentativ slutsats: Objekt innehåller digiter som möjliggör mediering. Mediering är en förutsättning för emergens.

Tillbaka till Framtiden: Analogisering och digitalisering

Det är dags att återvända till ”Framtiden”, som har sporrat dels en intressant diskussion hos Rasmus på Copyriot, samt en intressant reflektion av Anders Mildner (även om boken inte hänvisas till explicit, se nedan).

Diskussionen hos Copyriot handlar om vem som egentligen ”Framtiden” polemiserar emot. Vi tar ett citat ur boken:

Precis som 1900-talets futurister var 2000-talets nätsvärmare besatta av hastigheter, flöden, affekter, massbeteenden och ny teknik. Precis som futuristerna vägrade nätsvärmarna att se världen som oföränderlig. De var övertygade om att samtiden bara kunde förstås genom berättelsen om den konstanta utvecklingen. (56)

Problemet är att ”nätsvärmare”, ”nätaktivister”, ”pirater” osv. är beteckningar som minst sagt är svåra att definiera, lokalisera och polemisera emot. ”Framtiden” är förvisso en essä i ett romanformat, så att stoppa in en fotnot skulle göra våld på formatet, men kanske göra väl för argumentet.

Det finns nämligen god grund för att argumentera det rakt motsatta. Nätaktivister är, och har varit, några av de främsta digitaliseringskritikerna, främst på området personlig integritet/självbestämmande. Exempel: Datalagringsdirektivet innebär en digitalisering av människors rörelsemönster, kontakter och sociala liv. Denna digitalisering får, enligt många nätaktivister, inte ens äga rum från första början. Ett annat exempel är hur köttslig tillvaro på hackerkonferenser ofta innefattar ett digitaliseringsförbud (inga foton, inga videokameror).

Och ett tredje exempel är den ganska konsekventa kritiken mot panspektron, som jag diskuterar i Det Nätpolitiska Manifestet:

I vår samtid är det inte längre den optiska blicken som övervakar oss, utan istället databaser och loggfiler, datorer och mobiltelefoner. De skapar en ny form av visibilitet bortom det mänskliga ögat. Panspektron markerar således de nya frontlinjer inom vilka breda spektra av analoga signaler kan göras digitala, och därmed synliga, på ett mycket mer omfattande sätt an tidigare.

Tvärtom är det främst företag och stater som vurmat för en ”ökad” digitalisering, och kommit på förvirrande begrepp som ”digitala ekonomier”, ”Svenska ambassaden i Second Life”, ”e-legitimationer” osv.

Det stora problemet med ”Framtiden” är dess monolitiska syn på internet (med pyramiden som monolitiskt figurativ), i kombination med den fenomenologiska blick som strålar ut från en metropol i ett högindustrialiserat land i norra Europa. För att ta det enkelt: Internet är inte samma sak i SoFo som det är i Kairo eller Xinjiang. En bred civilisationskritik, kan inte ha en så smal utgångspunkt, och kan inte heller skrivas med Washington som utgångspunkt, även om det är en vanlig föreställning att politik har sitt epicentrum på sådana platser.

Anders Mildner skriver en ganska träffande reflektion över detta i SvD:

Ur medieperspektiv var så klart omsvängningen mot ökad internetskepticism väntad. I ett samhälle som är så starkt genomsyrat av medielogik som vårt, kommer det som en gång höjs till skyarna så småningom obönhörligen att plockas ned på marken igen. Där är vi i dag. Internetdiskussionen i samhället skiftar just nu fokus. Kultur-, delaktighets-, och demokratisnacket är på väg ut. Det är inte särskilt svårt att räkna ut vem som glädjs över den utvecklingen.

Denna tråd förtjänar att spinnas vidare på. Utgångspunkten ”vårt samhälle” håller inte för internet, eftersom internet aldrig har varit ett samhälle. Analogisering – Digitalisering – Analogisering är tusen olika saker: I vissa fall, ganska få rent numerärt, är det kanske en protest i Egypten (analogisering) som digitaliseras, laddas upp på Youtube, och återanalogiseras på hundratusentals skärmar. I många fall, rent kvantitativt, sker denna transformation i långt mer vardagliga sammanhang. Jag sitter och fikar, twittrar ut ett foto med GPS-metadata, och nån som följer mig på Twitter återanalogiserar informationen i ett försök att slå ihjäl lite tid på kontoret. (total nollintensitet)

De båda händelserna är teknologiskt sett mycket lika varandra, analogisering-digitalisering (plus metadata) – ackumulation av arbetskraft hos ett storföretag (Google, Twitter) – återanalogisering på en annan plats i nätverket (plus koldioxidutsläpp).

Just på grund av dessa händelsers perfekta individualitet (deras status som haecceiteter och händelser) är de långt mera autentiska, mänskliga och egentliga än en universalistisk fenomenologi av fötter i gräs eller doften av hav. Mitt vardagstwittrande och en egyptisk youtubeuppladdning kan inte tänkas genom samma register. De är förvisso tekniskt nästan identiska, men de är fundamentalt olika som existensformer.

Vardagstwittrandets tvång, oket av att kolla sin Facebookstatus, livskrisen inför informationsöverflödet, ensamheten som uppstår när man har addat ytterligare en ”friend” men ändå känner att det var mera autentiskt på åttiotalet när man satt och hade tråkigt lyssnandes på ett blandband eller tittade på Vetenskapens värld, är förvisso en intressant analys av en modern ångest som kanske drabbar och passiviserar ett och annat barn av IT-bubblans frammarsch. ”Framtiden” gör helt rätt i att kritisera detta tillstånd, och slå hål på dess frihetsmyt.

Men ett sådant scenario utspelas inte i samma pyramid som en krypterad tunnel ut ifrån Kairo, en chatt genom The Golden Shield, eller nedladdningen av konfidentiell data från det militärindustriella komplexet. I dessa fall finns inte ”digitalisering” som en övergripande samhällsförändring, utan endast som ytterst konkreta överväganden. Vad hamnar i loggfiler? Vad kan knäckas av någon som lyssnar? vem kan ta ned torrent-filen?

Internet undflyr på så sätt själva tanken om att vara något tekniskt, att ge upphov till ett Gestell, ett tillstånd som villkorar existensen. Jag har alltid brottats med att försöka förmedla denna tanke om radikal heterogenitet som den enda vägen till en trovärdig analys. Jag har använt obegripliga uttryck som ”minoritetfraktal”, ”panspektron” och ”haecceiteter”, teknologisk ”fylogenetik” och ”chiffrets fjärde parameterrymd”. Allt för att destruera de gamla registren: ”Teknik – existens – essens”, ”cyberrymd – real life”, ”demokrati, medborgarskap – transparens”. Begripligheten i dessa manövrar har på sin höjd lett till förvirring, och det är förvisso en effekt som inte ska underskattas.

Uppmaningen är dock densamma: ”Ta din dator, tunnla dig runt en diktator eller en fångstapparat, ta kontroll över tekniken och böj och bänd den tills du kan koppla om till något bättre!”.

1999 – How to study the Social Sciences, part I

Here comes a section of my dissertation chapter ”1999 – How to Study the Social Sciences”. It is work-in-progress, and perhaps a bit hard to get into in the beginning. But here I try to show how a Latourian terminology can be applied when studying a concrete assemblage such as a social scientific research institute. The picture above is the ”object” that orients analysis, the book ”Det nya Samhället” (”the New Society”), a report written by 21 authors, all social scientists on a tour de force of quantifying society. Comments are appreciated (in Swedish or English, or why not German too). The LaTeX-to-HTML conversion didn’t do footnotes very well, but a heavy pdf can be fetched here. Also, Levi Bryant’s post on a related topic is worth reading to get further into what social sciences really are.

***

In this chapter I will further define the SOM-institute as my study object. The entry point for this mapping is the 1999 SOM survey. By disassembling this report, while introducing the theoretical approaches needed, it is possible to select further paths, that lead to a richer picture of how society is quantified by way of the social sciences.

In the Introduction chapter I approached social scientific knowledge as it was circulating in the news media. Facts were simple, and to a certain extent given in the sense that methodological problems, diverging interpretations and the complexities of scientific research remained unspoken of. But these brief flashes of facts barely revealed anything about how science was done, except for the short radio report about declining response rates.

To further develop my theoretical approach, and to refine how I shall proceed methodologically, I will step back roughly a decade in history, to the 1999 SOM-survey (Holmberg & Weibull, eds., 2000). Also, this will serve as a closer introduction to the SOM-institute, as taking apart its pieces also reveals what role the institute has in a broader context of social scientific research. But before proceeding, it is necessary to introduce the concept of blackboxing.

Concept I – blackboxing

The notion of black boxes, or blackboxing, is introduced in Bruno Latour’s 1987 book Science in Action (Latour 1987), and has since then played central role in his works for describing not only how scientific knowledge is made durable, but also how the very fabric of societies hold together (See Latour 1999: 183-185). As mentioned in the introduction chapter Latour borrows the concept from cybernetics. However, it both has a richer meaning, and much wider consequences when used to study scientific activities as they unfold. It is time to leave the cybernetic meanings of static systems, feedback loops and self-regulation behind, and approach the concept anew, in pursuit of a powerful tool for studying scientific work empirically.

Science in Action begins with the example of the role of the Eagle microcomputer in discovering the double-helix structure of DNA. Usually, the story of this discovery is narrated through the involvement of Nobel Price winning scientists and their struggles in competing to become the first to prove the existence of a natural phenomena. Latour, however, goes back in time, to the moment when the scientific community still remained uncertain to what the structure of DNA really looked like. Then, not only are facts, models and theories uncertain, but also the equipment, methods and previous statements. As science is made, scientists need to get rid of fuzzy complexities, defunct hardware and contradicting theories.

When scientific instruments work, they are treated as unproblematic black boxes, that generate outputs from inputs. However, they first have to be made to work, and this is the moment when the black box still has not been sealed:

But it was not a good machine before it worked. Thus while it is being made it cannot convince anyone because of its good working order. It is only after endless little bugs have been taken out, each bug being revealed by a new trial imposed by a new interested group, that the machine will eventually and progressively be made to work. (Latour 1987: 11, italics in original)

This ‘debugging’ of black boxes occurs either before they work, or when they break down. But when they work, they remain almost invisible. According to Latour, this is not exclusive to complex scientific instruments such as telescopes, bubble chambers or lasers, but it also holds for everyday equipment that we use. Mobile phones, microwave ovens or credit cards are devices that we take for granted, even though most of us do not have much of a clue to how they function in every minute detail. To move along in our lives, and get things done, we are unable to hesitate and examine every component in our tools. Hence, a key element in practice is to ignore complexities, and surrender to a kind of technoscientific ignorance. Of course we may however at any time dissent and ask why there is no cell phone reception in a certain neighbourhood, why the fees are high on credit card transactions or whether microwave ovens emit dangerous radiation or not. The cost of such dissent will interrupt our lives when it comes to our everyday tools. We would have to seek evidence, gather information and form alliances with other concerned people, even run the risk of being questioned for questioning such mundane things that most people consider unproblematic. And questioning scientific instruments, in particular, would be an even more daring enterprise. To challenge, let us say, the accuracy of the Hubble Space Telescope or the Large Hadron Collider, we must learn and aquire the terminology, skills, and perhaps even the social status of a scientist to be taken seriously. We may even have to build a better telescope or particle accellerator in order to prove that the existing equipment contains errors. Simply walking down the street, claiming that the Large Hadron Collider will be the end of the world because it will create a black hole that implodes the universe, will probably do nothing more than labelling us ‘conspiracy theorists’ or ‘lunatics’.

Philosopher of metaphysics Graham Harman thoroughly analyzes the status of black boxes in Latour, in his Prince of Networks (Harman 2009), a whole book dedicated to understanding Latour’s philosophy anew, and also using it as one (of several) building blocks in Harman’s ”object oriented ontology”:

For Latour, the black box replaces traditional substance. The world is not made of natural units or integers that endure through all surface fluctuation. Instead, each actant is the result of numerous prior forces that were lovingly or violently assembled. While traditional substances are one, black boxes are many we simply treat them as one, as long as they remain solid in our midst. Like Heidegger’s tools, a black box allows us to forget the massive network of alliances of which it is composed, as long as it functions smoothly. Actants are born amidst strife and controversy, yet they eventually congeal into a stable configuration. But simply reawaken the controversy, reopen the black box, and you will see once more that the actant has no sleek unified essence. Call it legion, for it is many. (Harman 2009: 34)

As Harman points out, black boxes never come alone. And moreover, even though Harman is not primarily interested in methodology, he suggests (just like Latour does) that reawakening controversies and opening black-boxes is a way of rendering visible the vast networks of alliances that make a black box black. You may hit speed dial on your mobile phone and in matters of seconds talk to someone on the other side of the globe. But it is not the device in your hand making the phone call. It is a whole vast network of chipset manufacturers, telecom carriers, antennae, satellites and crews of administrators. The device in your hand will, and must do so to be usable at all, reduce this complexity into a few keystrokes and an invoice appearing in your letter box every month. When it fails, however, the alliances may start to unfold. Maybe your carrier has failed to make a deal with a carrier in the country you try calling to, perhaps did an antenna in the base station fall to the ground in a recent storm, or there could have been an unlikely failure in an undersea fibre cable connecting the continents. As a consumer you barely ever have the opportunity to inspect the business deals between carriers, the base stations or the undersea cables. Instead another black box enters the scene. You call customer support, and they might tell you that there is a ”technical error”.

As a consequence, following the processes of blackboxing can be a strenuous task, as one encounters even more black boxes along the way. A core activity of (techno)scientific work is to make sure the black boxes work, which means that when we encounter facts that are already there when the machines seemed to work almost flawlessly, the other components appear to be almost invisible. To proceed, Latour suggests that we ought to ”arrive before the facts and machines are blackboxed or we follow the controversies that reopen them”. (Latour 1987: 258).

In the introductory chapter the following was stated based on reading the tabloid Aftonbladet:

After the elections many columnists seek answers to why the right-wing populist party Sverigedemokraterna was voted into parliament in 2010. According to one article, this is partly because 45 per cent of the population want to lower migration quotas, a statistical fact which is repeated in several other news articles. These are numbers from the SOM-institute as well. The attitudes towards immigration have been measured since the 1990s by the institute (Aftonbladet, 2010-10-03).

The statement ”45 per cent of the population want to lower migration quotas” is a typical example of ready-made science. It is backed up by a scientific ‘author’, the ”SOM-institute”, which in turn have been measuring attitudes towards immigration ”since the 1990s”. We learn nothing more about how the black box ”SOM-institute” works, no more than we learn about antennas, cables and carriers when we dial a number on our mobile phone. We only get the output, and most readers of Aftonbladet are probably satisfied with that. A black box remains black when it stands uncontested, or when it does not break down. To learn more, the SOM-institute has to be followed to the point where we are able to see some uncertainty, controversy or failure. The next move must thus be to get closer to the black box, and a suitable way of doing that is to look at a SOM-report that was written a decade earlier.

Analyzing the 1999 SOM report

Each year since 1986 the SOM-institute has published a volume where social scientists present the latest results and trends found the yearly postal survey. The 2000 publication is called Det nya samhället (The New Society). It is a 400 page volume that also includes the questionnaire that was sent out in 1999, and a methodological appendix describing the procedure of the survey field work.

Already by reading the preface we are able to go from the lonely figures and graphs found in newspapers, to an initial disassembly of what this type of knowledge is about. It is written by Sören Holmberg and Lennart Weibull (2000), who state that the report is based on a survey of two randomized populations, each with 2800 respondents, where the response rates have been fairly equal between them. The fieldwork took place between October and December 1999, and the private contractor Kinnmark DM AB was hired to collect the data. A reference is given back to the methodological appendix, as an invitation to the interested reader. It is also mentioned that the survey has been running every year since 1986. This introduces a brief description of what I will call epistemic assemblage, and even though it is full of unopened black boxes (populations, field work, data, response rates), the experienced social scientist can still make a judgement about its qualities, and recognize it as a typically scientific survey in the way it presents its methodology already in the first page of the book. Compared to the average media reports, where there was usually nothing more than a simple output of percentages produced by the SOM-institute, the initial paragraphs of the preface contains more black boxes; what is a ”randomized population”? How many is two times 2800? Who is ”Kinnmark DM AB”? What is ”fieldwork”?

Turning to the methodological appendix in the back of the report, there are answers to these questions. It is stated that this is the fourteenth survey, and that each of them are performed ”under almost identical circumstances” (Lithner 2000: 395). Then a detailed description about the survey follows. Going from ”randomized population” in the preface, this now elaborates to an ”simple random sample”. The simple random sample is not further explained (another black box), instead the population is explicated, from ”two times 2800” to being of the ages between 15-80 years, including foreign citizens.

Then the two questionnires are introduced, and they are also included in yet another appendix. It is said that the questionnaires are developed in co-operation between then SOM-institute and affiliated research projects, which in turn are listed in another appendix. There are 21 of them, mostly research projects at Gothenburg University, but also including participants from Uppsala University, Institute of Public Affairs in Warzaw and Stiftelsen Institutet för mediestudier. The purpose of having two questionnaires is to be able to ask more questions without making the questionnaire too long, but also having identical questions on certain topics, to grow a large enough population to be able to break it down in smaller groups without compromising statistical verification.

The most interesting part of the methodological appendix is however the description of the field work during the late fall of 1999. Again the private contractor Kinnmark DM och Distribution is mentioned as having been commissioned to perform the actual data collection. Then a whole list of ‘equipment’ is presented; questionnaires, post-cards, telephone reminders, follow-up letters; each of them dated. Taking a closer look at this chain of events, it is possible to re-construct what happened the last couple of months of the previous millennium:

29 Sept. 1999 Dispatch of advance letter
4 Oct. Dispatch of questionnaire, follow-up letter, brochure and return envelope.
11 Oct. Dispatch of greeting and reminding letter20 Oct. Dispatch of reminding letter.
20 Nov. – 5 Oct. Dispatch of extra greeting- and reminding letter for Riks-SOM I.
5-16 Nov. Telephone reminder.
17 Nov. Dispatch of postal reminder.
23-29 Nov. Telephone reminder.
2 Dec. Dispatch of postal reminder.
7-13 Dec. Telephone reminder.
14 Dec. Dispatch of postal reminder.
23 Dec. Dispatch of mini survey.
18 Jan. 2000 Field work is terminated.

This assemblage contains the components of the black box referred to as ”survey”, which is practiced as ”field work”. Each postcard, telephone call and dispatch of questionnaires are dated precisely. Most readers of the report are probably satisfied by now, as to the degree of scientific rigour and openness in presenting how the survey was done. This is the Hubble Telescope or the Large Hadron Collider of the SOM-institute, and even though it is not as costly or famous, I will argue that it should be put on an equivalent level of scientific laboratories in the natural sciences. This means that more black boxes have to be opened.

In Give Me a Laboratory and I will Raise the World Latour (1999b) discusses the role of Pasteur’s laboratory in Paris in the 1880s, and its relations to an ”outside society”. Latour’s point is, however, that the notions of inside/outside and micro/macro need to be abandoned, or at least drastically revised, if we are to understand what is at stake when Pasteur discovered the anthrax vaccine. What had to be done to create the vaccine was for Pasteur to convince a number of actors through series of negotiations; farmers had to be convinced that a vaccine would save their cows (and income) and let Pasteur take samples from them and bring back to the laboratory. Once inside the laboratory, the anthrax bacilli are grown stronger and are progressively turned into a vaccine. Then, it could eventually be brought out back to the cows, fulfilling the promise Pasteur made to the farmers. (Latour 1999b, pp. 208-274)

Just like the anthrax bacilli needed to get in and out of Pasteur’s laboratory, as shown in the figure above, so is the case of questionnaires that the respondents need to fill out and return to the SOM-institute. The respondents are the microbes of society, and not until they are captured and counted, they can be transformed into ‘macrobes’ that speak in the name of society as a whole. Whereas Pasteur had to travel to the countryside to get his samples, the SOM-institute is utilizing mediating actors; the questionnaires are sent via the postal system, they are gathered by the Kinnmark contractor and turned into computer readable data, which is handed over to the institute and sent further to the researchers in the involved projects. If everything goes as planned, articles and reports can be written, news media can print articles covering the findings and circulate them back out to anyone who has an interest in a society described by the social sciences. To put it in Latourian vocabulary, to say something about macro-society, the SOM-institute needs to amplify a sample of micro-society through trials of strength.

The questionnaires are flowing back into the SOM-institute safely during the fall of 1999. The response rate is according to the methodological appendix 67 per cent, a number that is considered high by the author. In a brief discussion of response rates, there is an external reference to ”Ohlsson 1986” who states that ”the response rate of social scientific postal surveys are generally between 60 and 70 per cent, depending on geographical area and types of respondents” (Lithner 2000: 398). How much is enough? And who decides when enough is enough? At what moment can a social scientist know when the survey works? What has to be examined, to further open up this black box is just as with the Eagle Microcomputer, to examine the ‘de-bugging’, tinkering, patching and analyzing of these progressive steps that had the researchers decide to assemble letters, postcards and telephone calls i specific configurations. This is the first limit of the 1999 SOM-survey. To find the next link in the chains of black boxes I will have to go back to 1986, perhaps even much further.

Picture above: Going from a black box, opening it up, then dislocating its components, which are still somewhat assembled, but lack the borders the box once gave them.

Det krypt(ograf)iska ansvaret

Förra veckans krypteringsnyheter väcker en rad intressanta frågor, som bland annat Hasse Rosén ställer i en tweet (ovan).

När kryptering blir allt vanligare får myndigheter som FRA och NSA ett tuffare jobb. Mera data måste dekrypteras, trafikmönstrena på internet blir allt otydligare och teknologier som Deep packet inspection blir allt svårare att implementera. Efter den senaste tidens stålbad av utökade övervakningslagar, tar internauter saker och ting i egna händer och använder sig av en slags teknologisk aktivism, som jag förutspår kommer att bli en brännande fråga inom en snar framtid. I Det nätpolitiska manifestet skriver jag:

Kombinationen av dessa två teknologier, kryptering och paketförmedling, ger upphov till ständigt nya darknets. Cyberspace blir cipherspace – ett krypterat internet inuti internet där det är nästintill omöjligt att röja en avändares identitet. Följden av denna identitetslöshet blir att inga lagar kan verkställas och inga straff utdömas; cipherspace är ett tillstånd av teknologisk anarki.

Ur detta tillstånd kan man påbörja ett resonemang om ansvar. Men inte vilket resonemang som helst, åtminstone inte om vi vill ta oss till själva sakfrågan. Att bara kräva att det tas ansvar innebär att man inte säger någonting alls. Att dessutom fastna för det suggestiva A-ordet i kryptoAnarki leder också fel, eftersom det tillsammans med A som i Ansvar i princip motsäger varandra redan per definition. Så låt oss ta en sak i taget och vandra från A till A varsamt.

För det första måste vi historicera debatten. Samma problemställningar diskuterades redan för 20 år sedan, bland annat av Timothy C. May i The Crypto Anarchist Manifesto (ca. 1992)*:

The State will of course try to slow or halt the spread of this technology, citing national security concerns, use of the technology by drug dealers and tax evaders, and fears of societal disintegration. Any of these concerns will be valid; crypto anarchy will allow national secrets to be trade freely and will allow illicit and stolen materials to be traded.

På nittiotalet var krypton klassade som ammunition, och i USA fördes en debatt om huruvida de skulle tillåtas över huvudtaget. Men mot slutet av nittiotalet beslöt man sig för att släppa kryptering helt fritt, eftersom det inte fanns några tecken som tydde på att varken nationell säkerhet skulle hotas, att det handlades med droger eller att samhällen kollapsade. Tvärtom stärkte anonymiteten människor som befann sig i diktaturer och under hot, men framförallt möjliggjorde krypteringen i princip IT-bubblan. Utan säkra kreditkortstransaktioner skulle vi inte ha handel på internet, vi skulle inte ha säkra login på Facebook etc.

Man skulle kunna säga att ansvaret istället vändes upp och ned. Det började ses som ansvarslöst att inte kryptera, eftersom man då exponerade användarna mot kreditkortsbedrägerier och att deras personliga data hamnade på vift. Så fort man har mer än en användare på sitt system argumenterar många för att man har en skyldighet att kryptera personliga data.

Detta bryggar över till den debatt som nu börjar formeras.

Andreas Ekström ställer ungefär samma fråga i sin kommentar till Det nätpolitiska manifestet, publicerad på Netopia. Men nu i ett nytt sammanhang, 20 år efter den första kryptoanarkidiskussionen:

Den digitala revolutionen fortsätter. Tydligen ska en miljon idiotiska småstrider behöva utkämpas innan världen på allvar blir bättre på grund av den – men striden om hur rättsstaten agerar eller utesluts från ett framtida genomkrypterat internet, den blir inte liten. Det är allas ansvar – och det säger jag trots att ganska lite i vår historia tyder på att kollektivt ansvarsutkrävande är en riktigt lyckad idé – att se till att den då åtminstone inte blir idiotisk.

Ekström öppnar åter den kanske ibland bortglömda frågan om relationen mellan stat och krypton. Den är inte alls mindre relevant idag. I länder som Kina, Iran, Förenade Arabemiraten, med flera, är kryptering hårt reglerad. Bara i veckorna har Förenade Arabemiraten haft stora problem med Blackberry-telefoner, vars kryptering är så stark att staten inte kan knäcka den (tillräckligt snabbt). Här tänker man sig att staten måste ta sig denna rätt för att förhindra hot mot den nationella säkerheten. Alltså, som Ekström argumenterar, rätsstaten släpps in i den krypterade trafiken.

Vems ansvar är det då? Och vad består ansvaret av? NSA tycker att franska Hadopi-myndigheten bär ansvar för att fildelare krypterar för mycket trafik. NSA utkräver (informellt) ansvar av Hadopi, och troligtvis dess motsvarigheter i andra EU-länder, att sluta upp med att övervaka ringa upphovsrättsöverträdelser så att de kan få tag på ”the bad guys”. I USA menas med detta allt som oftast terrorister.

När vi handlar roliga prylar på E-bay utkräver vi i rollen som konsumenter ansvar att E-bay inte skickar våra kreditkortsnummer i klartext hur som helst över internet. Vi kräver att våra mail förvaras på krypterade diskar så att de inte sprids vind för våg, och vi utkräver ansvar hos Facebook att data om exempelvis Iranska aktivister inte hamnar hos Basij-milisen.

Även kryptoaktivister utkräver ansvar, främst av sig själva. Att lova att ett system är fullständigt säkert innebär att man sätter någon annan i fara. Att inleda kommunikation med någon vars säkerhet man inte kan garantera är mycket dumdristigt, och kan leda till svåra konsekvenser om man exempelvis tunnlar in till/ut ifrån Kina.

Ansvar är således något som i princip alla utkräver av andra och sig själva i denna kryptiska ansvarsdebatt.

Jag skulle exempelvis mer än gärna vilja hålla Netopia ansvariga för en stundande konflikt med kryptorelaterade dimensioner. I sitt mantra om att ”rättsstaten” måste flytta in på internet, som om den skulle saknas där (så vitt jag vet gäller lagen lika mycket där som någon annan stans), så medför detta konsekvenser. Den ”rättsstat” som Netopia efterfrågar har teknologiska implikationer. Att skilja ett datapaket från ett annat, det ”lagliga” och det ”olagliga”, kräver alltid någon form av övervakning. Den senaste trenden är Deep packet inspection, som jag länkar ovan, vilket innebär att varje paket lyfts upp, analyseras, och släpps vidare. Om det inte är oönskat, för då stoppas det. Teknologin implementeras hos våra internetoperatörer, och blir därmed ofrivillig samt i många fall omedveten för användarna.

DPI kringgås mycket enkelt genom att man krypterar trafiken från sin egen dator till destinationen. Den ciphertext man skickar blir därmed meningslös för DPI-maskinen hos internetoperatören. Den sekund som de första paketen börjar droppas i kablarna, kommer först ett litet antal internauter att börja kryptera. När måltavlan blir exempelvis bittorrenttrafik kommer det tillkomma en strid ström av användare. NSAs problem ökar. Så även FRAs. Att utkräva ansvar för de ytterst få riktiga brott som äger rum i det vita brus av krypterad trafik som uppstår blir då allt svårare.

Det verkar som det ”kollektivt ansvarsutkrävande” som Ekström diskuterar inte fungerar. När man tar fram den breda håven på internet fångar man de vanliga användarna och inte de luriga bovarna. Samma förhållande gäller exempelvis med det läckta barnporrfiltret som Juliagruppen och AKZensur analyserade. Blockeringarna som Ecpat och Polisen överlämnar till internetoperatörerna leder till en allvarlig paradox. Den ”stora massan” får ett hemligt blockeringsfilter, medan barnporrsajterna får fortsätta att finnas. På en halvtimma kan man stänga ned sajterna istället och överlämna bevis till myndigheterna. Det kan vem som helst göra med hjälp av kommandot ”whois”.

Så frågan är om ”vem tar ansvaret?” verkligen alltid syftar till ”rättsamhället”? För det verkar som att de rättsvårdande myndigheterna knappast verkar bry sig. Det rättsvårdande samhället har överlämnat befogenheter och ansvar till privatpoliser när det gäller fildelning i och med IPRED1. Det verkar som att det blir allt svårare att motivera den manövern, med tanke på att IPRED-metoderna ständigt överklagas, kanske för att fällas i Europadomstolen.

För att återvända till Hasse Roséns inledande fråga om vilket ansvar ”de som bygger cipherspace” har för att anonymisering kan komma att missbrukas, kan man ställa upp ett svar ungefär så här:

I första hand upplever de flesta jag känner att det primära ansvaret är att se till att de som förlitar sig på kryptering inte i blindo litar på att tekniken fungerar. Trots att kryperingen idag är mycket stark finns det förödande misstag som man kan göra, och därmed avslöja sin identitet på helt fel ställe. En oförsiktig Egyptisk bloggare kan hamna i fängelse.

”De som bygger cipherspace” är inte en homogen grupp av nätaktivister. Tvärtom står privata företag för den största delen av den krypterade trafiken på internet. Kommersiella VPN-tjänster säljs dagligen till kunder som vill skydda sin trafik. Som privata företag är dessa pragmatiska med hur de ska ta ansvar. Man kalkylerar ett övervägande mellan hur man får maximalt antal kunder utan att riskera att komma i konflikt med polisen.

De mera avancerade projekten som I2P och Tor, som byggs upp av ”communities”, är kanske de mest intressanta. Dels bygger de upp en infrastruktur som siktar in sig på att vara ”kärnvapensäker”, alltså att det är omöjligt att fastställa identiteter och ta ned sajter och tjänster, även för utvecklarna själva. Här är ansvarsdiskussionerna mycket levande, till skillnad från de kommersiella tjänsternas mera pragmatiska hållning. Att sammanfatta dessa här och nu är kanske inte möjligt, men kanske finns det ändå några punkter att urskilja.

Principen om fri kommunikation går före rättsstatens ingrepp för att stävja eventuella brott. Dels fann man ju i USA på nittiotalet att brott över datornätverken i princip inte existerade. Men i juridiska termer skulle man kunna placera dessa principer i hierarkiska kategorier: fri kommunikation är för det mesta placerade som konstitutionella och fundamentala rättigheter, medan brottsbalkar intar en sekundär position.

Men kryptoanarki manifesterar sig sällan som en ”ideologi”, utan snarare som en praktik. Med hjälp av min dator kan jag förvandla klartext till chiffertext, sedan kan jag skicka data till vilken annan nod i nätverket (internet). När lagen inte skyddar mig, när exempelvis meddelarskyddet kringskärs av FRA, då ligger ansvaret hos mig istället för hos staten att garantera ett informationsflöde. Det kan tyckas vara orättvist, men vi är redan där idag.

Egentligen borde även våra traditionella massmedier ta det ansvaret. Hittills har jag sett väldigt lite av just detta. Om jag ska kontakta en redaktion, så finns det väldigt få vägar att göra det på utan att meddelarskyddet bryts. Vad spelar en grundlag för roll när min trafik ändå avlyssnas, här och nu. Med datalagringsdirektivet kommer telefonsamtalet att vara loggat. När jag mejlar kan mejlet ha snappats upp på vägen. När hyrsnuten har begärt ut mitt IP-nummer för en delad upphovsrättskskyddad fils skull, är min anonymitet bruten.

Jag är övertygad om att kryptoaktivister mer än gärna tar sitt ansvar att sprida kunskaperna och göra dem tillgängliga för fler. Ty de behövs.

* De kryptoanarkistiska manifesten finns samlade i Crypto Anarchy, Cyberstates, and Pirate Utopias av Peter Ludlow. För den som har i2p här.

** För en relaterad men annorlunda diskussion, se min ståndpunkt om transparens.

Aquatic internet

Recently Isabella Lövin of the Green group voted in favour of the scandalous Gallo report. The report is not only full of lies, containing signatures of dead copyright-holders and made up facts, but it also calls for stronger repression of the internet in the desperate pursuit of ”file sharers”.

Now, for the average politician, internet activists store such events in their political memory. However, what Lövin did not know, was that her betrayal was very special due to another less known phenomena. Lövin has written extensively on the threats against marine environments and disruptions in aquatic ecology due to fishery and toxic waste.

This concern for the aquatic ecologies are, as far as I can tell, shared among almost any internet activist out there. The interweb is full of failwhales, jellyfish, imperial waves and storming torrents. There is no opposition between the preservation of the sea and the preservation of the open networks. On the contrary, those are struggles very closely related to each other.

This is techno-animism and symmetrical ecology of the mechanosphere. When I log in to the webserver that runs this blog it looks like this:

Sun Microsystems Inc. SunOS 5.11

chrisk@tuna:~$

The tuna is an amazing fish, so my web server is named after it. Especially the Pacific bluefin tuna that swims swiftly through the waters, with streamlined bodies and retractable fins. It even has the rare capacity of heating its own blood, which most fish do not have. A tuna is the perfect light and swift web server, resembling the lighttpd rather than the more common Apache whale, which is bigger and clumsier.

However, the bluefin tuna is red-flagged due to excessive fishery. Because of its delicate meat, it is sold at very high prices, especially in Japan. The world would much richer if we were to leave this beautiful creature to its proliferation in the currents of the sea, swimming next to our ships, smiling back at us.

But we must also preserve the tunas of the internet. Open un-censored computer networks without surveillance are also red-flagged. The Gallo report is not only trolling us like yet another internet troll, but in a literal sense it trolls away the open internet, just like those troll vessels are killing the tuna in the Pacific ocean.

The ecology of the deep waters and the ecology of the deep networks are the same struggle. We must defend diversity for every tuna, no matter its IP-number or its depth in the waters. The eel travels to the Sargasso Sea to multiply in peace, internauts travel to cipherspace to seek peace and calm from the predators of the copyright industries.

Let all tunas unite!

Om hacktivism

De senaste dagarna haglar nyheterna om hur onda hackere får allt från kärnkraftsverk till företag och myndigheter att lamslås och hotar våra samhällen. Samtidigt får myndigheter som FRA och den nyligen bildade amerikanska USCYBERCOM allt större befogenheter att övervaka vårt internet, och antivirusföretagen triumferar som intervjuoffer när de i redaktionell text får förklara hur viktiga deras produkter är, helt oemotsagda.

Men vad är egentligen en hacktivist? (SRSLY Aftonbladet) Det råder osäkerhet om när begreppet användes för första gången, men många härleder det till aktivistgruppen Cult of the Dead Cow som 1999 lanserade grupen ”Hacktivismo” för att främja mänskliga rättigheter på internet. Idag har termen vidgats och handlar inte bara om datorer och internet. Den franska gruppen La Quadrature du Net som arbetar med nätpolitiska frågor i den Europeiska Unionen menar till och med att lagstiftande processer kan hackas, genom att man intervenerar i skrivandet av lagförslagen och ”patchar” dem, precis som när man korrigerar buggar i dåligt fungerande mjukvara.

Gemensamt för hacktivistiska projekt och grupper är ett visst förhållningssätt till teknik och teknologisk utveckling. Istället för att betrakta artefakterna som färdigstöpta konsumentprodukter, ses de som öppna system som kan modifieras och fungera på andra sätt än de ursprungligen var tänkta för. Man öppnar nyfiket upp de svarta lådorna, skruvar isär dem och förstår dess komponenter, för att sedan sätta samman dem till något nytt. Givetvis är detta i allra högsta grad politiskt.

Din dator kan helt plötsligt bli vad som helst. Kanske en webserver, en del av en bittorrentsvärm, ett kryptosystem eller en chatserver. Din strypta och nedlåsta iPhone kan förvandlas till en trådlös basstation. En 3d-skrivare kan skriva ut egendesignade saker i plast, och gläntar därmed på dörren för en tillverkningsrevolution som kan äga rum i din egen garderob.

Givetvis finns det även destruktiva sätt att använda teknologier på. Just nu, mitt under rättegången mot The Pirate Bay, attackeras upphovsrättsindustrins sajter med överbelastningsattacker. Deras vapen heter Low Orbit Ion Cannons och installeras på de egna datorerna för att skicka så mycket trafik som möjligt mot ett givet mål. Samma principiella teknik använde upphovsrättsindustrin själva för att för några veckor sedan överbelasta thepiratebay.org. Det var det indiska företaget AIplex Software som öppet erkände att det var en strategi som användes i bekämpandet av upphovsrättsbrott.

Det finns bra och dålig hacktivism. Men när medierna rapporterar så framställs allt som ett farligt hot som kräver mera befogenheter åt övervakningssamhället. För att motverka dessa fördomar rekommederas att man besöker de stora hackerkonferenserna, där den största är Chaos Communication Congress som hålls årligen i Berlin. Eller så letar man upp närmsta hackerspace, platser där teknikintresserade träffas och utforskar teknologier. Det är varken farligt eller konstigt, tvärtom är det oerhört spännande.