Notes from #MIT8: ‘Labor and Technologies of Surveillance’ – The Aesthetics of Objectivity and Computational Objectivity

On Saturday, May 4th I attended the ‘Labor and Technologies of Surveillance’ panel where Kelly Gates talked about ‘Professionalizing Police Media Work: Surveillance Video & the Forensic Sensibility.’ Gates, who has gone through an extensive training program in the field of video forensics as part of her research, discussed how raw video is not evidence despite video’s aesthetics of objectivity. The imagery of video and audiovisual material are perceived as evidence but instead they are pointing to an indexality which is produced through the media production and in the process of post-production. Gates argues that “the status of video evidence as an index of real events—a sign or representation that offers a direct, empirical connection to material reality—is the result of an intentional process of production” (2013).1

MIT8 Gates

Temporal indexicality, where a timestamp in the video seems to point the moment in which it happened, is perceived as “objectivity” but Gates gives two reasons why a timestamp on a video cannot be considered objective evidence in court: First, the recorded surveillance video material may come from old VCRs and the time settings of the device may not be accurate.2 Second, you can use a time-code plugin to insert the timestamp afterwards.

Gates introduces the notion of “computational objectivity” as “an avenue to objective analytical results that aims to translate certain aspects of trained judgment into computational systems” (2013: 12). She builds on Daston & Galison’s Objectivity (2007) who historicize objectivity as an epistemic virtue related to specific periods: from truth to nature to mechanic objectivity through trained judgement. She updates Daston & Galison’s notion of “mechanic objectivity”, which was related to photographic and other visual forms of media, to “computational objectivity” to describe the production of objectivity using visual media within the computational turn. Computers are not replacing the professionals, but professionals are learned to look at images with a computational eye:

The emerging field of forensic video analysis is one site where an epistemic virtue of ‘‘computational objectivity’’ is taking shape: the belief that neutral scientific image analysis can be achieved by translating certain forms of professional trained judgment into computational processes or, in this case, through the application of computational techniques by police professionals retrained as video specialists. (Gates 2013: 304)


  1. Gates, Kelly. 2013. “The Cultural Labor of Surveillance: Video Forensics, Computational Objectivity, and the Production of Visual Evidence.” Social Semiotics 0 (0): 1–19. doi:10.1080/10350330.2013.777593.[]
  2. Consider, for example, a power outage resetting the VCR or summer and winter time.[]

Notes from #MIT8: ‘Social Media Platforms between Private, Public and Commercial Space’ – Curation by Algorithm

HDRtist Pro Rendering -

On Friday, May 3rd I attended the ‘Social Media Platforms between Private, Public and Commercial Space’ panel where Tarleton Gillespie talked about Curation by Algorithm. Based on his chapter ‘The Relevance of Algorithms’ [pdf] in the forthcoming book Media Technologies Gillespie posed a few questions:

1. What do these algorithms do?

Algorithms are part of the broader ‘content moderation’ picture where devices, search engines and algorithms help us sift through an enormous amount of content, for example by implementing recommendation algorithms. They also help present a carefully managed experience for first users by constructing a welcoming environment filled with (introduction) content or by guiding users to navigate them through the interface.

2. How are these algorithms understood?

Algorithms are often discussed in terms of filtering or censoring content, as put forward in The Filter Bubble, but to what extent do algorithms act on or are entangled in practices of censorship by other means? Gillespie shows the example of Apple’s voice search Siri which couldn’t find any abortion clinics when searching for them. While Apple quickly responded that this was a ‘glitch’ and not an intentional omission it caused a ‘Siri is pro-life’ controversy.


However, what actually happened is that Siri is a voice interface on top of search engines and it turns out that pro-life organizations are better optimized for SEO. When Siri showed no results for [abortion clinic] or showed pro-life results it wasn’t because Apple is censoring pro-abortion results but because “Planned Parenthood doesn’t call itself an abortion clinic” and because pro-life organizations use the term abortion more (see Search Engine Land on Why Siri Can’t Find Abortion Clinics & How It’s Not An Apple Conspiracy). Thus, these results weren’t censored or ‘algorithmically demoted’ (Gillespie) but didn’t appear due to SEO strategies or a lack thereof. Algorithms are blurring the line between of our understanding between removing and obscuring results.

The example of Apple’s denial of a ‘pro-life Siri’ shows how “the providers of information algorithms must assert that their algorithm is impartial. The performance of algorithmic objectivity has become fundamental to the maintenance of these tools as legitimate brokers of relevant knowledge.” (Gillespie 2013)

3. Who do they seem to belong to?

In the case of recommendation algorithms such as Google Instant’s auto-complete algorithm it can seem like the site is speaking to us. The query [how to kill] doesn’t show any results, or rather, any algorithmic recommendations, but it does seem to deliver Google a voice. Algorithmic results are conflated with the voice of Google.

Screen Shot 2013-05-09 at 11.31.37 AM

4. What are the fraught politics of algorithms?

Such examples show the politics of algorithms, the larger (web) practices they may be entangled in and how users read and act on algorithmic ‘behavior’ in a particular way.

5. How do they create “calculated publics?”

Algorithms may have particular consequences which Gillespie explains through the production of “calculated publics: how the algorithmic presentation of publics back to themselves shape a public’s sense of itself, and who is best positioned to benefit from that knowledge.” Building on the notion of ‘networked publics’ where publics are formed through social media, algorithms may shape and form publics too. Common critiques on the formation of publics within social media are related the daily me or filter bubble, whether or not we receive enough diverse perspectives through personalization. While not necessarily disagreeing with these critiques, Gillespie argues that there is also something else happening within networked publics where algorithms play a role in the constitution of publics. Not only do algorithms play a role in the filtering and displaying of content to inform publics but they also algorithmically shape publics:

But algorithms not only structure our interactions with others as members of networked publics; algorithms also traffic in calculated publics that they themselves produce. When Amazon recommends a book that “customers like you” bought, it is invoking and claiming to know a public with which we are invited to feel an affinity -though the population on which it bases these recommendations is not transparent, and is certainly not coterminous with its entire customer base. (Gillespie 2013)

While users may target a specific group of friends through their configuration of privacy settings (friends of friends on Facebook) or through the use of platform-specific features to target content at a specific group (hashtags on Twitter and Instagram), the social media platforms themselves construct publics through the use of an opaque algorithm and therewith the “friction between the ‘networked publics’ forged by users and the ‘calculated publics’ offered by algorithms further complicates the dynamics of networked sociality.” (Gillespie 2013)

On algorithmic friendship, a belated April Fools’ joke

While I was updating my DevonThink today I visited their blog Devonian Times and noticed I missed one of the best April Fools’ jokes related to my research:

CareTaker for Facebook is here!

CareTaker for Facebook iconSome people say that our apps are not “social” enough now with Facebook and Twitter being still the main trends in the industry. We listened and proudly present a brand new freeware app: CareTaker for Facebook. Never get your friends kicked out of your news feed again. Don’t get calls from annoyed friends telling you that you don’t like their posts. And all this without wasting even more time on Facebook.

Once signed in to your Facebook account CareTaker takes care of your friends and fully automatically likes their posts or comments that match the rules you set up. Create rules based on your DEVONthink databases (likes all posts that fit your interests according to your document collection) or use RegEx for even more control. Our unique Artificial Intelligence technology not only does the matching but also creates meaningful, human-looking replies for you. Finally the Toady Mode likes every of your boss’ posts and comments on them with an AI-crafted variant of “That’s great!”.

CareTaker for Facebook will be available starting today for free for Mac, iPhone, and iPad in the App Store. And make sure to like it (and us) on Facebook! (DevonThink)

Commenters were quick to label it a joke as someone commented: “Thanks for developing a great app! I really like the companion module, UnderTaker, that continues to post to Facebook long after we’re dead and gone.” The fake app refers to what Jason Kottke (2010), based on the article The Social Index by Susan Orlean, and Taina Bucher (2012) have labelled “algorithmic friendship.” Bucher uses the concept of algorithmic friendship as “a way of understanding the ways in which algorithms and software have become active participants in our networked lives and information ecosystems, forming the ways in which users are made to relate to self and others.” (2012:2)1

Optimizing the self for algorithms

The (fake) app offers a way to increase your visibility by optimizing your presence on Facebook by exploiting the EdgeRank algorithm. We no longer optimize our blogs for Google but we optimize ourselves for Facebook. Bucher notes how the “power of the algorithm becomes apparent in its capacity to make certain people more visible than others. The underlying software always already intervenes in the practices of friendship by selecting which friends a user should pay attention to” (2012:6) and this (fake) app functions as a managerial piece of software where one can set ‘rules’ for which types of content and activities on Facebook to like. By structuring and automating responses with RegEx one predefines affective reactions to content and activities of friends; if this, then that. If a piece of content or activity adheres to the predefined rules then an automatic response will follow, no longer leaving the user in doubt whether or to like it or not. But, you can also simple like everything!

Such a script, to automatically like everything from your friends, actually already exists: “[loveMachine] is a program (or as I prefer to call it, a bot) that will log into a Facebook account, repetitively click the “like” buttons on every possible content shown in the home stream, then post its amazing score as a status and log out.” It is also (jokingly) put forward as an automatic friendship managerial tool as one of the reasons listed under why you would want to use this tool is because “You already like everything your friends post on Facebook. This will saves you time.” Another reason is also related to the algorithmic invisibility effecting friendships on Facebook where if “You want attention from your friends. By liking everything they do, they’ll notice you.” Search Engine Reputation Management (SERM) as an identity management subgenre of search engine optimization is complemented by Facebook EdgeRank Optimization where users have to constantly show their affection and active engagement by liking, sharing and commenting everything their friends do to maintain their visibility. The idea of using scripts to automate the optimization of the self for algorithms is no longer an April Fools’ joke but (becoming) reality.

  1.  Bucher, Taina. “The Friendship Assemblage: Investigating Programmed Sociality on Facebook.” Television & New Media (August 24, 2012). doi:10.1177/1527476412452800.[]

Dataflows en de politieke economie van sociale media platformen

Transcript van mijn lezing tijdens de studiemiddag voor alumni van de Faculteit der Geesteswetenschappen over sociale media. Universiteit van Amsterdam, 5 april 2013.

1. Introductie

Dank voor de uitnodiging. Mijn naam is Anne Helmond en ik ben docent-promovendus bij Mediastudies bij Nieuwe Media en Digitale Cultuur. Hier doe ik onderzoek binnen de onderzoeksgroep het Digital Methods Initiative naar het web als platform en hoe we onze onderzoeksmethoden moeten aanpassen om het web als een ecologie te bestuderen.

2. Mediatie van processen door software

Vandaag zal ik het hebben over de onderliggende infrastructuren van het sociale web en hoe hiermee de economische relaties van het huidige sociale media landschap worden georganiseerd. Deze korte lezing gaat in op hoe sociale media platformen relaties en activiteiten structureren aan zowel de voorkant als de achterkant van hun platformen. Om te begrijpen hoe de relaties tussen platformen en gebruikers worden georganiseerd, moeten we kijken naar de rol van zowel menselijke actoren als niet-menselijke actoren die processen mediëren, zoals de technische infrastructuur. Het uitgangspunt hierbij is het platform-specifieke karakter van sociale media platformen waar we een assemblage zien van software, databases, interfaces, content, activiteiten, gebruikers en externe webmasters die samen het platform vormen. Dit zal worden geïllustreerd aan de hand van Facebook als een van de belangrijkste infrastructuren van het data-intensieve sociale web.

3. Front-end en back-end van het sociale web

Deze lezing kijkt niet zozeer naar de content van de sociale media platformen, of naar de gebruikers ervan, maar de mediërende rol van software in het structureren van sociale en economische relaties. Ik volg hierbij auteur Felix Stalder die onderscheid maakt tussen de “voorkant” van het sociale web, oftewel de interface van het sociale media platform waar gebruikers met elkaar interactie aangaan en content uploaden, en de “achterkant” van het sociale web, die de gebruikers niet kunnen zien, de databases waar alle interacties, content en gebruikersdata wordt opgeslagen en vervolgens verwerkt om bijvoorbeeld aanbevelingen te doen of gerichte advertenties te tonen.1 Stalder beschrijft hoe studies naar sociale media platformen zich veelal richten op de front-end, waarbij de “democratische” potentie van sociale media een utopische visie schept waarin iedereen content kan produceren, circuleren en in publieke discourses kan participeren zonder kritisch te kijken naar de back-end die vanwege de gekozen businessmodellen veelal functioneert als een surveillance infrastructuur waarin gebruikers gesorteerd worden om bijvoorbeeld persoonlijke advertenties te kunnen leveren.2 Stalder stelt dat er een groeiende spanning is tussen de gebruikers van sociale media platformen in de front-end en de platform-eigenaren in de back-end.3 Om sociale media goed te kunnen analyseren en begrijpen moeten we volgens Stalder dan ook kijken naar de relatie tussen front- en back-end, waaraan ik wil toevoegen hoe deze relatie wordt gemedieerd door software.

4. Content provider en data provider

We moeten ze samen bestuderen omdat vrijwel alle vormen van interactie in de front-end van het platform in de back-end wordt omgezet in waardevolle informatie voor bijvoorbeeld adverteerders. Gebruikers zijn hiermee niet langer alleen maar content providers wanneer ze bijvoorbeeld foto’s uploaden naar Facebook, maar ook data providers door foto’s te taggen, delen en liken zo stelt José van Dijck.4 In deze nieuwe rol van de gebruiker betaalt de gebruiker dus met haar eigen data voor de gratis diensten. Of zoals deze cartoon stelt: “If you are not paying for it, you’re not the customer; You’re the product being sold.”

5. Social buttons

Maar niet alleen binnen deze sociale media platformen wordt data geproduceerd, ook buiten de platformen om wordt waardevolle data gecreëerd en teruggestuurd naar deze platformen. Ik dit illustreren aan de hand van social buttons, de knoppen die ons artikelen laten liken, sharen, tweeten en delen op verschillende sociale media platformen. Deze knoppen decentraliseren de verschillende kernfuncties van sociale media platformen.5 Hiermee bedoel ik dat veel kenmerkende acties op deze platformen, zoals Liken op Facebook, nu ook buiten Facebook mogelijk worden gemaakt door middel van deze knoppen. Webmasters die deze Like knoppen op hun pagina’s implementeren, integreren hiermee externe platform functionaliteit op hun webpagina waarbij er een data-uitwisseling tussen de website en het sociale media platform wordt mogelijk gemaakt.

6. Decentralisatie

Op het moment dat je op een Like button klikt op een webpagina, wordt er een data-uitwisseling tussen de webpagina en Facebook geïnitieerd en geopend: op de webpagina wordt het aantal Likes met 1 opgehoogd en op Facebook wordt de Like op de Timeline, het profiel, van de gebruiker getoond en in de News Feed en Ticker van de gebruiker zijn/haar vrienden.6  Maar, er vindt niet alleen data-uitwisseling plaats als je op de Like knop klikt, ook zonder er op te klikken wordt er data naar Facebook gestuurd ontdekte de Nederlandse onderzoeker Arnold Roosendaal in 2010.7

7.  Like knop & cookies

De Like knop kan gebruikt worden om een cookie te lezen, een klein bestandje met data dat op je machine geplaatst wordt nadat je een Facebook account hebt aangemaakt of nadat je een website hebt bezocht hebt met een Facebook login of Facebook button. De cookie stuurt automatisch data terug naar Facebook op het moment dat je een pagina met een Like button laadt. Dat betekent dat je niet eens op de button hoeft te klikken, maar dat er automatisch data waaronder je gebruikersnaam, de pagina die je op dat moment bezoekt en de datum en tijd waarop je het bezoekt naar Facebook wordt gestuurd. Dit geldt bovendien niet alleen voor Facebook-gebruikers, de Like knop stuurt ook data van bezoekers zonder Facebook profiel naar het platform en voegt deze informatie als anonieme gegevens toe aan de Facebook-database. Hiermee maakt de Like knop van elke web-gebruiker een potentiële Facebook gebruiker.8 De Like knop initieert dus automatisch onzichtbare dataflows tussen de front-end, de webpagina met een Like knop, en de back-end waar de informatie in de database van Facebook wordt opgeslagen, verwerkt en gebruikt.

8. Onzichtbare dataflows visualiseren: Collusion

Hoe kunnen we deze dataflows zichtbaar maken en hoe kunnen we ze blokkeren? Er zijn verscheidene tools die ons kunnen wijzen op de aanwezigheid van derde partijen die dataflows tot stand brengen en die het onzichtbare web van deze trackers en hun dataflows zichtbaar maken. De browser-plugin Collusion toont bijvoorbeeld in realtime terwijl je aan het surfen bent, welke connecties met welke trackers je maakt. Dit is het resultaat van een dagje surfen. Dit is een bewustwordingstool, maar biedt ook de mogelijkheid bekende trackers te blokkeren.

9. Ghostery: dataflows blokkeren

Een veelgebruikte tool om dataflows van en naar derde partijen waaronder sociale media platforms te blokkeren is de browser-plugin Ghostery. Ghostery wijst de gebruiker tijdens het bezoeken van webpagina’s op de aanwezigheid van derde partijen die dataflows initiëren en biedt de mogelijkheid om deze trackers zoals hier Facebook en Google te blokkeren.

10. Data-intensieve laag van het web

Wat wij met onze onderzoeksgroep het Digital Methods Initiative gedaan hebben is de voorgaande tool, Ghostery, hergebruiken om het onzichtbare web van dataflows van en naar derde partijen, waaronder analytics, adverteerders en trackers die data verzamelen in kaart te brengen. Deze kaart toont de top 1000 van de meest bezochte websites op het web. We zien hier niet de connecties tussen de websites op basis van hoe ze naar elkaar linken, maar hoe ze connecties leggen met externe partijen die data verzamelen. De kaart visualiseert de data-connecties die automatisch met derde partijen worden gemaakt op het moment dat je een van de top 1000 meest bezochte pagina’s laadt (waaronder Google, Facebook, YouTube, Amazon, LinkedIn, maar ook CNN, de BBC en New York Times). Wat we zien is dat er clusters ontstaan rondom centrale advertentieservers zoals DoubleClick en andere grote spelers zoals zoekmachine Google, een van de grootste advertentie platforms op het web, en sociaal media platform Facebook. Dit is de onzichtbare tussenlaag tussen de front-end, de websites, en de back-end, de databases van de platformen waar deze data verzameld wordt.

11. Facebook dataflows

Hier zien we de aanwezigheid van Facebook in de top 1000 meest bezochte websites en de connecties die tussen webpagina’s en het platform gemaakt worden. Dit is de data-intensieve infrastructuur van het sociale web, waarbij data via social buttons, waaronder de veelgebruikte Like button, van en naar sociale media platformen gestuurd wordt. Deze data-intensieve infrastructuur wordt aan de ene kant mogelijk gemaakt door de decentralisatie van de functionaliteit van de platformen door het gebruik van social buttons en aan de andere kant door de recentralisatie van data, waarbij de data altijd weer terug naar het platform gestuurd wordt. Deze data connecties met externe partijen zijn niet geheel nieuw, aangezien cookies en advertenties al sinds de vroege dagen onderdeel uitmaken van het web, maar wat het anders maakt is dat de data van de sociale media platformen gekoppeld kan worden aan persoonlijke profielen. Doordat er bij sociale media platformen data gekoppeld kan worden aan een zeer rijk sociaal netwerk profiel kunnen er steeds persoonlijkere advertenties geserveerd worden.

12. Data giants

Daarnaast zien we dat Facebook steeds meer partnerships aangaat met grote bedrijven die enorme databases bezitten met consumententransacties van bijvoorbeeld vaste klantenkaarten om winkelaankopen te kunnen matchen met gebruikersprofielen.

13. Facebook Insights

Maar voor het opzetten van een data-intensieve infrastructuur hebben sociale media platforms de hulp nodig van webmasters, om de social buttons te implementeren op hun websites. Veel webmasters zetten een Like button op hun website om het makkelijker te maken om een artikel te verspreiden op Facebook, of om te tonen hoe populair het artikel is, of om de verspreiding van hun content te analyseren en optimaliseren. Dit betekent echter niet dat deze webmasters automatisch toegang hebben tot alle data die Facebook via de Like button verzamelt. Hoewel webmasters gebruik kunnen maken van Facebook Insights om inzicht te krijgen in de Likes zien ze geen individuele data van gebruikers, maar alleen algemene demografische gegevens.

14. Toegang tot Likes

Toegang tot Like data is voor alle actoren die betrokken zijn in de productie van deze data verschillend. Ook Facebook gebruikers hebben niet onbeperkt toegang tot hun eigen Likes. Zo kun je in de Facebook interface niet al je eigen activiteiten inzien en terugzien waaronder Likes van externe webpagina’s. We zien dus een infrastructuur waarin aan de ene kant gestreefd wordt naar de decentralisatie van dataverzameling door middel van social buttons, en aan de andere kant een recentralisatie van data-analyse, waarbij er een ongelijke verdeling is in de toegang tot de geproduceerde data.

15. Facebook kaping

Webmasters en bloggers spelen een belangrijke rol in deze infrastructuur van dataflows in het sociale web waarbij ze, vaak zonder het te weten, sociale media platforms toegang verlenen tot hun website en bezoekers en daarmee een data-kanaal vormen voor het uitwisselen van bepaalde data door middel van het implementeren van social buttons. Op 8 februari 2013 bleek hoe het mis kan gaan als je je webpagina koppelt aan Facebook door middel van het integreren van hun plugins zoals de Like button of the Facebook Login. Door een error in de Facebook Login, waarmee gebruikers op externe sites met hun Facebook account kunnen inloggen, waren deze sites een uur lang niet alleen onbereikbaar, maar werden alle gebruikers doorgestuurd naar Facebook. Hiermee kaapte Facebook als het ware een uur lang vele grote websites die Facebook Login gebruikte zoals CNN, ABC, The Washington Post, etc.

16. Webmaster interventie

Webmasters worden zich steeds meer bewust van de implicaties van een infrastructuur waarin websites en sociale media platformen steeds vaker aan elkaar gekoppeld worden. Op 24 september 2011 kondigde bekende blogger en software ontwikkelaar Dave Winer aan dat zijn blog een “Facebook-vrije” zone is. Een blog zonder de welbekende Like buttons, zonder Facebook comments, helemaal Facebook vrij. Waarom? Hij wilde niet bijdragen aan tegen de standaard participatie in de opkomende infrastructuur van het sociale web, waarbij ongevraagd data van de bezoekers aan zijn website via social buttons naar sociale media platformen gestuurd wordt.

17. Privacy-vriendelijke social buttons

Andere webmasters houden zich bezig met het ontwikkelen van nieuwe social buttons, die niet bij het laden van de pagina al dataflows in gang zetten. De Duitse nieuwssite Heise heeft haar eigen social buttons ontwikkeld die je eerst moet activeren. Dit betekent dat er dus niet standaard data wordt uitgewisseld, maar dat de knop eerst moet aanzetten om hem te kunnen gebruiken. Hierdoor kunnen gebruikers dus actief kiezen om te buttons te gebruiken en daarmee toestemming te geven aan gerelateerde data verzameling praktijken. Webmasters leggen hiermee de keuze bij hun bezoekers of ze willen deelnemen aan de data-intensieve infrastructuur van het sociale web. De Duitse technologie site voldoet hiermee ook aan de wetgeving van de Duitse Telemedia Act die het gebruik van social buttons illegaal verklaarde wegens de gerelateerde ongevraagde dataverzamelingspraktijken.

18. Artistieke interventie

Een laatste voorbeeld van interventie in deze praktijken komt vanuit een kunstproject. Het project, genaamd loveMachine, is een script dat automatisch alle updates van je vrienden liked. Op zijn website geeft de auteur enkele redenen waarom je dit script zou willen gebruiken: Je liked sowieso al alles wat je vrienden posten op Facebook en dit spaart je tijd. Je wilt meer aandacht van je vrienden en door alles te liken wat ze doen, krijg je hun aandacht. En als laatste: je bent bezorgt over je privacy en je wilt graag valse likes en voorkeuren toevoegen aan je Facebook profiel. Hiermee ondermijnt het script niet alleen het idee achter de Like zodra je alles liked, maar vestigt het ook de aandacht op het mediatie-proces van onze sociale activiteiten door middel van social buttons. Het script is hiermee een mooi voorbeeld van een artistieke interventie waarbij door de constante productie van likes ruis wordt toegevoegd aan de waardevolle dataflows van Facebook.

19. Conclusie

In deze korte uiteenzetting is er gekeken naar de relatie tussen de front-end en back-end van het sociale web en hoe sociale media platformen een data-intensieve infrastructuur opzetten door het decentraliseren van data-collectie door middel van social plugins en het recentraliseren van data-verwerking. Een belangrijk punt is hierbij de rol van de verschillende actoren, de sociale media platformen, de gebruikers, maar ook bezoekers van webpagina’s zonder sociale media account en de webmasters. Door deze actoren samen te brengen kunnen sociale media platformen een infrastructuur creëren waarin deelname standaard automatisch en onzichtbaar is. Maar een dergelijke standaard deelname, zoals we hebben gezien door de ontwikkeling van verschillende plugins en scripts die dataflows blokkeren of ruis toevoegen aan dataflows, wordt door steeds meer initiatieven steeds vaker van binnenuit onderbroken.

  1. Stalder, Felix. 2012. “Between Democracy and Spectacle: The Front-End and Back-End of the Social Web.” In: The Social Media Reader, edited by M. Mandiberg. New York, NY, USA: New York University Press. p. 242[]
  2. Stalder, Felix. 2012. “Between Democracy and Spectacle: The Front-End and Back-End of the Social Web.” In: The Social Media Reader, edited by M. Mandiberg. New York, NY, USA: New York University Press. p. 242-250[]
  3. Stalder, Felix. 2012. “Between Democracy and Spectacle: The Front-End and Back-End of the Social Web.” In: The Social Media Reader, edited by M. Mandiberg. New York, NY, USA: New York University Press. p. 249[]
  4. Van Dijck, José. 2009. “Users Like You? Theorizing Agency in User-generated Content.” Media, Culture, and Society 31 (1): p. 48[]
  5. Gerlitz, Carolin, and Anne Helmond. 2013. “The Like Economy: Social Buttons and the Data-intensive Web.” New Media & Society. Online First, 4 Feb 2013.[]
  6. Niet alle activiteit wordt in de News Feed getoond, zie: Bucher, Taina. 2012. “Want to Be on the Top? Algorithmic Power and the Threat of Invisibility on Facebook.” New Media & Society 14 (7) (November 1): 1164–1180. doi:10.1177/1461444812440159.[]
  7. Roosendaal, A. 2011. “Facebook Tracks and Traces Everyone: Like This!Tilburg Law School Research Paper (03).[]
  8. Gerlitz, Carolin, and Anne Helmond. 2013. “The Like Economy: Social Buttons and the Data-intensive Web.” New Media & Society. Online First, 4 Feb 2013.[]

Facebook Demetricator and the Easing of Prescribed Sociality by Ben Grosser at Unlike Us #3

Unlike Us #3

Unlike Us #3 organized by the Institute of Network Cultures, March 22-24, 2013, Trouw, Amsterdam

At Unlike Us #3 Ben Grosser presented the Facebook Demetricator which is a web browser extension that hides all the metrics on Facebook and therewith demetricates Facebook’s interface. Grosser describes his project as a piece of critical software that intervenes in the numerical focus of Facebook.

The quantification of social relations: More!

Ben Grosser narrates a scene from Wall Street: Money Never Sleeps where Jacob asks his new boss, Bretton James: “What’s your number?” “Everybody has a number, a set amount of money that once they hit, they’ll leave the game and just go play golf for the rest of their life. What’s yours?” and his response is: “More.”

YouTube Preview Image

The scene depicts a moment in the movie, which deals with the 2008 USA financial collapse, before the financial crisis and shows capitalist society’s fetish with increasing numbers and numerical growth which eventually came to a collapse. He describes the human desire to make numbers go higher, whether this means stocks rising, calories burned, friends added, likes accrued or comments left. Grosser states how we are obsessed with these numbers and that we’re paying more attention to the numbers than the actual content of the interaction.

He defines metrics in relation to his project as enumerations of data categories or groups that are easily obtained via typical database operations and studies these in relation to the Facebook platform from a software studies perspective. How do these metrics enable things in the sense of Matthew Fuller’s conditions of possibilities? The metrics increase user engagement with the site through the quantification of social relations as may be seen in the +1 included in the Add Friend button. You can increase your personal worth by incrementing your social value if you add a friend and the number is making that value explicit.

The extension does not only remove the numbers from likes, shares or friends but it also removes the timestamps in the interface. The Newsfeed is presented as a never-ending conversation and has engineered presence in the system where if you step out of the stream you may miss something. By quantifying our social relations Facebook becomes a technology of control that pushes for continous consumption. In our paper on Facebook’s Like Economy colleague Carolin Gerlitz and I describe this as a process of intensification and extensification where “user engagement is instantly transfigured into comparable metrics and at the same time multiplied and intensified on several levels:”

the metrifying capacities of the Like button are inextricable from its intensifying capacities. Within the Like economy, data and numbers have performative and productive capacities, they can generate user affects, enact more activities and thus multiply themselves or, as Simondon puts it, ‘Beyond information as quantity and information as quality, there is what one could call information as intensity’ (cited in Venn, 2010: 146). Such dynamics are enabled through the medium-specific infrastructure of the Like economy which simultaneously enacts, measures and multiplies user actions. (Gerlitz & Helmond, 2013)

Unlike Us #3

Ben Grosser at Unlike Us #3 organized by the Institute of Network Cultures, March 22-24, 2013, Trouw, Amsterdam

Facebook Demetricator user feedback

The feedback from users that installed the Facebook Demetricator after five months reveals how it removes addictive behavior (to like more, to constantly check for feedback or appreciation), how it blunts competition and calms users down, how it lessens emotional manipulation (one user stated (s)he was now in a neutral state of mind all the time) and how it relaxes rules. When going through the feedback it became apparent that many Facebook users have self-imposed rules on how to deal with the numbers and how to interact with content. One user stated: “I don’t know how to respond to this because I don’t know how old it is” indicating that (s)he would not respond to old content and actually asked if (s)he could have the Facebook Demetricator but with the timestamps back. Another user stated that “I need to know the numbers because I don’t want to be the first or second person to like it, because what if other people don’t like it?” and “If it has over 25 likes I am not going to like it anymore because that person has enough likes.”

With this piece of critical software Ben Grosser addresses how Facebook constructs its users by guiding its social interactions through the metrification of its interface.

More by Ben Grosser:

  • Ben Grosser – How the Technological Design of Facebook Homogenizes Identity and Limits Personal Representation (PDF)
  • Reload the love: Reload The Love! automatically detects when your Facebook notification icons are at zero and artificially inflates them for you. If new notifications arrive after Reload The Love! has inflated them, they will instantly revert back to accurate values. And any time you want to reinflate them, just reload the page to Reload The Love!
  • Interview with Ben Grosser by Matthew Fuller: Don’t Give Me the Numbers

Paper: The Like economy: Social buttons and the data-intensive web

My co-authored article, with colleague Carolin Gerlitz, has been published in New Media & Society in Online First on February 4, 2013.


The paper examines Facebook’s ambition to extend into the entire web by focusing on social buttons and developing a medium-specific platform critique. It contextualises the rise of buttons and counters as metrics for user engagement and links them to different web economies. Facebook’s Like buttons enable multiple data flows between various actors, contributing to a simultaneous de- and re-centralisation of the web. They allow the instant transformation of user engagement into numbers on button counters, which can be traded and multiplied but also function as tracking devices. The increasing presence of buttons and associated social plugins on the web creates new forms of connectivity between websites, introducing an alternative fabric of the web. Contrary to Facebook’s claim to promote a more social experience of the web, this paper explores the implementation and technical infrastructure of such buttons to conceptualise them as part of a so-called ‘Like economy’.


The full article is available from New Media & Society. A first version is available as a PDF but please note that this pre-peer-review version is substantially different from the final version.

Pages: Prev 1 2 3 4 5 6 7 Next