Notes from #MIT8: ‘Social Media Platforms between Private, Public and Commercial Space’ – Curation by Algorithm

HDRtist Pro Rendering - http://www.ohanaware.com/hdrtistpro/

On Friday, May 3rd I attended the ‘Social Media Platforms between Private, Public and Commercial Space’ panel where Tarleton Gillespie talked about Curation by Algorithm. Based on his chapter ‘The Relevance of Algorithms’ [pdf] in the forthcoming book Media Technologies Gillespie posed a few questions:

1. What do these algorithms do?

Algorithms are part of the broader ‘content moderation’ picture where devices, search engines and algorithms help us sift through an enormous amount of content, for example by implementing recommendation algorithms. They also help present a carefully managed experience for first users by constructing a welcoming environment filled with (introduction) content or by guiding users to navigate them through the interface.

2. How are these algorithms understood?

Algorithms are often discussed in terms of filtering or censoring content, as put forward in The Filter Bubble, but to what extent do algorithms act on or are entangled in practices of censorship by other means? Gillespie shows the example of Apple’s voice search Siri which couldn’t find any abortion clinics when searching for them. While Apple quickly responded that this was a ‘glitch’ and not an intentional omission it caused a ‘Siri is pro-life’ controversy.

90297d9c0a0e02ed569b40b2e2ecde26

However, what actually happened is that Siri is a voice interface on top of search engines and it turns out that pro-life organizations are better optimized for SEO. When Siri showed no results for [abortion clinic] or showed pro-life results it wasn’t because Apple is censoring pro-abortion results but because “Planned Parenthood doesn’t call itself an abortion clinic” and because pro-life organizations use the term abortion more (see Search Engine Land on Why Siri Can’t Find Abortion Clinics & How It’s Not An Apple Conspiracy). Thus, these results weren’t censored or ‘algorithmically demoted’ (Gillespie) but didn’t appear due to SEO strategies or a lack thereof. Algorithms are blurring the line between of our understanding between removing and obscuring results.

The example of Apple’s denial of a ‘pro-life Siri’ shows how “the providers of information algorithms must assert that their algorithm is impartial. The performance of algorithmic objectivity has become fundamental to the maintenance of these tools as legitimate brokers of relevant knowledge.” (Gillespie 2013)

3. Who do they seem to belong to?

In the case of recommendation algorithms such as Google Instant’s auto-complete algorithm it can seem like the site is speaking to us. The query [how to kill] doesn’t show any results, or rather, any algorithmic recommendations, but it does seem to deliver Google a voice. Algorithmic results are conflated with the voice of Google.

Screen Shot 2013-05-09 at 11.31.37 AM

4. What are the fraught politics of algorithms?

Such examples show the politics of algorithms, the larger (web) practices they may be entangled in and how users read and act on algorithmic ‘behavior’ in a particular way.

5. How do they create “calculated publics?”

Algorithms may have particular consequences which Gillespie explains through the production of “calculated publics: how the algorithmic presentation of publics back to themselves shape a public’s sense of itself, and who is best positioned to benefit from that knowledge.” Building on the notion of ‘networked publics’ where publics are formed through social media, algorithms may shape and form publics too. Common critiques on the formation of publics within social media are related the daily me or filter bubble, whether or not we receive enough diverse perspectives through personalization. While not necessarily disagreeing with these critiques, Gillespie argues that there is also something else happening within networked publics where algorithms play a role in the constitution of publics. Not only do algorithms play a role in the filtering and displaying of content to inform publics but they also algorithmically shape publics:

But algorithms not only structure our interactions with others as members of networked publics; algorithms also traffic in calculated publics that they themselves produce. When Amazon recommends a book that “customers like you” bought, it is invoking and claiming to know a public with which we are invited to feel an affinity -though the population on which it bases these recommendations is not transparent, and is certainly not coterminous with its entire customer base. (Gillespie 2013)

While users may target a specific group of friends through their configuration of privacy settings (friends of friends on Facebook) or through the use of platform-specific features to target content at a specific group (hashtags on Twitter and Instagram), the social media platforms themselves construct publics through the use of an opaque algorithm and therewith the “friction between the ‘networked publics’ forged by users and the ‘calculated publics’ offered by algorithms further complicates the dynamics of networked sociality.” (Gillespie 2013)

Dataflows en de politieke economie van sociale media platformen



Transcript van mijn lezing tijdens de studiemiddag voor alumni van de Faculteit der Geesteswetenschappen over sociale media. Universiteit van Amsterdam, 5 april 2013.

1. Introductie

Dank voor de uitnodiging. Mijn naam is Anne Helmond en ik ben docent-promovendus bij Mediastudies bij Nieuwe Media en Digitale Cultuur. Hier doe ik onderzoek binnen de onderzoeksgroep het Digital Methods Initiative naar het web als platform en hoe we onze onderzoeksmethoden moeten aanpassen om het web als een ecologie te bestuderen.

2. Mediatie van processen door software

Vandaag zal ik het hebben over de onderliggende infrastructuren van het sociale web en hoe hiermee de economische relaties van het huidige sociale media landschap worden georganiseerd. Deze korte lezing gaat in op hoe sociale media platformen relaties en activiteiten structureren aan zowel de voorkant als de achterkant van hun platformen. Om te begrijpen hoe de relaties tussen platformen en gebruikers worden georganiseerd, moeten we kijken naar de rol van zowel menselijke actoren als niet-menselijke actoren die processen mediëren, zoals de technische infrastructuur. Het uitgangspunt hierbij is het platform-specifieke karakter van sociale media platformen waar we een assemblage zien van software, databases, interfaces, content, activiteiten, gebruikers en externe webmasters die samen het platform vormen. Dit zal worden geïllustreerd aan de hand van Facebook als een van de belangrijkste infrastructuren van het data-intensieve sociale web.

3. Front-end en back-end van het sociale web

Deze lezing kijkt niet zozeer naar de content van de sociale media platformen, of naar de gebruikers ervan, maar de mediërende rol van software in het structureren van sociale en economische relaties. Ik volg hierbij auteur Felix Stalder die onderscheid maakt tussen de “voorkant” van het sociale web, oftewel de interface van het sociale media platform waar gebruikers met elkaar interactie aangaan en content uploaden, en de “achterkant” van het sociale web, die de gebruikers niet kunnen zien, de databases waar alle interacties, content en gebruikersdata wordt opgeslagen en vervolgens verwerkt om bijvoorbeeld aanbevelingen te doen of gerichte advertenties te tonen.1 Stalder beschrijft hoe studies naar sociale media platformen zich veelal richten op de front-end, waarbij de “democratische” potentie van sociale media een utopische visie schept waarin iedereen content kan produceren, circuleren en in publieke discourses kan participeren zonder kritisch te kijken naar de back-end die vanwege de gekozen businessmodellen veelal functioneert als een surveillance infrastructuur waarin gebruikers gesorteerd worden om bijvoorbeeld persoonlijke advertenties te kunnen leveren.2 Stalder stelt dat er een groeiende spanning is tussen de gebruikers van sociale media platformen in de front-end en de platform-eigenaren in de back-end.3 Om sociale media goed te kunnen analyseren en begrijpen moeten we volgens Stalder dan ook kijken naar de relatie tussen front- en back-end, waaraan ik wil toevoegen hoe deze relatie wordt gemedieerd door software.

4. Content provider en data provider

We moeten ze samen bestuderen omdat vrijwel alle vormen van interactie in de front-end van het platform in de back-end wordt omgezet in waardevolle informatie voor bijvoorbeeld adverteerders. Gebruikers zijn hiermee niet langer alleen maar content providers wanneer ze bijvoorbeeld foto’s uploaden naar Facebook, maar ook data providers door foto’s te taggen, delen en liken zo stelt José van Dijck.4 In deze nieuwe rol van de gebruiker betaalt de gebruiker dus met haar eigen data voor de gratis diensten. Of zoals deze cartoon stelt: “If you are not paying for it, you’re not the customer; You’re the product being sold.”

5. Social buttons

Maar niet alleen binnen deze sociale media platformen wordt data geproduceerd, ook buiten de platformen om wordt waardevolle data gecreëerd en teruggestuurd naar deze platformen. Ik dit illustreren aan de hand van social buttons, de knoppen die ons artikelen laten liken, sharen, tweeten en delen op verschillende sociale media platformen. Deze knoppen decentraliseren de verschillende kernfuncties van sociale media platformen.5 Hiermee bedoel ik dat veel kenmerkende acties op deze platformen, zoals Liken op Facebook, nu ook buiten Facebook mogelijk worden gemaakt door middel van deze knoppen. Webmasters die deze Like knoppen op hun pagina’s implementeren, integreren hiermee externe platform functionaliteit op hun webpagina waarbij er een data-uitwisseling tussen de website en het sociale media platform wordt mogelijk gemaakt.

6. Decentralisatie

Op het moment dat je op een Like button klikt op een webpagina, wordt er een data-uitwisseling tussen de webpagina en Facebook geïnitieerd en geopend: op de webpagina wordt het aantal Likes met 1 opgehoogd en op Facebook wordt de Like op de Timeline, het profiel, van de gebruiker getoond en in de News Feed en Ticker van de gebruiker zijn/haar vrienden.6  Maar, er vindt niet alleen data-uitwisseling plaats als je op de Like knop klikt, ook zonder er op te klikken wordt er data naar Facebook gestuurd ontdekte de Nederlandse onderzoeker Arnold Roosendaal in 2010.7

7.  Like knop & cookies

De Like knop kan gebruikt worden om een cookie te lezen, een klein bestandje met data dat op je machine geplaatst wordt nadat je een Facebook account hebt aangemaakt of nadat je een website hebt bezocht hebt met een Facebook login of Facebook button. De cookie stuurt automatisch data terug naar Facebook op het moment dat je een pagina met een Like button laadt. Dat betekent dat je niet eens op de button hoeft te klikken, maar dat er automatisch data waaronder je gebruikersnaam, de pagina die je op dat moment bezoekt en de datum en tijd waarop je het bezoekt naar Facebook wordt gestuurd. Dit geldt bovendien niet alleen voor Facebook-gebruikers, de Like knop stuurt ook data van bezoekers zonder Facebook profiel naar het platform en voegt deze informatie als anonieme gegevens toe aan de Facebook-database. Hiermee maakt de Like knop van elke web-gebruiker een potentiële Facebook gebruiker.8 De Like knop initieert dus automatisch onzichtbare dataflows tussen de front-end, de webpagina met een Like knop, en de back-end waar de informatie in de database van Facebook wordt opgeslagen, verwerkt en gebruikt.

8. Onzichtbare dataflows visualiseren: Collusion

Hoe kunnen we deze dataflows zichtbaar maken en hoe kunnen we ze blokkeren? Er zijn verscheidene tools die ons kunnen wijzen op de aanwezigheid van derde partijen die dataflows tot stand brengen en die het onzichtbare web van deze trackers en hun dataflows zichtbaar maken. De browser-plugin Collusion toont bijvoorbeeld in realtime terwijl je aan het surfen bent, welke connecties met welke trackers je maakt. Dit is het resultaat van een dagje surfen. Dit is een bewustwordingstool, maar biedt ook de mogelijkheid bekende trackers te blokkeren.

9. Ghostery: dataflows blokkeren

Een veelgebruikte tool om dataflows van en naar derde partijen waaronder sociale media platforms te blokkeren is de browser-plugin Ghostery. Ghostery wijst de gebruiker tijdens het bezoeken van webpagina’s op de aanwezigheid van derde partijen die dataflows initiëren en biedt de mogelijkheid om deze trackers zoals hier Facebook en Google te blokkeren.

10. Data-intensieve laag van het web

Wat wij met onze onderzoeksgroep het Digital Methods Initiative gedaan hebben is de voorgaande tool, Ghostery, hergebruiken om het onzichtbare web van dataflows van en naar derde partijen, waaronder analytics, adverteerders en trackers die data verzamelen in kaart te brengen. Deze kaart toont de top 1000 van de meest bezochte websites op het web. We zien hier niet de connecties tussen de websites op basis van hoe ze naar elkaar linken, maar hoe ze connecties leggen met externe partijen die data verzamelen. De kaart visualiseert de data-connecties die automatisch met derde partijen worden gemaakt op het moment dat je een van de top 1000 meest bezochte pagina’s laadt (waaronder Google, Facebook, YouTube, Amazon, LinkedIn, maar ook CNN, de BBC en New York Times). Wat we zien is dat er clusters ontstaan rondom centrale advertentieservers zoals DoubleClick en andere grote spelers zoals zoekmachine Google, een van de grootste advertentie platforms op het web, en sociaal media platform Facebook. Dit is de onzichtbare tussenlaag tussen de front-end, de websites, en de back-end, de databases van de platformen waar deze data verzameld wordt.

11. Facebook dataflows

Hier zien we de aanwezigheid van Facebook in de top 1000 meest bezochte websites en de connecties die tussen webpagina’s en het platform gemaakt worden. Dit is de data-intensieve infrastructuur van het sociale web, waarbij data via social buttons, waaronder de veelgebruikte Like button, van en naar sociale media platformen gestuurd wordt. Deze data-intensieve infrastructuur wordt aan de ene kant mogelijk gemaakt door de decentralisatie van de functionaliteit van de platformen door het gebruik van social buttons en aan de andere kant door de recentralisatie van data, waarbij de data altijd weer terug naar het platform gestuurd wordt. Deze data connecties met externe partijen zijn niet geheel nieuw, aangezien cookies en advertenties al sinds de vroege dagen onderdeel uitmaken van het web, maar wat het anders maakt is dat de data van de sociale media platformen gekoppeld kan worden aan persoonlijke profielen. Doordat er bij sociale media platformen data gekoppeld kan worden aan een zeer rijk sociaal netwerk profiel kunnen er steeds persoonlijkere advertenties geserveerd worden.

12. Data giants

Daarnaast zien we dat Facebook steeds meer partnerships aangaat met grote bedrijven die enorme databases bezitten met consumententransacties van bijvoorbeeld vaste klantenkaarten om winkelaankopen te kunnen matchen met gebruikersprofielen.

13. Facebook Insights

Maar voor het opzetten van een data-intensieve infrastructuur hebben sociale media platforms de hulp nodig van webmasters, om de social buttons te implementeren op hun websites. Veel webmasters zetten een Like button op hun website om het makkelijker te maken om een artikel te verspreiden op Facebook, of om te tonen hoe populair het artikel is, of om de verspreiding van hun content te analyseren en optimaliseren. Dit betekent echter niet dat deze webmasters automatisch toegang hebben tot alle data die Facebook via de Like button verzamelt. Hoewel webmasters gebruik kunnen maken van Facebook Insights om inzicht te krijgen in de Likes zien ze geen individuele data van gebruikers, maar alleen algemene demografische gegevens.

14. Toegang tot Likes

Toegang tot Like data is voor alle actoren die betrokken zijn in de productie van deze data verschillend. Ook Facebook gebruikers hebben niet onbeperkt toegang tot hun eigen Likes. Zo kun je in de Facebook interface niet al je eigen activiteiten inzien en terugzien waaronder Likes van externe webpagina’s. We zien dus een infrastructuur waarin aan de ene kant gestreefd wordt naar de decentralisatie van dataverzameling door middel van social buttons, en aan de andere kant een recentralisatie van data-analyse, waarbij er een ongelijke verdeling is in de toegang tot de geproduceerde data.

15. Facebook kaping

Webmasters en bloggers spelen een belangrijke rol in deze infrastructuur van dataflows in het sociale web waarbij ze, vaak zonder het te weten, sociale media platforms toegang verlenen tot hun website en bezoekers en daarmee een data-kanaal vormen voor het uitwisselen van bepaalde data door middel van het implementeren van social buttons. Op 8 februari 2013 bleek hoe het mis kan gaan als je je webpagina koppelt aan Facebook door middel van het integreren van hun plugins zoals de Like button of the Facebook Login. Door een error in de Facebook Login, waarmee gebruikers op externe sites met hun Facebook account kunnen inloggen, waren deze sites een uur lang niet alleen onbereikbaar, maar werden alle gebruikers doorgestuurd naar Facebook. Hiermee kaapte Facebook als het ware een uur lang vele grote websites die Facebook Login gebruikte zoals CNN, ABC, The Washington Post, Weather.com etc.

16. Webmaster interventie

Webmasters worden zich steeds meer bewust van de implicaties van een infrastructuur waarin websites en sociale media platformen steeds vaker aan elkaar gekoppeld worden. Op 24 september 2011 kondigde bekende blogger en software ontwikkelaar Dave Winer aan dat zijn blog een “Facebook-vrije” zone is. Een blog zonder de welbekende Like buttons, zonder Facebook comments, helemaal Facebook vrij. Waarom? Hij wilde niet bijdragen aan tegen de standaard participatie in de opkomende infrastructuur van het sociale web, waarbij ongevraagd data van de bezoekers aan zijn website via social buttons naar sociale media platformen gestuurd wordt.

17. Privacy-vriendelijke social buttons

Andere webmasters houden zich bezig met het ontwikkelen van nieuwe social buttons, die niet bij het laden van de pagina al dataflows in gang zetten. De Duitse nieuwssite Heise heeft haar eigen social buttons ontwikkeld die je eerst moet activeren. Dit betekent dat er dus niet standaard data wordt uitgewisseld, maar dat de knop eerst moet aanzetten om hem te kunnen gebruiken. Hierdoor kunnen gebruikers dus actief kiezen om te buttons te gebruiken en daarmee toestemming te geven aan gerelateerde data verzameling praktijken. Webmasters leggen hiermee de keuze bij hun bezoekers of ze willen deelnemen aan de data-intensieve infrastructuur van het sociale web. De Duitse technologie site voldoet hiermee ook aan de wetgeving van de Duitse Telemedia Act die het gebruik van social buttons illegaal verklaarde wegens de gerelateerde ongevraagde dataverzamelingspraktijken.

18. Artistieke interventie

Een laatste voorbeeld van interventie in deze praktijken komt vanuit een kunstproject. Het project, genaamd loveMachine, is een script dat automatisch alle updates van je vrienden liked. Op zijn website geeft de auteur enkele redenen waarom je dit script zou willen gebruiken: Je liked sowieso al alles wat je vrienden posten op Facebook en dit spaart je tijd. Je wilt meer aandacht van je vrienden en door alles te liken wat ze doen, krijg je hun aandacht. En als laatste: je bent bezorgt over je privacy en je wilt graag valse likes en voorkeuren toevoegen aan je Facebook profiel. Hiermee ondermijnt het script niet alleen het idee achter de Like zodra je alles liked, maar vestigt het ook de aandacht op het mediatie-proces van onze sociale activiteiten door middel van social buttons. Het script is hiermee een mooi voorbeeld van een artistieke interventie waarbij door de constante productie van likes ruis wordt toegevoegd aan de waardevolle dataflows van Facebook.

19. Conclusie

In deze korte uiteenzetting is er gekeken naar de relatie tussen de front-end en back-end van het sociale web en hoe sociale media platformen een data-intensieve infrastructuur opzetten door het decentraliseren van data-collectie door middel van social plugins en het recentraliseren van data-verwerking. Een belangrijk punt is hierbij de rol van de verschillende actoren, de sociale media platformen, de gebruikers, maar ook bezoekers van webpagina’s zonder sociale media account en de webmasters. Door deze actoren samen te brengen kunnen sociale media platformen een infrastructuur creëren waarin deelname standaard automatisch en onzichtbaar is. Maar een dergelijke standaard deelname, zoals we hebben gezien door de ontwikkeling van verschillende plugins en scripts die dataflows blokkeren of ruis toevoegen aan dataflows, wordt door steeds meer initiatieven steeds vaker van binnenuit onderbroken.

  1. Stalder, Felix. 2012. “Between Democracy and Spectacle: The Front-End and Back-End of the Social Web.” In: The Social Media Reader, edited by M. Mandiberg. New York, NY, USA: New York University Press. p. 242[]
  2. Stalder, Felix. 2012. “Between Democracy and Spectacle: The Front-End and Back-End of the Social Web.” In: The Social Media Reader, edited by M. Mandiberg. New York, NY, USA: New York University Press. p. 242-250[]
  3. Stalder, Felix. 2012. “Between Democracy and Spectacle: The Front-End and Back-End of the Social Web.” In: The Social Media Reader, edited by M. Mandiberg. New York, NY, USA: New York University Press. p. 249[]
  4. Van Dijck, José. 2009. “Users Like You? Theorizing Agency in User-generated Content.” Media, Culture, and Society 31 (1): p. 48[]
  5. Gerlitz, Carolin, and Anne Helmond. 2013. “The Like Economy: Social Buttons and the Data-intensive Web.” New Media & Society. Online First, 4 Feb 2013.[]
  6. Niet alle activiteit wordt in de News Feed getoond, zie: Bucher, Taina. 2012. “Want to Be on the Top? Algorithmic Power and the Threat of Invisibility on Facebook.” New Media & Society 14 (7) (November 1): 1164–1180. doi:10.1177/1461444812440159. http://nms.sagepub.com/content/14/7/1164.[]
  7. Roosendaal, A. 2011. “Facebook Tracks and Traces Everyone: Like This!Tilburg Law School Research Paper (03).[]
  8. Gerlitz, Carolin, and Anne Helmond. 2013. “The Like Economy: Social Buttons and the Data-intensive Web.” New Media & Society. Online First, 4 Feb 2013.[]

Track the Trackers and Watch the Watchers

During the Digital Methods Winterschool 2012 we worked on a project called Track the Trackers.

Track the Trackers

The cloud seems to be a buzz word; what it refers to could be difficult to grasp. This project aims to make (some parts) of the cloud tangible. The project focuses on devices that track users online and show their encounters with the cloud, both those that require active participation of the user (through widgets) and those encounters that are automated (through tags, web bugs, pixels and beacons). For this purpose we have re-purposed Ghostery, a browser plugin that informs users which companies are present on websites they visit to build a custom tool for tracker detection. We focus on automated tracking devices, that operate as default setting once a user requests a website and widgets, including social buttons, which require user action to set further data transmission in motion. We use a wide definition of “tracker”, including a number of devices that allow for user-data collection, such as internal tracking devices, bugs, widgets, external analytic services and further interfaces to the cloud.

The newly developed tool also allows us to create connections among websites, defining relations based on their connection to the same tracking devices, giving insight into the fluidity of content. In short, by repurposing the Ghostery tool we are able to characterize different collections of URLs. We are further interested to study tracking ecologies in a number of URL collections, issue spaces or web spheres, to see if there are specific trackers at work in particular countries, whether data-protective countries or web spheres deploy less tracking devices and whether countries like Iran use trackers from major US corporations. On top of that we are interested in which trackers are at work in the news sphere, in specific issue spaces, such as health/addiction sites, adults’ and childrens’ sites, privacy-concerned sites and technology blogs.

The wider aim of the project is to contribute to explicate and make more concrete the more abstract claims of ongoing data-veillance in the back-end by providing detailed insights in the ecology and economy of tracking.

Our tool allows you to visualize and characterize a number or predefined set of URLs by outputting a Gephi file that may be used for further exploration, visualization and analyzing. The following are two maps of trackers involved in the Top 1000 websites according to Alexa. (Full map grey PDF, full map color PDF)

Trackers in top 1000 Alexa sites

Trackers in top 1000 Alexa sites

Trackers in top 1000 Alexa sites, color-coded

Trackers in top 1000 Alexa sites, color-coded. Yellow = advertisers, Red/Pink = analytics, Orange = widgets, Green = trackers (classification derived from Ghostery)

Watch the Watchers

A few days ago, Mozilla launched a new Firefox add-on named Collusion that will show and map the network of trackers in realtime while surfing – a seemingly lost web skill in the era of the search engines and social networks – the web. Kovac from Mozilla stated during the launch that: “The memory of the internet is forever,” Kovacs said. “We are being watched. It’s now time for us to watch the watchers.” Below a map of the trackers tracking me (in less than thirty minutes) while reading a few articles.

Watch the Watchers: Collusion add-on

The two tools have a similar intention but they differ in their approach. Track the Trackers allows you to characterize a predefined set of URLs while Collusion allows you to monitor the trackers involved in your individual browsing behavior.

BLOG08: Loren Feldman on the fear of being alone in this digital world

BLOG08Founder of 1938media.com and the…, puppets.

Loren Feldman is one of the loudest videobloggers I have ever seen and heard. His talk starts with an energetic tirade against the recent Wired article that claims blogs are dead which I also responded to. In his opinion blogs aren’t dead because:

The most important thing in your digital life is your personal blog. Not Facebook, not any of the studentgroups you belong to, any of that. None of that matters. The most important thing is your blog. Because that’s who you are. That’s where you have the most control. Your blog is your slice of digital heaven and nobody can fuck with you there. On Facebook and all these other places you are just a common machine. That’s all you are. Facebook doesn’t care about you, Google doesn’t care about you, frankly, I don’t care about you. Who cares about you? You care about you. And that’s why you should put all your energy into your blog.

(write-up by about:blank)

BLOG08

Loren Feldman at BLOG08

What I thought was Feldman’s most insightful reflection on blogging and social media is how he states that social media services live on and feed on your fear of being alone in this digital world which is represented in the “zero comments” phenomenon.

As human beings we want instant feedback and this is exactly what these services provide. The New York Times recently described Twitter as a form of micro-blogging which provides and contributes to “ambient awareness

This is the paradox of ambient awareness. Each little update — each individual bit of social information — is insignificant on its own, even supremely mundane. But taken together, over time, the little snippets coalesce into a surprisingly sophisticated portrait of your friends’ and family members’ lives, like thousands of dots making a pointillist painting.

Watch Loren Feldman’s at BLOG08: