https://frosthead.com

Haben Wissenschaftler eine Möglichkeit gefunden, die Filterblase zu platzen?

Wir möchten glauben, dass jeder Besuch bei Google eine Suche nach Wissen oder zumindest nach nützlichen Informationen ist. Klar, aber es ist auch ein Akt des Narzissmus.

Jedes Mal, wenn wir Suchergebnisse abrufen, ziehen wir einen virtuellen Spiegel heraus, der widerspiegelt, wer wir in der Webwelt sind. Es ist das, was Eli Pariser in seinem 2011 erschienenen Buch "Die Filterblase : Was das Internet vor Ihnen verbirgt" treffend als "Filterblase" bezeichnet hat.

Pariser legte das Denken hinter der algorithmischen Personalisierung dar. Indem wir jeden Klick akribisch nachverfolgen, können Google - und jetzt Facebook und immer mehr andere Websites - basierend auf dem Verhalten in der Vergangenheit ziemlich gute Vermutungen anstellen, was wir wissen wollen. Dies bedeutet, dass zwei Personen, die genau die gleiche Suche durchführen, sehr unterschiedliche Ergebnisse erzielen können.

Wir werden mit dem gefüttert, was wir zu wollen scheinen, und da wir mit größerer Wahrscheinlichkeit auf Inhalte in unserer Komfortzone klicken - einschließlich Anzeigen -, sind Google und andere motiviert, ihre Ausrichtung weiter zu schärfen. Infolgedessen schrumpfen die Blasen, in denen wir leben.

Für all diese Präzision gibt es einen Preis, wie Pariser in einem Interview mit Maria Popova von Brain Pickings betonte:

"Personalisierung ist eine Art von Privatsphäre, die auf den Kopf gestellt wird: Es geht nicht darum, zu kontrollieren, was die Welt über Sie weiß, sondern darum, was Sie von der Welt sehen können."

Das größere Bild

Wir sind also in einem Labyrinth gefangen, das wir selbst gemacht haben, oder?

Nicht unbedingt, dank eines Teams von Wissenschaftlern, die behaupten, einen Weg gefunden zu haben, um den Zwängen der Algorithmen zu entkommen. Wie der MIT Technology Review kürzlich berichtete, haben Eduardo Graells-Garrido von der Universität Pompeu Fabra in Barcelona und Mounia Lalmas und Daniel Quercia von Yahoo Labs eine sogenannte "Empfehlungs-Engine" entwickelt, mit der Menschen gegensätzlichen Ansichten ausgesetzt werden sollen.

Ein Schlüssel, sagen die Forscher, ist, dass diese Ansichten von Menschen stammen, mit denen wir andere Interessen teilen. Das scheint uns empfänglicher für Meinungen zu machen, die wir sonst wahrscheinlich als Torheit abtun würden. Die andere besteht darin, gegensätzliche Ansichten auf visuelle Weise darzustellen, damit sie sich weniger fremd fühlen.

Zu diesem Zweck verwendeten die Wissenschaftler das Modell einer Wortwolke, die es den Studienteilnehmern ermöglichte, sowohl zu sehen, über welche Themen sie am häufigsten tweeten, als auch auf visuell ansprechende Weise auf Inhalte von anderen Personen zuzugreifen Eigene Wortwolken erwähnten viele der gleichen Themen.

Was aber, wenn ein Teil dieser Inhalte eine ganz andere politische Sichtweise widerspiegelte? Würden die Leute es instinktiv ablehnen?

Um ihre Theorie auf den Prüfstand zu stellen, haben die Forscher Menschen auf entgegengesetzten Seiten eines Themas zusammengebracht, das zutiefst persönliche Gefühle hervorruft - Abtreibung. Sie konzentrierten sich auf Tausende aktive Twitter-Nutzer in Chile, die Hashtags wie #prolife und #prochoice in ihre Tweets aufgenommen hatten, und erstellten Wortwolken für sie basierend auf Begriffen, die sie am häufigsten verwendeten.

Dann versorgten sie die Studienteilnehmer mit Tweets von Menschen, die viele der gleichen Begriffe in ihren Wortwolken hatten, aber auch die gegenteilige Ansicht zu Abtreibung vertraten. Die Forscher stellten fest, dass Menschen, die eine Verbindung zu denen zu haben schienen, die ähnliche Wortwolken hatten, mehr an ihren Kommentaren interessiert waren. Und das führte dazu, dass sie einer viel breiteren Palette von Meinungen und Ideen ausgesetzt waren, als sie es sonst erlebt hätten.

Kurz gesagt, die Forscher nutzten das Gemeinsame, um sie offener für Diskussionen zu machen, in denen sie sich unterschieden. Sie hätten "einen indirekten Weg gefunden, ungleiche Menschen zu verbinden".

Es gibt also noch Hoffnung.

Wahnsinn zur Methode

Hier sind andere aktuelle Entwicklungen in der manchmal bizarren Welt der Algorithmen.

  • Nichts wie automatisierte "Herzliche Grüße": Das war wohl unvermeidlich. Google hat soeben ein Patent für Software erhalten, mit der Sie Ihr Social-Media-Verhalten so genau verfolgen können, dass Sie eine Auswahl möglicher Reaktionen auf Kommentare oder Fragen auf Facebook oder Twitter erhalten. Wenn zum Beispiel ein Freund einen neuen Job bekommt, schlägt die Software eine Antwort vor, vermutlich etwas wie "Glückwunsch". Das ist richtig, Sie müssten nichts von Ihrer Gehirnleistung verschwenden. Der Algorithmus erledigt das für Sie.

  • Telefonieren: Forscher der Universität Helsinki haben Algorithmen entwickelt, mit denen ermittelt werden kann, wie sich Menschen fortbewegen - ob sie laufen, fahren oder mit dem Bus oder der U-Bahn fahren -, indem sie die Beschleunigungssensorsignale ihrer Handys verfolgen. Dadurch können sie die Häufigkeit ihrer Stopps und Starts analysieren. Die Forscher sagen, es könnte ein wirkungsvolles Instrument sein, um den Planern zu zeigen, wie sich die Menschen in ihren Städten bewegen.

  • Alle News, die passen: Facebook hat seine "Newsfeed" -Algorithmen überarbeitet, damit mehr aktuelle News dort auftauchen. Die Idee ist es, Links zu Artikeln von Nachrichtenorganisationen in Facebook-Feeds zu veröffentlichen. Dies wird dazu beitragen, dass der Social-Media-Riese neben den Geburtstagen seiner Freunde auch mehr Einfluss auf die Welt hat. Die Spekulation ist, dass Facebook versucht, die Dominanz von Twitter bei der Erzeugung von Buzz um aktuelle Ereignisse herauszufordern.

  • Was hat sie zu den Chicago Cubs zu sagen ?: Eine israelische Informatikerin hat einen Algorithmus entwickelt, der riesige Mengen elektronischer Daten über vergangene Ereignisse aus so unterschiedlichen Quellen wie dem Archiv der New York Times oder Twitter-Feeds analysieren und vorhersagen kann, was passieren könnte in der Zukunft. Vor allem die Wissenschaftlerin Kira Radinsky hat mit ihrem System die erste Cholera-Epidemie in Kuba seit vielen Jahrzehnten und die Proteste vor dem Arabischen Frühling vorhergesagt.

Videobonus: Hier ist der TED-Vortrag, der Eli Pariser und sein Konzept der Filterblase berühmt gemacht hat.

Video Bonus Bonus: Heutzutage gibt es Algorithmen für alles und, um Sheldon zu glauben, für "The Big Bang Theory", zu denen auch das Bilden von Freunden gehört.

Mehr von Smithsonian.com

Wie Big Data das Dating verändert hat

Denken Sie, Sie machen einen guten Job? Nicht, wenn die Algorithmen sagen, dass Sie nicht sind

Haben Wissenschaftler eine Möglichkeit gefunden, die Filterblase zu platzen?