Uncategorized

Novas Mídias

As chamadas “novas mídias” são um tipo de “mídia” muito particular.

Elas não são apenas um suporte ou um meio para veicular conteúdos diversos (texto, áudio, vídeo, fotos etc.). Tudo o que existe nela assume a forma de um código binário, de um programa ou de um conjunto de instruções que devem ser executados para que esses conteúdos existam, ou seja, esses arquivos precisam ser “executáveis” ou “emulados” por programas específicos.

Uma extensão . pdf pode não abrir em qualquer sistema operacional ou programa. A defesa da interoperabilidade entre sistemas e a criação de extensões livres ou programas livres fazem parte desses questionamentos levantados aqui.

As mídias digitais e a internet de um modo geral são “meios” muito particulares, portanto. Para que existam, eles precisam estabelecer um tipo de comunicação muito particular entre as próprias máquinas e uma comunicação especial entre essas máquinas e os seres humanos (JOHNSON, 2001; LÉVY, 2006; MANOVICH, 2001, 2013).

Manovich (2001) observa que estamos diante de um nova configuração midiática que precisa integrar de modo complexo a chamada camada cultural e a camada computacional. Esse era um grande sonho da Cibernética de Norbert Wiener.

A arquitetura dessa camada computacional depende de uma materialidade específica (hardware), um sistema binário de notação, uma sintaxe algorítmica e programas específicos para sua existência efetiva. Já a capacidade de aproximar essa arquitetura computacional do entendimento humano fica a cargo das interfaces.

O que é importante constatar é que a computação e os meios de comunicação, duas áreas fundamentais para o funcionamento do mundo moderno, desenvolveram-se, paralelamente, até os anos 1970 (BENIGER, 1986). A partir daí, o próprio significado da computação e dos computadores foi mudando radicalmente, fazendo com que se aproximassem cada vez mais de uma espécie de máquina cultural. Os computadores passaram a introduzir uma lógica própria e muito particular aos produtos culturais e ao funcionamento dos meios de comunicação (tanto tecnicamente, quanto economicamente – como um certo modelo de negócios) Não é muito difícil verificar as consequências, sociais, políticas, educacionais, culturais desse processo..

Os meios de comunicação e a computação passaram a formar, portanto, um novo sistema socio-técnico. que alterou as formas de registro, processamento, edição, distribuição, armazenamento da informação. Para entender esse processo, precisamos identificar cinco princípios que caracterizam o “novo” nessas novas mídias digitais.

Em primeiro lugar, as formas simbólicas e culturais humanas são convertidas em uma lógica computacional baseada em representação numérica ou binária. Elas se tornam computáveis, ou melhor, os objetos das novas mídias são representados matematicamente e podem ser controlados por algoritmos.

A sintaxe desses códigos é organizada de modo a compor uma estrutura modular (que permite modificações por camadas ou blocos independentes de dados) que seguindo um conjunto de instruções (algoritmos) funciona de modo automatizado (que não dependem necessariamente de uma atividade humana na sua execução). Esse processo automatizado permite um enorme grau de variabilidade aos seus objetos (capacidade de ação responsiva, adaptável a múltiplas plataformas – no caso dos smartphones, p.ex. – e a múltiplos tipos de escalas de aproximação – no caso dos mapas).

Essas novas possibilidades interferem na lógica cultural que passa a integrá-las no processo criativo, gerando o que Manovich chama de transcodificação.

Para Manovich (2005, 2013) podemos chamar esses códigos/progrmas de softwares culturais, a cola invisível que liga comunicação, escrita, representação, análise, simulação, memória, visão, interação, ou seja, todo esse conjunto de atividades que associamos à Cultura.

A Cultura do Algoritmo

As novas mídias e a internet não compreendem apenas os meios materiais de telecomunicação, as mensagens e os seres humanos; elas são povoadas por certos “seres estranhos, meio textos, meio máquinas, meio atores, meio cenários: os programas” (LÉVY, 1999 p. 41). Podemos chamá-los, também, de agentes (JOHNSON, 2001) orientados por códigos, protocolos, algoritmos. Alguns, inclusive, teriam a capacidade de “aprender” os padrões culturais dos seres humanos.

Esses algoritmos são programados para funcionar sem intervenção humana e é praticamente impossível conhecê-los e controlá-los de uma forma transparente. Eles são uma espécie de “caixa-preta” e a única forma de acompanhá-los acaba sendo, também, por meio de outras ferramentas algorítmicas (GILLESPIE, 2014).

Striphas (2015) observa que esses agentes acabam interferindo nos princípios de autoridade ou nos critérios de relevância de muitos assuntos que afetam nossos relacionamentos sociais. Valendo-se do Big Data, eles são capazes de “identificar” padrões que marcam nossas relações afetivas, comerciais, políticas etc. A relevância ou não de uma boa parte dos assuntos que nos dizem respeito está sendo lentamente mediada para os algoritmos sem que sequer nos demos conta disso.

Esses algoritmos são, então, um novo tipo de mediadores automatizados, anunciados como os heróis de um mundo que tenta escapar da entropia.  Cheney-Lippold (2011) chega a tratá-los como objetos culturais incorporados e integrados aos sistemas sociais, gerando uma espécie de soft biopolitic (uma referência à Biopolítica identificada por Foucault).

Gillespie (2012) identifica seis dimensões dos algoritmos que interferem nos nossos critérios de relevância pública da informação,

Primeiro, os dados precisam ser coletados de uma certa forma e precisam assumir uma forma “legível” para os softwares.Esse já é um padrão de inclusão ou exclusão (1) de dados que podem ser submetidos à forma algorítmica,

A identificação algorítmica de padrões (2) a partir das condutas dos usuários da rede (digital fingerprints – identidade algorítmica) produzem expectativas ou ciclos de antecipação ou previsão de condutas.

Como estamos falando de critérios ou avaliações de relevância(3), precisamos lembrar que definir relevância de alguma coisa é um assunto bastante polêmico. Isso significa que essa questão deveria ser submetida a um debate público, o que não ocorre. Na maior parte das vezes, os algoritmos são produzidos por grupos ou empresas privadas (marcadas pelo sigilo) e que podem ser muito facilmente e radicalmente de um modo praticamente, invisível. (GILLESPIE, 2014).

Outra dimensão submetida a discussão é a da promessa de uma objetividade algorítmica(4). Culturalmente (para a maior parte das pessoas leigas), o algoritmo é identificado com uma segura garantia de imparcialidade por parecer um objeto “técnico”. A partir disso, sua relevância pública de “neutralidade técnica”, faz dele um poderoso estabilizador da confiança ou da crença em determinados assuntos.

Precisamos falar de seu enredamento nas práticas sociais (5). Se os algoritmos estabelecem padrões de relevância, eles passam a definir, indiretamente, as condutas dos usuários. Eles passam a se adaptar aos critérios que desconhecem como condição de seu própria visibilidade ou relevância – tornar-se algoritmicamente reconhecível.

Esse enredamento, por outro lado, pode levar a um debate político importante por parte dos usuários que acabam por encontrar em um conjunto de grupos os seus porta-vozes pela transparência do debate.

Temos, por fim, a produção de um público calculável (6), os padrões identificados não são padrões genéricos do comportamento social, são padrões alcançados a partir de registros matematicamente configuráveis desse comportamento, o que possibilita a sua leitura massiva por máquinas (networked publics).

A arquitetura da comunicação

O computador é um objeto técnico? social? cultural? político?

Vamos chamar atenção para o fato de que não havia nada nos computadores dos anos 1940 que pudesse associá-los a máquinas de representação, expressão cultural ou comunicação como ficaram conhecidos os PC (Personal Computer). Foram alguns engenheiros como Douglas Engelbart, Ivan Sutherland e Ted Nelson, Richard Stallmann, entre outros, que passaram a fazer essa diferença (Manovich. 2013).

A visão contracultural de pessoas que viviam na Califórnia, nos anos 1960-1970, retratadas por Tom Wolfe no seu livro The Electric Kool-Aid Acid Test, pessoas como Stewart Brand, muito envolvido com as ideias de Engelbart, criador da Whole Earth Catalogue e co-fundador da primeira comunidade online nos anos 1980 (a WELL “Whole Earth ‘Lectronic Link) foi fundamental nesse processo.

Essa mudança conceitual a respeito do computador pode ser encontrada nas pesquisas de Alan Kay e seu grupo no projeto PARC da Xerox. Foi nele que um dos primeiros modelos de interface para PCs: a interface gráfica do usuário (GUI – graphic user interface). Foi a partir dela, que os computadores passaram a se tornar acessíveis a pessoas sem nenhum conhecimento de computação.

Manovich (2001), a exemplo de Alan Kay, considera o computador um tipo de meta-mídia.[1]

É impossível analisar as possibilidades e problemas trazidos pelo encontro entre comunicação e computação sem entender as cinco principais características do computador, vistas no início deste capítulo: a representação numérica, a modularidade, a automação, a variabilidade e a transcodificação.

Quaisquer objetos (em formato digital) podem ser facilmente recortados, copiados, colados, movidos, modificados, transferidos, sofrer operações de zoom e serem submetidos aos mais diversos tipos de filtros. Eles podem ser identificados, procurados, reparados, ordenados por meta-dados etc.

Referências

  1. Understanding Meta-Media vai tomar toda a atenção da parte 1 do seu livro e é uma clara referência à Understanding Media, obra clássica de Marshall McLuhan. Software takes command, o título do livro, também é uma referência a Mechanization takes command, outra obra clássica de 1948, escrita por Siegfried Giedion.

TEXTO_BASE

GILLESPIE, Tarleton. The relevance of Algorithm. In: Gillespie, T, Boczkowski, PJ and Foot KA (eds). Media Technologies: Essays on Communication, Materiality and Society, Cambridge, MA: MIT Press, 2014 pp. 167-193

MANOVICH, Lev. Novas mídias como tecnologia e ideia: dez definições. In: LEÃO, Lucia. O chip e o caleidoscópio: reflexões sobre as novas mídias. São Paulo: Ed. SENAC, 2005.

SALGADO, Thiago Barcelos Pereira. PÚBLICOS ALGORÍTMICOS: Relevância e recomendação no YouTube . In:  HOMSSI, Aline Monteiro … et al (org). Tempos de rupturas: críticas dos processos comunicacionais,Ouro Preto: Universidade Federal de Ouro Preto, 2017

Tom Wolfe’s The Electric Kool-Aid Acid Test

Turner’s 2006 book, From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network and the Rise of Digital Utopianism

Interview

Stewart Brand’s Whole Earth Catalog, the book that changed the world – Carole Cadwalladr – The Guardian, 05/05/2013


Deixar uma resposta