Rise of the Robots: tópicos sobre um futuro sem trabalho

No livro “Rise of the Robots: Technology and the Threat of a Jobless Future”, Martin Ford aborda transformações significativas na relação entre trabalhadores e máquinas. Essas transformações alteram uma premissa básica sobre tecnologia: Máquinas deixam de ser apenas ferramentas para aumentar a produtividade dos trabalhadores. Elas se tornam os próprios trabalhadores.

A partir daí, Ford especula sobre uma questão central: O aceleramento da tecnologia pode ameaçar todo o sistema de trabalho ao ponto em que uma reestruturação fundamental pode ser necessária para que a prosperidade siga seu curso?

Rise-of-the-Robots

Robôs-Códigos

Mas primeiro, sobre que máquinas estamos tratando? É natural pensarmos inicialmente sobre um tipo de robô retratado em tantos livros e filmes. Um tipo de reprodução das características e funções humanas, potencializadas por recursos mecânicos, que poderiam torná-los mais fortes e rápidos. Robôs assim já povoam diversas indústrias há muito tempo, realizando tarefas repetitivas ou que representem algum tipo de risco aos trabalhadores humanos.

No entanto, há outras constituições dos robôs a considerar. Robôs que não são formados apenas por elementos mecânicos, mas também por softwares que processam dados, acessam servidores remotos, realizam cálculos complexos em períodos de tempo inacessíveis para trabalhadores humanos. E ainda aqueles que são apenas códigos, algoritmos, capazes de criar seu próprio aprendizado, estratégias para realização de tarefas, além de continuamente alterar sua própria constituição.

Um dos mais importantes propulsores da nova revolução dos robôs é o conceito de Cloud Robotics. Isso representa a transferência para a nuvem da maior parte da inteligência que comanda robôs, transformando-os em agentes suportados por hubs de computação. Isso na prática significa que muito da computação necessária para o pleno funcionamento de robôs avançados migra para pesados data centers, permitindo o surgimento de máquinas mais flexíveis, atualizáveis e baratas que não precisam conter todo o poder de processamento e memória dentro de si. Elas apenas precisam de altas taxas de transferência de dados para acessar recursos disponíveis na rede. Se uma máquina aplica inteligência para aprender e se adaptar ao ambiente, o novo conhecimento adquirido se torna disponível de forma instantânea para outras máquinas da rede, tornando mais rápido escalar esse aprendizado para uma grande quantidade de robôs. A Google, por exemplo, já investe em Cloud Robotics, oferecendo suporte e interfaces que permitem a essas máquinas o uso de serviços criados para os dispositivos com o sistema Android.

Nicholas Carr, no livro “The Big Switch”, também destaca uma diferença fundamental em relação aos avanços em tecnologia de informação. Diferente de avanços tecnológicos anteriores, TI encapsula inteligência, já que computadores podem tomar decisões e resolver problemas, se tornando máquinas que em certo (limitado) sentido “pensam”.

A Lei de Moore tem sido uma referência importante sobre o tempo de vida das inovações em diversas áreas. A aceleração dos avanços em hardware sugere que a indústria conseguiu manter um ritmo de curvas “S” em sequência. Em 18 meses um produto inicia seu declínio ao mesmo tempo que seu sucessor inicia sua ascenção. Mas o ambiente dos códigos tem outras regras, com taxas de progresso orientadas pela velocidade dos algoritmos, que em diversos casos está muito além do hardware. Ford cita uma análise do Instituto Zuse, de Berlim, que a partir dos computadores e softwares de 1982 estipulou o tempo de 82 anos de processamento para a resolução de um problema altamente complexo. Em 2013, o mesmo problema poderia ser resolvido em apenas 1 minuto. A redução de tempo, em um fator de 43 milhões, contou com hardware 1.000 vezes mais rápido, para os algoritmos o aumento de desempenho foi de 43.000 vezes.

Destruição X Criação

robots

Para o emprego de forma geral, a nova fase da revolução dos robôs pode criar um efeito de destruição x criação.

A “destruição” vai afetar inicialmente empresas de trabalho intensivo, em áreas como varejo, alimentação e serviços. O setor de serviços envolve a ampla maioria dos trabalhadores e já evidencia os impactos dessa onda de automação através da disseminação de caixas eletrônicos e diversos serviços do tipo self-service. Milhões de empregos estarão em risco, principalmente aqueles de menor salário. A startup Momentum Machines oferece uma máquina de produção de hamburguers gourmet capaz de realizar todas as etapas sem nenhuma interação humana, atendendo a uma infinidade de variações para cada cliente, como tipo de molho, ponto da carne, etc, numa velocidade de 400 unidades por hora. Não apenas a velocidade da produção é impossível para um trabalhador humano, mas principalmente o registro e memória das preferências de cada cliente.

Mas não vamos considerar apenas os trabalhos de menor salário. O atual mercado global de ações é o campo de trabalho de exércitos de algoritmos que batalham entre si pela conquista de lucros financeiros em operações realizadas em escalas inacessíveis para nós, tanto em relação ao tempo para tomada de decisões, quanto ao volume de dados analisados para tal. Além de substituir analistas bem treinados no mercado de ações, os algoritmos que constituem o que vem sendo chamado de algotrade, também desenvolvem progressos que estão além do controle e entendimento dos programadores que os desenvolveram.

Enquanto isso, a “criação” será responsável pelo surgimento de novas empresas e indústrias, que, no entanto, não contratarão muitos trabalhadores. Em 2005, o YouTube foi criado por três pessoas. Dois anos depois, quando foi adquirida pelo Google por U$ 1.65 bilhão, a empresa tinha apenas 65 trabalhadores, a maioria técnicos de alto nível, numa relação de U$ 25 milhões/trabalhador. Em 2012, foi a vez do Facebook adquirir o Instagram por U$ 1 bilhão, que na época tinha uma equipe de 30 pessoas, ou U$ 77 milhões/trabalhador. Já em 2014, também o Facebook adquiriu o WhatsApp por U$ 19 bilhões. A empresa era formada por 55 pessoas, numa impressionante relação de U$ 345 milhões/trabalhador. Ou seja, podemos estar seguindo em direção a um ponto em que a criação de empregos cada vez mais será menor, incapaz de atender plenamente a toda a força de trabalho futuramente disponível. Será o fim de um ciclo virtuoso, mantido pela transformação dos trabalhadores em consumidores da própria produção.

Imigrantes Invisíveis

Também é interessante observar um ponto discutido pelo autor sobre a falta de percepção das autoridades em relação aos novos trabalhadores digitais. Há uma grande preocupação nos EUA sobre a imigração de trabalhadores estrangeiros interessados em oportunidades de baixa qualificação no país. Uma parte considerável desses imigrantes vai aos EUA em busca de tipos de trabalho que já não interessam aos cidadãos americanos, nas áreas de construção, limpeza e serviços de alta rotatividade. As regras e políticas em relação a esses trabalhadores são fonte de controvérsias e intenso debate. No entanto, não há praticamente nenhuma preocupação em relação a serviços realizados por robôs-códigos, que mesmo baseados em servidores em países distantes, cruzam fronteiras a qualquer momento para atender demandas do mercado interno através de serviços online. Esses trabalhadores digitais entram nos EUA virtualmente, ameaçando de forma significativa trabalhadores de alto nível técnico, ocupando funções que realmente interessam aos americanos.

 

  • 0

The Master Algorithm

No livro “The Master Algorithm”, o autor Pedro Domingos, professor de ciência da computação na Universidade de Washignton, apresenta uma hipótese central: “A existência de um algoritmo único capaz de descobrir todo o conhecimento – passado, presente e futuro – a partir de dados, um algoritmo-mestre.”

Hoje algoritmos estão no centro de nossa vida cotidiana. Não apenas nos resultados do Google, sugestões de livros e filmes da Amazon e Netflix, seleção de posts do Twitter e Facebook ou filtros de spam do Gmail. Mas também no controle de carros, elevadores, catracas de acesso a edifícios, pulseiras de monitoramento de dados pessoais (wearables), dispositivos de comunicação e incontáveis sistemas de bancos, companhias aéreas, fábricas e negócios. E cada vez aprendem mais e mais com os dados que processam continuamente.

O avanço em sua capacidade de aprendizado levou ao surgimento dos learning algorithms. A estes são colocados os dados de entrada e os resultados desejados. Mas não a forma como chegar a esses resultados. Os learners, como também são chamados, são capazes de produzir, testar, descartar e refinar hipóteses. São algoritmos capazes de criar outros algoritmos. Nos learners está a base para o machine learning, conceito no qual computadores podem produzir seus próprios programas.

Mas por que estamos criando máquinas capazes de desenvolver seus próprios aprendizados? Podemos nos concentrar em problemas imediatos, como encontrar a cura do câncer, por exemplo. De forma resumida, considere duas dificuldades no tratamento do câncer. A primeira é que a doença se desenvolve provocando uma série de outras complicações relacionadas a ela. Não há um padrão, mas uma grande variedade de formas do avanço da doença. Também não há um tipo único de reação aos medicamentos usados no tratamento. Cada paciente reage de uma forma particular a partir da condição de seu corpo. Está aí a segunda dificuldade. Com a evolução do machine learning, algoritmos podem se tornar capazes de desenvolver estratégias particulares de tratamento para cada paciente a partir das características de sua doença e da condição fisiológica do seu corpo. E ainda formular medicamentos individuais para cada um deles. Enquanto grupos de cientistas humanos poderiam levar quase uma vida para testar centenas de hipóteses, os learners realizariam o mesmo trabalho em frações de um segundo.

O livro traz comparações sobre a forma de funcionamento e as diferentes propriedades de computadores e do cérebro humano, que servem de pistas sobre como o aprendizado das máquinas pode se desenvolver com o tempo. Computadores fazem cálculos através de uma pequeno passo de cada vez. Como resultado eles precisam de muitas etapas para realizar algum processamento útil. Mas por outro lado, essas etapas podem ser realizadas de forma muito rápida porque seus transistores podem ligar e desligar bilhões de vezes por segundo. Já o cérebro humano pode executar um grande número de cálculos em paralelo, com bilhões de neurônios trabalhando ao mesmo tempo. Mas cada um desses cálculos é lento porque os neurônios podem disparar na melhor das hipóteses mil vezes por segundo.

master

Comentei com o Prof. Rodrigo Firmino, da PUC-PR, sobre a idéia do algoritmo-mestre. Sua resposta foi rápida: “Será Deus?”. Para os religiosos, com certeza, sim. Deus pode ser a fórmula que dá sentido a todos os eventos e seres vivos. Se um algoritmo define “o que fazer” e “como fazer”, a idéia de um algoritmo-mestre depende de uma determinada perspectiva. Para os biólogos essa resposta pode estar no DNA, para os neurocientistas no cérebro humano, e para os matemáticos numa equação universal, que contém a sequência Fibonacci, sua linha de ouro e todas as outras equações. Talvez os físicos pensem nas leis de Newton ou leis quânticas ainda desconhecidas. Para o inventor britânico Charles Babbage, pioneiro da computação, ainda no século XIX, Deus não criou as espécies, mas o algoritmo para sua criação. A evolução, portanto, seria o verdadeiro algoritmo-mestre.

“The Master Algorithm” não é um livro de leitura simples para os que não pertecem ao campo da ciência da computação, embora muitas questões e idéias sejam simplificadas para um público mais amplo. São apresentadas diferentes escolas de machine learning e como cada uma delas busca seu algoritmo universal. Os exemplos e suas explicações, no entanto, são muito interessantes para criar um panorama das transformações produzidas pelas “máquinas que pensam” em um futuro bastante próximo.

p.s.: Atualização em 07/08/16: IBM’s Watson AI saved a woman from leukemia

  • 0

Aerotropolis: The Way We’ll Live Next

A proposta das aerotrópoles é aproximar os aeroportos das cidades. Nada de terminais distantes dos centro urbanos. Nas aerotrópoles as cidades se desenvolvem ao redor de aeroportos.

A proposta parece nova, principalmente levando em conta o caso da nova cidade de Songdo, na Coréia do Sul, uma smart city criada ao redor do Aeroporto Internacional de Incheon, um super terminal com mais de 400 lojas, das marcas mais importantes de todo o mundo, além de diversas opções de lazer e serviços. De qualquer lugar de Songdo é possível chegar a Incheon através de transporte público em apenas 15 minutos. Os residentes dessa aerotrópole podem facilmente participar de reuniões nas principais cidades da China ou do Japão e voltar a tempo para jantar em casa.

aerocity

Mas “Aerotropolis: The Way We’ll Live Next” apresenta uma série de casos que mostram como aeroportos são responsáveis pelos desenvolvimento de concentrada vida urbana ao seu redor. Desde cidades-fábricas do período da Segunda Guerra Mundial, desenvolvidas para atender a demanda por suprimentos e material bélico dos EUA, até cidades-empresas, como se tornaria Memphis a partir de 1974 com a instalação da Federal Express – Fedex – em seu aeroporto, transformando uma antiga produtora de algodão numa das precursoras das aerotrópoles atuais. Em Memphis, de cada 4 trabalhadores, 3 são colaboradores da Fedex.

Também é espantoso ver como muitos mercados hoje são totalmente baseados no transporte aéreo, de flores da Holanda e frutas do Congo que chegam ainda frescas ao mercado europeu, até a produção de eletrônicos da China e o “turismo médico” da Malásia, que recebe um número cada vez maior de americanos em busca de procedimentos e cirurgias a preços mais baixos. Os autores também destacam o importante papel estratégico de companhias aéreas no desenvolvimento de centros emergentes, como Doha (Qatar Airways) e Dubai (Emirates).

Mas há um futuro possível baseado na combustão de gasolina azul por motores a jato?

Os autores John Kasarda e Greg Lindsay sinceramente reproduzem uma crítica ao futuro das aerotrópoles, a partir de uma carta enviada à revista Fast Company:

“Do modo como percebo a situação, a aerotrópole é um projeto de infraestrutura multibilionário que se equilibra precariamente sobre o setor de frete aéreo – totalmente dependente do petróleo – e que visa basicamente acelerar a criação de um modelo de produção escravizante e de caráter mundial para fornecer bugigangas para o Walmart. Esse conceito está fadado ao fracasso. O que vejo são megacorporações, governos, militares e dinossauros totalmente dependentes do petróleo e do crescimento, tentando desesperadamente se unir para tentar sobreviver, produzindo elefantes brancos como a aerotrópole. Investir nosso precioso tempo, dinheiro e energia em projetos mirabolantes como esse deve ser considerado criminalmente insano”.

Fica então o paradoxo do desenvolvimento de mercados globais de produtos e fluxos internacionais X modelos insustentáveis de energia e transporte. Por enquanto, parece não haver solução possível para ambos.

  • 0

Smart Cities in Brazil

Artigo “Smart Cities in Brazil. Experiences under way in Búzios, Porto Alegre and Rio de Janeiro” (Lemos, A; Mont’Alverne, A.) publicado na Revista Comunicação Midiática, vol. 10, n. 3, dez. 2015.

“In contrast to the more aggressive BRICS countries, like China or India, the smart city phenomenon is still in its infancy in Brazil. In this article we present the experiences of three urban areas: Búzios, Porto Alegre and Rio de Ja- neiro. As well as describing and analysing these three Brazilian experiences, the article proposes a global model for smart city projects, based on “Conception,” “Organisation” and “Action,” and advocates the use of Actor-Network eory (ANT) (LATOUR, 2005) as a useful theoretical framework for analysing this phenomenon.”

Keywords: Smart cities; actor-network theory; communication

Download PDF

 

  • 0

Cidade Inteligente Búzios

A cidade de Búzios, no Rio de Janeiro, conhecida pela beleza de suas praias, também é atualmente um importante campo de testes para inovações nas áreas de energia eólica, solar e elétrica.

O projeto Cidade Inteligente Búzios, realizado pela Ampla, concessionária de energia local, em parceria com a prefeitura e empresas do setor, tornou a cidade um living lab para criar, implementar e testar soluções de energia alternativa, principalmente elétrica, na forma de uma rede inteligente ou smartgrid.

Uma rede inteligente de energia usa TIC para coletar e manipular informações sobre a geração, transmissão, distribuição e consumo de energia elétrica. A rede se torna habilitada para o tráfego de dados. Com isso, os usuários podem acessar informações sobre seu consumo, verificar horários com tarifas mais baixas e ainda fazer a gestão de aparelhos remotamente através de um app para smartphone. Motivadas pela necessidade de inovação, busca por soluções mais seguras e regras de contratos de concessão, diversas empresas do setor de energia elétrica estão realizando projetos piloto baseados no conceito de rede inteligente. Sete Lagoas, Barueri, Aparecida, Curitiba, Parintins e Aquiraz são algumas das cidades brasileiras que atualmente suportam living labs para experiências com smartgrids.

O projeto Cidade Inteligente Búzios atende 10 mil clientes, residentes próximos ao centro da cidade de Armação de Búzios, onde também está localizado seu Centro de Monitoramento e Pesquisa, que funciona ao mesmo tempo como um laboratório e um centro de visitação e exposição de serviços e dispositivos. Com o acompanhamento de um monitor é possível conhecer os eixos de atuação do projeto através de apresentações multimídia, saber mais sobre o funcionamento de bicicletas e carros elétricos, postes com luminárias de LED controladas à distância e principalmente os medidores inteligentes, tratados como “gerentes do sistema”.

009

Não é difícil encontrar os medidores instalados nas ruas. Eles estão visíveis em muitas residências. No entanto, suas funcionalidades parecem não ser conhecidas pelos habitantes locais. Numa pesquisa informal, entre recepcionistas de hotéis, motoristas de ônibus, garçons e até mesmo atendentes de postos oficiais de turismo, o desconhecimento foi total. Talvez a ação do projeto mais conhecida entre a população e os turistas seja a zona wi-fi gratuita localizada na Rua das Pedras, principal ponto de encontro do centro urbano da cidade.

Living labs são modelos de aplicação do conceito de cidade inteligente, normalmente restritos a um segmento de tecnologia ou determinadas áreas de uma cidade. No mundo, living labs dedicados a experimentos com Internet das Coisas, redes inteligentes de energia, telecomunicações, desenvolvimento de softwares, compartilhamento de veículos, fomento de startups e empresas do setor de economia criativa, por exemplo, estão em andamento em bairros de Barcelona, Moscou, Boston, ou ainda em pequenas cidades, como o projeto realizado pela Telefonica na cidade de Águas de São Pedro, a segunda menor cidade brasileira, localizada no estado de São Paulo.

Quando um modelo de cidade inteligente é proposto por uma empresa de determinado segmento é preciso observar sua influência tanto na concepção das ações que moldam o projeto, quanto na atuação de outros atores. Cidade Inteligente Búzios tem na eficiência energética a base de sua “inteligência”. Mas esse modelo não pode reduzir a importância de outras perspectivas e interesses locais, de habitantes, comerciantes e gestores públicos. Embora a cidade apresente características apropriadas para o desenvolvimento de um living lab de energias alternativas, como sua localização, clima, perfil de consumo e visibilidade internacional, devem existir outros problemas a serem enfrentados para que ela seja reconhecida como uma cidade inteligente do ponto de vista de seus residentes.

Quando uma empresa lidera um projeto desse tipo também traz consigo uma rede de parceiros, tecnologias, agendas e planos de desenvolvimento que precisam ser analisados de forma mais detalhada. Os parceiros tecnológicos, por exemplo, que fornecem ao projeto uma série de dispositivos, sensores e medidores inteligentes, não apenas contribuem com sua implementação, mas ajudam a moldar sua forma final, já que as funcionalidades técnicas serão definidas pelos recursos disponíveis em seus produtos. De forma similar é preciso considerar ainda a influência da municipalidade, de políticas do setor de energia, de regulações do governo, do mercado turístico e outros atores que tomam parte na rede sócio-técnica que se forma em torno do projeto Cidade Inteligente Búzios.

 

 

 

 

  • 0

Inhuman Geographies: Landscapes of Speed, Light and Power

No artigo “Inhuman Geographies: Landscapes of Speed, Light and Power”, Nigel Thrift apresenta uma análise de como inovações em tecnologias de velocidade, luz e energia, combinadas e interelacionadas em sociedades urbanas do século XIX, ajudaram a remodelar os espaços, tempos, fluxos, ritmos, experiências e representações da vida urbana.

Sua análise não privilegia uma determinada inovação, tecnologia ou infraestrutura, e sim a construção mais ampla de machinic complexes de velocidade, luz e energia. Thrift demonstra a necessidade do uso de perspectivas mais sofisticadas sobre como inovações em TICs nas cidades contemporâneas, entrelaçadas com transporte, energia, água, mídia, sistemas e técnicas, formam machinic complexes que sustentam o desenvolvimento das cibercidades.

– Tecnologias de velocidade

No século XIX, tecnologias de velocidade, como a carruagem, o bonde puxado por cavalos, a estrada de ferro, o trem elétrico e a bicicleta, progressivamente aceleraram as redes de transporte. A bicicleta é indicada como a invenção que mais causou mudanças no período, pela sua simplicidade e acesso democrático à velocidade. Novas redes de comunicação dispensaram o contato face a face, como o serviço de correio, telégrafo e jornais de grande circulação. Entre os efeitos sociais e culturais das tecnologias de velocidade estão a consciência de intervalos mais curtos de tempo, que resultaram na popularização de relógios, um senso de presença simultânea mais comum, principalmente por causa do telégrafo, as viagens a trabalho, o turismo, uma percepção da passagem mais rápida do tempo e a sensação do corpo como um objeto a ser transportado como qualquer outro.

– Tecnologias de luz

A tecnologia da luz artificial, principalmente luz elétrica, passou a ser usada em residências, lojas e fábricas. A lâmpada e a disseminação da luz elétrica definitivamente separaram a luz e o fogo. Entre as mudanças causadas pelo machinic complex da luz estão a colonização da noite, até então vista como um período de inatividade, o surgimento de novas práticas sociais (“vida noturna”), a extensão do turno de trabalho nas fábricas, a construção de dream spaces, locais como hotéis, teatros e cafés que passaram a usar iluminação artificial como um recurso de consumo visual, a produção de novas formas de vigilância e metáforas a partir de novas percepções sobre a paisagem urbana sob iluminação artificial.

– Tecnologias de energia

Como velocidade e luz, a energia elétrica produziu mudanças importantes, como a popularização de dispositivos, banho com aquecimento elétrico, uso de choques elétricos no tratamento de doenças mentais, a metáfora do corpo como um corpo elétrico (Frankenstein), energia e vida como sinônimos, percepção da energia como um recurso infinito, fim da iniciativa individual e da produção autônoma de energia para dar lugar ao monopólio capitalista de sua produção.

A idéia de machinic complexes é interessante para a formulação de análises de como inovações, tecnologias e outros fatores relacionados influenciam transformações no espaço urbano. Essa abordagem busca evitar a idealização de uma influência específica e idealizada em favor de construções mais complexas de fatores. Sem dúvida é uma abordagem útil para observar as transformações atuais relacionadas a projetos de smart cities e tecnologias relacionadas.

Thrift, N (1995), ‘Inhuman Geographies: Landscapes of Speed, Light and Power’. In N. Thrift, Spatial Formations, London: Routledge, 256-310.

  • 0

Madre Total

Madre Total é o nome do projeto de Smart City em desenvolvimento na cidade de Madre de Deus, Bahia.

Inicialmente foi inaugurada a Unidade de Gestão Integrada, que conta com 79 câmeras de monitoramento, para uso da polícia, departamento de trânsito e outros serviços públicos 24h por dia.

A cidade tem a maior cobertura por videomonitoramento do país, já que sua zona urbana tem apenas cinco quilômetros quadrados. A unidade também conta com uma rede de fibra óptica de 22 km, que interliga todos os prédios públicos municipais. A partir desse e outros recursos, em um ano, a cidade reduziu o número de homicídios em quase 50%. O projeto é uma parceria com a Universidade Federal Fluminense – UFF.

O projeto, ainda em fase inicial, realiza ações relacionadas a infraestrutura urbana, principalmente segurança e trânsito. Mas no futuro serão aprimoradas ações ligadas à gestão urbana, como visualização de dados e reação a eventos, por conta da proximidade de estruturas da indústria de óleo e gás.

  • 0

The Black Box Society

No livro “The Black Box Society”, Frank Pasquale retrata como algoritmos atualmente desempenham um papel fundamental na construção (ou destruição) de reputações, no surgimento de novas empresas e no destino da economia.

O termo caixa-preta do título é usado em dois sentidos, tanto como um dispositivo que monitora sistemas e pessoas continuamente, como as caixas-pretas que monitoram aviões, quanto um dispositivo cujo funcionamento é desconhecido. Conhecemos os dados de entrada e saída, mas não o processo de transformação. Para as corporações que desenvolvem essas caixas-pretas um dos objetivos principais é a opacidade, termo que resume a idéia de incompreensibilidade que deve envolver sua operação.

Enquanto hábitos de consumo, histórico de navegação online e comportamento pessoal são monitorados, empresas estão conectando os pontos e produzindo sistemas de avaliação para mensurar credibilidade e reputação. O livro apresenta uma variedade de casos que mostram como a mineração de dados é aplicada no varejo, nos sistemas de crédito, seguros e planos de saúde. O ponto-chave desse relato de casos é chamar a atenção sobre os limites dos processos de Big Data e como eles podem afetar nossa vida cotidiana. Se empresas estão definindo a reputação de seus clientes – e principalmente de seus futuros clientes – através de algoritmos opacos e inacessíveis, como saber mais sobre as formas pelas quais estamos sendo diariamente avaliados?

Pasquale também discute como o comportamento das grandes empresas de busca, como Google e Apple, levanta questões de confiança. Nem sempre os critérios que definem os resultados das pesquisas são claros. Quando a Google é acusada de barrar da primeira página de resultados um site de comparação de preços (Foundem X Google), o que isso pode representar? Apenas um resultado algorítmico, fruto de índices e análises frias, ou uma ação corporativa sobre um possível concorrente? Através do PageRank, a Google afirma relacionar resultados por relevância e importância, produzindo a idéia de igualdade (todos podem estar lá) e elitismo (alguns resultados são mais importantes que outros). O argumento comum é o da neutralidade. Mas quando ela adquire uma empresa de determinado setor, há influência na forma como os resultados sobre ela são apresentados? Serão os concorrentes deslocados para as últimas páginas? Uma transparência mais qualificada poderia ser a resposta para questões desse tipo.

pasquale

Se controle sobre dinheiro e informação fazem parte do subtítulo do livro, se torna obrigatória uma discussão sobre os modelos de operação do mercado financeiro atual. Transações eletrônicas já correspondem a 70% dos negócios do mercado de ações. Essas operações são executadas por algoritmos que trabalham a velocidades incompreensíveis para nós – na ordem dos milionésimos de segundos – aumentando ainda mais a opacidade sobre o funcionamento desse mercado. A descrição do “algorithm trading” é útil para mostrar como esses sistemas financeiros tiveram influência sobre as crises econômicas recentes nos EUA.

Para Pasquale, o ponto de partida para aperfeiçoar empresas de reputação, busca e finanças é aprender mais sobre o que eles estão fazendo e definir padrões mais altos e melhores práticas de auditoria que permitam uma regulação mais substantiva do setor privado. Mesmo que o sigilo seja visto como uma estratégia de negócio, ele destrói nossa habilidade de entender o mundo que está sendo criado. E a idéia de opacidade cria oportunidades para esconder condutas anticompetitivas, discriminatórias ou descuidadas sob um manto de inescrutabilidade técnica.

  • 0

Workshop Smart Cities

Workshop sobre Internet das Coisas, Big Data e Espaço Urbano na FITS/ AL. O evento é aberto ao público e será realizado em parceria com o curso de Pós-Graduação em Comunicação e Novas Mídias.

WORKSHOP

  • 0