Archives

The Master Algorithm

No livro “The Master Algorithm”, o autor Pedro Domingos, professor de ciência da computação na Universidade de Washignton, apresenta uma hipótese central: “A existência de um algoritmo único capaz de descobrir todo o conhecimento – passado, presente e futuro – a partir de dados, um algoritmo-mestre.”

Hoje algoritmos estão no centro de nossa vida cotidiana. Não apenas nos resultados do Google, sugestões de livros e filmes da Amazon e Netflix, seleção de posts do Twitter e Facebook ou filtros de spam do Gmail. Mas também no controle de carros, elevadores, catracas de acesso a edifícios, pulseiras de monitoramento de dados pessoais (wearables), dispositivos de comunicação e incontáveis sistemas de bancos, companhias aéreas, fábricas e negócios. E cada vez aprendem mais e mais com os dados que processam continuamente.

O avanço em sua capacidade de aprendizado levou ao surgimento dos learning algorithms. A estes são colocados os dados de entrada e os resultados desejados. Mas não a forma como chegar a esses resultados. Os learners, como também são chamados, são capazes de produzir, testar, descartar e refinar hipóteses. São algoritmos capazes de criar outros algoritmos. Nos learners está a base para o machine learning, conceito no qual computadores podem produzir seus próprios programas.

Mas por que estamos criando máquinas capazes de desenvolver seus próprios aprendizados? Podemos nos concentrar em problemas imediatos, como encontrar a cura do câncer, por exemplo. De forma resumida, considere duas dificuldades no tratamento do câncer. A primeira é que a doença se desenvolve provocando uma série de outras complicações relacionadas a ela. Não há um padrão, mas uma grande variedade de formas do avanço da doença. Também não há um tipo único de reação aos medicamentos usados no tratamento. Cada paciente reage de uma forma particular a partir da condição de seu corpo. Está aí a segunda dificuldade. Com a evolução do machine learning, algoritmos podem se tornar capazes de desenvolver estratégias particulares de tratamento para cada paciente a partir das características de sua doença e da condição fisiológica do seu corpo. E ainda formular medicamentos individuais para cada um deles. Enquanto grupos de cientistas humanos poderiam levar quase uma vida para testar centenas de hipóteses, os learners realizariam o mesmo trabalho em frações de um segundo.

O livro traz comparações sobre a forma de funcionamento e as diferentes propriedades de computadores e do cérebro humano, que servem de pistas sobre como o aprendizado das máquinas pode se desenvolver com o tempo. Computadores fazem cálculos através de uma pequeno passo de cada vez. Como resultado eles precisam de muitas etapas para realizar algum processamento útil. Mas por outro lado, essas etapas podem ser realizadas de forma muito rápida porque seus transistores podem ligar e desligar bilhões de vezes por segundo. Já o cérebro humano pode executar um grande número de cálculos em paralelo, com bilhões de neurônios trabalhando ao mesmo tempo. Mas cada um desses cálculos é lento porque os neurônios podem disparar na melhor das hipóteses mil vezes por segundo.

master

Comentei com o Prof. Rodrigo Firmino, da PUC-PR, sobre a idéia do algoritmo-mestre. Sua resposta foi rápida: “Será Deus?”. Para os religiosos, com certeza, sim. Deus pode ser a fórmula que dá sentido a todos os eventos e seres vivos. Se um algoritmo define “o que fazer” e “como fazer”, a idéia de um algoritmo-mestre depende de uma determinada perspectiva. Para os biólogos essa resposta pode estar no DNA, para os neurocientistas no cérebro humano, e para os matemáticos numa equação universal, que contém a sequência Fibonacci, sua linha de ouro e todas as outras equações. Talvez os físicos pensem nas leis de Newton ou leis quânticas ainda desconhecidas. Para o inventor britânico Charles Babbage, pioneiro da computação, ainda no século XIX, Deus não criou as espécies, mas o algoritmo para sua criação. A evolução, portanto, seria o verdadeiro algoritmo-mestre.

“The Master Algorithm” não é um livro de leitura simples para os que não pertecem ao campo da ciência da computação, embora muitas questões e idéias sejam simplificadas para um público mais amplo. São apresentadas diferentes escolas de machine learning e como cada uma delas busca seu algoritmo universal. Os exemplos e suas explicações, no entanto, são muito interessantes para criar um panorama das transformações produzidas pelas “máquinas que pensam” em um futuro bastante próximo.

p.s.: Atualização em 07/08/16: IBM’s Watson AI saved a woman from leukemia

  • 0

Rise of the Robots: tópicos sobre um futuro sem trabalho

No livro “Rise of the Robots: Technology and the Threat of a Jobless Future”, Martin Ford aborda transformações significativas na relação entre trabalhadores e máquinas. Essas transformações alteram uma premissa básica sobre tecnologia: Máquinas deixam de ser apenas ferramentas para aumentar a produtividade dos trabalhadores. Elas se tornam os próprios trabalhadores.

A partir daí, Ford especula sobre uma questão central: O aceleramento da tecnologia pode ameaçar todo o sistema de trabalho ao ponto em que uma reestruturação fundamental pode ser necessária para que a prosperidade siga seu curso?

Rise-of-the-Robots

Robôs-Códigos

Mas primeiro, sobre que máquinas estamos tratando? É natural pensarmos inicialmente sobre um tipo de robô retratado em tantos livros e filmes. Um tipo de reprodução das características e funções humanas, potencializadas por recursos mecânicos, que poderiam torná-los mais fortes e rápidos. Robôs assim já povoam diversas indústrias há muito tempo, realizando tarefas repetitivas ou que representem algum tipo de risco aos trabalhadores humanos.

No entanto, há outras constituições dos robôs a considerar. Robôs que não são formados apenas por elementos mecânicos, mas também por softwares que processam dados, acessam servidores remotos, realizam cálculos complexos em períodos de tempo inacessíveis para trabalhadores humanos. E ainda aqueles que são apenas códigos, algoritmos, capazes de criar seu próprio aprendizado, estratégias para realização de tarefas, além de continuamente alterar sua própria constituição.

Um dos mais importantes propulsores da nova revolução dos robôs é o conceito de Cloud Robotics. Isso representa a transferência para a nuvem da maior parte da inteligência que comanda robôs, transformando-os em agentes suportados por hubs de computação. Isso na prática significa que muito da computação necessária para o pleno funcionamento de robôs avançados migra para pesados data centers, permitindo o surgimento de máquinas mais flexíveis, atualizáveis e baratas que não precisam conter todo o poder de processamento e memória dentro de si. Elas apenas precisam de altas taxas de transferência de dados para acessar recursos disponíveis na rede. Se uma máquina aplica inteligência para aprender e se adaptar ao ambiente, o novo conhecimento adquirido se torna disponível de forma instantânea para outras máquinas da rede, tornando mais rápido escalar esse aprendizado para uma grande quantidade de robôs. A Google, por exemplo, já investe em Cloud Robotics, oferecendo suporte e interfaces que permitem a essas máquinas o uso de serviços criados para os dispositivos com o sistema Android.

Nicholas Carr, no livro “The Big Switch”, também destaca uma diferença fundamental em relação aos avanços em tecnologia de informação. Diferente de avanços tecnológicos anteriores, TI encapsula inteligência, já que computadores podem tomar decisões e resolver problemas, se tornando máquinas que em certo (limitado) sentido “pensam”.

A Lei de Moore tem sido uma referência importante sobre o tempo de vida das inovações em diversas áreas. A aceleração dos avanços em hardware sugere que a indústria conseguiu manter um ritmo de curvas “S” em sequência. Em 18 meses um produto inicia seu declínio ao mesmo tempo que seu sucessor inicia sua ascenção. Mas o ambiente dos códigos tem outras regras, com taxas de progresso orientadas pela velocidade dos algoritmos, que em diversos casos está muito além do hardware. Ford cita uma análise do Instituto Zuse, de Berlim, que a partir dos computadores e softwares de 1982 estipulou o tempo de 82 anos de processamento para a resolução de um problema altamente complexo. Em 2013, o mesmo problema poderia ser resolvido em apenas 1 minuto. A redução de tempo, em um fator de 43 milhões, contou com hardware 1.000 vezes mais rápido, para os algoritmos o aumento de desempenho foi de 43.000 vezes.

Destruição X Criação

robots

Para o emprego de forma geral, a nova fase da revolução dos robôs pode criar um efeito de destruição x criação.

A “destruição” vai afetar inicialmente empresas de trabalho intensivo, em áreas como varejo, alimentação e serviços. O setor de serviços envolve a ampla maioria dos trabalhadores e já evidencia os impactos dessa onda de automação através da disseminação de caixas eletrônicos e diversos serviços do tipo self-service. Milhões de empregos estarão em risco, principalmente aqueles de menor salário. A startup Momentum Machines oferece uma máquina de produção de hamburguers gourmet capaz de realizar todas as etapas sem nenhuma interação humana, atendendo a uma infinidade de variações para cada cliente, como tipo de molho, ponto da carne, etc, numa velocidade de 400 unidades por hora. Não apenas a velocidade da produção é impossível para um trabalhador humano, mas principalmente o registro e memória das preferências de cada cliente.

Mas não vamos considerar apenas os trabalhos de menor salário. O atual mercado global de ações é o campo de trabalho de exércitos de algoritmos que batalham entre si pela conquista de lucros financeiros em operações realizadas em escalas inacessíveis para nós, tanto em relação ao tempo para tomada de decisões, quanto ao volume de dados analisados para tal. Além de substituir analistas bem treinados no mercado de ações, os algoritmos que constituem o que vem sendo chamado de algotrade, também desenvolvem progressos que estão além do controle e entendimento dos programadores que os desenvolveram.

Enquanto isso, a “criação” será responsável pelo surgimento de novas empresas e indústrias, que, no entanto, não contratarão muitos trabalhadores. Em 2005, o YouTube foi criado por três pessoas. Dois anos depois, quando foi adquirida pelo Google por U$ 1.65 bilhão, a empresa tinha apenas 65 trabalhadores, a maioria técnicos de alto nível, numa relação de U$ 25 milhões/trabalhador. Em 2012, foi a vez do Facebook adquirir o Instagram por U$ 1 bilhão, que na época tinha uma equipe de 30 pessoas, ou U$ 77 milhões/trabalhador. Já em 2014, também o Facebook adquiriu o WhatsApp por U$ 19 bilhões. A empresa era formada por 55 pessoas, numa impressionante relação de U$ 345 milhões/trabalhador. Ou seja, podemos estar seguindo em direção a um ponto em que a criação de empregos cada vez mais será menor, incapaz de atender plenamente a toda a força de trabalho futuramente disponível. Será o fim de um ciclo virtuoso, mantido pela transformação dos trabalhadores em consumidores da própria produção.

Imigrantes Invisíveis

Também é interessante observar um ponto discutido pelo autor sobre a falta de percepção das autoridades em relação aos novos trabalhadores digitais. Há uma grande preocupação nos EUA sobre a imigração de trabalhadores estrangeiros interessados em oportunidades de baixa qualificação no país. Uma parte considerável desses imigrantes vai aos EUA em busca de tipos de trabalho que já não interessam aos cidadãos americanos, nas áreas de construção, limpeza e serviços de alta rotatividade. As regras e políticas em relação a esses trabalhadores são fonte de controvérsias e intenso debate. No entanto, não há praticamente nenhuma preocupação em relação a serviços realizados por robôs-códigos, que mesmo baseados em servidores em países distantes, cruzam fronteiras a qualquer momento para atender demandas do mercado interno através de serviços online. Esses trabalhadores digitais entram nos EUA virtualmente, ameaçando de forma significativa trabalhadores de alto nível técnico, ocupando funções que realmente interessam aos americanos.

 

  • 0

The Black Box Society

No livro “The Black Box Society”, Frank Pasquale retrata como algoritmos atualmente desempenham um papel fundamental na construção (ou destruição) de reputações, no surgimento de novas empresas e no destino da economia.

O termo caixa-preta do título é usado em dois sentidos, tanto como um dispositivo que monitora sistemas e pessoas continuamente, como as caixas-pretas que monitoram aviões, quanto um dispositivo cujo funcionamento é desconhecido. Conhecemos os dados de entrada e saída, mas não o processo de transformação. Para as corporações que desenvolvem essas caixas-pretas um dos objetivos principais é a opacidade, termo que resume a idéia de incompreensibilidade que deve envolver sua operação.

Enquanto hábitos de consumo, histórico de navegação online e comportamento pessoal são monitorados, empresas estão conectando os pontos e produzindo sistemas de avaliação para mensurar credibilidade e reputação. O livro apresenta uma variedade de casos que mostram como a mineração de dados é aplicada no varejo, nos sistemas de crédito, seguros e planos de saúde. O ponto-chave desse relato de casos é chamar a atenção sobre os limites dos processos de Big Data e como eles podem afetar nossa vida cotidiana. Se empresas estão definindo a reputação de seus clientes – e principalmente de seus futuros clientes – através de algoritmos opacos e inacessíveis, como saber mais sobre as formas pelas quais estamos sendo diariamente avaliados?

Pasquale também discute como o comportamento das grandes empresas de busca, como Google e Apple, levanta questões de confiança. Nem sempre os critérios que definem os resultados das pesquisas são claros. Quando a Google é acusada de barrar da primeira página de resultados um site de comparação de preços (Foundem X Google), o que isso pode representar? Apenas um resultado algorítmico, fruto de índices e análises frias, ou uma ação corporativa sobre um possível concorrente? Através do PageRank, a Google afirma relacionar resultados por relevância e importância, produzindo a idéia de igualdade (todos podem estar lá) e elitismo (alguns resultados são mais importantes que outros). O argumento comum é o da neutralidade. Mas quando ela adquire uma empresa de determinado setor, há influência na forma como os resultados sobre ela são apresentados? Serão os concorrentes deslocados para as últimas páginas? Uma transparência mais qualificada poderia ser a resposta para questões desse tipo.

pasquale

Se controle sobre dinheiro e informação fazem parte do subtítulo do livro, se torna obrigatória uma discussão sobre os modelos de operação do mercado financeiro atual. Transações eletrônicas já correspondem a 70% dos negócios do mercado de ações. Essas operações são executadas por algoritmos que trabalham a velocidades incompreensíveis para nós – na ordem dos milionésimos de segundos – aumentando ainda mais a opacidade sobre o funcionamento desse mercado. A descrição do “algorithm trading” é útil para mostrar como esses sistemas financeiros tiveram influência sobre as crises econômicas recentes nos EUA.

Para Pasquale, o ponto de partida para aperfeiçoar empresas de reputação, busca e finanças é aprender mais sobre o que eles estão fazendo e definir padrões mais altos e melhores práticas de auditoria que permitam uma regulação mais substantiva do setor privado. Mesmo que o sigilo seja visto como uma estratégia de negócio, ele destrói nossa habilidade de entender o mundo que está sendo criado. E a idéia de opacidade cria oportunidades para esconder condutas anticompetitivas, discriminatórias ou descuidadas sob um manto de inescrutabilidade técnica.

  • 0