Privacidade em mutação (Parte III)
Ao apostar na IA (Inteligência Artificial) como tecnologia definidora de um novo patamar civilizatório, dada a potencialidade sem precedentes que traz embutida na ideia de que a autoconsciência pode ser reproduzida, avançamos para um terreno instável e movediço: o recurso é tão poderoso que o governo da IA pode ser, afinal, a concretização da utopia de um governo central totalitário perfeito, com ou sem ajuda das vestais humanas sempre à disposição. E não se trata de aposta futurista: a cidade japonesa de Tama já tem sua IA candidata ao seu Poder Executivo fazendo campanha, sob o patrocínio de seus mentores Norio Murakami e Tetsuzo Matsuda. Nesse caso, trata-se de uma IA ainda em sua fase protozoárIA... Mas já é um sinal a ser observado.
Mas quão profundamente nos afetarão as inovações derivadas da IA? A hibridização homem-máquina, a superinteligência, a super-resistência, os super-sentidos, a longevidade indefinida, entre outras possibilidades projetadas, irão reconfigurar completamente a condição humana, afetando, por certo, as percepções utilizadas para mapeamento da própria realidade, com reflexos devastadores sobre as ciências, a filosofia, a religião e a política. Uma coisa parece certa: a gestão da gigantesca e complexa estrutura burocrática estatal será melhor gerida com a IA.
Assistiremos a uma ampliação sem precedentes da qualidade da oferta de serviços públicos, com o correspondente ganho em qualidade de vida. Mas o risco do uso da IA para assegurar regimes políticos autoritários é real. Nesse caminho, a privacidade surge como um obstáculo a ser superado. Não é por acaso que a regulação dos dados pessoais tem assumido um ponto de destaque nas organizações políticas multi-estatais, como a União Européia, por exemplo.
Como um indicador significativo, vejamos o que nos diz este artigo dos nossos amigos do excelente site sobre inovações tecnológicas:
Chip dedicado promete disseminar inteligência artificial
Redes neurais
Os avanços mais recentes nos sistemas de inteligência artificial, como programas de reconhecimento de fala e de faces, nasceram graças às redes neurais, densas malhas interligadas de processadores simples que aprendem a realizar tarefas analisando grandes conjuntos de dados, em um processo chamado treinamento.
Mas as redes neurais são grandes e seus cálculos são intensivos em energia, de forma que essa tecnologia ainda não é prática para aparelhos portáteis - a maioria dos aplicativos de smartphones que dependem de redes neurais simplesmente manda os dados para servidores de internet, que os processam e enviam os resultados de volta para o celular.
Agora, Avishek Biswas e Anantha Chandrakasan, do MIT, desenvolveram um processador dedicado que aumenta a velocidade dos cálculos de uma rede neural de três a sete vezes em relação aos seus predecessores, reduzindo o consumo de energia de 94 a 95%.
Isso torna mais prático executar redes neurais localmente em celulares ou mesmo incorporá-las em eletrodomésticos que não dependam de conexões contínuas, como ocorre com os gadgets tocadores de música e reconhecimento de voz que vêm ganhando mercado.
Processador dedicado para redes neurais
A grande demanda das redes neurais está no movimento dos dados entre o processador e a memória. Como os algoritmos de aprendizagem de máquina fazem cálculos intensamente, essa transferência de dados é responsável pela maior parte do consumo de energia.
Biswas e Chandrakasan trabalharam justamente na simplificação da computação nesses algoritmos. No seu processador, os valores de entrada de cada nó da rede neural são convertidos em tensões elétricas e depois multiplicados pelos pesos apropriados. Somente as tensões combinadas são convertidas de volta em uma representação digital e armazenadas para processamento posterior.
O chip pode então calcular os produtos para múltiplos nós - 16 de cada vez, no protótipo - em um único passo, em vez de deslocá-los entre o processador e a memória para cada computação.
Uma das inovações chave do sistema é que todos os pesos são 1 ou -1. Isso significa que eles podem ser implementados dentro da própria memória como chaves simples, que fecham um circuito ou o deixam aberto.
Os cálculos teóricos sugerem que redes neurais treinadas desta forma, com apenas dois pesos, devem perder pouca precisão - algo entre 1 e 2 por cento.
FAIS GILSON FAIS ADVOGADO. São Paulo. Brasil.