Archive for the ‘Posts’ Category

Entrevista – Rádio Justiça (STF)

Thursday, November 30th, 2017

Caros alunos e colegas,

Aqui está a entrevista veiculada pela Rádio Justiça do STF – Supremo Tribunal Federal, sobre Algoritmos, Inteligência Artificial e o Direito. #G11000

Abraços,

Paulo

Moedas Virtuais e o BACEN

Sunday, November 19th, 2017

O Banco Central do Brasil criou uma página para esclarecimentos sobre as moedas virtuais, como o bitcoin.

1) O que são “moedas virtuais”?
As chamadas “moedas virtuais” ou “moedas criptográficas” são representações digitais de valor que não são emitidas por Banco Central ou outra autoridade monetária. O seu valor decorre da confiança depositada nas suas regras de funcionamento e na cadeia de participantes.

2) O Banco Central do Brasil regula as “moedas virtuais”?
Não. As “moedas virtuais” não são emitidas, garantidas ou reguladas pelo Banco Central. Possuem forma, denominação e valor próprios, ou seja, não se trata de moedas oficiais, a exemplo do real.

As “moedas virtuais” não se confundem com a “moeda eletrônica” prevista na legislação¹. Moedas eletrônicas se caracterizam como recursos em reais mantidos em meio eletrônico que permitem ao usuário realizar pagamentos.

3) O Banco Central do Brasil autoriza o funcionamento das empresas que negociam “moedas virtuais” e/ou guardam chaves, senhas ou outras informações cadastrais dos usuários, empresas conhecidas como “exchanges”?
Não. Essas empresas não são reguladas, autorizadas ou supervisionadas pelo Banco Central. Não há legislação ou regulamentação específica sobre o tema no Brasil.

O cidadão que decidir utilizar os serviços prestados por essas empresas deve estar ciente dos riscos de eventuais fraudes ou outras condutas de negócio inadequadas, que podem resultar em perdas patrimoniais.

4) É possível realizar compras de bens ou serviços no Brasil utilizando “moedas virtuais”?
A compra e venda de bens ou de serviços depende de acordo entre as partes, inclusive quanto à forma de pagamento. No caso de utilização de “moedas virtuais”, as partes assumem todo o risco associado.

5) Qual o risco para o cidadão se as moedas virtuais forem utilizadas para atividades ilícitas?
Se utilizada em atividades ilícitas, o cidadão pode estar sujeito à investigação por autoridades públicas.

6) As “moedas virtuais” podem ser utilizadas como investimento?
A compra e a guarda de “moedas virtuais” estão sujeitas aos riscos de perda de todo o capital investido, além da variação de seu preço. O cidadão que investir em “moedas virtuais” deve também estar ciente dos riscos de fraudes.

7) É permitido realizar transferência internacional utilizando “moedas virtuais”?
Não. Transferências internacionais devem ser feitas por instituições autorizadas pelo Banco Central a operar no mercado de câmbio, que devem observar as normas cambiais.

¹Lei nº 12.865, de 9 de outubro de 2013, e normas editadas pelo Banco Central do Brasil, conforme diretrizes do Conselho Monetário Nacional.

Fonte: http://www.bcb.gov.br/Pre/bc_atende/port/moedasvirtuais.asp

Blockchain em uma imagem

Thursday, November 16th, 2017

Algoritmos, Inteligência Artificial e o Direito

Sunday, November 12th, 2017

Algoritmos, Inteligência Artificial e o Direito (#G11000)

(*) Paulo Sá Elias

O comitê de Ciência e Tecnologia do Parlamento da Inglaterra abriu inquérito[1] para examinar o uso crescente de algoritmos (e inteligência artificial) na tomada de decisões públicas e privadas, com o objetivo de avaliar como os algoritmos são formulados, os erros e possíveis correções – bem como o impacto que eles podem ter nos indivíduos e sua capacidade de entender ou desafiar decisões tomadas com base no uso da inteligência artificial. Após a leitura de todos os documentos (que serviram como referência para a elaboração deste texto, bem como outros textos e pesquisas que tenho feito sobre o assunto) resolvi escrever essas breves palavras sobre o tema.

Em primeiro lugar, é importante entendermos o que são os algoritmos (Algorithms) aplicados na informática e telemática, inteligência artificial (Artificial Intelligence), aprendizado de máquina (Machine Learning), aprendizado profundo (Deep Learning), redes neurais (Neural Networks), Internet das coisas (Internet of Things) e outros – que impressionam em razão dos recentes e incríveis avanços e da importância cada vez maior que passaram (e passarão) a ter em nossas vidas.

Algoritmo (algorithm), em sentido amplo, é um conjunto de instruções, como uma receita de bolo, instruções para se jogar um jogo, etc. É uma sequência de regras ou operações que, aplicada a um número de dados, permite solucionar classes semelhantes de problemas. Na informática e telemática, o conjunto de regras e procedimentos lógicos perfeitamente definidos que levam à solução de um problema em um número de etapas. Em outras palavras mais claras: são as diretrizes seguidas por uma máquina. Na essência, os algoritmos são apenas uma forma de representar matematicamente um processo estruturado para a realização de uma tarefa. Mais ou menos como as regras e fluxos de trabalho, aquele passo-a-passo que encontramos nos processos de tomada de decisão em uma empresa, por exemplo.

Os sistemas algorítmicos estão presentes em todos os lugares, até mesmo nos sistemas de ABS (freios). São usados em computação há décadas, mas assumiram uma importância crescente em várias partes da economia e da sociedade na última década em virtude da disseminação de computadores. Vou falar mais sobre os algoritmos adiante.

A inteligência artificial (Artificial Intelligence – ou simplesmente AI), em definição bem resumida e simples, é a possibilidade das máquinas (computadores, robôs e demais dispositivos e sistemas com a utilização de eletrônica, informática, telemática e avançadas tecnologias) executarem tarefas que são características da inteligência humana, tais como planejamento, compreensão de linguagens, reconhecimento de objetos e sons, aprendizado, raciocínio, solução de problemas, etc. Em outras palavras, é a teoria e desenvolvimento de sistemas de computadores capazes de executar tarefas normalmente exigindo inteligência humana, como a percepção visual, reconhecimento de voz, tomada de decisão e tradução entre idiomas, por exemplo.

O aprendizado de máquina (Machine Learning) é uma forma de conseguir a inteligência artificial. É um ramo da inteligência artificial que envolve a criação de algoritmos que podem aprender automaticamente a partir de dados. Ao invés de os desenvolvedores de software elaborarem enormes códigos e rotinas com instruções específicas para que a máquina possa realizar determinadas tarefas e conseguir resultados (e com isso limitar drasticamente o seu campo de atuação e resultados), no aprendizado de máquina treina-se o algoritmo para que ele possa aprender por conta própria, e até mesmo conseguir resultados que os desenvolvedores dos algoritmos nem mesmo poderiam imaginar. Neste treinamento, há o envolvimento de grandes quantidades de dados que precisam ser alimentadas para o algoritmo (ou aos algoritmos envolvidos), permitindo que ele (o algoritmo) se ajuste e melhore cada vez mais os seus resultados. Exemplo: o aprendizado de máquina foi utilizado para melhorar significativamente a visão por computadores (a capacidade de uma máquina reconhecer um objeto em uma imagem ou vídeo). Os seres humanos podem marcar imagens que têm um gato versus aquelas que não os possuem. O algoritmo tenta construir um modelo que pode marcar com precisão uma imagem como contendo um gato ou não, assim como um ser humano. Uma vez que o nível de precisão é alto o suficiente, a máquina agora “aprendeu” como é um gato, como ele se parece.

O aprendizado profundo (Deep Learning) é uma das várias abordagens para o aprendizado de máquinas. Outras abordagens incluem aprendizagem por meio de árvores de decisão (decision tree learning), programação de lógica indutiva (inductive logic programming), agrupamento (clustering), aprendizagem de reforço (reinforcement learning), redes bayesianas (Bayesian networks), entre outras. A aprendizagem profunda foi inspirada na estrutura e nas funções do cérebro humano, na interligação dos neurônios. As redes neurais artificiais (Artificial Neural Networks – ANNs) são algoritmos que imitam a estrutura biológica do cérebro humano. Nas ANNs, existem “neurônios” (entre aspas) que possuem várias camadas e conexões com outros “neurônios”. Cada camada (layer) escolhe um recurso específico para aprender, como curvas e bordas no reconhecimento de uma imagem, por exemplo. A aprendizagem profunda tem o seu nome em razão dessas várias camadas. A profundidade é criada com a utilização de múltiplas camadas em oposição a uma única camada de aprendizado pelo algoritmo. Esses algoritmos de aprendizado profundo formam as “redes neurais” e estas rapidamente podem ultrapassar a nossa capacidade de compreender todas as suas funções.

A inteligência artificial e a Internet das coisas (Internet of things)[2] estão intrinsecamente entrelaçadas. É como se fosse a relação entre cérebro e o corpo humano. Nossos corpos coletam as entradas sensoriais, como visão, som e toque. Nossos cérebros recebem esses dados e dão sentido a eles, por exemplo, transformando a luz em objetos reconhecíveis, transformando os sons em discursos compreensíveis e assim por diante. Nossos cérebros então tomam decisões, enviando sinais de volta para o corpo para comandar movimentos como pegar um objeto ou falar.

Todos os sensores conectados que compõem a Internet das coisas (Internet of things) são como nossos corpos, eles fornecem os dados brutos do que está acontecendo no mundo. A inteligência artificial é como nosso cérebro, dando sentido a esses dados e decidindo quais ações executar. E os dispositivos conectados da Internet das coisas são novamente como nossos corpos, realizando ações físicas ou se comunicando com os outros.[3]

Os inúmeros dispositivos construídos atualmente, tais como aparelhos médicos, relógios inteligentes, veículos, eletrodomésticos, enfim, todos os itens construídos com componentes eletrônicos, software, sensores e que possuam a capacidade de coletar e transmitir dados à Internet, capazes de serem identificados de maneira única, formam o que é conhecido como a Internet das coisas (Internet of things). Cada vez mais as coisas estão conectadas à Internet, mesmo aquelas coisas que não possuíam este objetivo específico, como um fogão, uma geladeira, equipamentos de ginástica, lâmpadas, uma cama, prateleiras de supermercados e depósitos (que avisam automaticamente quando determinado produto está acabando), portas, etc. Tudo começa a ficar conectado. Na Wikipedia você encontra uma definição de fácil compreensão: “(…) A Internet das Coisas, em poucas palavras, nada mais é que uma extensão da Internet atual, que proporciona aos objetos do dia-a-dia (quaisquer que sejam), mas com capacidade computacional e de comunicação, se conectarem à Internet. A conexão com a rede mundial de computadores viabilizará, primeiro, controlar remotamente os objetos e, segundo, permitir que os próprios objetos sejam acessados como provedores de serviços. Estas novas habilidades, dos objetos comuns, geram um grande número de oportunidades tanto no âmbito acadêmico quanto no industrial. Todavia, estas possibilidades apresentam riscos e acarretam amplos desafios técnicos e sociais”.

O aprendizado de máquina (Machine Learning) e o aprendizado profundo (Deep Learning) trouxeram grandes avanços para a Inteligência Artificial nos últimos anos. Tanto o aprendizado de máquina como o aprendizado profundo exigem grande quantidade de dados para que possam funcionar adequadamente e estes dados estão sendo coletados pelos bilhões de sensores que continuam a entrar na Internet das coisas a cada dia.

O aprimoramento da Inteligência Artificial impulsiona a adoção da Internet das Coisas (e vice-versa), afinal, os algoritmos precisam de dados – e quanto maior o número de sensores e pontos de coleta de dados, melhor. É a Inteligência Artificial que torna a Internet das coisas útil, fazendo com que esses inúmeros dispositivos possam oferecer resultados úteis aos seus usuários e dados extremamente valiosos para quem os coleta.

O encolhimento dos chips de computadores e o aprimoramento das técnicas de fabricação, significa sensores cada vez mais poderosos e baratos. Há grandes avanços em relação à tecnologia das baterias e fontes de energia[4], fazendo com que esses sensores possam funcionar sem interrupção durante anos. As novas tecnologias de conexão sem fio (que estarão disponíveis em todos os lugares no futuro) e a inevitável redução dos valores de transmissão de grandes volumes de dados, bem como armazenamento e capacidade computacional para processá-los, abre portas para um futuro promissor. Mas há preocupações. Vou falar a respeito logo mais adiante, ainda neste texto.

O comitê de Ciência e Tecnologia do Parlamento da Inglaterra, a que fiz referência no início, convidou vários especialistas no assunto, bem como grandes empresas envolvidas com o tema, como é o caso da IBM, Microsoft, Google e outros. Na apresentação realizada pelos representantes dessas empresas, vários pontos importantes foram ressaltados.

O Google, destacou que os algoritmos, com o desenvolvimento da inteligência artificial (Artificial Intelligence) e o aprendizado de máquina (Machine Learning) revelam-se como ferramentas muito poderosas e que já começam a fornecer uma ajuda fundamental no avanço da ciência, melhorando até mesmo o acesso aos cuidados médicos, ajudam a resolver alguns dos desafios globais mais urgentes em meio ambiente, transporte e a condução de soluções mais inteligentes para os problemas quotidianos. Naquela empresa, por exemplo, os algoritmos são utilizados desde a sua criação, base fundamental de seu sistema de pesquisas. No YouTube, também produto da empresa, os algoritmos adicionam automaticamente legendas aos vídeos analisando o áudio e convertendo o discurso em texto. Artificial Intelligence (AI) e Machine Learning (ML) alimentam os algoritmos. No Google Translator, os algoritmos são usados para aprender os padrões dos idiomas em texto e voz, traduzindo mais de 100 milhões de palavras por dia em 103 idiomas. A inteligência artificial é fundamental para conseguir avanços significativos como o reconhecimento de voz, atingindo níveis quase humanos de precisão. No Google Fotos, é possível procurar qualquer coisa nas imagens, pois o sistema utiliza algoritmos que categorizam objetos e conceitos em imagens.

A combinação de algoritmos cada vez mais avançados, dados e poder de computação mais baratos, como já disse, vai tornar ainda mais amplamente distribuídos os benefícios dos algoritmos, melhorando o dia-a-dia de nossas vidas em todas as áreas. Machine Learning, por exemplo, foi utilizado em diagnósticos de retinopatia diabética, uma das causas de maior crescimento de cegueira em todo o mundo.

Algoritmos robustos com uso de machine learning são dependentes em geral, de um conjunto de dados de alta qualidade. Muitas empresas que operam em setores regulados, geralmente em finanças, possuem algoritmos secretos para pontuação de crédito, aprovação de empréstimo, etc. Esses algoritmos fazem parte de sua vantagem competitiva. No entanto, muitos debatedores no parlamento inglês entendem que essas empresas precisam ser capazes de explicá-los aos reguladores e justificar as decisões e resultados, se necessário.

Grande parte dos algoritmos produzidos por meio de Machine Learning, notadamente aqueles baseados em “deep learning” ou redes neurais (neural networks), não são totalmente compreendidos. Nenhum ser humano é capaz de dizer por quê determinado algoritmo desta natureza faz o que faz, nem pode prever totalmente o que o algoritmo poderá fazer em dados diferentes daqueles utilizados para o treinamento da máquina, ao longo do tempo.[5]

Até mesmos os maiores defensores desses sistemas, admitem essa fraqueza. Embora as redes neurais profundas (DNN – Deep Neural Networks) tenham demonstrado uma grande eficácia em uma ampla gama de tarefas, quando eles falham, muitas vezes falham espetacularmente, catastroficamente, produzindo resultados inexplicáveis e incoerentes que podem deixar o ser humano perplexo, sem conseguir entender a razão pela qual o sistema tomou tais decisões. A falta de transparência nos processos de decisão em redes neurais profundas ainda é um obstáculo significativo para a sua ampla adoção em determinados segmentos como saúde e segurança, onde a tolerância ao erro é muito baixa e a capacidade de interpretar, entender e tomar decisões confiáveis é um elemento crítico.[6]

As empresas já contratam especialistas no tema. A Intel (conhecida por fabricar processadores de computadores), por exemplo, possui entre os seus cargos de maior importância na diretoria, a posição: “Chief Algorithms Scientist”.

Algoritmos baseados em Machine Learning são utilizados para previsão do tempo, análise de compras realizadas pelos consumidores, ajudando a empresa decidir quais as mercadorias são as preferidas e onde elas devem estar localizadas nos supermercados, por exemplo. Até mesmo uma máquina separadora de tomates utiliza inteligência artificial para aprimorar a seleção. Na Internet, algoritmos determinam os resultados que os sistemas de busca retornam ao usuário, como é o caso do Google. Quais anúncios e conteúdos serão mostrados – e quando serão mostrados, para quem, onde, como, próximos de quais outros anúncios e conteúdos – e assim por diante.

Os algoritmos e a inteligência artificial também já estão sendo usados no Poder Judiciário. No caso Zilly (Angwin et al. 2016)[7] – uma das questões consideradas pelo risk scoring algorithm utilizado (algoritmo de pontuação de risco em matéria de execução penal) foi que um dos pais do acusado já havia sido preso. Sabemos que nunca um promotor de justiça ou um juiz vai aceitar a existência de um argumento como esse para pedir ou atribuir um período maior de prisão ao acusado pelo simples fato de que um dos seus pais teria sido preso anteriormente. Mas a máquina interpretou assim.

Por exemplo, ferramentas de mapeamento de crimes são cada vez mais utilizadas para examinar dados de criminalidade e identificar locais com grande incidência de crimes para aumentar a eficiência na alocação de recursos policiais. No entanto, os dados de entrada (por exemplo, dados históricos da criminalidade) podem ser inclinados à parcialidade, provocada por policiais, cujas práticas podem não refletir a incidência real de crime, e em vez disso acabam influenciados pela segmentação dos grupos marginais.

Os professores devem estar atentos ao fato de que a Internet (em grande parte dirigida por processos algorítmicos) pode também ser injustamente prejudicial ou manifestar-se contra alguém ou alguma coisa em suas escolhas, especialmente em vídeos, textos e imagens selecionadas pelos algoritmos.[8] Os consultores escolares, bem como os de carreira, também devem estar atentos ao fato de que determinados serviços de Internet são suscetíveis de serem tendenciosos. Além do que, sabemos que essas empresas se tornaram grupos extremamente poderosos, com capacidade até mesmo de mudar regimes em determinados países, provocar protestos, influenciar a opinião pública, destruir a credibilidade e fechar várias portas a determinadas pessoas-alvo, etc.

Inteligência artificial, na aprendizagem de máquinas (Machine Learning) e em outras abordagens algorítmicas que fazem inferências baseadas em dados de sensores, tais como gravações de som, dados de sensores de telefones celulares, são cada vez mais utilizadas por órgãos governamentais e grupos privados, como já é notório. Algoritmos têm sido utilizados na tomada de decisão por muitas décadas, no entanto, no passado, operadores humanos eram envolvidos em todas as etapas. A discussão atual em relação aos riscos da inteligência artificial surge em parte por causa do crescente uso de dados e processos totalmente automatizados (com o elemento humano fora da equação) e também naqueles em que há utilização de algoritmos secretos, como os do Google.

Processos totalmente automatizados podem ser usados ​​para substituir o julgamento individual de um operador de linha de frente e, portanto, podem remover uma fonte potencial de subjetividade e o viés tendencioso. Mesmo as pessoas bem-intencionadas têm preconceitos conscientes e inconscientes que afetam os seus julgamentos. Assim, acredita-se que a decisão algorítmica pode oferecer uma oportunidade para melhorar o aspecto de imparcialidade.

Mas atenção: algoritmos não são imparciais. Os próprios algoritmos podem conter os preconceitos presentes nos criadores do algoritmo ou nos dados que foram usados para treinar o algoritmo. O desempenho dos algoritmos depende muito dos dados utilizados para desenvolvê-los. Os preconceitos que estão presentes nos dados serão refletidos pelos algoritmos. Todos devem se lembrar do resultado inadequado dos algoritmos utilizados pelo Google, quando classificou os negros como gorilas. (Artificial Intelligence’s White Guy Problem – Kate Crawford, The New York Times, 25th June 2016). Tais desvios, intencionais ou não, podem ser inerentes aos dados, como também oriundos do próprio desenvolvedor do algoritmo. Isso pode ter efeitos tão ruins como os vícios que eles pretendiam eliminar. Alguns denominam este fenômeno como “Machine bias”, “Algorithm biasou simplesmente, Bias. É o viés tendencioso. A remoção de tal viés tendencioso em algoritmos não é trivial e é um campo de pesquisa em andamento. Os desvios são difíceis de serem descobertos se o algoritmo for muito complexo (como são os utilizados pelo Google e Facebook), pior ainda se forem secretos. Se o algoritmo é simples e auditável, especialmente publicamente auditável, então haverá em tese (vou explicar adiante a razão do “em tese”) maiores chances de que as decisões baseadas em tais algoritmos possam ser mais justas. Igualmente em relação aos dados utilizados para “treinar” o algoritmo. Se eles forem auditáveis (e anônimos quando apropriados) poderão ser identificados desvios desta natureza.

Como é possível notar, reitera-se: um dos maiores problemas em torno de novos algoritmos de aprendizagem de máquinas são os dados em que eles são treinados. Os pontos fortes e fracos dos dados de entrada são, portanto, extremamente importantes, e devem ser considerados, bem como a lógica inerente ou formulação de usar um sistema automatizado ou analítico para resolver um determinado problema. Algoritmos não são, e podem nunca ser, neutros ou independentes da sociedade que os produziu. A sociedade deve estar ativamente envolvida na formação dos valores que estão em jogo no uso de algoritmos e da inteligência artificial. Os conjuntos de dados geralmente contêm traços de parcialidade. Se pudermos identificar essas falhas, e atingirmos uma definição matemática de justiça, quem sabe, conseguiremos estatisticamente, uma forma de mitigá-los. A maioria dos cientistas de dados não possuem essas habilidades, por isso, raramente esses cuidados são tomados. Afinal, como sabemos, existem diferenças enormes entre os fundamentos epistemológicos das Geisteswissenchaften (ciências do espírito) – onde está localizado o Direito em relação às Naturwissenschaften (ciências da natureza) – onde estão localizadas a Matemática, a Lógica, a Informática e a Telemática. As ciências do espírito fundamentam-se na realidade social e histórica e, por esta razão, são irredutíveis a modelos causalistas. Como ressalta Karl Jaspers: “Nas ciências humanas não podemos nos contentar com a constatação de algo que fisicamente existe, perceptível aos nossos sentidos, mensurável, avaliado através de experiências. Nas ciências humanas, temos de compreender a significação perseguida pelos seres que agem, pensam, prevêem e acreditam. Não podemos nos contentar com o conhecimento exterior das coisas, mas temos de apreender, no seu interior, o significado posto pelo homem.” (JASPERS, Karl. Introdução ao pensamento filosófico. São Paulo: Cultrix, 1992. – Cf.  DILTHEY, W. Introduction à l’étude des sciences humaines. Paris: Presses Universitaires de France, 1942.)

Estatísticas matemáticas bem conhecidas podem ser usadas para testar se as decisões de um determinado algoritmo tendem a variar com características protegidas. Não há um consenso claro sobre a melhor medida a fazer: medidas matemáticas padrão, como correlação ou informação mútua, podem ser relevantes. A “paridade estatística” é uma medida específica discutida em relação à equidade algorítmica. O ponto mais amplo é que os algoritmos de tomada de decisão podem ser auditados pela inspeção de suas entradas e saídas usando ferramentas matemáticas. Idealmente, tais testes seriam medidos em todas as características protegidas em conjunto, em vez de separadamente, porque pode haver preconceitos de nicho que dependem de critérios múltiplos.

Provedores de serviços de aplicações de Internet e também de acesso, cada vez mais reúnem grandes coleções de dados comportamentais que podem ser recolhidos a partir dos inúmeros sensores que estão acompanhando a Internet das coisas (Internet of things – of everything), os telefones celulares, relógios inteligentes e demais produtos portáteis, tais como GPS, acelerômetros, etc. Esses dados geralmente produzem um perfil muito detalhado e pessoal, provavelmente maior do que a maioria dos cidadãos pode imaginar e compreender. Existe, portanto, a capacidade de os algoritmos tomarem decisões com base em inferências como “determinada pessoa está frequentemente dirigindo na madrugada” entre outras coisas arrepiantes. Freaking creepy, para usar a excelente expressão inglesa.

Falando em expressões da língua inglesa, importante conceituar, ainda que brevemente, o que são:

Decision Trees (Árvores de decisão): Aprendizado de máquina (machine learning) e método de apoio a decisão que usa um modelo de árvore de sim-não para cada decisão. Exemplo: A pessoa possui 18 anos ou mais? Sim ou não?

Random Forests (Floresta aleatória): Método para a classificação e regressão que opera através da construção de um grande número de árvores de decisão.

Linear Regression (Regressão linear): Abordagem para modelar a relação entre variáveis como uma fórmula linear direta, por exemplo: cada cigarro diminui 11 minutos de sua expectativa de vida.

Logistic regression (Regressão logística): É um modelo de regressão relativamente simples amplamente utilizado para prever as variáveis categóricas (categorias).

Bayesian networks (Redes Bayesianas): Também chamadas de modelos gráficos probalísticos ou belief networks. São um tipo de modelo estatístico que representa variáveis aleatórias e suas dependências. Ao contrário de muitos outros métodos, as redes bayesianas modelam explicitamente nossas certezas e incertezas anteriores e as usam para inferir a certeza de seus resultados (outputs).

O êxito do desenvolvimento de novas tecnologias de dados, incluindo a utilização mais ampla de algoritmos, inteligência artificial, aprendizado de máquina (Machine Learning) e a Internet das coisas (Internet of things), como estamos percebendo, será essencial para o crescimento de qualquer país ou empresa nos próximos anos. O vasto volume de dados criado pela Internet e o crescimento gigantesco de dados coletados por inúmeros sensores nos mais variados itens e equipamentos mudará muito o mundo dos negócios e o dia a dia das pessoas. E isto tem profundo impacto em relação a autodeterminação informativa, o direito constitucional da intimidade e a privacidade. Novas leis são necessárias, sim, em alguns aspectos específicos, como o projeto de lei de proteção de dados pessoais (Projeto de Lei 5.276/2016), capitaneado pelo excelente Danilo Doneda. Mas todo cuidado é pouco, tendo em vista o que ocorreu com o Marco Civil da Internet (Lei nº 12.965/2014) – que sofrendo influência do pernicioso lobby de empresas multinacionais, provedores de aplicações de Internet – criou uma aberração jurídica em relação a responsabilidade civil para protegê-los em detrimento da teoria de responsabilidade civil adotada no Direito Brasileiro, o que exige, sem dúvida, urgente alteração para que se compatibilize com as normas de regência.[9]

Aliás é grave assistir jovens professores, que aparentemente desconhecendo a amplitude do direito brasileiro, defendem a criação de novas leis a todo instante. Mas por trás disso, existe o patrocínio de empresas interessadas, como vimos no recente escândalo envolvendo o Google, publicado pelo Wall Street Journal.[10] Saiba mais detalhes também aqui: http://googletransparencyproject.org/

Em informática, técnicas preditivas (predição/antecipação), incluindo sistemas de aprendizagem baseados em modelos ou sistemas de aprendizagem ensinadas e que podem fazer predições baseadas em exemplos e dados ainda não analisados, foram desenvolvidas na década de 1960 e aprimoradas nas décadas posteriores.

Para quem ainda não entendeu, algoritmos são usados ​​para determinar os resultados de uma série de inputs (entradas de dados) desde o início da era digital. Eles são fundamentalmente instruções sobre como combinar entradas para produzir uma saída específica. À medida que os sistemas se tornaram mais complexos, os algoritmos também se tornaram mais complexos. O que chamamos de algoritmo pode consistir em múltiplos sub-algoritmos conectados de múltiplas formas. Embora isso possa ser explicado em termos da estrutura do sistema, as entradas e saídas em cada etapa rapidamente se tornam mais complexas de serem explicadas. Desta forma, para garantir a transparência nos algoritmos, precisamos garantir que todas as etapas do algoritmo possam ser explicadas de maneira que um indivíduo não especializado possa entender.

Algoritmos podem ser criados “à mão”, isto é: um humano projeta, testa e reconstrói o algoritmo até atingir o resultado desejado. Como já é possível perceber, algoritmos também podem ser criados por meio de Machine Learning. Para processos como esses, o diferencial fundamental é que o próprio sistema ajusta as ponderações de entrada do algoritmo. Para sistemas complexos, centenas, milhares ou milhões de ponderações são ajustadas em paralelo. Os sistemas resultantes podem ser explicados matematicamente, no entanto, as entradas para tais sistemas são captadas a partir dos dados em estado bruto para um ponto em que os números são praticamente insignificantes para qualquer observador externo.

Como destacamos há pouco em relação ao Poder Judiciário, os estados de New Jersey e Wisconsin, nos Estados Unidos, por exemplo, já utilizam algoritmos para tomar decisões na Justiça Criminal sobre questões incluindo execução penal, condenação, fiança, reincidência, etc. Empresas privadas como é o caso da Northpointe desenvolveram as ferramentas com a utilização de algoritmos para essas finalidades. Algoritmos também são usados para analisar casos ou transações incomuns e investigar potenciais atividades fraudulentas. Na França, o governo utiliza um algoritmo para lidar com as atribuições dos professores nas escolas públicas. Os professores são designados às vagas disponíveis nas escolas por todo o país, com base em decisões tomadas por um algoritmo.

Empresas como a Hire Predictive, por exemplo, oferecem serviços a empresas de todo o mundo para seleção de candidatos a empregos com utilização de algoritmos. Com base em dados de negócios existentes, são construídos modelos preditivos (modelos de predição/antecipação), dos quais são feitas decisões algorítmicas sobre quais candidatos devem ser contratados.

Há muito tempo, agências de referência de crédito e gestão de riscos, como a Experian (Serasa, no Brasil) utilizam algoritmos para decidir a pontuação de crédito das pessoas (credit score). Os credores também usam seus próprios algoritmos para decidir quais candidatos a empréstimos devem aceitar e quais as taxas de juros a serem definidas.

As seguradoras também utilizam algoritmos para tomar decisões sobre clientes potenciais. Os algoritmos analisam permanentemente os segurados para colocá-los em categorias de risco específicas e tomar decisões sobre a aceitação de pedidos e o nível de seguro a ser definido.

Classificadores baseados em redes neurais equivalem-se ou superam a precisão do nível humano em muitas tarefas comuns, no entanto, redes neurais são suscetíveis ao que se denomina como “exemplos contraditórios”. Dados cuidadosamente adulterados podem provocar um comportamento ruim, levando a escolhas arbitrárias e equivocadas.[11]

Algoritmos de aprendizado de máquina (Machine Learning) também estão sendo desenvolvidos para aplicação em diversos setores da área de saúde (incluindo prevenção, diagnóstico, prognóstico, tratamento, gestão da demanda e alocação de recursos), muitas vezes na forma de ferramentas de apoio à decisão para ajudar e aperfeiçoar o trabalho dos profissionais humanos.

O que se sabe é que a maioria, senão todos os algoritmos usados hoje em dia pertencem ao campo da aprendizagem de máquina (Machine Learning), que nesta altura do texto já sabemos ser uma forma de inteligência artificial. Esses algoritmos de aprendizado de máquina são utilizados para aprender relações estatísticas dentro de dados, e podem ser aplicados a dados novos para criar “decisões” como a categorização ou previsão. Na área de saúde, como vimos, no diagnóstico médico, um algoritmo pode aprender a relação entre as características de diagnóstico de imagem e se as imagens pertencem a pacientes com câncer, e em seguida, são analisadas novas imagens de pacientes em geral, poderá ser usado para prever a probabilidade de câncer em novos pacientes. E isso é ótimo.

Na prática clínica, as ferramentas com o uso de algoritmos são desenvolvidas para aperfeiçoar os procedimentos de diagnóstico por meio da análise em alta velocidade de imagens médicas já recolhidas da prática clínica padrão. O aprendizado de máquina (Machine Learning) também está na vanguarda da medicina de precisão, ajudando a identificar subgrupos de pacientes e tratamentos-alvo apropriadamente. Em epidemiologia, está sendo aplicada a dados de saúde pública para detectar e rastrear surtos de doenças infecciosas. Também está sendo usado para aperfeiçoar o acompanhamento médico e para otimizar a gestão de demanda e alocação de recursos nos sistemas de saúde. Algoritmos nessas aplicações não são agentes autônomos, mas atuam como ferramentas de apoio à decisão com o objetivo de ajudar e aperfeiçoar o trabalho dos profissionais humanos da área de saúde.

No inquérito em curso na Inglaterra, destacou-se ainda que o uso de algoritmos no setor público poder levar a policiamento discriminatório e monitoramento indiscriminado, bem como a ações de agências de inteligência (inclusive aquelas que estão disfarçadas como empresas convencionais, mas são órgãos de inteligência #G11000), influência comportamental e invasões em larga escala de privacidade. O uso de algoritmos para tomar decisões no setor privado também pode levar à discriminação em áreas como recrutamento e emprego, acesso a serviços e finanças, preços diferenciados, etc. A tendência crescente de utilização de algoritmos na tomada de decisões pode pressionar indivíduos e serviços no sacrifício da privacidade e deteriorar ainda mais os direitos relativos à intimidade, privacidade e autodeterminação informativa.

Uma das questões de maior preocupação é a utilização dos algoritmos para policiamento e coleta de dados para inteligência. Há um potencial considerável de abusos secretamente praticados por governos e empresas privadas.

É notório que os algoritmos estão sendo utilizados extensivamente pelas agências de segurança e inteligência para analisar o público e a comunicação dos cidadãos. A coleta o processamento das comunicações e dados de milhões de pessoas deveria ocorrer para monitorar conhecidos alvos e suspeitos – e também para descobrir novos – mas com certas restrições e controle judicial, no entanto, a técnica de encontrar uma agulha no palheiro, invertendo a relação entre a tradicional vigilância de suspeitos e suas relações para o monitoramento indiscriminado é extremamente preocupante. Quem assistiu o excelente filme “O inimigo do Estado” muitos anos antes de Edward Snowden, viu a ficção tornar-se realidade com o episódio envolvendo a NSA e o programa PRISM.

A propósito, naquele período do escândalo envolvendo a NSA – National Security Agency e o analista Edward Snowden, enquanto o mundo voltava os olhos para o programa PRISM da agência de inteligência norte-americana, uma apresentação em Powerpoint que teria sido supostamente vazada pela inteligência francesa – e cuja autenticidade já foi confirmada por vários especialistas, mostrou uma informação muito preocupante e que rapidamente foi apagada da Internet. São poucos os lugares em que encontramos este material online hoje em dia. O trecho que mais chamou atenção é esse:

Observe que na apresentação da DISA (Defense Information Systems Agency) – órgão integrante do sistema de inteligência militar norte-americano, o programa PRISM aparece como a interface e a empresa Google, como a responsável pela coleta das informações no item “Intelligence”. Há um livro muito esperado, escrito pelo excelente jornalista Yasha Levine chamado “Surveillance Valley – The Secret Military History of the Internet[12] que promete trazer revelações importantes. Sugiro ao leitor que também assista o vídeo Secret History of Silicon Valley oferecido pelo Computer History Museum, apresentado pelo professor Steve Blank.[13] E também o texto elaborado por Julian Assange do Wikileaks – “Google Is Not What It Seems”.[14]

A análise do big data e o processamento algorítmico deveriam ser realizados em dados relevantes de grupos de suspeitos, como mencionei, no entanto, nossos telefones registram onde vamos, com quem falamos, mídias sociais armazenam até como nos sentimos, nossos cartões bancários e de crédito registram uma grande quantidade de informações da nossa atividade, medidores inteligentes até gravam quando estamos em casa e quanto de energia utilizamos. Snowden garantiu (e comprovou pelos documentos que vazou) que os aparelhos de celular inteligentes podem gravar o ambiente, mesmo desligados. Grande parte desses dados estão disponíveis para o Estado que procura incansavelmente “pegadas digitais abrangentes” em vez de partir de uma avaliação cuidadosa das evidências relevantes.

Essa abordagem preocupante emprega algoritmos para analisar dados passivamente, tratando todos os cidadãos como suspeitos até que seja comprovado o contrário. Os algoritmos podem tratar como alvos pessoas inocentes, criminalizando-as por associação equivocada e impactando negativamente essas pessoas com base em pouco mais de um palpite apoiado por fatos não-criminais. Dados indiscriminadamente coletados em massa nas mãos do Estado para processamento algorítmico, da forma como estão sendo construídos, jamais poderiam ser compatíveis com a legislação de direitos humanos. São práticas que não são saudáveis em uma democracia. Independente da alegada precisão de tais processamentos algorítmicos, o cenário é muito preocupante.

Conjuntos de dados de teste para esses algoritmos, ou os dados recolhidos da sociedade, podem ser reflexo de padrões de discriminação e as desigualdades já existentes. Na medida em que a sociedade contém desigualdades, exclusão ou outros vestígios de discriminação, o mesmo poderá acontecerá com os dados. De fato, há grande preocupação que tais desigualdades sociais possam ser perpetuadas por meio de processos algorítmicos, gerando efeitos jurídicos negativos e significativos sobre indivíduos no contexto da aplicação da lei.

Não temos conhecimento de quaisquer processos formais para a supervisão independe dos algoritmos utilizados por empresas como o Google e a comunidade de inteligência. No inquérito em curso na Inglaterra, vários especialistas acreditam fortemente que deveria haver uma supervisão independente dos mecanismos e operação de algoritmos em qualquer contexto que possa resultar em efeitos jurídicos e outros significativos na vida das pessoas.

A disponibilidade de novas fontes de dados, incluindo dados de redes sociais, biometria e software de reconhecimento facial, cria oportunidades para interferências relativas ao direito à privacidade em nível individual e social.

Existem processos algorítmicos sendo utilizados para influenciar comportamentos de pessoas. Processamento algorítmico não deve ser a única base para uma decisão que produza efeitos jurídicos ou possa impactar os direitos de qualquer indivíduo.

Os criadores de algoritmos devem sempre manter a capacidade de fornecer transparência em relação a todo o processo algorítmico envolvido e explicações para as decisões e resultados atingidos. As decisões algorítmicas que envolvem os direitos e as liberdades dos indivíduos devem ser sempre desafiáveis. É preciso cautela contra qualquer tomada de decisão algorítmica que envolva a coleta de dados não consentida, ou mesmo que consentida, não compreendida, bem como compartilhamento ou análise de dados pessoais. A importância dos direitos constitucionais de intimidade, da privacidade e autodeterminação informativa como um direito individual e uma característica de uma sociedade democrática deve ser cuidadosamente mantida ao longo dos desenvolvimentos tecnológicos. Não há como não ficar preocupado com a aprendizagem por máquinas, pela qual um computador aprende e extrai algoritmos para a realização de determinadas tarefas, apresentando resultados, a partir da transferência de dados fornecidos sem que o indivíduo possa compreender a qualidade e extensão destes.

No inquérito inglês, a Microsoft concorda que o poder computacional dos algoritmos pode aumentar a criatividade humana, permitindo o aumento da produtividade e que pessoas poderão tomar decisões mais precisas, rapidamente. No entanto, mesmo que formalmente, reconhecem a necessidade de maior transparência.

As ferramentas de inteligência artificial, como vimos, são conduzidas por uma combinação complexa de algoritmos. Alguns defendem que colocar estes tipos de códigos e algoritmos complicados no domínio público para que todos possam inspecioná-los (auditá-los) provavelmente pouca utilidade poderá oferecer na aferição de responsabilidades pelo mal-uso da tecnologia. Vulnerabilidades conhecidas em determinados algoritmos, por exemplo, de código aberto, disponibilizados publicamente e amplamente utilizados e auditados, levaram anos para que pudessem ser identificadas. Além disso, conhecer o funcionamento de um fragmento de código algorítmico não oferece necessariamente condições para que seja possível realmente compreender todas as suas funções, a menos que as entradas dos algoritmos (seu processo de coleta de dados) também sejam auditáveis. Em outras palavras, a informação detalhada sobre o algoritmo, por si só, seria de pouco valor na compreensão de como o algoritmo realmente funciona, já que muitos deles conseguem acesso a um conjunto enorme de dados que são de desconhecimento das pessoas, pois protegidos por cláusulas de confidencialidade, segredo industrial e outros mecanismos do gênero.

Muitos sistemas de aprendizado de máquina são verdadeiras “caixas pretas”, cujos métodos são difíceis de interpretar. Embora esses sistemas possam produzir resultados estatisticamente confiáveis, o usuário final não será necessariamente capaz de explicar como esses resultados foram gerados ou quais características específicas de um caso têm sido importantes para chegar a uma decisão final, causando desafios de interpretabilidade e transparência. Os algoritmos de aprendizado de máquina são apenas programas informáticos, e o alcance e a extensão do seu uso são extremamente amplos e diversos. Seria estranho, pesado e intrusivo sugerir governança para todos os usos de programação de computadores, e o mesmo argumento geral se aplica a todos os usos de aprendizagem de máquina.

Em muitos ou mais contextos, a aprendizagem por máquinas é geralmente incontroversa e não precisa de um novo quadro de governança. Como é o caso de uma empresa que usa o aprendizado de máquina para melhorar seu uso de energia ou instalações de armazenamento, o que não parece exigir mudanças significativas na governança. A aprendizagem de máquinas deve ser, obviamente, sujeita à lei, e também envolve o uso de dados pessoais coletados de forma apropriada e transparente.

Muitas das questões em torno dos algoritmos de aprendizagem de máquinas são muito específicas e complexas, por isso alguns defendem que seria inútil criar uma estrutura geral de governança ou um corpo de governança para todas as aplicações de aprendizagem em máquina. No entanto, as questões relacionadas com a segurança e os testes adequados em aplicações de transporte provavelmente serão melhor manipuladas pelos órgãos existentes nesse setor. Questões sobre validação de aplicações médicas de aprendizagem de máquinas por órgãos reguladores da área de saúde. Aqueles relacionados à aprendizagem de máquina em finanças pessoais pelos reguladores financeiros, e assim por diante.

Deve-se reconhecer que a explicação de algoritmos, incluindo novos algoritmos de aprendizagem profunda, em virtude de sua amplitude e profundidade, deve ser elaborada por pesquisadores e desenvolvedores, não só por pressões regulatórias. Há quem defenda, como vimos, que os padrões de transparência algorítmica não podem ser legislativamente definidos, já que as especificidades da tecnologia, algoritmos e sua aplicação variam muito.

Ainda na área jurídica, sistemas de raciocínio jurídico automatizado (com a aplicação de algoritmos e inteligência artificial) já foram considerados no passado. Mas verificou-se que é impossível a sua aplicação autônoma no Direito. A formação da convicção de um magistrado não está restrita somente a dados objetivos. A aplicação das leis é muito mais do que a aplicação de um conjunto de regras e jurisprudência. A independência de cada magistrado na formação de sua convicção, em cada caso concreto, jamais pode ser ameaçada ou influenciada equivocadamente por máquinas. Os juízes não aplicam a lei como robôs. A hermenêutica e a interpretação exercem grande influência no Direito. Os algoritmos ainda não conseguem imitar o raciocínio jurídico. É claro que poderão auxiliar muito os juízes, advogados, promotores e demais profissionais da Justiça. Mas jamais substituir o elemento humano na equação (pelo menos, por enquanto). Os algoritmos são ferramentas e não devem ser tratados como substitutos completos para o julgamento humano.

Como vimos, os algoritmos são treinados e trabalham com um conjunto gigantesco de dados que os alimentam. Reitera-se: se esses dados são tendenciosos ou direcionados propositalmente, os algoritmos serão impactados e os sistemas tornar-se-ão involuntariamente parciais devido ao conjunto de regras que eles seguem. Até mesmo os desenvolvedores dos algoritmos muitas vezes não conseguem compreender a lógica que os algoritmos por eles mesmos desenvolvidos começaram a seguir para tomar certas decisões e produzir determinados resultados, já que nem todos os processos, inclusive as fontes e formas de coleta de informação são transparentes para os desenvolvedores.

Não sou misoneísta, os algoritmos mudaram a forma como o mundo funciona. Sem eles não teríamos a Internet, computadores e vários avanços tecnológicos que beneficiam a sociedade. E que beneficiarão ainda mais. Mas não podemos ser ingênuos. A velocidade com que os algoritmos processam uma grande quantidade de dados pode dar uma falsa impressão de exatidão para os menos atentos. Precisamos estar cientes de que os algoritmos estão longe de serem infalíveis e muito mais longe ainda de estarem livres da influência humana, de governos, interesses políticos, militares, econômicos e vários outros que você já consegue imaginar.

A regulação, como sugerida por alguns, parece ser utópica. Impossível regulamentar um segmento que sofre modificações impressionantes a cada dia, a cada instante. O que sabemos, é que os algoritmos, embora “vendidos” por essas grandes empresas como sendo imunes ao viés político, tendencioso, aos interesses econômicos, políticos, militares, estratégicos, de inteligência e tudo mais – na realidade não são. É difícil provar a afirmação dessas empresas (que subestimam a inteligência de alguns) sem uma supervisão significativa dos algoritmos complexos, muitas vezes secretos, incluindo o conjunto de dados, a forma e as fontes de coleta que consideraram para chegar a determinados resultados. É necessária uma supervisão constante dos processos algorítmicos mais sensíveis, como os que impactam a formação de opinião, por exemplo.

Uma das conclusões parciais do inquérito inglês é que os algoritmos podem replicar aspectos prejudiciais e discriminatórios da tomada de decisão humana e potencialmente criar novos tipos de danos. Por conseguinte, são necessários mais trabalhos para identificar e prever novos tipos de danos e desenvolver métodos que os detectem (que possam detectá-los de forma eficaz na medida em que ocorrerem). Sem o desenvolvimento dessas áreas, indivíduos e grupos afetados têm pouca perspectiva de retificar os erros quando eles ocorrerem.

A auditoria algorítmica na inteligência artificial é uma dessas áreas que deve exigir muita atenção dos especialistas em Direito, ética, cientistas de dados, formuladores de políticas e órgãos reguladores.

Abordagens atuais para auditar a funcionalidade e impacto dos algoritmos de decisões em áreas sensíveis incluem soluções complexas e avançadas, como a criação de funções de alerta incorporados nesses sistemas e algoritmos. A auditoria pode criar um registro processual para demonstrar viés ideológico, político, estratégico, preconceitos contra indivíduos (e grupos particulares) e ajudará os controladores de dados a atender os requisitos de responsabilidade, detectando quando as decisões produzem efeitos prejudiciais, explicando como eles ocorreram e em que condições eles podem ocorrer de novo. No entanto, a auditoria não é viável sem um forte apoio regulamentar ou cooperação de prestadores de serviços. Talvez sejam, no futuro, obrigados por decisões judiciais (com apoio em legislação específica) a colaborar. Para que a tomada de decisão algorítmica seja significativa, responsável, transparente e justa, os controladores de dados devem cooperar em auditorias. Da mesma forma, devem ser realizados mais trabalhos para entender como ocorre a governança nesses processos. No inquérito inglês, recomenda-se a criação de um grupo de trabalho para determinar se há necessidade da criação de um órgão específico de supervisão e quais os requisitos e os termos de referência a serem adotados por esses órgãos.

Mesmo que seja compreensível que os controladores de dados tenham um interesse legítimo em não divulgar segredos comerciais, esse interesse não deve superar o desejo de entender como os algoritmos tomam decisões sobre os seres humanos. Para equilibrar esses interesses concorrentes, governos devem explorar a necessidade da criação de um Watchdog (órgão fiscalizador) em Inteligência Artificial, ou outro organismo regulador de confiança e totalmente independente. Qualquer um desses órgãos precisaria ser equipado com os conhecimentos adequados (de direito, psicologia e neurociência, ética, informática, telemática, estatística e matemática), recursos e autoridade de auditoria (para fazer inspeções) – tudo para garantir que a tomada de decisão algorítmica seja justa, imparcial e transparente. Bem como os resultados apresentados aos cidadãos.

Há um grande potencial para que os algoritmos e a inteligência artificial possam ser usados para o bem de toda a sociedade. Na verdade, há uma oportunidade para tornar o mundo mais justo e menos tendencioso com a utilização dos algoritmos e da inteligência artificial. As leis não devem travar e dificultar a inovação, mas, reitera-se, não podemos ser ingênuos e deslumbrados com as novas tecnologias, deixando de perceber o que está por trás de tudo isso.

(*) Paulo Sá Elias, 46 anos, é advogado e professor universitário. Especialista em Direito da Informática e Tecnologia da Informação. Mestre em Direito pela UNESP. Mantém o site: www.direitodainformatica.com.br e o perfil da rede Twitter @paulosaelias

[1] Veja os detalhes aqui: http://www.parliament.uk/business/committees/committees-a-z/commons-select/science-and-technology-committee/inquiries/parliament-2017/algorithms-in-decision-making-17-19/

[2] Também chamada de “Internet of everything” (Internet de tudo, de todas as coisas)

[3] Ref. Calum McClelland / AI/ML/DL – differences.

[4] A propósito do tema da energia, recomendo ao leitor que conheça o projeto Wendelstein 7-X (http://www.ipp.mpg.de/w7x) – O futuro da energia pode estar aqui. Stellarator technology (Fusion Power Plant)

[5] Knight,W., The Dark Secret at the Heart of AI. https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/

[6] Kumar,D., Wong,A. & Taylor,G.W., Explaining the Unexplained: A CLass-Enhanced Attentive Response (CLEAR) Approach to Understanding Deep Neural Networks. https://arxiv.org/abs/1704.04133

[7] Angwin,J., Larson,J., Mattu,S. & Kirchner,L., Machine Bias. There is software that is used across the county to predict future criminals. And it is biased against blackshttps://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[8] Kay,M., Matuszek,C. & Munson,S.A., Unequal representation and gender stereotypes in image search results for occupations. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, ACM, 2015, pp. 3819-3828. https://github.com/mjskay/gender-in-image-search/blob/master/data/public/filtered_bls_occupations_with_search_gender_proportions.csv

[9]http://www.direitodainformatica.com.br/?p=1794

[10]https://www.wsj.com/articles/paying-professors-inside-googles-academic-influence-campaign-1499785286

[11]https://arxiv.org/pdf/1707.07397.pdf

[12]https://surveillancevalley.com/

[13]https://www.youtube.com/watch?v=ZTC_RxWN_xo

[14]https://wikileaks.org/google-is-not-what-it-seems/

Sobre a entrevista à revista REVIDE (Ribeirão Preto/SP)

Friday, November 10th, 2017

Caros alunos e colegas, aqui está a íntegra dos meus comentários à jornalista da Revista Revide (Ribeirão Preto/SP) quando realizou entrevista esta semana para a edição nº 889,  nº 45,  Ano 31, de 10 de novembro de 2017.

1. Nas redes sociais, alguns ataques racistas e caluniosos tiveram notoriedade nos últimos meses, como o que a atriz Taís Araújo sofreu. Quando denunciados, como são apurados estes crimes? No que se enquadram?

Como sabemos, para algumas doenças, são necessários remédios fortes. Essas condutas extremamente reprováveis e doentias são consideradas crimes contra a honra e até mesmo prática de racismo. Geralmente se enquadram no art. 5º, inc. XLII, da Constituição Federal, Lei 7.716/89 (Racismo) e art. 140, § 3º (introduzido pela Lei 9.459/97) do Código Penal. Para o caso referenciado, é o que denominamos em Direito como “Crime de injúria racial”, também chamada de injúria preconceituosa ou discriminatória, e que a partir da Lei 12.033/2009 passou a ser de ação penal pública, condicionada à representação da vítima, logo, com o envolvimento do Ministério Público. Ou seja, o internauta pode provocar um grande problema jurídico para a sua vida caso agir desta forma. Sobre essa questão da representação da vítima, na prática, pode-se obter o mesmo efeito do termo específico de representação da vítima quando há o registro do boletim de ocorrência, quando a vítima pede a instauração do inquérito policial ou quando é ouvida em declarações na fase policial, desde que, mostre com isso, em todos os casos que mencionei, inequívoca intenção de promover a  responsabilidade penal de quem a ofendeu.

Tecnicamente, a injúria racial ou preconceituosa é diferente do crime de racismo. (Há quem defenda, como é o caso de Guilherme de Souza Nucci, conhecido autor na área criminal, bem como recente decisão do Superior Tribunal de Justiça, que com a Lei 9.459/97, introduzindo a injúria racial, criou-se mais um delito no cenário do racismo, portanto, também, imprescritível, inafiançável e sujeito à pena de reclusão, por ser prática de racismo, ou seja, nítida manifestação racista).

No crime de injúria racial, a ofensa é dirigida a pessoa determinada ou, pelo menos, a um grupo determinado de indivíduos. Desta forma, o internauta que se dirigir a uma pessoa determinada e a ofendê-la fazendo referência à sua cor ou religião, poderá estar cometendo o crime de injúria qualificada (racial ou preconceituosa). Já o crime de racismo, por meio de manifestação de opinião, ocorre quando há uma referência de forma preconceituosa indistintamente a todos os integrantes de certa raça, cor, religião, etc. No caso do racismo, a ação penal é pública incondicionada. É dever do Ministério Público, ao tomar conhecimento dos crimes de racismo, havendo provas suficientes, oferecer denúncia contra o autor da infração penal.

Existem delegacias especializadas em crimes informáticos e telemáticos, delegados e investigadores especializados na área. Enfim, há muito tempo a Internet deixou de ser terra de ninguém, onde era possível fazer de tudo e ter a certeza de impunidade. Existem peritos excelentes no Brasil. As técnicas e equipamentos de perícia forense também estão cada vez mais eficazes e impressionantes. É bem verdade, no entanto, que a cada dia encontramos também novos métodos e técnicas sofisticadas para a prática de crimes por meio da Internet, como por exemplo, a utilização do TAILS (The Amnesic Incognito Live System) que é um sistema operacional completo baseado em Linux/Debian e que iniciado a partir de um DVD ou de um simples pendrive, promete preservar a privacidade do usuário e o caráter anônimo de sua utilização da Internet, não deixando rastros (se corretamente utilizado). Todas as conexões de Internet realizadas pelo TAILS são realizadas pela rede TOR (que é uma rede aberta e distribuída, contra análise de tráfego, redirecionando as comunicações do usuário por meio de uma espécie de “rede de repetidores” mantidos por voluntários ao redor do mundo). As conexões que não sejam anônimas são bloqueadas automaticamente pelo sistema. Mas muitas vezes os criminosos que atuam na Internet, por mais sofisticados que sejam, se esquecem que a polícia e as autoridades também contam com os meios tradicionais de investigação, os inúmeros e experimentados métodos da Old School. É justamente por esse caminho, que muitas vezes encontramos a solução para casos bastante complicados como esses em que os criminosos utilizam recursos tecnológicos muito sofisticados, principalmente quando os agentes criminosos são da nova geração. Aliás, um dos desafios da operação Lava Jato atualmente é rastrear parte do dinheiro desviado pela organização criminosa política brasileira em Bitcoins e outras moedas eletrônicas baseadas na tecnologia Blockchain.

 

2. Existe legislação específica para lidar com crimes virtuais?

Lembro-me muito bem quando o saudoso professor Miguel Reale esteve aqui em Ribeirão Preto, e juntos visitamos o Teatro Pedro II e o Pinguim, e conversamos demoradamente sobre a relação entre o Direito e as novas tecnologias, especialmente a Internet. Aliás, compartilho com a Revide fotos inéditas (de minha autoria) do Professor Miguel Reale naquele dia.

Na oportunidade, o grande professor dizia que é um equívoco imaginar que diante de uma nova tecnologia, o Direito pode não ter mecanismos para atuar. Independente de uma legislação específica, muitas vezes encontramos a solução. Apenas o meio é novo. É claro que no Direito Penal, se uma conduta não for descrita como crime, resta procurarmos a responsabilidade na esfera cível, no entanto, não podemos esquecer que os velhos e conhecidos crimes podem ser praticados com a utilização de novos meios. É dizer: o meio é novo (no caso a Internet), mas o crime é aquele velho conhecido de todos, por exemplo, o crime contra a honra, o estelionato, etc. Sendo assim, há muitos casos em que é possível aplicar perfeitamente a legislação existente quando praticados por meios novos e tecnologias que não existiam anteriormente, quando a lei foi criada. Por isso que eu sempre lembro aos meus alunos na Faculdade de Direito aquela velha sabedoria do Direito Romano: scire leges non hoc est, verba earum tenere, sed vim ac potestatemsaber as leis não é conhecer-lhes as palavras, porém a sua força e poder, isto é, o sentido e o alcance respectivos.

Mas respondendo a sua pergunta, sim, existe legislação específica para lidar com crimes informáticos e telemáticos. São exemplos principais, a Lei 12.737/2012, que trata da invasão de dispositivo informático alheio, conectado ou não à rede de computadores, mediante violação indevida de mecanismo de segurança. A Lei 12.965/2014, conhecida como “Marco Civil da Internet” e que estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil, mas tem aplicação na esfera criminal em diversos aspectos, em especial quando há necessidade de requisição judicial de registros de conexão ou de registros de acesso a aplicações de Internet. Também em relação a responsabilidade por danos decorrentes de conteúdo gerado por terceiros, com especial destaque para o art. 21 que dispõe: “O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.” – A combinação das Leis 9.610/98 (Direitos Autorais) e 9.609/98 (Programa de Computador), entre outras.

 

3. Qual a importância de leis que regulamentem crimes virtuais para consumidores, vendedores e usuários de serviços como o Internet Banking?

Como eu disse, no Direito Penal, há necessidade de que uma determinada conduta para ser considerada crime esteja previamente definida em lei como tal. Desta forma, a importância de leis que regulamentem crimes cometidos pela Internet só existe naqueles casos em que estamos diante de uma conduta que ainda não foi tipificada como crime, em razão de suas características inovadoras. Mas observe que condutas criminosas já descritas como crime e cometidas por consumidores e vendedores podem ser aquelas velhas conhecidas, de crimes já existentes (como é o caso do estelionato, dos crimes contra a honra, divulgação de segredo, extorsão, fraude no comércio, violação de direito autoral, etc.) – que, embora praticados por meio novo (ou seja, a Internet e computadores) – são perfeitamente aplicáveis.

Por outro lado, observe que nem tudo deve ser criminalizado. Há uma tendência da sociedade em querer transformar em crimes as mais diversas condutas, como queriam fazer aqui no Brasil há alguns anos, felizmente sem sucesso, por exemplo, com o SPAM (mensagens publicitárias indesejadas). Não faz sentido algum criminalizar o SPAM. A criminalidade deve recair apenas sobre fatos contrastantes dos valores mais elevados do convívio social. A conduta deve merecer a sanção penal. O crime é o último grau do sistema jurídico. A justiça criminal tutela infrações maiores ou comprometedoras do mínimo ético. Mirabete, conhecido jurista da área penal dizia que “o desvalor do resultado, o desvalor da ação e a reprovabilidade da atitude interna do autor é que convertem o fato em um exemplo insuportável e que seria um mau precedente se o Estado não o reprimisse mediante a sanção penal, ou seja, a criminalização daquela conduta específica”.

Portanto, fora do âmbito criminal, na esfera cível, também encontramos uma série de instrumentos para proteção aos direitos. Em relação ao comércio eletrônico, por exemplo, temos a aplicação do CDC (Código de Defesa do Consumidor) e do Decreto nº 7.962/2013, no que diz respeito a contratação no comércio eletrônico. Em razão dessas normas, surgem alguns direitos elementares, como por exemplo, o consumidor deve ter a mesma facilidade para contratar como para cancelar um serviço pela Internet, a privacidade e a autodeterminação informativa devem ser protegidas, ocorrendo vazamento de dados pessoais, o fornecedor deve ter a obrigação de informar amplamente às autoridades competentes e aos consumidores, a segurança do meio eletrônico colocado à disposição do consumidor deve ser risco profissional do fornecedor, a linguagem nos meios eletrônicos pode acarretar, com maior frequência, erro na contratação ou na expressão da vontade – e isso precisa ser levado em consideração, entre outros.

Em relação ao Internet Banking, por exemplo, a fraude eletrônica para transferir valores de conta bancária por meio de Internet Banking constitui crime de furto qualificado por fraude. Embora o Internet Banking seja uma novidade dos novos tempos, o crime é aquele velho conhecido, o furto. Só que qualificado mediante fraude.

E no âmbito cível, há uma série de normas perfeitamente aplicáveis. As instituições financeiras respondem objetivamente pelos danos gerados por fortuito (imprevisto) interno relativo a fraudes e delitos praticados por terceiros no âmbito de operações bancárias. Mesmo que os fatos tenham sido praticados por estelionatários, ainda que o próprio banco também tenha sido vítima de estelionatários, este fato não o exonera de reparar os danos ao consumidor de seus serviços bancários (os seus clientes), pois o banco responde objetivamente pelo risco de sua atividade, não podendo repassá-lo ao consumidor.

Os bancos, ao operarem o sistema de Internet Banking, assumem os riscos inerentes a este tipo de operação, o que inclui, obviamente, a necessidade da criação de sistemas seguros, protegidos e eficazes, dentro do possível, tudo, no sentido de evitar a possibilidade de ocorrência de fraudes. Até mesmo em casos em que tenha sido utilizada a senha PIN (em cartões magnéticos com CHIP) – e que alguns bancos tentam se defender nos processos judiciais dizendo ser culpa exclusiva do consumidor (art. 14, § 3º, CDC) encontramos decisões judiciais no sentido contrário aos interesses dos bancos, pois é conhecida a possibilidade de clonagem dos cartões, inclusive com a captura das senhas. Muitos de nós já assistimos vídeos nas redes sociais mostrando como os criminosos estão fazendo isso nos caixas eletrônicos. Os sistemas de segurança dos cartões magnéticos bancários (débito ou crédito), portanto, são vulneráveis a fraudes. Idem, em relação ao Internet Banking. Cabe aos bancos zelar pela segurança da operação em ambientes eletrônicos.

(*) Nota: Recentemente o STJ (Superior Tribunal de Justiça) em relação aos cartões com a utilização da senha PIN decidiu de forma contrária à própria Súmula 479. O TJSP segue no sentido correto da interpretação e daquilo que apresentamos aqui. Vejam: (1)(2)

As instituições financeiras respondem objetivamente pelos danos gerados por fortuito interno relativo a fraudes e delitos praticados por terceiros no âmbito de operações bancárias.” (Súmula 479, SEGUNDA SEÇÃO, julgado em 27/06/2012, DJe 01/08/2012)

Veja aqui a notícia da decisão do STJ.

E aqui a íntegra da recente e absurda decisão do STJ que favorece os interesses dos bancos.

Saiba mais novidades em: http://www.twitter.com/paulosaelias

Regulamentação de “Drones” para uso recreativo no Brasil

Thursday, May 4th, 2017

No dia 03.05.2017, foi publicada no Diário Oficial a Resolução nº 419 da ANAC (Agência Nacional de Aviação Civil) que aprova o Regulamento Brasileiro da Aviação Civil Especial nº 94 (RBAC-E nº 94), intitulado “Requisitos gerais para aeronaves não tripuladas de uso civil”. Além disso, a ANAC preparou alguns textos para orientação dos usuários. Todos esses documentos serviram de referência para a elaboração destas breves notas. Clique aqui (versão para imprimir). Versão convencional, aqui.

Drone pilots don’t have to register under the FAA’s controversial rule, court rules. (Read here)

#LavaJato #Sevandija Ribeirão Preto

Wednesday, April 12th, 2017

Quando é que a Polícia Federal e o MPF vai realmente prender todos os membros da organização criminosa em Ribeirão Preto/SP? E o mais importante: recuperar o dinheiro do contribuinte?

#Vault7

Thursday, March 9th, 2017

#Vault7 CIA

From Iain Thomson, 8 Mar 2017

The Register.

First, though, a few general points: one, there’s very little here that should shock you. The CIA is a spying organization, after all, and, yes, it spies on people.

Two, unlike the NSA, the CIA isn’t mad keen on blanket surveillance: it targets particular people, and the hacking tools revealed by WikiLeaks are designed to monitor specific persons of interest. For example, you may have seen headlines about the CIA hacking Samsung TVs. As we previously mentioned, that involves breaking into someone’s house and physically reprogramming the telly with a USB stick. If the CIA wants to bug you, it will bug you one way or another, smart telly or no smart telly. You’ll probably be tricked into opening a dodgy attachment or download.

That’s actually a silver lining to all this: end-to-end encrypted apps, such as Signal and WhatsApp, are so strong, the CIA has to compromise your handset, TV or computer to read your messages and snoop on your webcam and microphones, if you’re unlucky enough to be a target. Hacking devices this way is fraught with risk and cost, so only highly valuable targets will be attacked. The vast, vast majority of us are not walking around with CIA malware lurking in our pockets, laptop bags, and living rooms.

Windows: The CIA’s UMBRAGE team has a modest collection of attack tools for systems powered by Microsoft’s widely used operating system, all listed here. These tools include keystroke loggers, sandbox escape ropes, and antivirus avoidance mechanisms. The CIA analysts found flaws in Control Panel, and the ability to add data streams to NTFS without detection to smuggle data onto storage drives. Windows library files are useful stepping stones to malicious code execution, as are Windows Theme files.
DLL files [PDF] are a popular attack vector for the CIA PDF]. They are also handy for concealing malware in applications, and the documents show that common apps have been used for spying by exploiting DLL weaknesses.

One DLL attack technique shows that someone at the agency is a bit of a Will Ferrell fan. The RickyBobby program, named after the character in the film Talladega Nights, uses several .NET DLLs and a Windows PowerShell script to implant a “listening post” on a target Windows PC.

A version has been used in the field on USB drives, according to this document. The software, with attack tools dubbed Fight Club, was put onto six thumb drives and “inserted into the supply chain of a target network/group.”

If you’re using Windows Exchange 2010, the CIA has a tool for that, dubbed ShoulderSurfer. This performs a code injection attack against the Exchange Datastore manager process that would allow an agent to collect emails and contacts at will and without the need for an individual’s credentials.

Exchange 2007 is even easier to crack, according to the CIA. For a detailed rundown on Exchange and all its flaws, this document [PDF] should be helpful to Microsoft engineers looking to fix the problems.

OS X: Users of Apple’s OS X shouldn’t look too smug, however. The CIA has tools for you too – pages of them.

A lot of hacking tools cover OS X El Capitan, but presumably these have been updated to subvert new versions of the operating system. That said, it does seem through reading these files that Apple poses a significantly more difficult challenge for the CIA than Redmond’s code.

Analysts note that the operating system can be resilient to applications that try to slip malware onto a Mac. But it’s still possible to whitelist spying software; subvert NetInstall images, creating zombie programs; and surreptitiously get at the kernel.

One interesting project the files touch on is dubbed QuarkMatter. This is a technique for hiding spying software persistently on an OS X system by using an EFI driver stored on the EFI system partition. Another, dubbed SnowyOwl, uses a pthread in an OpenSSH client to potentially pull off remote monitoring of a target system.

The documents also show a project called HarpyEagle that analyzed Apple’s Airport Extreme firmware for private keys, and also Time Capsule systems.

iOS: The CIA files show an extensive list of iOS exploits. Some of these were developed in-house, some obtained from the NSA or Britain’s GCHQ, and others were purchased from private vendors. It looks as though at least some of the security bugs were fixed by Apple in recent iOS updates – versions 8 and later – or are otherwise no longer exploitable. For instance, the Redux sandbox workaround and Xiphos kernel exploit were both used to hack “iPhone 4S and later, iPod touch (5th generation) and later, iPad 2 and later,” but both flaws were fixed after being publicized by the Chinese jailbreaker Pangu.

While it’s likely the exploit list is an old one, a lot of them may still work. iOS 8 appears to have killed off a few, but most of the exploits don’t have death dates listed.

The Dyonedo exploit, developed by GCHQ, allows unsigned code to run on iOS devices, while the CIA’s homegrown Persistence tool allows “a symbolic link [to] be created (on iOS 7.x) or an existing file can be overwritten (iOS 8.x) that will run our bootstrapper, giving [users] initial execution on every boot.”

While full root is a goal, the documents also detail an attack known as Captive Portal. This sets up the browser to route all web use through a server run by the CIA.

Android: There’s a much longer list for Android exploits than that for its Cupertino cousin’s operating system.

There are exploits such as Chronos and Creatine that attack specific flaws in Qualcomm Adreno GPU drivers, and others like Starmie and Snubble only work against specific Samsung handsets. There are also a lot of Chrome-based attacks for Android that will only work on older versions of the browser. There’s a full list of version histories here.

There are also three implants listed – Bowtie, SuckerPunch, and RoidRage. The release notes for RoidRage show it can monitor all radio functions and allows SMS stealing.

While the bulk of the exploits listed allow for escalation of privileges, allowing malicious apps to gain more or total control of the infected device, there are some like BaronSamedi, Dugtrio, and Salazar that allow for remote access. Many of these have been shut down on phones running Android version 4.4 and higher, but bear in mind this list is three years old and the revised grab bag of exploits currently in use could be more effective against more modern Android builds.

Antivirus: The CIA stash contains rundowns on most of the popular antivirus systems and how to defeat them. Much of the information has been redacted but there are a few snippets left.

The documents note that evading F-Secure’s detection mechanisms is possible, but that the software has a pretty good heuristics engine that can pick up Trojan software. The agency has devised two ways around this using RAR file string tables or cloning a RAR file manifest file.

Avira has similarly good heuristics, the files note, but two similar attacks appear to work. Avira is a high-value target, since the documentation notes that it is popular among counter-terrorism targets.

Bitdefender’s heuristic engine has also caused the CIA some problems when it comes to detecting the agency’s malware. However, one file notes: “cleartext resources or simple RXOR-ed resources don’t seem to cause Bitdefender to trip.”

Comodo’s code is described as a “giant PITA” for its malware detection capabilities. However, it has a weak spot and doesn’t scan the contents of the Recycle Bin. The notes say malware can be stored safely here, but may be detected if run.

Ever since version six of Comodo’s code, things have become a lot easier and the CIA has an exploit dubbed the Gaping Hole of DOOM. That version ignores malware that it thinks is part of the Windows core operating system.

“Anything running as SYSTEM is automatically legit under 6.X. ANYTHING,” the document states. “Let that sink in. Got a kernel-level exploit? Good, because you can drop the kitchen sink and the contents of your garage and as long as you continue to run as SYSTEM you are golden. Yeah.”

Details on AVG are sketchy, but the CIA trove indicates at least two ways to defeat the security software. These include a fake installer and malware that can be dropped onto a system and activated by a specific web link.

Antivirus code and other programs can also be targeted by a series of tools developed under the moniker WreckingCrew. The vast majority of these were under development, but two were finished and could be used to shut down security software and to “troll people.”

Signal/WhatsApp: In some good news for privacy advocates it appears that the CIA has had no luck in cracking the popular encrypted chat protocol created by Whisper Systems, which is used in Signal and WhatsApp.

CD/DVD attacks: There are still plenty of people in the world using CDs and DVDs, so the CIA has developed code called HammerDrill to exploit the storage medium.

Version two of the software allows an infected computer to log what CDs and DVDs are being read by the user, for how long, and the data they contain. The CIA also added a function in the second build that allows it to install a hidden Trojan in new discs being burned, if the target is using the popular Nero burning software.

The developer notes state that a 279-byte shellcode can be burned onto the storage medium that will run on 32-bit Windows systems. The documents note that Kaspersky antivirus (a top choice in Russia and elsewhere) can be bypassed in this way.

Smart TVs: The CIA and the British spies at MI5 have developed an attack known as Weeping Angel. This can put smart TVs – Samsung’s is mentioned – into a “Fake-Off mode,” which makes the device look like it’s powered down with its LEDs off. However, it’s still on and can now be used as a bugging device. The Wi-Fi keys the TV uses are also slurpable.

The exploit was developed and the documents show areas of interest that CIA hackers wanted to research, notably leaving Wi-Fi on and enabling video capture, get into caches of stored audio recordings, and setting up a man-in-the-middle attack against the television’s browser.

The TV is compromised via a USB stick inserted into the device, but the documents show that if the user has updated their operating system to firmware version 1118 and above then the hack won’t work. The documents also note that only 700MB of 1.6GB of onboard storage is available for spying uses.

IoT devices: It’s clear the CIA is looking actively at subverting Internet of Things devices with its Embedded Development Branch.

The documents here are somewhat scant, but from meeting notes in 2014 it’s clear that the analysts are looking at self-driving cars, customized consumer hardware, Linux-based embedded systems, and whatever else they can get their hands on.

Those Amazon Echo or Google Home devices are looking less and less attractive every day.

Other interesting snippets are that some of the documents contain the licence keys of software the CIA uses. These include keys for OmniGraffle graphic design software and the Sublime text editor, but in the latter case the 10-user licence key was listed as belonging to Affinity Computer Technology, a small computer repair shop in Sterling, Virginia.

We spoke to Affinity’s manager, Bill Collins, who checked out the page and pronounced himself baffled. They’re a small computer repair shop, he said, with no links to the CIA.

There are also some amusing touches. One analyst has included his favorite ASCII characters for conversing online with Japanese people, along with games he likes to play and some music suggestions. He or she also appears to be a Monty Python fan.

Source: https://www.theregister.co.uk/2017/03/08/cia_exploit_list_in_full/

Time is LIFE!

Monday, January 9th, 2017

Time is money? No. Time is life!

Então, quando pensar em ocupar o meu tempo, lembre-se que para mim, tempo não é dinheiro. Tempo é vida. Aos 45 anos, descobri isso. Tem gente que descobre muito tarde. Logo, aceite as minhas desculpas caso eu não possa atendê-lo demoradamente. The trouble is, you think you have time.

Entrevista Jornal A CIDADE (22.11.2015)

Sunday, November 22nd, 2015

* Íntegra / Paulo Sá Elias

– Gostaria que o senhor destacasse o que pode e o que não pode na internet.

A recente Lei nº 13.188/2015 (conhecida como “A Lei do Direito de Resposta”) é mais uma aberração jurídica e uma afronta ao Estado Democrático de Direito e à imprensa livre. Ataca diretamente a liberdade de expressão. É autoritária e assustadora. É mais uma forma de proteger a classe política brasileira contra críticas legítimas e lícitas. Os direitos constitucionais de crítica, liberdade de expressão e manifestação do pensamento são plenamente oponíveis especialmente aos que exercem qualquer atividade de interesse da coletividade em geral, como é o caso dos políticos. O cidadão tem o direito de opinar, de reclamar, de criticar. Esta possibilidade constitucional garante legitimidade ao direito de crítica mesmo diante de eventuais suscetibilidades que possam revelar as pessoas públicas ou de grande exposição (notórias) – ocupantes, ou não, de cargos oficiais, tais como um Prefeito Municipal, por exemplo. As críticas, por mais duras e veementes que possam ser – desde que não ultrapassem os limites daquilo que é considerado lícito, constitucionalmente assegurado – não ingressando no campo dos crimes contra a honra, desrespeitando o disposto no inc. X, do art. 5º, CF – entre outros, não são passíveis de responsabilidade por conta do caráter mordaz ou irônico, ou até mesmo em razão de seu rigor. As caricaturas e charges (como as excelentes que são publicadas pelo A CIDADE de autoria do Thomate e do Renato) também são protegidas por esses direitos fundamentais que acabei de dizer.

A proporção conferida ao direito de resposta (art. 4º da nova lei de “Direito de Resposta”) não está em harmonia com o texto constitucional que diz claramente ser assegurado o direito de resposta, proporcional ao agravo. Além disso, a referida lei apresenta uma série de falhas em sua técnica legislativa, prazos absurdos, desequilíbrio processual, etc. A OAB (Ordem dos Advogados do Brasil) que praticamente quedava-se inerte e em resignação diante dos absurdos ocorridos na República (contrariando a sua histórica tradição de sair vigorosamente em defesa da população e do Estado Democrático de Direito) começou a se movimentar, muito pouco é bem verdade. Uma ação de inconstitucionalidade contra o art. 10 desta lei absurda foi protocolada na última segunda-feira pela OAB. O relator será o Ministro Dias Toffoli. A esperança é que o STF, guardião da Constituição Federal e que tem a obrigação legal de zelar pela integridade do ordenamento jurídico possa extirpar esta aberração do ordenamento jurídico nacional.

Gosto sempre de repetir: “A sociedade brasileira, fundada em bases democráticas, não tolera (e não deve e não pode tolerar) qualquer repressão (especialmente estatal) ao livre pensamento e expressão, ainda mais quando a crítica – por mais dura que seja – revele-se inspirada pelo interesse coletivo e decorra da prática legítima de uma liberdade pública.”

Os direitos de personalidade (incluindo a liberdade de expressão, pensamento, criação, informação) estão constitucionalmente protegidos de restrições em seu exercício, seja qual for o suporte físico ou tecnológico de sua veiculação, desde que em harmonia com os demais direitos fundamentais. O povo brasileiro precisa aprender a fazer críticas contra os políticos (que as merecem como nunca antes na história do Brasil) sem ingressar no campo dos crimes contra a honra. Mas é sempre bom lembrar que a exceção da verdade (a prova de que o que foi dito é realmente verdadeiro) é possível nos crimes de calúnia e difamação.

 

– Gostaria também que abordasse possíveis interferências da Justiça e da Polícia em casos de abusos e quais são as possíveis penas previstas.

 

As penas previstas são aquelas destinadas aos crimes contra a honra, que podem ser aumentadas (dentro dos parâmetros legais) de acordo com as peculiaridades do caso concreto. Bem como as penas previstas para os demais crimes em geral que podem ser cometidos com o uso da Informática e da Telemática (obviamente incluindo a Internet). Polícia, Poder Judiciário e Ministério Público já possuem profissionais especializados em crimes cometidos pela Internet. Em São Paulo existe uma Delegacia Especializada em Delitos Cometidos por Meios Eletrônicos DIG/DEIC, cujo e-mail para contato é: 4dp.dig.deic@policiacivil.sp.gov.br – Como em Ribeirão Preto acredito ainda não existir delegacia especializada em crimes cometidos pela Internet, o cidadão poderá procurar qualquer delegacia. A Polícia Federal possui também excelentes profissionais e departamento exclusivo para o combate aos crimes eletrônicos. Interpol também colabora com a PF. Idem, FBI, no caso dos Estados Unidos, por exemplo.

 

– Quando um político ou um cidadão qualquer deve recorrer a Justiça/polícia?

 

Em relação aos crimes, toda vez que um fato definido legalmente como crime for cometido contra o político ou o cidadão. Lembro-me de um texto que escrevi para a Revista dos Tribunais em 1999 sobre o assunto (ELIAS, Paulo Sá. Alguns aspectos da informática e suas conseqüências no Direito. Revista dos Tribunais (São Paulo), São Paulo, v. 766, p. 491-500, 1999.) – onde fiz referência a um voto do então Ministro do STF, Sepúlveda Pertence que na época esclareceu de vez por todas que não havia razão para qualquer perplexidade diante dos crimes cometidos pela Internet pela seguinte razão: O meio técnico empregado para a prática de um crime pode até ser de invenção posterior à edição da lei penal (como é o caso da Internet, por exemplo). Mas o crime é o mesmo velho conhecido de sempre. Dizia ele: “(…) a invenção da pólvora não reclamou redefinição do homicídio para tornar explícito que nela se compreendia a morte dada a outrem mediante arma de fogo.” – Ou seja, se o fato cometido pela Internet for tecnicamente definido por uma lei como crime, estamos diante de um crime. Não importa que tenha sido cometido pelo computador (exemplo: crimes contra a honra, estelionato, ameaça, etc.) – Há casos em que a legislação precisou de atualização e aprimoramentos, pois todos nós sabemos que não existe crime sem uma lei anterior que o defina. A não existência de um fato definido como crime não impede a vítima de recorrer à esfera cível (responsabilidade civil), para tentar conseguir reparações por eventuais danos morais, materiais, e demais ilícitos civis. Recomendo que a vítima sempre consulte um advogado.

 

– Autores de fakes não estão blindados, como vimos no caso da prefeitura?

 

Por um motivo simples: no Brasil é livre a manifestação do pensamento, sendo, infelizmente, proibido o anonimato. Está na Constituição, art. 5º, inc. IV. Além disso, há casos em que perícia especializada consegue traçar os rastros de um fake e descobrir (em tese) onde ele se encontra. Pessoalmente sou favorável ao anonimato, pois ele é muito importante para a plena liberdade de expressão em determinados casos e momentos (como o que estamos vivendo no Brasil atualmente, por exemplo).

 

– O que mais podemos esclarecer sobre fakes e ataques nas redes sociais??

 

Vou repetir aqui o que já falei ao Observatório do Marco Civil (www.omci.org.br) e que é extremamente importante. É preciso esclarecer que o fornecimento do número de IP (Internet Protocol) identificado como a origem da veiculação de um determinado conteúdo ilícito na Internet nem sempre significa necessariamente uma prova contundente e irrefutável de que o responsável pelo IP identificado (após as informações prestadas pelos provedores de acesso e de aplicações, mediante ordem judicial) seja realmente a pessoa que efetivamente disseminou o reprovável conteúdo. Neste meu exemplo hipotético, falo de uma pessoa natural “x” apontada como responsável por um endereço IP e que também está sendo acusada de ter disseminado conteúdo ilícito tão-somente pelo fato de seu nome estar associado àquele IP, como responsável jurídica, perante os provedores de acesso.

 

Observe que a pessoa natural (pessoa física) (no exemplo que estou desenvolvendo neste texto) é titular jurídica do IP (em razão de seu plano de acesso à Internet contratado com um provedor de acesso/conexão), mas não necessariamente foi ela quem disseminou o conteúdo ilícito, reprovável. A discussão entra no âmbito do nexo de causalidade. Matéria muito pouco explorada na prática forense em contestações de ações judiciais desta natureza. Na esfera penal, por exemplo, nos casos dos crimes contra a honra praticados pela Internet, como atribuir responsabilidade criminal à uma determina pessoa natural identificada como responsável por um IP, se o nexo de causalidade (conduta + resultado) não apontam realmente para ela? No Direito Penal, como sabemos, sem a comprovação do nexo de causalidade, não há crime a ser atribuído a tal pessoa. Na esfera da responsabilidade civil, a questão do nexo de causalidade também apresenta interessantes desenvolvimentos.

 

Veja, portanto, que na prática forense, inúmeras ações (normalmente Ações de Obrigação de Fazer com pedido de antecipação de tutela) são propostas requerendo o fornecimento do número IP e outros, para que, após a chegada de tais informações aos autos, seja feito o cruzamento dos dados fornecidos (número IP, data e horário GMT/trilhas de auditoria/auditlogs) com os usuários que aparecem nos registros pelos provedores de aplicações de Internet e de acesso, na grande maioria dos casos, considerando-se (sem maiores preocupações probatórias, técnicas/periciais) que aquele IP fornecido (associado a algum responsável (pessoa natural ou jurídica) em virtude das informações prestadas), seja realmente o responsável pelos conteúdos ilícitos divulgados.

 

Aqui pode residir o calcanhar-de-aquiles de algumas dessas ações, ou a grande maioria delas. Os dados de auditlogs (Número IP, data e horário GMT) – inclusive após o cruzamento com as informações fornecidas nos autos, não significam necessariamente um conjunto probatório contundente e irrefutável de que o responsável pelo IP identificado (após as informações prestadas pelos provedores de acesso e de aplicações, mediante ordem judicial) seja realmente aquele que disseminou o reprovável conteúdo, pois:

 

(i) a rede de Internet sem fio de alguém pode ter sido utilizada sem a autorização do titular da mesma. Como sabemos, além dos graves problemas de configuração de alguns roteadores domésticos em que usuários acreditam estar protegidos, mas na realidade não estão (pois uma coisa é a senha de acesso à rede Internet sem fio configurada pelo usuário e outra coisa é a senha de acesso ao perfil administrador do hardware do roteador que pode estar configurado no padrão de fábrica) – facilmente identificado por terceiros com intuitos ilícitos/criminais, permitindo o acesso à rede do então, nesse caso, terceiro de boa-fé) – atribuindo a ele a autoria por algo que não cometeu. Existem também ferramentas para a prática de War Driving, ou seja, aplicativos instalados em smartphones e laptops que permitem que dirigindo em uma cidade, todas as redes de acesso à Internet sem fio (Wireless) desprotegidas, ou seja, sem uma senha adequadamente configurada, possam ser identificadas e utilizadas por pessoas com intenções ilícitas/criminais.

 

(ii) Há também problemas técnicos em alguns roteadores domésticos que retornam ao status padrão de fábrica após queda de energia, eliminando as configurações de segurança que eventualmente pudessem ter sido realizadas pelos usuários.

 

(iii) Existem ferramentas para quebrar a senha de segurança de roteadores. Existem listas na Internet e apps (aplicativos) com a relação de todas as senhas padrão (default) dos principais roteadores no mercado. O usuário doméstico normalmente não sabe configurar seus equipamentos para aceitar apenas determinados dispositivos e seus respectivos “MAC address” e outras práticas de segurança recomendáveis. E esses perigos e riscos não são, normalmente, amplamente divulgados aos consumidores dos roteadores. O consumidor, na grande maioria das vezes, desconhece essa realidade. É o que eu gosto de chamar de “desproporção técnica e científica do usuário”, ou ainda, hipossuficiência tecnológica do usuário.

 

(iv) Há possibilidade técnica de forjar a atribuição de um IP (IP Spoofing).

 

E uma infinidade de situações em que uma rede de Internet de alguém pode ser utilizada sem a sua autorização. Ou até mesmo a utilização do computador dentro da casa/apartamento (ou escritório) de alguém, frequentada(o) por várias pessoas.

 

A busca e apreensão de equipamentos, uma medida necessária em vários casos, pode não ter sido realizada. E para ser realizada, exige uma série de requisitos a serem preenchidos. E não é sempre possível ser realizada. Observe, portanto, que a verdadeira “midiática indústria” criada no Brasil para a remoção de conteúdos e atribuição de responsabilidades com base única e exclusivamente nesses argumentos em ações judiciais pode estar com os dias contados, uma vez que um bom advogado de defesa, é capaz de tornar sem efeito uma série de alegações normalmente apresentadas em processos desta natureza. E o magistrado atento, poderá verificar se todas as cautelas foram tomadas para que possa chegar ao seu convencimento com segurança.