Accelerometer and Gyroscope readings – Surveillance Valley

January 12th, 2018

Remember this? 

Did you sign up to beta test Google Glasses? Have you ridden in Google’s driverless cars? Your answer to both questions is likely not yet, but these are two very interesting innovations coming out of Google X (Google X is a secret facility run by Google thought to be located somewhere in the Bay Area of Northern California) that have been widely covered by the media.

These two innovations demonstrate the combination of mobile communications, the Internet, mobile software apps, all kinds of sensors, augmented reality, artificial intelligence and real time analytics. I think the coolest components of these innovations are rarely highlighted – the integrated sensors that make them possible.

Sensors measure and collect data and can be connected to just about any piece of equipment. Satellite cameras are sensors. There are audio and visual sensors. There are pressure and heat sensors. There are all kinds of sensors. One of the most interesting sensor technologies I have been researching of late is hyper spectral remote sensors.

Developments in hyper spectral sensors are being supported by innovations in remote sensing combined with GIS (geospatial information systems) and Big Data analytics. These sensors can be integrated into very powerful cameras. Hyper spectral remote sensing is an emerging technology that is being studied for its ability to detect and identify minerals, terrestrial vegetation, and man-made materials and backgrounds.

Hyper spectral remote sensing combines imaging and spectroscopy (spectroscopy is a term used to refer to the measurement of radiation intensity as a function of wavelength) in a single system which often includes large data sets that require Big Data analytics. Hyper spectral imagery is typically collected (and represented) as a data cube with spatial information collected in the X-Y plane, and spectral information represented in the Z-direction.

What can be done with hyper spectral remote sensing? Using powerful hyper spectral cameras one can detect unique noble gases (each unique gas emits a unique color on the spectrum), different inks, dyes and paints (each have different characteristics that can be uniquely identified). You can detect, identify and quantify chemicals. You can detect chemical composition and physical properties including their temperature and velocity.

Taking a hyper spectral image of an object, connected to real-time Big Data analytics, can tell you an amazing amount of information about it. Theoretically, a hyper spectral image of a person combined with facial recognition can identify a person, their shampoo, make-up, hand lotion, deodorant, perfume, the food they ate, chemicals they have been in contact with and the materials and chemicals used in their clothes. OK, the implications of this technology for personal privacy are really scary, but the technology itself is fascinating.

Theoretically hyper spectral remote sensing systems can be used for healthcare, food monitoring, security at airports, for public safety, in intelligence systems and integrated with drone and satellite surveillance systems.

Google Glasses do not yet have hyper spectral remote sensing cameras built-in, but they do have sensors that are limited only by their physical size and weight, and include augmented reality connected with Big Data.

The world is quickly being documented, digitized and given a digital persona. The digital persona is only as accurate as the sensors that are being used. The more accurate and connected sensors are to Big Data analytical systems, the more the Big Brothers know about us and everything around us.

How about we all work together to ensure that our Big Brothers are good big brothers. What do you say?

From: http://mobileenterprisestrategies.blogspot.com.br/2013/03/google-x-hyper-spectral-remote-sensing.html

Google “fixed” its RACIST algorithm

January 12th, 2018

Huge Scandal at @Twitter $TWTR – “SHADOW BANNING”

January 11th, 2018

HUGE CENSORSHIP SCANDAL at @Twitter $TWTR “Shadow Banning”. See details here: @JamesOKeefeIII and @Project_Veritas

Google’s true origin partly lies in CIA and NSA research grants for mass surveillance

December 20th, 2017

From: QUARTZ – Jeff Nesbit
Former director of legislative and public affairs, National Science Foundation

URL: https://qz.com/1145669/googles-true-origin-partly-lies-in-cia-and-nsa-research-grants-for-mass-surveillance/

The intelligence community wanted to shape Silicon Valley’s efforts at their inception so they would be useful for homeland security purposes.

The internet itself was created because of an intelligence effort.

The intelligence community named their first unclassified briefing for scientists the “birds of a feather” briefing.

The CIA and NSA funded an unclassified, compartmentalized program designed from its inception to spur something that looks almost exactly like Google.

Two decades ago, the US intelligence community worked closely with Silicon Valley in an effort to track citizens in cyberspace. And Google is at the heart of that origin story. Some of the research that led to Google’s ambitious creation was funded and coordinated by a research group established by the intelligence community to find ways to track individuals and groups online.

The intelligence community hoped that the nation’s leading computer scientists could take non-classified information and user data, combine it with what would become known as the internet, and begin to create for-profit, commercial enterprises to suit the needs of both the intelligence community and the public. They hoped to direct the supercomputing revolution from the start in order to make sense of what millions of human beings did inside this digital information network. That collaboration has made a comprehensive public-private mass surveillance state possible today.

The story of the deliberate creation of the modern mass-surveillance state includes elements of Google’s surprising, and largely unknown, origin. It is a somewhat different creation story than the one the public has heard, and explains what Google cofounders Sergey Brin and Larry Page set out to build, and why.

But this isn’t just the origin story of Google: It’s the origin story of the mass-surveillance state, and the government money that funded it.

Backstory: The intelligence community and Silicon Valley

In the mid 1990s, the intelligence community in America began to realize that they had an opportunity. The supercomputing community was just beginning to migrate from university settings into the private sector, led by investments from a place that would come to be known as Silicon Valley.

A digital revolution was underway: one that would transform the world of data gathering and how we make sense of massive amounts of information. The intelligence community wanted to shape Silicon Valley’s supercomputing efforts at their inception so they would be useful for both military and homeland security purposes. Could this supercomputing network, which would become capable of storing terabytes of information, make intelligent sense of the digital trail that human beings leave behind?

Answering this question was of great interest to the intelligence community.

Intelligence-gathering may have been their world, but the Central Intelligence Agency (CIA) and the National Security Agency (NSA) had come to realize that their future was likely to be profoundly shaped outside the government. It was at a time when military and intelligence budgets within the Clinton administration were in jeopardy, and the private sector had vast resources at their disposal. If the intelligence community wanted to conduct mass surveillance for national security purposes, it would require cooperation between the government and the emerging supercomputing companies.

To do this, they began reaching out to the scientists at American universities who were creating this supercomputing revolution. These scientists were developing ways to do what no single group of human beings sitting at work stations in the NSA and the CIA could ever hope to do: gather huge amounts of data and make intelligent sense of it.

A rich history of the government’s science funding

There was already a long history of collaboration between America’s best scientists and the intelligence community, from the creation of the atomic bomb and satellite technology to efforts to put a man on the moon.

In fact, the internet itself was created because of an intelligence effort: In the 1970s, the agency responsible for developing emerging technologies for military, intelligence, and national security purposes—the Defense Advanced Research Projects Agency (DARPA)—linked four supercomputers to handle massive data transfers. It handed the operations off to the National Science Foundation (NSF) a decade or so later, which proliferated the network across thousands of universities and, eventually, the public, thus creating the architecture and scaffolding of the World Wide Web.

Silicon Valley was no different. By the mid 1990s, the intelligence community was seeding funding to the most promising supercomputing efforts across academia, guiding the creation of efforts to make massive amounts of information useful for both the private sector as well as the intelligence community.

They funded these computer scientists through an unclassified, highly compartmentalized program that was managed for the CIA and the NSA by large military and intelligence contractors. It was called the Massive Digital Data Systems (MDDS) project.

The Massive Digital Data Systems (MDDS) project

MDDS was introduced to several dozen leading computer scientists at Stanford, CalTech, MIT, Carnegie Mellon, Harvard, and others in a white paper that described what the CIA, NSA, DARPA, and other agencies hoped to achieve. The research would largely be funded and managed by unclassified science agencies like NSF, which would allow the architecture to be scaled up in the private sector if it managed to achieve what the intelligence community hoped for.

“Not only are activities becoming more complex, but changing demands require that the IC [Intelligence Community] process different types as well as larger volumes of data,” the intelligence community said in its 1993 MDDS white paper. “Consequently, the IC is taking a proactive role in stimulating research in the efficient management of massive databases and ensuring that IC requirements can be incorporated or adapted into commercial products. Because the challenges are not unique to any one agency, the Community Management Staff (CMS) has commissioned a Massive Digital Data Systems [MDDS] Working Group to address the needs and to identify and evaluate possible solutions.”

Over the next few years, the program’s stated aim was to provide more than a dozen grants of several million dollars each to advance this research concept. The grants were to be directed largely through the NSF so that the most promising, successful efforts could be captured as intellectual property and form the basis of companies attracting investments from Silicon Valley. This type of public-to-private innovation system helped launch powerful science and technology companies like Qualcomm, Symantec, Netscape, and others, and funded the pivotal research in areas like Doppler radar and fiber optics, which are central to large companies like AccuWeather, Verizon, and AT&T today. Today, the NSF provides nearly 90% of all federal funding for university-based computer-science research.

The CIA and NSA’s end goal

The research arms of the CIA and NSA hoped that the best computer-science minds in academia could identify what they called “birds of a feather:” Just as geese fly together in large V shapes, or flocks of sparrows make sudden movements together in harmony, they predicted that like-minded groups of humans would move together online. The intelligence community named their first unclassified briefing for scientists the “birds of a feather” briefing, and the “Birds of a Feather Session on the Intelligence Community Initiative in Massive Digital Data Systems” took place at the Fairmont Hotel in San Jose in the spring of 1995.

Their research aim was to track digital fingerprints inside the rapidly expanding global information network, which was then known as the World Wide Web. Could an entire world of digital information be organized so that the requests humans made inside such a network be tracked and sorted? Could their queries be linked and ranked in order of importance? Could “birds of a feather” be identified inside this sea of information so that communities and groups could be tracked in an organized way?

By working with emerging commercial-data companies, their intent was to track like-minded groups of people across the internet and identify them from the digital fingerprints they left behind, much like forensic scientists use fingerprint smudges to identify criminals. Just as “birds of a feather flock together,” they predicted that potential terrorists would communicate with each other in this new global, connected world—and they could find them by identifying patterns in this massive amount of new information. Once these groups were identified, they could then follow their digital trails everywhere.

Sergey Brin and Larry Page, computer-science boy wonders

In 1995, one of the first and most promising MDDS grants went to a computer-science research team at Stanford University with a decade-long history of working with NSF and DARPA grants. The primary objective of this grant was “query optimization of very complex queries that are described using the ‘query flocks’ approach.” A second grant—the DARPA-NSF grant most closely associated with Google’s origin—was part of a coordinated effort to build a massive digital library using the internet as its backbone. Both grants funded research by two graduate students who were making rapid advances in web-page ranking, as well as tracking (and making sense of) user queries: future Google cofounders Sergey Brin and Larry Page.

The research by Brin and Page under these grants became the heart of Google: people using search functions to find precisely what they wanted inside a very large data set. The intelligence community, however, saw a slightly different benefit in their research: Could the network be organized so efficiently that individual users could be uniquely identified and tracked?

This process is perfectly suited for the purposes of counter-terrorism and homeland security efforts: Human beings and like-minded groups who might pose a threat to national security can be uniquely identified online before they do harm. This explains why the intelligence community found Brin’s and Page’s research efforts so appealing; prior to this time, the CIA largely used human intelligence efforts in the field to identify people and groups that might pose threats. The ability to track them virtually (in conjunction with efforts in the field) would change everything.

It was the beginning of what in just a few years’ time would become Google. The two intelligence-community managers charged with leading the program met regularly with Brin as his research progressed, and he was an author on several other research papers that resulted from this MDDS grant before he and Page left to form Google.

The grants allowed Brin and Page to do their work and contributed to their breakthroughs in web-page ranking and tracking user queries. Brin didn’t work for the intelligence community—or for anyone else. Google had not yet been incorporated. He was just a Stanford researcher taking advantage of the grant provided by the NSA and CIA through the unclassified MDDS program.

Left out of Google’s story

The MDDS research effort has never been part of Google’s origin story, even though the principal investigator for the MDDS grant specifically named Google as directly resulting from their research: “Its core technology, which allows it to find pages far more accurately than other search engines, was partially supported by this grant,” he wrote. In a published research paper that includes some of Brin’s pivotal work, the authors also reference the NSF grant that was created by the MDDS program.

Instead, every Google creation story only mentions just one federal grant: the NSF/DARPA “digital libraries” grant, which was designed to allow Stanford researchers to search the entire World Wide Web stored on the university’s servers at the time. “The development of the Google algorithms was carried on a variety of computers, mainly provided by the NSF-DARPA-NASA-funded Digital Library project at Stanford,” Stanford’s Infolab says of its origin, for example. NSF likewise only references the digital libraries grant, not the MDDS grant as well, in its own history of Google’s origin. In the famous research paper, “The Anatomy of a Large-Scale Hypertextual Web Search Engine,” which describes the creation of Google, Brin and Page thanked the NSF and DARPA for its digital library grant to Stanford. But the grant from the intelligence community’s MDDS program—specifically designed for the breakthrough that Google was built upon—has faded into obscurity.

Google has said in the past that it was not funded or created by the CIA. For instance, when stories circulated in 2006 that Google had received funding from the intelligence community for years to assist in counter-terrorism efforts, the company told Wired magazine founder John Battelle, “The statements related to Google are completely untrue.”

Did the CIA directly fund the work of Brin and Page, and therefore create Google? No. But were Brin and Page researching precisely what the NSA, the CIA, and the intelligence community hoped for, assisted by their grants? Absolutely.

To understand this significance, you have to consider what the intelligence community was trying to achieve as it seeded grants to the best computer-science minds in academia: The CIA and NSA funded an unclassified, compartmentalized program designed from its inception to spur the development of something that looks almost exactly like Google. Brin’s breakthrough research on page ranking by tracking user queries and linking them to the many searches conducted—essentially identifying “birds of a feather”—was largely the aim of the intelligence community’s MDDS program. And Google succeeded beyond their wildest dreams.

The intelligence community’s enduring legacy within Silicon Valley

Digital privacy concerns over the intersection between the intelligence community and commercial technology giants have grown in recent years. But most people still don’t understand the degree to which the intelligence community relies on the world’s biggest science and tech companies for its counter-terrorism and national-security work.

Civil-liberty advocacy groups have aired their privacy concerns for years, especially as they now relate to the Patriot Act. “Hastily passed 45 days after 9/11 in the name of national security, the Patriot Act was the first of many changes to surveillance laws that made it easier for the government to spy on ordinary Americans by expanding the authority to monitor phone and email communications, collect bank and credit reporting records, and track the activity of innocent Americans on the Internet,” says the ACLU. “While most Americans think it was created to catch terrorists, the Patriot Act actually turns regular citizens into suspects.”

When asked, the biggest technology and communications companies—from Verizon and AT&T to Google, Facebook, and Microsoft—say that they never deliberately and proactively offer up their vast databases on their customers to federal security and law enforcement agencies: They say that they only respond to subpoenas or requests that are filed properly under the terms of the Patriot Act.

But even a cursory glance through recent public records shows that there is a treadmill of constant requests that could undermine the intent behind this privacy promise. According to the data-request records that the companies make available to the public, in the most recent reporting period between 2016 and 2017, local, state and federal government authorities seeking information related to national security, counter-terrorism or criminal concerns issued more than 260,000 subpoenas, court orders, warrants, and other legal requests to Verizon, more than 250,000 such requests to AT&T, and nearly 24,000 subpoenas, search warrants, or court orders to Google. Direct national security or counter-terrorism requests are a small fraction of this overall group of requests, but the Patriot Act legal process has now become so routinized that the companies each have a group of employees who simply take care of the stream of requests.

In this way, the collaboration between the intelligence community and big, commercial science and tech companies has been wildly successful. When national security agencies need to identify and track people and groups, they know where to turn – and do so frequently. That was the goal in the beginning. It has succeeded perhaps more than anyone could have imagined at the time.

Entrevista – Rádio Justiça (STF)

November 30th, 2017

Caros alunos e colegas,

Aqui está a entrevista veiculada pela Rádio Justiça do STF – Supremo Tribunal Federal, sobre Algoritmos, Inteligência Artificial e o Direito. #G11000

Abraços,

Paulo

Moedas Virtuais e o BACEN

November 19th, 2017

O Banco Central do Brasil criou uma página para esclarecimentos sobre as moedas virtuais, como o bitcoin.

1) O que são “moedas virtuais”?
As chamadas “moedas virtuais” ou “moedas criptográficas” são representações digitais de valor que não são emitidas por Banco Central ou outra autoridade monetária. O seu valor decorre da confiança depositada nas suas regras de funcionamento e na cadeia de participantes.

2) O Banco Central do Brasil regula as “moedas virtuais”?
Não. As “moedas virtuais” não são emitidas, garantidas ou reguladas pelo Banco Central. Possuem forma, denominação e valor próprios, ou seja, não se trata de moedas oficiais, a exemplo do real.

As “moedas virtuais” não se confundem com a “moeda eletrônica” prevista na legislação¹. Moedas eletrônicas se caracterizam como recursos em reais mantidos em meio eletrônico que permitem ao usuário realizar pagamentos.

3) O Banco Central do Brasil autoriza o funcionamento das empresas que negociam “moedas virtuais” e/ou guardam chaves, senhas ou outras informações cadastrais dos usuários, empresas conhecidas como “exchanges”?
Não. Essas empresas não são reguladas, autorizadas ou supervisionadas pelo Banco Central. Não há legislação ou regulamentação específica sobre o tema no Brasil.

O cidadão que decidir utilizar os serviços prestados por essas empresas deve estar ciente dos riscos de eventuais fraudes ou outras condutas de negócio inadequadas, que podem resultar em perdas patrimoniais.

4) É possível realizar compras de bens ou serviços no Brasil utilizando “moedas virtuais”?
A compra e venda de bens ou de serviços depende de acordo entre as partes, inclusive quanto à forma de pagamento. No caso de utilização de “moedas virtuais”, as partes assumem todo o risco associado.

5) Qual o risco para o cidadão se as moedas virtuais forem utilizadas para atividades ilícitas?
Se utilizada em atividades ilícitas, o cidadão pode estar sujeito à investigação por autoridades públicas.

6) As “moedas virtuais” podem ser utilizadas como investimento?
A compra e a guarda de “moedas virtuais” estão sujeitas aos riscos de perda de todo o capital investido, além da variação de seu preço. O cidadão que investir em “moedas virtuais” deve também estar ciente dos riscos de fraudes.

7) É permitido realizar transferência internacional utilizando “moedas virtuais”?
Não. Transferências internacionais devem ser feitas por instituições autorizadas pelo Banco Central a operar no mercado de câmbio, que devem observar as normas cambiais.

¹Lei nº 12.865, de 9 de outubro de 2013, e normas editadas pelo Banco Central do Brasil, conforme diretrizes do Conselho Monetário Nacional.

Fonte: http://www.bcb.gov.br/Pre/bc_atende/port/moedasvirtuais.asp

Blockchain em uma imagem

November 16th, 2017

Algoritmos, Inteligência Artificial e o Direito

November 12th, 2017

Algoritmos, Inteligência Artificial e o Direito (#G11000)

(*) Paulo Sá Elias

O comitê de Ciência e Tecnologia do Parlamento da Inglaterra abriu inquérito[1] para examinar o uso crescente de algoritmos (e inteligência artificial) na tomada de decisões públicas e privadas, com o objetivo de avaliar como os algoritmos são formulados, os erros e possíveis correções – bem como o impacto que eles podem ter nos indivíduos e sua capacidade de entender ou desafiar decisões tomadas com base no uso da inteligência artificial. Após a leitura de todos os documentos (que serviram como referência para a elaboração deste texto, bem como outros textos e pesquisas que tenho feito sobre o assunto) resolvi escrever essas breves palavras sobre o tema.

Em primeiro lugar, é importante entendermos o que são os algoritmos (Algorithms) aplicados na informática e telemática, inteligência artificial (Artificial Intelligence), aprendizado de máquina (Machine Learning), aprendizado profundo (Deep Learning), redes neurais (Neural Networks), Internet das coisas (Internet of Things) e outros – que impressionam em razão dos recentes e incríveis avanços e da importância cada vez maior que passaram (e passarão) a ter em nossas vidas.

Algoritmo (algorithm), em sentido amplo, é um conjunto de instruções, como uma receita de bolo, instruções para se jogar um jogo, etc. É uma sequência de regras ou operações que, aplicada a um número de dados, permite solucionar classes semelhantes de problemas. Na informática e telemática, o conjunto de regras e procedimentos lógicos perfeitamente definidos que levam à solução de um problema em um número de etapas. Em outras palavras mais claras: são as diretrizes seguidas por uma máquina. Na essência, os algoritmos são apenas uma forma de representar matematicamente um processo estruturado para a realização de uma tarefa. Mais ou menos como as regras e fluxos de trabalho, aquele passo-a-passo que encontramos nos processos de tomada de decisão em uma empresa, por exemplo.

Os sistemas algorítmicos estão presentes em todos os lugares, até mesmo nos sistemas de ABS (freios). São usados em computação há décadas, mas assumiram uma importância crescente em várias partes da economia e da sociedade na última década em virtude da disseminação de computadores. Vou falar mais sobre os algoritmos adiante.

A inteligência artificial (Artificial Intelligence – ou simplesmente AI), em definição bem resumida e simples, é a possibilidade das máquinas (computadores, robôs e demais dispositivos e sistemas com a utilização de eletrônica, informática, telemática e avançadas tecnologias) executarem tarefas que são características da inteligência humana, tais como planejamento, compreensão de linguagens, reconhecimento de objetos e sons, aprendizado, raciocínio, solução de problemas, etc. Em outras palavras, é a teoria e desenvolvimento de sistemas de computadores capazes de executar tarefas normalmente exigindo inteligência humana, como a percepção visual, reconhecimento de voz, tomada de decisão e tradução entre idiomas, por exemplo.

O aprendizado de máquina (Machine Learning) é uma forma de conseguir a inteligência artificial. É um ramo da inteligência artificial que envolve a criação de algoritmos que podem aprender automaticamente a partir de dados. Ao invés de os desenvolvedores de software elaborarem enormes códigos e rotinas com instruções específicas para que a máquina possa realizar determinadas tarefas e conseguir resultados (e com isso limitar drasticamente o seu campo de atuação e resultados), no aprendizado de máquina treina-se o algoritmo para que ele possa aprender por conta própria, e até mesmo conseguir resultados que os desenvolvedores dos algoritmos nem mesmo poderiam imaginar. Neste treinamento, há o envolvimento de grandes quantidades de dados que precisam ser alimentadas para o algoritmo (ou aos algoritmos envolvidos), permitindo que ele (o algoritmo) se ajuste e melhore cada vez mais os seus resultados. Exemplo: o aprendizado de máquina foi utilizado para melhorar significativamente a visão por computadores (a capacidade de uma máquina reconhecer um objeto em uma imagem ou vídeo). Os seres humanos podem marcar imagens que têm um gato versus aquelas que não os possuem. O algoritmo tenta construir um modelo que pode marcar com precisão uma imagem como contendo um gato ou não, assim como um ser humano. Uma vez que o nível de precisão é alto o suficiente, a máquina agora “aprendeu” como é um gato, como ele se parece.

O aprendizado profundo (Deep Learning) é uma das várias abordagens para o aprendizado de máquinas. Outras abordagens incluem aprendizagem por meio de árvores de decisão (decision tree learning), programação de lógica indutiva (inductive logic programming), agrupamento (clustering), aprendizagem de reforço (reinforcement learning), redes bayesianas (Bayesian networks), entre outras. A aprendizagem profunda foi inspirada na estrutura e nas funções do cérebro humano, na interligação dos neurônios. As redes neurais artificiais (Artificial Neural Networks – ANNs) são algoritmos que imitam a estrutura biológica do cérebro humano. Nas ANNs, existem “neurônios” (entre aspas) que possuem várias camadas e conexões com outros “neurônios”. Cada camada (layer) escolhe um recurso específico para aprender, como curvas e bordas no reconhecimento de uma imagem, por exemplo. A aprendizagem profunda tem o seu nome em razão dessas várias camadas. A profundidade é criada com a utilização de múltiplas camadas em oposição a uma única camada de aprendizado pelo algoritmo. Esses algoritmos de aprendizado profundo formam as “redes neurais” e estas rapidamente podem ultrapassar a nossa capacidade de compreender todas as suas funções.

A inteligência artificial e a Internet das coisas (Internet of things)[2] estão intrinsecamente entrelaçadas. É como se fosse a relação entre cérebro e o corpo humano. Nossos corpos coletam as entradas sensoriais, como visão, som e toque. Nossos cérebros recebem esses dados e dão sentido a eles, por exemplo, transformando a luz em objetos reconhecíveis, transformando os sons em discursos compreensíveis e assim por diante. Nossos cérebros então tomam decisões, enviando sinais de volta para o corpo para comandar movimentos como pegar um objeto ou falar.

Todos os sensores conectados que compõem a Internet das coisas (Internet of things) são como nossos corpos, eles fornecem os dados brutos do que está acontecendo no mundo. A inteligência artificial é como nosso cérebro, dando sentido a esses dados e decidindo quais ações executar. E os dispositivos conectados da Internet das coisas são novamente como nossos corpos, realizando ações físicas ou se comunicando com os outros.[3]

Os inúmeros dispositivos construídos atualmente, tais como aparelhos médicos, relógios inteligentes, veículos, eletrodomésticos, enfim, todos os itens construídos com componentes eletrônicos, software, sensores e que possuam a capacidade de coletar e transmitir dados à Internet, capazes de serem identificados de maneira única, formam o que é conhecido como a Internet das coisas (Internet of things). Cada vez mais as coisas estão conectadas à Internet, mesmo aquelas coisas que não possuíam este objetivo específico, como um fogão, uma geladeira, equipamentos de ginástica, lâmpadas, uma cama, prateleiras de supermercados e depósitos (que avisam automaticamente quando determinado produto está acabando), portas, etc. Tudo começa a ficar conectado. Na Wikipedia você encontra uma definição de fácil compreensão: “(…) A Internet das Coisas, em poucas palavras, nada mais é que uma extensão da Internet atual, que proporciona aos objetos do dia-a-dia (quaisquer que sejam), mas com capacidade computacional e de comunicação, se conectarem à Internet. A conexão com a rede mundial de computadores viabilizará, primeiro, controlar remotamente os objetos e, segundo, permitir que os próprios objetos sejam acessados como provedores de serviços. Estas novas habilidades, dos objetos comuns, geram um grande número de oportunidades tanto no âmbito acadêmico quanto no industrial. Todavia, estas possibilidades apresentam riscos e acarretam amplos desafios técnicos e sociais”.

O aprendizado de máquina (Machine Learning) e o aprendizado profundo (Deep Learning) trouxeram grandes avanços para a Inteligência Artificial nos últimos anos. Tanto o aprendizado de máquina como o aprendizado profundo exigem grande quantidade de dados para que possam funcionar adequadamente e estes dados estão sendo coletados pelos bilhões de sensores que continuam a entrar na Internet das coisas a cada dia.

O aprimoramento da Inteligência Artificial impulsiona a adoção da Internet das Coisas (e vice-versa), afinal, os algoritmos precisam de dados – e quanto maior o número de sensores e pontos de coleta de dados, melhor. É a Inteligência Artificial que torna a Internet das coisas útil, fazendo com que esses inúmeros dispositivos possam oferecer resultados úteis aos seus usuários e dados extremamente valiosos para quem os coleta.

O encolhimento dos chips de computadores e o aprimoramento das técnicas de fabricação, significa sensores cada vez mais poderosos e baratos. Há grandes avanços em relação à tecnologia das baterias e fontes de energia[4], fazendo com que esses sensores possam funcionar sem interrupção durante anos. As novas tecnologias de conexão sem fio (que estarão disponíveis em todos os lugares no futuro) e a inevitável redução dos valores de transmissão de grandes volumes de dados, bem como armazenamento e capacidade computacional para processá-los, abre portas para um futuro promissor. Mas há preocupações. Vou falar a respeito logo mais adiante, ainda neste texto.

O comitê de Ciência e Tecnologia do Parlamento da Inglaterra, a que fiz referência no início, convidou vários especialistas no assunto, bem como grandes empresas envolvidas com o tema, como é o caso da IBM, Microsoft, Google e outros. Na apresentação realizada pelos representantes dessas empresas, vários pontos importantes foram ressaltados.

O Google, destacou que os algoritmos, com o desenvolvimento da inteligência artificial (Artificial Intelligence) e o aprendizado de máquina (Machine Learning) revelam-se como ferramentas muito poderosas e que já começam a fornecer uma ajuda fundamental no avanço da ciência, melhorando até mesmo o acesso aos cuidados médicos, ajudam a resolver alguns dos desafios globais mais urgentes em meio ambiente, transporte e a condução de soluções mais inteligentes para os problemas quotidianos. Naquela empresa, por exemplo, os algoritmos são utilizados desde a sua criação, base fundamental de seu sistema de pesquisas. No YouTube, também produto da empresa, os algoritmos adicionam automaticamente legendas aos vídeos analisando o áudio e convertendo o discurso em texto. Artificial Intelligence (AI) e Machine Learning (ML) alimentam os algoritmos. No Google Translator, os algoritmos são usados para aprender os padrões dos idiomas em texto e voz, traduzindo mais de 100 milhões de palavras por dia em 103 idiomas. A inteligência artificial é fundamental para conseguir avanços significativos como o reconhecimento de voz, atingindo níveis quase humanos de precisão. No Google Fotos, é possível procurar qualquer coisa nas imagens, pois o sistema utiliza algoritmos que categorizam objetos e conceitos em imagens.

A combinação de algoritmos cada vez mais avançados, dados e poder de computação mais baratos, como já disse, vai tornar ainda mais amplamente distribuídos os benefícios dos algoritmos, melhorando o dia-a-dia de nossas vidas em todas as áreas. Machine Learning, por exemplo, foi utilizado em diagnósticos de retinopatia diabética, uma das causas de maior crescimento de cegueira em todo o mundo.

Algoritmos robustos com uso de machine learning são dependentes em geral, de um conjunto de dados de alta qualidade. Muitas empresas que operam em setores regulados, geralmente em finanças, possuem algoritmos secretos para pontuação de crédito, aprovação de empréstimo, etc. Esses algoritmos fazem parte de sua vantagem competitiva. No entanto, muitos debatedores no parlamento inglês entendem que essas empresas precisam ser capazes de explicá-los aos reguladores e justificar as decisões e resultados, se necessário.

Grande parte dos algoritmos produzidos por meio de Machine Learning, notadamente aqueles baseados em “deep learning” ou redes neurais (neural networks), não são totalmente compreendidos. Nenhum ser humano é capaz de dizer por quê determinado algoritmo desta natureza faz o que faz, nem pode prever totalmente o que o algoritmo poderá fazer em dados diferentes daqueles utilizados para o treinamento da máquina, ao longo do tempo.[5]

Até mesmos os maiores defensores desses sistemas, admitem essa fraqueza. Embora as redes neurais profundas (DNN – Deep Neural Networks) tenham demonstrado uma grande eficácia em uma ampla gama de tarefas, quando eles falham, muitas vezes falham espetacularmente, catastroficamente, produzindo resultados inexplicáveis e incoerentes que podem deixar o ser humano perplexo, sem conseguir entender a razão pela qual o sistema tomou tais decisões. A falta de transparência nos processos de decisão em redes neurais profundas ainda é um obstáculo significativo para a sua ampla adoção em determinados segmentos como saúde e segurança, onde a tolerância ao erro é muito baixa e a capacidade de interpretar, entender e tomar decisões confiáveis é um elemento crítico.[6]

As empresas já contratam especialistas no tema. A Intel (conhecida por fabricar processadores de computadores), por exemplo, possui entre os seus cargos de maior importância na diretoria, a posição: “Chief Algorithms Scientist”.

Algoritmos baseados em Machine Learning são utilizados para previsão do tempo, análise de compras realizadas pelos consumidores, ajudando a empresa decidir quais as mercadorias são as preferidas e onde elas devem estar localizadas nos supermercados, por exemplo. Até mesmo uma máquina separadora de tomates utiliza inteligência artificial para aprimorar a seleção. Na Internet, algoritmos determinam os resultados que os sistemas de busca retornam ao usuário, como é o caso do Google. Quais anúncios e conteúdos serão mostrados – e quando serão mostrados, para quem, onde, como, próximos de quais outros anúncios e conteúdos – e assim por diante.

Os algoritmos e a inteligência artificial também já estão sendo usados no Poder Judiciário. No caso Zilly (Angwin et al. 2016)[7] – uma das questões consideradas pelo risk scoring algorithm utilizado (algoritmo de pontuação de risco em matéria de execução penal) foi que um dos pais do acusado já havia sido preso. Sabemos que nunca um promotor de justiça ou um juiz vai aceitar a existência de um argumento como esse para pedir ou atribuir um período maior de prisão ao acusado pelo simples fato de que um dos seus pais teria sido preso anteriormente. Mas a máquina interpretou assim.

Por exemplo, ferramentas de mapeamento de crimes são cada vez mais utilizadas para examinar dados de criminalidade e identificar locais com grande incidência de crimes para aumentar a eficiência na alocação de recursos policiais. No entanto, os dados de entrada (por exemplo, dados históricos da criminalidade) podem ser inclinados à parcialidade, provocada por policiais, cujas práticas podem não refletir a incidência real de crime, e em vez disso acabam influenciados pela segmentação dos grupos marginais.

Os professores devem estar atentos ao fato de que a Internet (em grande parte dirigida por processos algorítmicos) pode também ser injustamente prejudicial ou manifestar-se contra alguém ou alguma coisa em suas escolhas, especialmente em vídeos, textos e imagens selecionadas pelos algoritmos.[8] Os consultores escolares, bem como os de carreira, também devem estar atentos ao fato de que determinados serviços de Internet são suscetíveis de serem tendenciosos. Além do que, sabemos que essas empresas se tornaram grupos extremamente poderosos, com capacidade até mesmo de mudar regimes em determinados países, provocar protestos, influenciar a opinião pública, destruir a credibilidade e fechar várias portas a determinadas pessoas-alvo, etc.

Inteligência artificial, na aprendizagem de máquinas (Machine Learning) e em outras abordagens algorítmicas que fazem inferências baseadas em dados de sensores, tais como gravações de som, dados de sensores de telefones celulares, são cada vez mais utilizadas por órgãos governamentais e grupos privados, como já é notório. Algoritmos têm sido utilizados na tomada de decisão por muitas décadas, no entanto, no passado, operadores humanos eram envolvidos em todas as etapas. A discussão atual em relação aos riscos da inteligência artificial surge em parte por causa do crescente uso de dados e processos totalmente automatizados (com o elemento humano fora da equação) e também naqueles em que há utilização de algoritmos secretos, como os do Google.

Processos totalmente automatizados podem ser usados ​​para substituir o julgamento individual de um operador de linha de frente e, portanto, podem remover uma fonte potencial de subjetividade e o viés tendencioso. Mesmo as pessoas bem-intencionadas têm preconceitos conscientes e inconscientes que afetam os seus julgamentos. Assim, acredita-se que a decisão algorítmica pode oferecer uma oportunidade para melhorar o aspecto de imparcialidade.

Mas atenção: algoritmos não são imparciais. Os próprios algoritmos podem conter os preconceitos presentes nos criadores do algoritmo ou nos dados que foram usados para treinar o algoritmo. O desempenho dos algoritmos depende muito dos dados utilizados para desenvolvê-los. Os preconceitos que estão presentes nos dados serão refletidos pelos algoritmos. Todos devem se lembrar do resultado inadequado dos algoritmos utilizados pelo Google, quando classificou os negros como gorilas. (Artificial Intelligence’s White Guy Problem – Kate Crawford, The New York Times, 25th June 2016). Tais desvios, intencionais ou não, podem ser inerentes aos dados, como também oriundos do próprio desenvolvedor do algoritmo. Isso pode ter efeitos tão ruins como os vícios que eles pretendiam eliminar. Alguns denominam este fenômeno como “Machine bias”, “Algorithm biasou simplesmente, Bias. É o viés tendencioso. A remoção de tal viés tendencioso em algoritmos não é trivial e é um campo de pesquisa em andamento. Os desvios são difíceis de serem descobertos se o algoritmo for muito complexo (como são os utilizados pelo Google e Facebook), pior ainda se forem secretos. Se o algoritmo é simples e auditável, especialmente publicamente auditável, então haverá em tese (vou explicar adiante a razão do “em tese”) maiores chances de que as decisões baseadas em tais algoritmos possam ser mais justas. Igualmente em relação aos dados utilizados para “treinar” o algoritmo. Se eles forem auditáveis (e anônimos quando apropriados) poderão ser identificados desvios desta natureza.

Como é possível notar, reitera-se: um dos maiores problemas em torno de novos algoritmos de aprendizagem de máquinas são os dados em que eles são treinados. Os pontos fortes e fracos dos dados de entrada são, portanto, extremamente importantes, e devem ser considerados, bem como a lógica inerente ou formulação de usar um sistema automatizado ou analítico para resolver um determinado problema. Algoritmos não são, e podem nunca ser, neutros ou independentes da sociedade que os produziu. A sociedade deve estar ativamente envolvida na formação dos valores que estão em jogo no uso de algoritmos e da inteligência artificial. Os conjuntos de dados geralmente contêm traços de parcialidade. Se pudermos identificar essas falhas, e atingirmos uma definição matemática de justiça, quem sabe, conseguiremos estatisticamente, uma forma de mitigá-los. A maioria dos cientistas de dados não possuem essas habilidades, por isso, raramente esses cuidados são tomados. Afinal, como sabemos, existem diferenças enormes entre os fundamentos epistemológicos das Geisteswissenchaften (ciências do espírito) – onde está localizado o Direito em relação às Naturwissenschaften (ciências da natureza) – onde estão localizadas a Matemática, a Lógica, a Informática e a Telemática. As ciências do espírito fundamentam-se na realidade social e histórica e, por esta razão, são irredutíveis a modelos causalistas. Como ressalta Karl Jaspers: “Nas ciências humanas não podemos nos contentar com a constatação de algo que fisicamente existe, perceptível aos nossos sentidos, mensurável, avaliado através de experiências. Nas ciências humanas, temos de compreender a significação perseguida pelos seres que agem, pensam, prevêem e acreditam. Não podemos nos contentar com o conhecimento exterior das coisas, mas temos de apreender, no seu interior, o significado posto pelo homem.” (JASPERS, Karl. Introdução ao pensamento filosófico. São Paulo: Cultrix, 1992. – Cf.  DILTHEY, W. Introduction à l’étude des sciences humaines. Paris: Presses Universitaires de France, 1942.)

Estatísticas matemáticas bem conhecidas podem ser usadas para testar se as decisões de um determinado algoritmo tendem a variar com características protegidas. Não há um consenso claro sobre a melhor medida a fazer: medidas matemáticas padrão, como correlação ou informação mútua, podem ser relevantes. A “paridade estatística” é uma medida específica discutida em relação à equidade algorítmica. O ponto mais amplo é que os algoritmos de tomada de decisão podem ser auditados pela inspeção de suas entradas e saídas usando ferramentas matemáticas. Idealmente, tais testes seriam medidos em todas as características protegidas em conjunto, em vez de separadamente, porque pode haver preconceitos de nicho que dependem de critérios múltiplos.

Provedores de serviços de aplicações de Internet e também de acesso, cada vez mais reúnem grandes coleções de dados comportamentais que podem ser recolhidos a partir dos inúmeros sensores que estão acompanhando a Internet das coisas (Internet of things – of everything), os telefones celulares, relógios inteligentes e demais produtos portáteis, tais como GPS, acelerômetros, etc. Esses dados geralmente produzem um perfil muito detalhado e pessoal, provavelmente maior do que a maioria dos cidadãos pode imaginar e compreender. Existe, portanto, a capacidade de os algoritmos tomarem decisões com base em inferências como “determinada pessoa está frequentemente dirigindo na madrugada” entre outras coisas arrepiantes. Freaking creepy, para usar a excelente expressão inglesa.

Falando em expressões da língua inglesa, importante conceituar, ainda que brevemente, o que são:

Decision Trees (Árvores de decisão): Aprendizado de máquina (machine learning) e método de apoio a decisão que usa um modelo de árvore de sim-não para cada decisão. Exemplo: A pessoa possui 18 anos ou mais? Sim ou não?

Random Forests (Floresta aleatória): Método para a classificação e regressão que opera através da construção de um grande número de árvores de decisão.

Linear Regression (Regressão linear): Abordagem para modelar a relação entre variáveis como uma fórmula linear direta, por exemplo: cada cigarro diminui 11 minutos de sua expectativa de vida.

Logistic regression (Regressão logística): É um modelo de regressão relativamente simples amplamente utilizado para prever as variáveis categóricas (categorias).

Bayesian networks (Redes Bayesianas): Também chamadas de modelos gráficos probalísticos ou belief networks. São um tipo de modelo estatístico que representa variáveis aleatórias e suas dependências. Ao contrário de muitos outros métodos, as redes bayesianas modelam explicitamente nossas certezas e incertezas anteriores e as usam para inferir a certeza de seus resultados (outputs).

O êxito do desenvolvimento de novas tecnologias de dados, incluindo a utilização mais ampla de algoritmos, inteligência artificial, aprendizado de máquina (Machine Learning) e a Internet das coisas (Internet of things), como estamos percebendo, será essencial para o crescimento de qualquer país ou empresa nos próximos anos. O vasto volume de dados criado pela Internet e o crescimento gigantesco de dados coletados por inúmeros sensores nos mais variados itens e equipamentos mudará muito o mundo dos negócios e o dia a dia das pessoas. E isto tem profundo impacto em relação a autodeterminação informativa, o direito constitucional da intimidade e a privacidade. Novas leis são necessárias, sim, em alguns aspectos específicos, como o projeto de lei de proteção de dados pessoais (Projeto de Lei 5.276/2016), capitaneado pelo excelente Danilo Doneda. Mas todo cuidado é pouco, tendo em vista o que ocorreu com o Marco Civil da Internet (Lei nº 12.965/2014) – que sofrendo influência do pernicioso lobby de empresas multinacionais, provedores de aplicações de Internet – criou uma aberração jurídica em relação a responsabilidade civil para protegê-los em detrimento da teoria de responsabilidade civil adotada no Direito Brasileiro, o que exige, sem dúvida, urgente alteração para que se compatibilize com as normas de regência.[9]

Aliás é grave assistir jovens professores, que aparentemente desconhecendo a amplitude do direito brasileiro, defendem a criação de novas leis a todo instante. Mas por trás disso, existe o patrocínio de empresas interessadas, como vimos no recente escândalo envolvendo o Google, publicado pelo Wall Street Journal.[10] Saiba mais detalhes também aqui: http://googletransparencyproject.org/

Em informática, técnicas preditivas (predição/antecipação), incluindo sistemas de aprendizagem baseados em modelos ou sistemas de aprendizagem ensinadas e que podem fazer predições baseadas em exemplos e dados ainda não analisados, foram desenvolvidas na década de 1960 e aprimoradas nas décadas posteriores.

Para quem ainda não entendeu, algoritmos são usados ​​para determinar os resultados de uma série de inputs (entradas de dados) desde o início da era digital. Eles são fundamentalmente instruções sobre como combinar entradas para produzir uma saída específica. À medida que os sistemas se tornaram mais complexos, os algoritmos também se tornaram mais complexos. O que chamamos de algoritmo pode consistir em múltiplos sub-algoritmos conectados de múltiplas formas. Embora isso possa ser explicado em termos da estrutura do sistema, as entradas e saídas em cada etapa rapidamente se tornam mais complexas de serem explicadas. Desta forma, para garantir a transparência nos algoritmos, precisamos garantir que todas as etapas do algoritmo possam ser explicadas de maneira que um indivíduo não especializado possa entender.

Algoritmos podem ser criados “à mão”, isto é: um humano projeta, testa e reconstrói o algoritmo até atingir o resultado desejado. Como já é possível perceber, algoritmos também podem ser criados por meio de Machine Learning. Para processos como esses, o diferencial fundamental é que o próprio sistema ajusta as ponderações de entrada do algoritmo. Para sistemas complexos, centenas, milhares ou milhões de ponderações são ajustadas em paralelo. Os sistemas resultantes podem ser explicados matematicamente, no entanto, as entradas para tais sistemas são captadas a partir dos dados em estado bruto para um ponto em que os números são praticamente insignificantes para qualquer observador externo.

Como destacamos há pouco em relação ao Poder Judiciário, os estados de New Jersey e Wisconsin, nos Estados Unidos, por exemplo, já utilizam algoritmos para tomar decisões na Justiça Criminal sobre questões incluindo execução penal, condenação, fiança, reincidência, etc. Empresas privadas como é o caso da Northpointe desenvolveram as ferramentas com a utilização de algoritmos para essas finalidades. Algoritmos também são usados para analisar casos ou transações incomuns e investigar potenciais atividades fraudulentas. Na França, o governo utiliza um algoritmo para lidar com as atribuições dos professores nas escolas públicas. Os professores são designados às vagas disponíveis nas escolas por todo o país, com base em decisões tomadas por um algoritmo.

Empresas como a Hire Predictive, por exemplo, oferecem serviços a empresas de todo o mundo para seleção de candidatos a empregos com utilização de algoritmos. Com base em dados de negócios existentes, são construídos modelos preditivos (modelos de predição/antecipação), dos quais são feitas decisões algorítmicas sobre quais candidatos devem ser contratados.

Há muito tempo, agências de referência de crédito e gestão de riscos, como a Experian (Serasa, no Brasil) utilizam algoritmos para decidir a pontuação de crédito das pessoas (credit score). Os credores também usam seus próprios algoritmos para decidir quais candidatos a empréstimos devem aceitar e quais as taxas de juros a serem definidas.

As seguradoras também utilizam algoritmos para tomar decisões sobre clientes potenciais. Os algoritmos analisam permanentemente os segurados para colocá-los em categorias de risco específicas e tomar decisões sobre a aceitação de pedidos e o nível de seguro a ser definido.

Classificadores baseados em redes neurais equivalem-se ou superam a precisão do nível humano em muitas tarefas comuns, no entanto, redes neurais são suscetíveis ao que se denomina como “exemplos contraditórios”. Dados cuidadosamente adulterados podem provocar um comportamento ruim, levando a escolhas arbitrárias e equivocadas.[11]

Algoritmos de aprendizado de máquina (Machine Learning) também estão sendo desenvolvidos para aplicação em diversos setores da área de saúde (incluindo prevenção, diagnóstico, prognóstico, tratamento, gestão da demanda e alocação de recursos), muitas vezes na forma de ferramentas de apoio à decisão para ajudar e aperfeiçoar o trabalho dos profissionais humanos.

O que se sabe é que a maioria, senão todos os algoritmos usados hoje em dia pertencem ao campo da aprendizagem de máquina (Machine Learning), que nesta altura do texto já sabemos ser uma forma de inteligência artificial. Esses algoritmos de aprendizado de máquina são utilizados para aprender relações estatísticas dentro de dados, e podem ser aplicados a dados novos para criar “decisões” como a categorização ou previsão. Na área de saúde, como vimos, no diagnóstico médico, um algoritmo pode aprender a relação entre as características de diagnóstico de imagem e se as imagens pertencem a pacientes com câncer, e em seguida, são analisadas novas imagens de pacientes em geral, poderá ser usado para prever a probabilidade de câncer em novos pacientes. E isso é ótimo.

Na prática clínica, as ferramentas com o uso de algoritmos são desenvolvidas para aperfeiçoar os procedimentos de diagnóstico por meio da análise em alta velocidade de imagens médicas já recolhidas da prática clínica padrão. O aprendizado de máquina (Machine Learning) também está na vanguarda da medicina de precisão, ajudando a identificar subgrupos de pacientes e tratamentos-alvo apropriadamente. Em epidemiologia, está sendo aplicada a dados de saúde pública para detectar e rastrear surtos de doenças infecciosas. Também está sendo usado para aperfeiçoar o acompanhamento médico e para otimizar a gestão de demanda e alocação de recursos nos sistemas de saúde. Algoritmos nessas aplicações não são agentes autônomos, mas atuam como ferramentas de apoio à decisão com o objetivo de ajudar e aperfeiçoar o trabalho dos profissionais humanos da área de saúde.

No inquérito em curso na Inglaterra, destacou-se ainda que o uso de algoritmos no setor público poder levar a policiamento discriminatório e monitoramento indiscriminado, bem como a ações de agências de inteligência (inclusive aquelas que estão disfarçadas como empresas convencionais, mas são órgãos de inteligência #G11000), influência comportamental e invasões em larga escala de privacidade. O uso de algoritmos para tomar decisões no setor privado também pode levar à discriminação em áreas como recrutamento e emprego, acesso a serviços e finanças, preços diferenciados, etc. A tendência crescente de utilização de algoritmos na tomada de decisões pode pressionar indivíduos e serviços no sacrifício da privacidade e deteriorar ainda mais os direitos relativos à intimidade, privacidade e autodeterminação informativa.

Uma das questões de maior preocupação é a utilização dos algoritmos para policiamento e coleta de dados para inteligência. Há um potencial considerável de abusos secretamente praticados por governos e empresas privadas.

É notório que os algoritmos estão sendo utilizados extensivamente pelas agências de segurança e inteligência para analisar o público e a comunicação dos cidadãos. A coleta o processamento das comunicações e dados de milhões de pessoas deveria ocorrer para monitorar conhecidos alvos e suspeitos – e também para descobrir novos – mas com certas restrições e controle judicial, no entanto, a técnica de encontrar uma agulha no palheiro, invertendo a relação entre a tradicional vigilância de suspeitos e suas relações para o monitoramento indiscriminado é extremamente preocupante. Quem assistiu o excelente filme “O inimigo do Estado” muitos anos antes de Edward Snowden, viu a ficção tornar-se realidade com o episódio envolvendo a NSA e o programa PRISM.

A propósito, naquele período do escândalo envolvendo a NSA – National Security Agency e o analista Edward Snowden, enquanto o mundo voltava os olhos para o programa PRISM da agência de inteligência norte-americana, uma apresentação em Powerpoint que teria sido supostamente vazada pela inteligência francesa – e cuja autenticidade já foi confirmada por vários especialistas, mostrou uma informação muito preocupante e que rapidamente foi apagada da Internet. São poucos os lugares em que encontramos este material online hoje em dia. O trecho que mais chamou atenção é esse:

Observe que na apresentação da DISA (Defense Information Systems Agency) – órgão integrante do sistema de inteligência militar norte-americano, o programa PRISM aparece como a interface e a empresa Google, como a responsável pela coleta das informações no item “Intelligence”. Há um livro muito esperado, escrito pelo excelente jornalista Yasha Levine chamado “Surveillance Valley – The Secret Military History of the Internet[12] que promete trazer revelações importantes. Sugiro ao leitor que também assista o vídeo Secret History of Silicon Valley oferecido pelo Computer History Museum, apresentado pelo professor Steve Blank.[13] E também o texto elaborado por Julian Assange do Wikileaks – “Google Is Not What It Seems”.[14]

A análise do big data e o processamento algorítmico deveriam ser realizados em dados relevantes de grupos de suspeitos, como mencionei, no entanto, nossos telefones registram onde vamos, com quem falamos, mídias sociais armazenam até como nos sentimos, nossos cartões bancários e de crédito registram uma grande quantidade de informações da nossa atividade, medidores inteligentes até gravam quando estamos em casa e quanto de energia utilizamos. Snowden garantiu (e comprovou pelos documentos que vazou) que os aparelhos de celular inteligentes podem gravar o ambiente, mesmo desligados. Grande parte desses dados estão disponíveis para o Estado que procura incansavelmente “pegadas digitais abrangentes” em vez de partir de uma avaliação cuidadosa das evidências relevantes.

Essa abordagem preocupante emprega algoritmos para analisar dados passivamente, tratando todos os cidadãos como suspeitos até que seja comprovado o contrário. Os algoritmos podem tratar como alvos pessoas inocentes, criminalizando-as por associação equivocada e impactando negativamente essas pessoas com base em pouco mais de um palpite apoiado por fatos não-criminais. Dados indiscriminadamente coletados em massa nas mãos do Estado para processamento algorítmico, da forma como estão sendo construídos, jamais poderiam ser compatíveis com a legislação de direitos humanos. São práticas que não são saudáveis em uma democracia. Independente da alegada precisão de tais processamentos algorítmicos, o cenário é muito preocupante.

Conjuntos de dados de teste para esses algoritmos, ou os dados recolhidos da sociedade, podem ser reflexo de padrões de discriminação e as desigualdades já existentes. Na medida em que a sociedade contém desigualdades, exclusão ou outros vestígios de discriminação, o mesmo poderá acontecerá com os dados. De fato, há grande preocupação que tais desigualdades sociais possam ser perpetuadas por meio de processos algorítmicos, gerando efeitos jurídicos negativos e significativos sobre indivíduos no contexto da aplicação da lei.

Não temos conhecimento de quaisquer processos formais para a supervisão independe dos algoritmos utilizados por empresas como o Google e a comunidade de inteligência. No inquérito em curso na Inglaterra, vários especialistas acreditam fortemente que deveria haver uma supervisão independente dos mecanismos e operação de algoritmos em qualquer contexto que possa resultar em efeitos jurídicos e outros significativos na vida das pessoas.

A disponibilidade de novas fontes de dados, incluindo dados de redes sociais, biometria e software de reconhecimento facial, cria oportunidades para interferências relativas ao direito à privacidade em nível individual e social.

Existem processos algorítmicos sendo utilizados para influenciar comportamentos de pessoas. Processamento algorítmico não deve ser a única base para uma decisão que produza efeitos jurídicos ou possa impactar os direitos de qualquer indivíduo.

Os criadores de algoritmos devem sempre manter a capacidade de fornecer transparência em relação a todo o processo algorítmico envolvido e explicações para as decisões e resultados atingidos. As decisões algorítmicas que envolvem os direitos e as liberdades dos indivíduos devem ser sempre desafiáveis. É preciso cautela contra qualquer tomada de decisão algorítmica que envolva a coleta de dados não consentida, ou mesmo que consentida, não compreendida, bem como compartilhamento ou análise de dados pessoais. A importância dos direitos constitucionais de intimidade, da privacidade e autodeterminação informativa como um direito individual e uma característica de uma sociedade democrática deve ser cuidadosamente mantida ao longo dos desenvolvimentos tecnológicos. Não há como não ficar preocupado com a aprendizagem por máquinas, pela qual um computador aprende e extrai algoritmos para a realização de determinadas tarefas, apresentando resultados, a partir da transferência de dados fornecidos sem que o indivíduo possa compreender a qualidade e extensão destes.

No inquérito inglês, a Microsoft concorda que o poder computacional dos algoritmos pode aumentar a criatividade humana, permitindo o aumento da produtividade e que pessoas poderão tomar decisões mais precisas, rapidamente. No entanto, mesmo que formalmente, reconhecem a necessidade de maior transparência.

As ferramentas de inteligência artificial, como vimos, são conduzidas por uma combinação complexa de algoritmos. Alguns defendem que colocar estes tipos de códigos e algoritmos complicados no domínio público para que todos possam inspecioná-los (auditá-los) provavelmente pouca utilidade poderá oferecer na aferição de responsabilidades pelo mal-uso da tecnologia. Vulnerabilidades conhecidas em determinados algoritmos, por exemplo, de código aberto, disponibilizados publicamente e amplamente utilizados e auditados, levaram anos para que pudessem ser identificadas. Além disso, conhecer o funcionamento de um fragmento de código algorítmico não oferece necessariamente condições para que seja possível realmente compreender todas as suas funções, a menos que as entradas dos algoritmos (seu processo de coleta de dados) também sejam auditáveis. Em outras palavras, a informação detalhada sobre o algoritmo, por si só, seria de pouco valor na compreensão de como o algoritmo realmente funciona, já que muitos deles conseguem acesso a um conjunto enorme de dados que são de desconhecimento das pessoas, pois protegidos por cláusulas de confidencialidade, segredo industrial e outros mecanismos do gênero.

Muitos sistemas de aprendizado de máquina são verdadeiras “caixas pretas”, cujos métodos são difíceis de interpretar. Embora esses sistemas possam produzir resultados estatisticamente confiáveis, o usuário final não será necessariamente capaz de explicar como esses resultados foram gerados ou quais características específicas de um caso têm sido importantes para chegar a uma decisão final, causando desafios de interpretabilidade e transparência. Os algoritmos de aprendizado de máquina são apenas programas informáticos, e o alcance e a extensão do seu uso são extremamente amplos e diversos. Seria estranho, pesado e intrusivo sugerir governança para todos os usos de programação de computadores, e o mesmo argumento geral se aplica a todos os usos de aprendizagem de máquina.

Em muitos ou mais contextos, a aprendizagem por máquinas é geralmente incontroversa e não precisa de um novo quadro de governança. Como é o caso de uma empresa que usa o aprendizado de máquina para melhorar seu uso de energia ou instalações de armazenamento, o que não parece exigir mudanças significativas na governança. A aprendizagem de máquinas deve ser, obviamente, sujeita à lei, e também envolve o uso de dados pessoais coletados de forma apropriada e transparente.

Muitas das questões em torno dos algoritmos de aprendizagem de máquinas são muito específicas e complexas, por isso alguns defendem que seria inútil criar uma estrutura geral de governança ou um corpo de governança para todas as aplicações de aprendizagem em máquina. No entanto, as questões relacionadas com a segurança e os testes adequados em aplicações de transporte provavelmente serão melhor manipuladas pelos órgãos existentes nesse setor. Questões sobre validação de aplicações médicas de aprendizagem de máquinas por órgãos reguladores da área de saúde. Aqueles relacionados à aprendizagem de máquina em finanças pessoais pelos reguladores financeiros, e assim por diante.

Deve-se reconhecer que a explicação de algoritmos, incluindo novos algoritmos de aprendizagem profunda, em virtude de sua amplitude e profundidade, deve ser elaborada por pesquisadores e desenvolvedores, não só por pressões regulatórias. Há quem defenda, como vimos, que os padrões de transparência algorítmica não podem ser legislativamente definidos, já que as especificidades da tecnologia, algoritmos e sua aplicação variam muito.

Ainda na área jurídica, sistemas de raciocínio jurídico automatizado (com a aplicação de algoritmos e inteligência artificial) já foram considerados no passado. Mas verificou-se que é impossível a sua aplicação autônoma no Direito. A formação da convicção de um magistrado não está restrita somente a dados objetivos. A aplicação das leis é muito mais do que a aplicação de um conjunto de regras e jurisprudência. A independência de cada magistrado na formação de sua convicção, em cada caso concreto, jamais pode ser ameaçada ou influenciada equivocadamente por máquinas. Os juízes não aplicam a lei como robôs. A hermenêutica e a interpretação exercem grande influência no Direito. Os algoritmos ainda não conseguem imitar o raciocínio jurídico. É claro que poderão auxiliar muito os juízes, advogados, promotores e demais profissionais da Justiça. Mas jamais substituir o elemento humano na equação (pelo menos, por enquanto). Os algoritmos são ferramentas e não devem ser tratados como substitutos completos para o julgamento humano.

Como vimos, os algoritmos são treinados e trabalham com um conjunto gigantesco de dados que os alimentam. Reitera-se: se esses dados são tendenciosos ou direcionados propositalmente, os algoritmos serão impactados e os sistemas tornar-se-ão involuntariamente parciais devido ao conjunto de regras que eles seguem. Até mesmo os desenvolvedores dos algoritmos muitas vezes não conseguem compreender a lógica que os algoritmos por eles mesmos desenvolvidos começaram a seguir para tomar certas decisões e produzir determinados resultados, já que nem todos os processos, inclusive as fontes e formas de coleta de informação são transparentes para os desenvolvedores.

Não sou misoneísta, os algoritmos mudaram a forma como o mundo funciona. Sem eles não teríamos a Internet, computadores e vários avanços tecnológicos que beneficiam a sociedade. E que beneficiarão ainda mais. Mas não podemos ser ingênuos. A velocidade com que os algoritmos processam uma grande quantidade de dados pode dar uma falsa impressão de exatidão para os menos atentos. Precisamos estar cientes de que os algoritmos estão longe de serem infalíveis e muito mais longe ainda de estarem livres da influência humana, de governos, interesses políticos, militares, econômicos e vários outros que você já consegue imaginar.

A regulação, como sugerida por alguns, parece ser utópica. Impossível regulamentar um segmento que sofre modificações impressionantes a cada dia, a cada instante. O que sabemos, é que os algoritmos, embora “vendidos” por essas grandes empresas como sendo imunes ao viés político, tendencioso, aos interesses econômicos, políticos, militares, estratégicos, de inteligência e tudo mais – na realidade não são. É difícil provar a afirmação dessas empresas (que subestimam a inteligência de alguns) sem uma supervisão significativa dos algoritmos complexos, muitas vezes secretos, incluindo o conjunto de dados, a forma e as fontes de coleta que consideraram para chegar a determinados resultados. É necessária uma supervisão constante dos processos algorítmicos mais sensíveis, como os que impactam a formação de opinião, por exemplo.

Uma das conclusões parciais do inquérito inglês é que os algoritmos podem replicar aspectos prejudiciais e discriminatórios da tomada de decisão humana e potencialmente criar novos tipos de danos. Por conseguinte, são necessários mais trabalhos para identificar e prever novos tipos de danos e desenvolver métodos que os detectem (que possam detectá-los de forma eficaz na medida em que ocorrerem). Sem o desenvolvimento dessas áreas, indivíduos e grupos afetados têm pouca perspectiva de retificar os erros quando eles ocorrerem.

A auditoria algorítmica na inteligência artificial é uma dessas áreas que deve exigir muita atenção dos especialistas em Direito, ética, cientistas de dados, formuladores de políticas e órgãos reguladores.

Abordagens atuais para auditar a funcionalidade e impacto dos algoritmos de decisões em áreas sensíveis incluem soluções complexas e avançadas, como a criação de funções de alerta incorporados nesses sistemas e algoritmos. A auditoria pode criar um registro processual para demonstrar viés ideológico, político, estratégico, preconceitos contra indivíduos (e grupos particulares) e ajudará os controladores de dados a atender os requisitos de responsabilidade, detectando quando as decisões produzem efeitos prejudiciais, explicando como eles ocorreram e em que condições eles podem ocorrer de novo. No entanto, a auditoria não é viável sem um forte apoio regulamentar ou cooperação de prestadores de serviços. Talvez sejam, no futuro, obrigados por decisões judiciais (com apoio em legislação específica) a colaborar. Para que a tomada de decisão algorítmica seja significativa, responsável, transparente e justa, os controladores de dados devem cooperar em auditorias. Da mesma forma, devem ser realizados mais trabalhos para entender como ocorre a governança nesses processos. No inquérito inglês, recomenda-se a criação de um grupo de trabalho para determinar se há necessidade da criação de um órgão específico de supervisão e quais os requisitos e os termos de referência a serem adotados por esses órgãos.

Mesmo que seja compreensível que os controladores de dados tenham um interesse legítimo em não divulgar segredos comerciais, esse interesse não deve superar o desejo de entender como os algoritmos tomam decisões sobre os seres humanos. Para equilibrar esses interesses concorrentes, governos devem explorar a necessidade da criação de um Watchdog (órgão fiscalizador) em Inteligência Artificial, ou outro organismo regulador de confiança e totalmente independente. Qualquer um desses órgãos precisaria ser equipado com os conhecimentos adequados (de direito, psicologia e neurociência, ética, informática, telemática, estatística e matemática), recursos e autoridade de auditoria (para fazer inspeções) – tudo para garantir que a tomada de decisão algorítmica seja justa, imparcial e transparente. Bem como os resultados apresentados aos cidadãos.

Há um grande potencial para que os algoritmos e a inteligência artificial possam ser usados para o bem de toda a sociedade. Na verdade, há uma oportunidade para tornar o mundo mais justo e menos tendencioso com a utilização dos algoritmos e da inteligência artificial. As leis não devem travar e dificultar a inovação, mas, reitera-se, não podemos ser ingênuos e deslumbrados com as novas tecnologias, deixando de perceber o que está por trás de tudo isso.

(*) Paulo Sá Elias, 46 anos, é advogado e professor universitário. Especialista em Direito da Informática e Tecnologia da Informação. Mestre em Direito pela UNESP. Mantém o site: www.direitodainformatica.com.br e o perfil da rede Twitter @paulosaelias

[1] Veja os detalhes aqui: http://www.parliament.uk/business/committees/committees-a-z/commons-select/science-and-technology-committee/inquiries/parliament-2017/algorithms-in-decision-making-17-19/

[2] Também chamada de “Internet of everything” (Internet de tudo, de todas as coisas)

[3] Ref. Calum McClelland / AI/ML/DL – differences.

[4] A propósito do tema da energia, recomendo ao leitor que conheça o projeto Wendelstein 7-X (http://www.ipp.mpg.de/w7x) – O futuro da energia pode estar aqui. Stellarator technology (Fusion Power Plant)

[5] Knight,W., The Dark Secret at the Heart of AI. https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/

[6] Kumar,D., Wong,A. & Taylor,G.W., Explaining the Unexplained: A CLass-Enhanced Attentive Response (CLEAR) Approach to Understanding Deep Neural Networks. https://arxiv.org/abs/1704.04133

[7] Angwin,J., Larson,J., Mattu,S. & Kirchner,L., Machine Bias. There is software that is used across the county to predict future criminals. And it is biased against blackshttps://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[8] Kay,M., Matuszek,C. & Munson,S.A., Unequal representation and gender stereotypes in image search results for occupations. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, ACM, 2015, pp. 3819-3828. https://github.com/mjskay/gender-in-image-search/blob/master/data/public/filtered_bls_occupations_with_search_gender_proportions.csv

[9]http://www.direitodainformatica.com.br/?p=1794

[10]https://www.wsj.com/articles/paying-professors-inside-googles-academic-influence-campaign-1499785286

[11]https://arxiv.org/pdf/1707.07397.pdf

[12]https://surveillancevalley.com/

[13]https://www.youtube.com/watch?v=ZTC_RxWN_xo

[14]https://wikileaks.org/google-is-not-what-it-seems/

Sobre a entrevista à revista REVIDE (Ribeirão Preto/SP)

November 10th, 2017

Caros alunos e colegas, aqui está a íntegra dos meus comentários à jornalista da Revista Revide (Ribeirão Preto/SP) quando realizou entrevista esta semana para a edição nº 889,  nº 45,  Ano 31, de 10 de novembro de 2017.

1. Nas redes sociais, alguns ataques racistas e caluniosos tiveram notoriedade nos últimos meses, como o que a atriz Taís Araújo sofreu. Quando denunciados, como são apurados estes crimes? No que se enquadram?

Como sabemos, para algumas doenças, são necessários remédios fortes. Essas condutas extremamente reprováveis e doentias são consideradas crimes contra a honra e até mesmo prática de racismo. Geralmente se enquadram no art. 5º, inc. XLII, da Constituição Federal, Lei 7.716/89 (Racismo) e art. 140, § 3º (introduzido pela Lei 9.459/97) do Código Penal. Para o caso referenciado, é o que denominamos em Direito como “Crime de injúria racial”, também chamada de injúria preconceituosa ou discriminatória, e que a partir da Lei 12.033/2009 passou a ser de ação penal pública, condicionada à representação da vítima, logo, com o envolvimento do Ministério Público. Ou seja, o internauta pode provocar um grande problema jurídico para a sua vida caso agir desta forma. Sobre essa questão da representação da vítima, na prática, pode-se obter o mesmo efeito do termo específico de representação da vítima quando há o registro do boletim de ocorrência, quando a vítima pede a instauração do inquérito policial ou quando é ouvida em declarações na fase policial, desde que, mostre com isso, em todos os casos que mencionei, inequívoca intenção de promover a  responsabilidade penal de quem a ofendeu.

Tecnicamente, a injúria racial ou preconceituosa é diferente do crime de racismo. (Há quem defenda, como é o caso de Guilherme de Souza Nucci, conhecido autor na área criminal, bem como recente decisão do Superior Tribunal de Justiça, que com a Lei 9.459/97, introduzindo a injúria racial, criou-se mais um delito no cenário do racismo, portanto, também, imprescritível, inafiançável e sujeito à pena de reclusão, por ser prática de racismo, ou seja, nítida manifestação racista).

No crime de injúria racial, a ofensa é dirigida a pessoa determinada ou, pelo menos, a um grupo determinado de indivíduos. Desta forma, o internauta que se dirigir a uma pessoa determinada e a ofendê-la fazendo referência à sua cor ou religião, poderá estar cometendo o crime de injúria qualificada (racial ou preconceituosa). Já o crime de racismo, por meio de manifestação de opinião, ocorre quando há uma referência de forma preconceituosa indistintamente a todos os integrantes de certa raça, cor, religião, etc. No caso do racismo, a ação penal é pública incondicionada. É dever do Ministério Público, ao tomar conhecimento dos crimes de racismo, havendo provas suficientes, oferecer denúncia contra o autor da infração penal.

Existem delegacias especializadas em crimes informáticos e telemáticos, delegados e investigadores especializados na área. Enfim, há muito tempo a Internet deixou de ser terra de ninguém, onde era possível fazer de tudo e ter a certeza de impunidade. Existem peritos excelentes no Brasil. As técnicas e equipamentos de perícia forense também estão cada vez mais eficazes e impressionantes. É bem verdade, no entanto, que a cada dia encontramos também novos métodos e técnicas sofisticadas para a prática de crimes por meio da Internet, como por exemplo, a utilização do TAILS (The Amnesic Incognito Live System) que é um sistema operacional completo baseado em Linux/Debian e que iniciado a partir de um DVD ou de um simples pendrive, promete preservar a privacidade do usuário e o caráter anônimo de sua utilização da Internet, não deixando rastros (se corretamente utilizado). Todas as conexões de Internet realizadas pelo TAILS são realizadas pela rede TOR (que é uma rede aberta e distribuída, contra análise de tráfego, redirecionando as comunicações do usuário por meio de uma espécie de “rede de repetidores” mantidos por voluntários ao redor do mundo). As conexões que não sejam anônimas são bloqueadas automaticamente pelo sistema. Mas muitas vezes os criminosos que atuam na Internet, por mais sofisticados que sejam, se esquecem que a polícia e as autoridades também contam com os meios tradicionais de investigação, os inúmeros e experimentados métodos da Old School. É justamente por esse caminho, que muitas vezes encontramos a solução para casos bastante complicados como esses em que os criminosos utilizam recursos tecnológicos muito sofisticados, principalmente quando os agentes criminosos são da nova geração. Aliás, um dos desafios da operação Lava Jato atualmente é rastrear parte do dinheiro desviado pela organização criminosa política brasileira em Bitcoins e outras moedas eletrônicas baseadas na tecnologia Blockchain.

 

2. Existe legislação específica para lidar com crimes virtuais?

Lembro-me muito bem quando o saudoso professor Miguel Reale esteve aqui em Ribeirão Preto, e juntos visitamos o Teatro Pedro II e o Pinguim, e conversamos demoradamente sobre a relação entre o Direito e as novas tecnologias, especialmente a Internet. Aliás, compartilho com a Revide fotos inéditas (de minha autoria) do Professor Miguel Reale naquele dia.

Na oportunidade, o grande professor dizia que é um equívoco imaginar que diante de uma nova tecnologia, o Direito pode não ter mecanismos para atuar. Independente de uma legislação específica, muitas vezes encontramos a solução. Apenas o meio é novo. É claro que no Direito Penal, se uma conduta não for descrita como crime, resta procurarmos a responsabilidade na esfera cível, no entanto, não podemos esquecer que os velhos e conhecidos crimes podem ser praticados com a utilização de novos meios. É dizer: o meio é novo (no caso a Internet), mas o crime é aquele velho conhecido de todos, por exemplo, o crime contra a honra, o estelionato, etc. Sendo assim, há muitos casos em que é possível aplicar perfeitamente a legislação existente quando praticados por meios novos e tecnologias que não existiam anteriormente, quando a lei foi criada. Por isso que eu sempre lembro aos meus alunos na Faculdade de Direito aquela velha sabedoria do Direito Romano: scire leges non hoc est, verba earum tenere, sed vim ac potestatemsaber as leis não é conhecer-lhes as palavras, porém a sua força e poder, isto é, o sentido e o alcance respectivos.

Mas respondendo a sua pergunta, sim, existe legislação específica para lidar com crimes informáticos e telemáticos. São exemplos principais, a Lei 12.737/2012, que trata da invasão de dispositivo informático alheio, conectado ou não à rede de computadores, mediante violação indevida de mecanismo de segurança. A Lei 12.965/2014, conhecida como “Marco Civil da Internet” e que estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil, mas tem aplicação na esfera criminal em diversos aspectos, em especial quando há necessidade de requisição judicial de registros de conexão ou de registros de acesso a aplicações de Internet. Também em relação a responsabilidade por danos decorrentes de conteúdo gerado por terceiros, com especial destaque para o art. 21 que dispõe: “O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.” – A combinação das Leis 9.610/98 (Direitos Autorais) e 9.609/98 (Programa de Computador), entre outras.

 

3. Qual a importância de leis que regulamentem crimes virtuais para consumidores, vendedores e usuários de serviços como o Internet Banking?

Como eu disse, no Direito Penal, há necessidade de que uma determinada conduta para ser considerada crime esteja previamente definida em lei como tal. Desta forma, a importância de leis que regulamentem crimes cometidos pela Internet só existe naqueles casos em que estamos diante de uma conduta que ainda não foi tipificada como crime, em razão de suas características inovadoras. Mas observe que condutas criminosas já descritas como crime e cometidas por consumidores e vendedores podem ser aquelas velhas conhecidas, de crimes já existentes (como é o caso do estelionato, dos crimes contra a honra, divulgação de segredo, extorsão, fraude no comércio, violação de direito autoral, etc.) – que, embora praticados por meio novo (ou seja, a Internet e computadores) – são perfeitamente aplicáveis.

Por outro lado, observe que nem tudo deve ser criminalizado. Há uma tendência da sociedade em querer transformar em crimes as mais diversas condutas, como queriam fazer aqui no Brasil há alguns anos, felizmente sem sucesso, por exemplo, com o SPAM (mensagens publicitárias indesejadas). Não faz sentido algum criminalizar o SPAM. A criminalidade deve recair apenas sobre fatos contrastantes dos valores mais elevados do convívio social. A conduta deve merecer a sanção penal. O crime é o último grau do sistema jurídico. A justiça criminal tutela infrações maiores ou comprometedoras do mínimo ético. Mirabete, conhecido jurista da área penal dizia que “o desvalor do resultado, o desvalor da ação e a reprovabilidade da atitude interna do autor é que convertem o fato em um exemplo insuportável e que seria um mau precedente se o Estado não o reprimisse mediante a sanção penal, ou seja, a criminalização daquela conduta específica”.

Portanto, fora do âmbito criminal, na esfera cível, também encontramos uma série de instrumentos para proteção aos direitos. Em relação ao comércio eletrônico, por exemplo, temos a aplicação do CDC (Código de Defesa do Consumidor) e do Decreto nº 7.962/2013, no que diz respeito a contratação no comércio eletrônico. Em razão dessas normas, surgem alguns direitos elementares, como por exemplo, o consumidor deve ter a mesma facilidade para contratar como para cancelar um serviço pela Internet, a privacidade e a autodeterminação informativa devem ser protegidas, ocorrendo vazamento de dados pessoais, o fornecedor deve ter a obrigação de informar amplamente às autoridades competentes e aos consumidores, a segurança do meio eletrônico colocado à disposição do consumidor deve ser risco profissional do fornecedor, a linguagem nos meios eletrônicos pode acarretar, com maior frequência, erro na contratação ou na expressão da vontade – e isso precisa ser levado em consideração, entre outros.

Em relação ao Internet Banking, por exemplo, a fraude eletrônica para transferir valores de conta bancária por meio de Internet Banking constitui crime de furto qualificado por fraude. Embora o Internet Banking seja uma novidade dos novos tempos, o crime é aquele velho conhecido, o furto. Só que qualificado mediante fraude.

E no âmbito cível, há uma série de normas perfeitamente aplicáveis. As instituições financeiras respondem objetivamente pelos danos gerados por fortuito (imprevisto) interno relativo a fraudes e delitos praticados por terceiros no âmbito de operações bancárias. Mesmo que os fatos tenham sido praticados por estelionatários, ainda que o próprio banco também tenha sido vítima de estelionatários, este fato não o exonera de reparar os danos ao consumidor de seus serviços bancários (os seus clientes), pois o banco responde objetivamente pelo risco de sua atividade, não podendo repassá-lo ao consumidor.

Os bancos, ao operarem o sistema de Internet Banking, assumem os riscos inerentes a este tipo de operação, o que inclui, obviamente, a necessidade da criação de sistemas seguros, protegidos e eficazes, dentro do possível, tudo, no sentido de evitar a possibilidade de ocorrência de fraudes. Até mesmo em casos em que tenha sido utilizada a senha PIN (em cartões magnéticos com CHIP) – e que alguns bancos tentam se defender nos processos judiciais dizendo ser culpa exclusiva do consumidor (art. 14, § 3º, CDC) encontramos decisões judiciais no sentido contrário aos interesses dos bancos, pois é conhecida a possibilidade de clonagem dos cartões, inclusive com a captura das senhas. Muitos de nós já assistimos vídeos nas redes sociais mostrando como os criminosos estão fazendo isso nos caixas eletrônicos. Os sistemas de segurança dos cartões magnéticos bancários (débito ou crédito), portanto, são vulneráveis a fraudes. Idem, em relação ao Internet Banking. Cabe aos bancos zelar pela segurança da operação em ambientes eletrônicos.

(*) Nota: Recentemente o STJ (Superior Tribunal de Justiça) em relação aos cartões com a utilização da senha PIN decidiu de forma contrária à própria Súmula 479. O TJSP segue no sentido correto da interpretação e daquilo que apresentamos aqui. Vejam: (1)(2)

As instituições financeiras respondem objetivamente pelos danos gerados por fortuito interno relativo a fraudes e delitos praticados por terceiros no âmbito de operações bancárias.” (Súmula 479, SEGUNDA SEÇÃO, julgado em 27/06/2012, DJe 01/08/2012)

Veja aqui a notícia da decisão do STJ.

E aqui a íntegra da recente e absurda decisão do STJ que favorece os interesses dos bancos.

Saiba mais novidades em: http://www.twitter.com/paulosaelias

Regulamentação de “Drones” para uso recreativo no Brasil

May 4th, 2017

No dia 03.05.2017, foi publicada no Diário Oficial a Resolução nº 419 da ANAC (Agência Nacional de Aviação Civil) que aprova o Regulamento Brasileiro da Aviação Civil Especial nº 94 (RBAC-E nº 94), intitulado “Requisitos gerais para aeronaves não tripuladas de uso civil”. Além disso, a ANAC preparou alguns textos para orientação dos usuários. Todos esses documentos serviram de referência para a elaboração destas breves notas. Clique aqui (versão para imprimir). Versão convencional, aqui.

Drone pilots don’t have to register under the FAA’s controversial rule, court rules. (Read here)