3JL app.JILI 365 casino login Philippines,Slotph app

[BLOCK] IA: Quo Vadis?

Content Team July 27, 2021

Share it :

[BLOCK] IA: Quo Vadis?

O Dr. Stefano Filletti, chefe do Departamento de Direito Penal da Universidade de Malta, advogado e sócio-gerente sênior da Filletti & Filletti Advocates, conversou com Jeremy Micallef sobre como a reforma judicial deve ocorrer para atender ao futuro

Definindo IA

Inteligência Artificial é um termo difícil de definir e n?o existe uma defini??o universalmente aceita. A palavra “artificial” denota algo feito pelo homem. A palavra “inteligência” é mais abstrata e mais difícil de definir. Inteligência se refere à capacidade de se desenvolver e evoluir ao longo do tempo em um determinado ambiente. Seres inteligentes n?o apenas se adaptam ao seu ambiente, mas também “aprendem” a se tornar mais eficientes no que fazem.

Nas palavras do renomado físico britanico Stephen Hawkings, “inteligência é a capacidade de se adaptar às mudan?as”. Esta defini??o denota a capacidade inata de qualquer ser inteligente de ser capaz de se adaptar às mudan?as de circunstancias ou ambientes. Essa capacidade de adapta??o deve ser inata a ele.

Juntos, o termo “inteligência artificial” se refere a um objeto feito pelo homem capaz de se adaptar de forma aut?noma à mudan?a, para se desenvolver e evoluir.

Seres inteligentes artificiais podem realmente ser qualquer coisa, desde rob?s a armas, software em uma máquina e bots virtuais na Internet.

A Agência para Cometer Crimes
Dr. Stefano Filletti, chefe do Departamento de Direito Penal da Universidade de Malta

Se a inteligência artificial se refere à capacidade de mudar e se desenvolver de forma aut?noma e independente, seria difícil prever o que a inteligência artificial é “aprendizado” e como está se adaptando. Em crian?as, o processo de ‘aprendizagem’ inclui aprender com os erros, incluindo erros potencialmente perigosos. Da mesma forma, seres com inteligência artificial, ou sistemas de IA, “aprender?o” de maneira imprevisível.

N?o pode haver dúvida de que qualquer ser inteligente, incluindo sistemas de IA, se adaptará de maneira diferente a diferentes situa??es. Da mesma forma, é impossível determinar certos resultados e consequências após um processo de adapta??o.

Portanto, se n?o forem controlados, os sistemas de IA têm a potencialidade de cometer crimes. Por exemplo, os sistemas de IA deixados sem controle em servi?os financeiros podem aprender rapidamente que cometer crimes financeiros pode gerar lucros maiores (embora ganhos ilegais), embora acredite que se tornou mais eficiente no que faz. Embora este exemplo possa ser facilmente combatido pela introdu??o de parametros para o sistema de IA exigindo que ele evite transa??es ilegais, a imprevisibilidade da adapta??o significa que é humanamente impossível prever todas e quaisquer a??es do sistema de IA. A inteligência artificial pode, portanto, na prática, cometer atos ou transa??es que seriam criminosos (se cometidos por humanos).

Inteligência ArtificialHumanos vs Inteligência Artificial: O Enigma do Direito Penal

A raz?o pela qual o direito penal existe é para punir aqueles que optaram por obter uma vantagem injusta em viola??o da lei em detrimento dos cumpridores da lei ou para punir aqueles que se envolvem em comportamentos que s?o legal e moralmente repreensíveis. O direito penal pressup?e que o sujeito do direito penal seja uma pessoa humana com capacidade moral para determinar o que é moralmente certo e moralmente errado. Também pressup?e que o sujeito do direito penal tenha a capacidade básica de compreender os seus atos e a capacidade volitiva para cometer ou abster-se de cometer esses atos. Finalmente, o direito penal tem como objetivo criar dissuas?o: dissuadir as pessoas de se envolverem em comportamentos criminosos com medo de san??es ou puni??es.

O direito penal evoluiu ao longo do tempo, criando espa?o para a personalidade jurídica das empresas. Daí o desenvolvimento do conceito de responsabilidade penal corporativa. Isso permitiu que o direito penal se estendesse aos negócios das empresas e à estrutura corporativa, ostensivamente para congelar e confiscar bens e produtos do crime que eram propriedade de empresas e n?o de pessoas físicas.

No entanto, a responsabilidade corporativa criminal tem um alcance limitado. Uma empresa n?o pode cometer todos os crimes pelos quais um ser humano pode ser considerado culpado. A responsabilidade penal corporativa é reservada aos crimes financeiros em geral.

Os sistemas de IA podem se envolver em atividades muito mais perigosas se n?o forem controlados. Ainda assim, a inteligência artificial e os sistemas de IA desafiam os fundamentos centrais do direito penal. A inteligência artificial n?o tem uma bússola moral inata e uma capacidade de certo e errado encontrada nos humanos. N?o tem capacidades volitivas. A inteligência artificial n?o “teme” a puni??o e, portanto, a lei criminal n?o impede a inteligência artificial.

A quest?o é que o direito penal em seu estado atual n?o atende e, em geral, n?o pode atender aos crimes cometidos por seres com inteligência artificial. Só pode responsabilizar os humanos que os possuem ou os usam (de forma limitada) pelas a??es que seus seres artificiais cometem.

Direitos e Responsabilidades

Seres artificialmente inteligentes podem cometer a??es err?neas por uma infinidade de raz?es.

O primeiro pode ser um erro de programa??o ou fabrica??o. Um segundo cenário pode ser o usuário inserir um conjunto incorreto de instru??es. Uma terceira pode ser que qualquer pessoa encarregada de supervisionar o sistema de IA, percebendo que algo está errado, deixa de tomar as medidas adequadas.

Um cenário mais difícil é aquele em que o ser artificial, sem solicita??o humana e sem uma pessoa a seu cargo, se engaja autonomamente em um curso de a??o imprevisível e imprevisível que leva a resultados criminosos ou trágicos. Embora raro, isso n?o é apenas uma possibilidade, mas já aconteceu. Embora esfor?os sejam feitos para reduzir o fator de imprevisibilidade, ele nunca pode ser excluído. A quest?o é como lidar com isso. Se for demonstrado que o fabricante e seu usuário realizaram todos os testes razoáveis e tomaram todas as precau??es razoáveis, eles podem ser responsabilizados por um resultado imprevisível e imprevisível? Ainda mais quando vem de um sistema de IA que se adapta e se desenvolve por conta própria?

Quo Vadis? Para onde vamos daqui? O estado atual do direito penal n?o oferece uma solu??o. é claro que, com o avan?o da inteligência artificial, esse problema precisa ser resolvido. Um novo regime jurídico precisa ser desenvolvido para atender ao ator n?o humano, mesmo no campo do direito penal.

A estrada à frente

A responsabilidade legal dos sistemas de IA é uma quest?o que tem sido assumida por muitos países e também é uma quest?o de debate jurídico a nível europeu, tanto a nível da UE como do Conselho da Europa. Duas correntes distintas entre responsabilidade civil e responsabilidade criminal s?o identificáveis. De uma perspectiva local, o tema também está sendo discutido ativamente com as autoridades locais ativamente envolvidas no debate. Só o tempo, entretanto, dirá se os sistemas de IA seriam adequadamente regulados pela legisla??o civil e criminal ou se este é um ideal ilusório com sistemas de IA superando a lei. 

 

A edi??o 5 da Revista Block foi publicada:

Block é uma publica??o semestral que ilumina os setores de IA, blockchain, criptografia e tecnologia emergente, com 5000 cópias entregues a marcas líderes em toda a indústria global. Veja a edi??o mais recente da Block abaixo.

Recomendado para você