ética para inteligencia artificial

A inteligência artificial é fazer com que as máquinas pensem como seres humanos, com o objetivo para que as máquinas possam exercer o trabalho de uma pessoa e substituí-las. Um sistema IA é capaz de não somente armazenar e manipular dados, mas também consegue adquirir, representar, e manipular conhecimento.

Esta manipulação inclui a capacidade de deduzir ou inferir novos conhecimentos, a partir do conhecimento existente e utilizar métodos de representação e manipulação para resolver problemas complexos. Uma das ideias mais úteis que emergiram das pesquisas em IA, é que fatos e regras podem ser representados separadamente dos algoritmos de decisão - conhecimento procedimental. Isto teve um grande efeito tanto na maneira dos cientistas abordarem os problemas, quanto nas técnicas de engenharia utilizadas para produzir sistemas inteligentes. Adotando um procedimento particular - máquina de inferência - o desenvolvimento de um sistema IA é reduzido à obtenção e codificação de regras e fatos que sejam suficientes para um determinado domínio do problema. Este processo de codificação é chamado de engenharia do conhecimento. Portanto, as questões principais a serem contornadas pelo projetista de um sistema IA são: aquisição, representação e manipulação de conhecimento e, geralmente, uma estratégia de controle ou máquina de inferência que determina os itens de conhecimento a serem acessados, as deduções a serem feitas, e a ordem dos passos a serem usados. A Inteligência Artificial está crescendo no mundo corporativo e transformando a indústria, aumentando a eficiência, reduzindo falhas e dando velocidade à força de trabalho.

Ao mesmo tempo em que a Inteligência Artificial se populariza, questões levantadas por especialistas sobre ética e moral na robótica se tornam impossíveis de ignorar. Desde quando a tecnologia era apenas uma ideia presente nas obras de ficção científica, muitos questionavam quais os limites da aplicação da Inteligência Artificial. Em suas obras, o famoso escritor e estudioso Isaac Asimov desenvolveu as “Três Leis da Robótica”, com o objetivo de tornar possível a coexistência de humanos e robôs inteligentes:

1ª Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.

2ª Lei: um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.

3ª Lei: um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

Asimov acrescentou mais tarde a “Lei Zero”, que está acima das outras e define que um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

O debate sobre como a Inteligência Artificial deve “pensar” diante de questões éticas e morais é bem extensa. Entre em contato e saiba mais sobre esse assunto tão comentado.

INSTI - INOVAÇÃO EM SOLUÇÕES DE PROJETOS EM TI