IA e responsabilidade: o que as empresas precisam saber antes da regulação chegar
Por: Fagner Souza
✔ Conteúdo criado por humano
3 de July de 2025
|
3 min. de leitura
Enquanto o Brasil discute seu marco legal, organizações já podem — e devem — adotar práticas responsáveis de uso da inteligência artificial, alinhadas aos princípios éticos e ao modelo europeu.
Precisa de inovação e transformação digital para o seu negócio?
Encontre os melhores especialistas aqui na SIS Innov & Tech!
A inteligência artificial (IA) já deixou de ser uma tendência do futuro e passou a fazer parte do nosso cotidiano. Ela está incorporada em diversas interações do dia a dia, como no reconhecimento facial, em chatbots e assistentes virtuais, como o popular ChatGPT, entre tantas outras ferramentas.
A popularização dessas soluções que até pouco tempo eram restritas a contextos especializados se deve, em grande parte, à sua velocidade de disseminação e ao caráter exponencial dessa tecnologia. Do ponto de vista técnico, os usos da IA são quase ilimitados, mas não necessariamente desejáveis em todos os cenários.
Diante da versatilidade dos usos e da velocidade com que essas ferramentas se integram à nossa realidade, surge uma discussão que ainda precisa ser conduzida por meio da inteligência humana e no ritmo mais analógico da reflexão ética e política: quais são os limites do uso da IA? Como lidar com os impactos indiretos da sua adoção? Quem deve impor esses limites?
Você pode gostar:
IA estratégica e cibersegurança em evidência: o que a Febraban Tech 2025 revelou sobre o futuro da TI no setor financeiro
Essas discussões se encontram em diferentes estágios ao redor do mundo, sendo que, como de costume, a União Europeia aparece na vanguarda. Em 2024, foi aprovado o AI Act, primeira legislação abrangente sobre o tema.
Essa norma introduziu o conceito de regulação baseada na classificação de risco, estabelecendo níveis que vão desde a proibição de certos usos até a permissão irrestrita, conforme o potencial impacto sobre direitos fundamentais e segurança pública. Assim como ocorreu com a GDPR no campo da proteção de dados, o AI Act tende a se tornar referência internacional para o uso ético e seguro da IA.
No Brasil, o tema ainda está em debate. A iniciativa legal mais avançada é o Projeto de Lei nº 2.338/2023, que propõe o Marco Legal da Inteligência Artificial. Inspirado no modelo europeu, o PL também adota uma abordagem regulatória por risco e apresenta um caráter principiológico. Entre suas propostas, estão a criação de direitos para os cidadãos afetados por sistemas de IA, como os direitos à transparência, revisão de decisões automatizadas e supervisão humana.
Você pode gostar:
15 Ferramentas de IA para Facilitar sua Rotina Dentro e Fora do Trabalho!
O projeto, no entanto, tem sido alvo de críticas. A principal delas diz respeito ao seu processo de formulação, marcado pela falta de participação social e por um viés tecnocrático, que pode resultar em dificuldades de aplicação prática e, até mesmo, na ineficácia da norma.
Enquanto o país ainda discute os contornos da futura regulação, é fundamental que empresas e organizações se antecipem, adotando boas práticas internas para orientar o uso responsável da IA. A definição de políticas corporativas éticas, inspiradas em marcos regulatórios internacionais e nos princípios já consolidados do direito e da governança corporativa, é um caminho viável e necessário.
Ainda que o elemento "inteligência artificial" seja novo, os padrões éticos e as reflexões sobre o papel social das empresas não o são. Assim, independentemente de haver ou não uma lei em vigor, as organizações já dispõem de fundamentos suficientes para repensar suas práticas e assegurar que o uso da IA ocorra de forma ética, transparente e comprometida com o interesse coletivo.
IA estratégica e cibersegurança em evidência: o que a Febraban Tech 2025 revelou sobre o futuro da TI no setor financeiro
Por: Time SIS
O evento evidenciou o avanço da IA, a relevância da governança de dados e o novo papel da cibersegurança em um cenário de convivência entre humanos e agentes autônomos. Veja como temos nos posicionado.