Legislação da IA no Brasil segue modelo europeu
O PL 2.338/22, que regulamenta a Inteligência Artificial no Brasil, é todo baseado no AI Act da legislação da União Europeia e se assenta na premissa de que, quanto maior o risco aos direitos fundamentais, maior é a responsabilidade dos desenvolvedores, explicou o desembargador Demócrito Reinaldo Filho, do TJ-PE. Ele palestrou na plenária final do 44º Congresso da ABPI, nesta terça-feira, 13, ao lado do presidente da ABPI, Gabriel Leonardos, e da vice-presidente da entidade, Tatiana Campello.
Segundo o desembargador, que estuda com afinco o tema, o AI Act – assim como o PL 2.338/22 – enquadrou os riscos do sistema de IA Generativa em três categorias. Quando se trata de um risco inaceitável, que afeta, por exemplo, a saúde do indivíduo ou ameaça às instituições, o sistema é eliminado. Um exemplo disso, explicou, é o controle por pontuação dos cidadãos que é praticado na China, que fere direitos fundamentais. “Alguns sistemas que oferecem riscos inaceitáveis aos direitos fundamentais e às instituições dos países democráticos devem ser banidos e não podem ser ofertados no mercado”, acrescentou o magistrado.
Na categoria seguinte, mais branda, mas ainda de relativo risco, a legislação é ainda rigorosa na responsabilização dos desenvolvedores. A terceira categoria, que oferece risco mínimo para pessoas e instituições, as obrigações legais são menores e se resumem à transparência. Outro aspecto do AI Act, acrescentou o desembargador, é a obrigatoriedade dos desenvolvedores de respeitar a diretiva europeia de direitos autorais. “É importante regulamentar o sistema de IA de propósito geral para estabelecer responsabilidades para cada um dos partícipes da cadeia de valor do produto de IA”, disse.