4º Post- Estado Digital: O novo inconsciente do Contencioso Administrativo?
4º Post- Estado Digital: O novo inconsciente do Contencioso Administrativo?
1. Introdução
Durante várias décadas, o Contencioso Administrativo foi descrito como um direito em permanente análise clínica: marcado por uma infância difícil, por traumas estruturais e por sucessivas reformas e reforminhas que prometiam uma maior eficiência, maior tutela jurisdicional e maior proximidade da Administração Pública e dos particulares.
Décadas mais tarde, o surgimento da Inteligência Artificial apresentou-se à Administração Pública como uma resposta pragmática a problemas estruturais antigos, tais como a morosidade decisória, a sobrecarga administrativa, a escassez de recursos humanos e a crescente complexidade das funções do Estado. Desta forma, perante uma Administração chamada a decidir mais, mais depressa e sobre realidades cada vez mais complexas, a promessa da automatização e dos sistemas inteligentes de algoritmos apresentou-se como uma solução inevitável. A Inteligência Artificial passou, assim, a ser integrada em múltiplos domínios da ação administrativa, desde da gestão processual à avaliação de riscos, apresentando-se como uma solução eficiente, objetiva e “neutra”.
Este movimento de digitalização e algoritmização do poder administrativo insere-se num contexto mais amplo de modernização do Estado e de transição para o Estado Digital, impulsionado por políticas públicas nacionais e europeias que pretendem a promoção da celeridade e a simplificação dos procedimentos.
2. Serão os algoritmos utilizados pela Administração Pública um remédio ou um novo sintoma?
À luz desta mudança de paradigma, parece inevitável questionarmo-nos do seguinte: Será que a Administração Pública está a tentar “curar-se” da sua própria ineficiência através da digitalização? Serão os algoritmos um “remédio” ou um novo sintoma?
Antes de mais, importa reforçar a ideia de que o recurso à Inteligência Artificial pela Administração Pública tem várias vantagens. Dentre estas vantagens encontram-se a celeridade, a uniformização de critérios e redução de arbitrariedade, economia processual e transparência.
Quanto à celeridade, a digitalização permite automatizar tarefas repetitivas, acelerar a tramitação de processos e reduzir tempos de espera na decisão administrativa. Esta alteração contribui para o direito a uma decisão em prazo razoável (Art 20º CRP), e ainda para o combate a uma das patologias do Contencioso Administrativo: a morosidade decisória.
No que concerne à uniformização de critérios e redução de arbitrariedade, esta é garantida pela aplicação de algoritmos que decidem de forma uniforme, previsível e consistente quanto a casos idênticos. Isto pode reduzir decisões contraditórias ou a discricionariedade associada ao fator humano. Desta forma, permite o aumento da previsibilidade da atuação administrativa e facilita o controlo jurisdicional quando os critérios são claros e públicos. Contudo, não nos podemos esquecer que o algoritmo pode ser programado para introduzir inadvertidamente preconceitos, reforçar discriminação, favorecer uma orientação política ou práticas indesejadas, de forma automática, a partir dos dados que está a operar. Assim sendo, é imprescindível que os dados inseridos e utilizados nos algoritmos garantam de facto imparcialidade e que não sejam fonte de discriminação. Se tal não ocorrer, ao invés do algoritmo reforçar o princípio da igualdade, estará a violá-lo.
Relativamente à economia processual, a digitalização, mais precisamente a automação de dados, reduz custos operacionais, racionaliza recursos e melhora a sustentabilidade financeira da Administração Pública. Assim, assiste ao cumprimento do princípio da boa administração.
Por fim, quanto à transparência, os processos eletrónicos são vantajosos no sentido de que deixam registo dos atos, permitem rastrear decisões e facilitam auditorias internas e externas. É indispensável garantir a transparência, visto que esta se apresenta como uma condição prévia e necessária para assegurar a conformidade legal e permitir a responsabilização de qualquer Sistema de Inteligência Artificial.
No entanto, como sabemos, nem tudo é um “mar de rosas” e, por isso, para uma análise detalhada é necessário “tirar os óculos cor-de-rosa” e considerar também os riscos associados a estes sistemas.
Um primeiro risco, é a opacidade, ou efeito “caixa-preta”. Este efeito ocorre quando uma decisão é produzida por um sistema algorítmico cujo funcionamento interno não é compreensível, acessível ou explicável, nem para o particular afetado, nem muitas vezes para o próprio decisor administrativo. O efeito “caixa-preta” faz com que o particular não perceba qual foi a fundamentação utilizada para decidir o seu caso, tornando o ato administrativo quase impossível de impugnar. Deste modo, estamos perante uma violação do dever de fundamentação, nos termos expostos no Art 152º e 153º CPA, por falta de esclarecimento da motivação do ato. Isto porque, tal como previsto no Art 153º nº2 CPA, “equivale à falta de fundamentação a adoção de fundamentos que, por obscuridade, contradição ou insuficiência, não esclareçam concretamente a motivação do ato".
Um segundo risco, já mencionado acima, é o da discriminação. Os dados introduzidos nos algoritmos podem gerar discriminação em decisões tomadas quanto aos particulares. Assim acontece visto que os algoritmos aprendem a partir de dados pessoais que, muitas vezes, refletem desigualdades sociais pré-existentes (económicas, territoriais, culturais). Ao reproduzir esses dados, o sistema consolida injustiças passadas sob a aparência de eficiência técnica. Desta forma, contrariamente à garantia de imparcialidade pretendida, os algoritmos podem não eliminar a discriminação, podendo, antes, torná-la estrutural, invisível e mais difícil de controlar juridicamente.
Deste modo, respondendo à questão acima proposta, parece-me que os algoritmos aparecem tanto como um “remédio” para certos traumas passados do Contencioso Administrativo e do Direito Administrativo, como também, e talvez na mesma medida, aparecem como um “novo sintoma”, no sentido em que volta a desconsiderar a posição jurídica dos particulares (mediante a falta de fundamentação ou existência de discriminação de decisões, e ao estabelecer uma certa assimetria entre a posição dos particulares quanto à da Administração Pública, visto ser esta última quem controla os algoritmos e os dados inseridos). Só se tornará na sua integralidade um “remédio” quando forem evidentes as garantias de transparência, imparcialidade e equidade; forem criadas regulamentações expressas quanto à imputação de responsabilidade; e se garanta a explicabilidade dos algoritmos, no que toca aos fundamentos utilizados para a tomada da decisão e as razões pelas quais essa decisão foi tomada, de modo a cumprir, cabalmente, a obrigação de fundamentação pela Administração Pública.
3. Mas o que deve ser digitalizado e o que deve permanecer humano?
A digitalização crescente pela Administração Pública, levanta a questão do que deverá ser automatizado e do que deverá manter-se humano.
Em minha opinião, deverá permanecer humano tudo aquilo que requeira uma ponderação e uma análise detalhada para o caso concreto. Além disso, tudo o que seja direta ou indiretamente relacionado com os direitos fundamentais dos particulares têm que ter necessariamente uma vertente humana. Assim sendo, a digitalização dever-se-á aplicar apenas a situações automatizadas que resolvam problemas intrínsecos ao Direito Administrativo como seja, o excesso de burocratização, ou então na criação de mecanismos automatizados que facilitem o acesso dos particulares à Justiça Administrativa e que garantam uma maior transparência e coerência das atuações por parte da Administração Pública. A meu ver, a digitalização deverá servir apenas como um instrumento que melhore a vida dos particulares, e que não venha a ser utilizada como um mecanismo que reitere injustiças ou que vicie o sistema judicial e administrativo. Um exemplo da aplicação negativa da digitalização por parte da Administração Pública, e geradora de injustiças, será o caso chinês. Na China foi criado um sistema governamental de “social scoring” – o Social Credit System –, em português “sistema de crédito social”, que classificava o nível de confiança dos cidadãos, empresas e entidades públicas através da utilização de dados pessoais como os registos financeiros, comportamentos online (compras e redes sociais), câmaras de vigilância (que possibilitavam o reconhecimento facial) e ações judiciais/administrativas, com o objetivo de promover a sinceridade social através de recompensas por bom comportamento (por exemplo, melhores empréstimos, benefícios de viagem) e punições por mau comportamento (por exemplo, proibições de viagem, humilhação pública). A implementação deste sistema criou um paradigma digno da série “Black Mirror”, em que o uso de tecnologia foi “subtilmente” moldando as decisões e ações dos cidadãos chineses, originando uma espécie de “ditadura digital", marcada pelo controlo da população através de algoritmos desenvolvidos pelo Estado. Este exemplo mostra o risco inaceitável da má utilização da tecnologia, tendo sido, por isso, banido pelo AI Act.
Assim, cabe ao legislador criar leis e medidas de modo a garantir o respeito pela Justiça Administrativa e um recurso adequado a mecanismos digitais na atuação normal da Administração.
4. Quem responde pelos algoritmos utilizados pela Administração Pública?
Agora que já analisámos as vantagens e riscos dos algoritmos utilizados pela Administração Pública, surge a questão: quem responde por esses algoritmos? Ou melhor, quem é responsabilizado pelos danos produzidos pelos algoritmos? Esta questão coloca-se visto que “a máquina decidiu” não é uma resposta aceitável num Estado de Direito.
Em Portugal, quando se falava na responsabilidade civil pensava-se numa realidade esquizofrénica, que tinha uma dualidade patológica: a responsabilidade civil de gestão pública e a responsabilidade civil de gestão privada. Dizia-se que a responsabilidade civil pública, causada por má gestão pública, deveria ter um regime especial e que deviam ser os tribunais administrativos a julgar esses casos. Já a responsabilidade civil no âmbito da gestão privada deveria ser regulada pelo Código Civil e deveria ser julgada pelos tribunais comuns. Contudo, tal como entende o Prof Vasco Pereira da Silva, há um dano que é produzido, e esse dano deve ser independente de quem o produz, interessando apenas saber se o ato foi ou não praticado de acordo com a lei e se produziu um dano contra um qualquer particular. Com a reforma de 2004, o legislador diminuiu esta esquizofrenia. No entanto, esta distinção foi aplicada até 2007, quando foi criado o regime da Responsabilidade Civil Pública, que aumentou o regime da responsabilidade civil à função administrativa. Assim, as questões de responsabilidade civil pública passaram a gerar pedidos suscetíveis de ser tutelados, em princípio, pela ação administrativa comum. Parece ao Prof Vasco Pereira da Silva manifestar-se aqui a tendência do regime da Responsabilidade Civil pública para a dualidade, neste caso, de meios processuais.
No caso da utilização da Inteligência Artificial, através de algoritmos e sistemas criados para a função pública, causar danos a outrem, nomeadamente um particular, então quem deverá ser responsabilizado? O designer, o fornecedor, o utilizador, as autoridades ou o próprio sistema? A atribuição da responsabilidade complica-se pelo facto de não ser claro quem tem o controlo necessário à imputação de responsabilidade jurídica. Acresce a tudo isto o facto dos algoritmos agirem de forma autónoma, aprenderem e modificarem a sua atuação, colocando-se a questão de saber quem tem a responsabilidade de prever estas alterações subsequentes.
Neste âmbito, pode existir uma lacuna de responsabilidade segundo a qual os agentes públicos não podem ser responsabilizados pela atuação destes algoritmos, devido à sua falta de influência sobre os mesmos. Contudo, há quem defenda que devem ser sempre responsabilizados os criadores ou os utilizadores, pelas consequências associadas à tecnologia. Assim sendo, seriam responsáveis os agentes públicos que recorreram a estes algoritmos. Para além disso, havendo uma lacuna de responsabilidade, cabe ao legislador suprimi-la e garantir uma solução legalmente prevista, de acordo com o espírito do sistema.
Concluímos, por isso, que, mesmo que os algoritmos não traduzam diretamente uma “decisão humana”, por parte de um órgão ou serviço público, os agentes públicos permanecem responsáveis pelas decisões alcançadas por meio de algoritmos, de modo a garantir o direito dos particulares à tutela jurisdicional efetiva. Este direito pressupõe o acesso dos particulares a tribunal, a possibilidade real de impugnar atos ou decisões administrativas, e a igualdade de armas entre Administração e particular.
Madalena Castelão- 140122214
Bibliografia:
OSWALD, M. (2018a). Algorithm-assisted decision-making in the public sector: Framing the issues using administrative law rules governing discretionary power.
PEREIRA DA SILVA, Vasco. O Contencioso Administrativo no Divã da Psicanálise; O Contencioso Administrativo como Direito Constitucional Concretizado
Zhang, Chenchen (2020). “Governing (through) trustworthiness: technologies of power and subjectification in China’s social credit system. Critical Asian Studies.
Innovation Centre Denmark, Shanghai. (2018). ‘Social credit & big data trends IN CHINA’.
Paulino Maia e Silva, Jaime. Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários
EU AI Act
Comentários
Enviar um comentário