Resolução TRE/PI nº 516/2025
Identificação |
Resolução TRE/PI nº 516, de 17 de dezembro de 2025. |
Situação |
Vigente |
Origem |
Processo Administrativo nº 0600258-77.2025.6.18.0000 |
Publicação |
DJE de 07/01/2026 |
Normas correlatas |
|
Observação |
|
Texto |
RESOLUÇÃO Nº 516, DE 17 DE DEZEMBRO DE 2025 Regulamenta o desenvolvimento, a utilização ética e segura, o monitoramento e a governança das soluções de Inteligência Artificial (IA) no âmbito da Justiça Eleitoral do Piauí. O TRIBUNAL REGIONAL ELEITORAL DO PIAUÍ, no exercício de suas atribuições legais e tendo em vista o disposto no inciso IX do artigo 15 da Resolução TRE-PI nº 107, de 4 de julho de 2005 (Regimento Interno), CONSIDERANDO a Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais - LGPD); CONSIDERANDO a Resolução CNJ nº 615, de 11 de março de 2025, que estabelece diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário; CONSIDERANDO a Resolução TSE nº 23.644, de 1º de julho de 2021, que dispõe sobre a Política de Segurança da Informação (PSI) no âmbito da Justiça Eleitoral, adotada pelo TRE-PI por meio da Resolução nº 448, de 24 de maio de 2022; CONSIDERANDO a necessidade de promover o bem-estar dos(as) jurisdicionados(as) e garantir segurança jurídica, eficiência e transparência aos serviços prestados com o uso de IA; CONSIDERANDO o risco de exposição de dados e informações institucionais e pessoais sensíveis no uso de sistemas de IA, especialmente aqueles em plataformas abertas ou não contratadas formalmente; CONSIDERANDO que a Justiça Eleitoral do Piauí deve zelar pela segurança dos dados e informações aos quais tem acesso; CONSIDERANDO a importância de incentivar o uso de inovações que possam aprimorar o trabalho realizado por magistradas, magistrados, servidoras e servidores do Poder Judiciário; CONSIDERANDO o dever de proteger dados institucionais e pessoais, nos termos da Política de Segurança da Informação do TRE-PI; CONSIDERANDO a necessidade de regulamentar o desenvolvimento, o monitoramento, a utilização e a governança das soluções de Inteligência Artificial (IA) no âmbito do Tribunal Regional Eleitoral do Piauí; e CONSIDERANDO o resultado dos estudos das unidades administrativas do TRE-PI, constante do Processo SEI nº 0015696-54.2025.6.18.8000, RESOLVE: CAPÍTULO I DAS DISPOSIÇÕES GERAIS E DOS PRINCÍPIOS Art. 1º Ficam instituídas, por esta Resolução, as diretrizes para o desenvolvimento, a utilização ética, o monitoramento e a governança de soluções de Inteligência Artificial (IA) no âmbito da Justiça Eleitoral do Piauí, em conformidade com a Resolução CNJ nº 615/2025. Parágrafo único. Todos os modelos ou soluções de IA desenvolvidos, contratados ou adotados deverão ser compatíveis com os direitos fundamentais em todas as fases de seu ciclo de vida e seguir o disposto nesta Resolução e nas normas do Tribunal Superior Eleitoral (TSE) e do Conselho Nacional de Justiça (CNJ). Art. 2º O desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável e ético de soluções de IA pela Justiça Eleitoral do Piauí têm como princípios: I – a justiça, a equidade, a inclusão e a não-discriminação abusiva ou ilícita; II – a transparência, a eficiência, a explicabilidade, a contestabilidade, a auditabilidade e a confiabilidade das soluções que adotam técnicas de inteligência artificial; III – a segurança jurídica e a segurança da informação; IV – a busca da eficiência e qualidade na entrega da prestação jurisdicional pelo Poder Judiciário, garantindo sempre a observância dos direitos fundamentais e da legislação vigente; V – o devido processo legal, a ampla defesa e o contraditório, a identidade física do juiz e a razoável duração do processo, com observância das prerrogativas e dos direitos dos atores do sistema de Justiça; VI – a prevenção, a precaução e o controle quanto a medidas eficazes para a mitigação de riscos derivados do uso intencional ou não intencional de soluções que adotam técnicas de inteligência artificial; VII – a supervisão humana efetiva, periódica e adequada no ciclo de vida da inteligência artificial, considerando o grau de risco envolvido, com possibilidade de ajuste dessa supervisão conforme o nível de automação e impacto da solução utilizada; e VIII – a oferta, pelo TRE-PI, através de suas unidades competentes, de capacitação contínua para magistrados e servidores sobre novas tecnologias de IA, riscos da automação, vieses algorítmicos e análise crítica dos resultados gerados por IA, incluindo ações de treinamento e atualização contínua em soluções de Inteligência Artificial e sobre o uso adequado e responsável de modelos de IA Generativa (IAGen). Art. 3º Para os fins desta Resolução, considera-se: I – sistema de inteligência artificial (IA): sistema baseado em máquina que, com diferentes níveis de autonomia e para objetivos explícitos ou implícitos, processa um conjunto de dados ou informações fornecido e com o objetivo de gerar resultados prováveis e coerentes de decisão, recomendação ou conteúdo, que possam influenciar o ambiente virtual, físico ou real; II – ciclo de vida: série de fases que compreende a concepção, o planejamento, o desenvolvimento, o treinamento, o retreinamento, a testagem, a validação, a implantação, o monitoramento e eventuais modificações e adaptações de um sistema de inteligência artificial, incluindo sua descontinuidade, que pode ocorrer em quaisquer das etapas referidas, e o acompanhamento de seus impactos após a implantação; III – Sinapses: solução computacional destinada a armazenar, testar, treinar, distribuir e auditar modelos de inteligência artificial, disponível na Plataforma Digital do Poder Judiciário (PDPJ-Br); IV – usuário: pessoa que utiliza o sistema de IA e exerce controle sobre suas funcionalidades, podendo tal controle ser regulado ou limitado conforme seja externo ou interno ao Poder Judiciário; V – usuário interno: membro, servidor ou colaborador do Poder Judiciário que desenvolva ou utilize o sistema inteligente, podendo ser enquadrado em diferentes perfis conforme o cargo e área de atuação; VI – usuário externo: pessoa externa ao Poder Judiciário, que interage diretamente com o sistema de IA do Judiciário, incluindo advogados, defensores públicos, procuradores, membros do Ministério Público, peritos, assistentes técnicos e jurisdicionados em geral; VII – Inteligência Artificial (IA): o sistema computacional, com diferentes graus de autonomia, desenhado para inferir e produzir conteúdos, previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real; VIII – inteligência artificial generativa (IA generativa ou IAGen): sistema de IA especificamente destinado a gerar ou modificar significativamente, com diferentes níveis de autonomia, texto, imagens, áudio, vídeo ou código de software, além dos modelos estatísticos e de aprendizado a partir dos dados treinados; IX – avaliação de impacto algorítmico: análise contínua dos impactos de um sistema de IA sobre os direitos fundamentais, com a identificação de medidas preventivas, mitigadoras de danos e de maximização dos impactos positivos, sem a violação da propriedade industrial e intelectual da solução de IA utilizada; X – viés discriminatório ilegal ou abusivo: resultado indevidamente discriminatório que cria, reproduz ou reforça preconceitos ou tendências, derivados ou não dos dados ou seu treinamento; XI – auditabilidade: capacidade de um sistema de IA se sujeitar à avaliação dos seus algoritmos, dados, processos de concepção ou resultados, sempre que tecnicamente possível; XII – explicabilidade: compreensão clara, sempre que tecnicamente possível, de como as “decisões” são tomadas pela IA; XIII – contestabilidade: possibilidade de questionamento e revisão dos resultados gerados pela IA; XIV – modelo de IA: conjunto de dados e algoritmos computacionais concebidos a partir de modelos matemáticos, cujo objetivo é oferecer resultados inteligentes, associados ou comparáveis a determinados aspectos do pensamento, do saber ou da atividade humana; XV – dado sintético: informação artificialmente gerada por algoritmos ou simulações de computador que refletem estatisticamente ou matematicamente dados reais; XVI – supervisão humana: princípio segundo o qual toda decisão automatizada deve estar sujeita à intervenção e revisão humana; XVII – governança de IA: conjunto de processos, estruturas e políticas destinados a assegurar o uso ético, transparente e responsável da IA no âmbito institucional; XVIII – alucinações: informações que parecem plausíveis, mas são factualmente incorretas ou inventadas (ex: citar leis inexistentes, julgados falsos); XIX – Large Language Model (LLM): um tipo de IA treinada em enormes conjuntos de dados de texto para entender e gerar linguagem humana; e XX – prompt: texto em linguagem natural utilizado na IA generativa para execução de uma tarefa específica. CAPÍTULO II DA GESTÃO DAS SOLUÇÕES DE INTELIGÊNCIA ARTIFICIAL Art. 4º O Comitê Diretivo de Tecnologia da Informação (CDTI) será a instância deliberativa responsável por realizar a governança das soluções de IA no TRE-PI. § 1º O(A) titular da Secretaria de Tecnologia da Informação (STI) desempenhará as funções de Secretário(a) do CDTI, para os fins desta Resolução, cabendo-lhe apresentar as pautas relacionadas à adoção ou implementação de soluções de IA no âmbito do TRE-PI. § 2º O CDTI abordará o tema em suas reuniões, uma vez a cada trimestre, e extraordinariamente, sempre que necessário. Art. 5º Compete ao CDTI: I – supervisionar a conformidade das soluções de IA com esta Resolução, os demais atos normativos deste Regional, as normas do TSE e do CNJ; II – analisar os relatórios de Avaliação de Impacto Algorítmico (AIA) para soluções de inteligência artificial de alto risco; III – propor diretrizes éticas e de governança; IV – monitorar os resultados e propor melhorias nos sistemas de IA em uso; V - gerir os riscos dos sistemas de inteligência artificial inventariados no TRE-PI; e VI - recomendar e acompanhar a adoção de boas práticas de desenvolvimento em sistemas de inteligência artificial no âmbito do TRE-PI. Art. 6º O Comitê de Gestão de Inteligência Artificial (CGIA) será a instância tática e operacional responsável por dar suporte às decisões do CDTI e será composto por um(a) representante das seguintes unidades e núcleo que integram a estrutura administrativa deste Tribunal: I - Diretoria Geral (DG); II - Corregedoria Regional Eleitoral (CRE); III - Secretaria de Tecnologia da Informação (STI); IV - Secretaria de Administração, Orçamento e Finanças (SAOF); V - Secretaria Judiciária (SJ); VI - Secretaria de Gestão de Pessoas (SGP); VII - Ouvidoria (OUVIDORIA); VIII - Assessoria de Planejamento e Gestão Estratégica (ASPLAN); e IX - Núcleo de Segurança da Informação (NSI). Parágrafo único. O(A) representante da Secretaria de Tecnologia da Informação (STI) desempenhará as funções de Coordenador(a) a fim de apresentar as pautas relacionadas à adoção ou implementação de soluções de IA para apreciação pelo CGIA. Art. 7º Compete ao CGIA: I - receber, avaliar a viabilidade e definir o grau de risco das propostas de adoção, contratação, criação e desenvolvimento de novas ferramentas de IA; II - inventariar e manter atualizadas as informações sobre sistemas de IA em uso; III - consultar a plataforma Sinapses ou outros órgãos para verificar a existência de ferramentas semelhantes e registrar novas ferramentas desenvolvidas; IV - informar às áreas demandantes acerca da aprovação ou reprovação das propostas de criação e desenvolvimento de novas ferramentas de Inteligência Artificial; V - avaliar a prestação de contas dos projetos de modelos de sistemas de IA utilizados; VI - submeter ao CDTI as propostas consideradas viáveis; VII - implementar mecanismos de monitoramento contínuo para prevenir o uso de sistemas de IA vedadas; VIII - criar diretrizes internas para assegurar que as soluções de IA estejam em conformidade com os princípios estabelecidos nesta Resolução, com mecanismos adequados de supervisão e revisão periódica; IX - definir requisitos, metodologia, ferramentas e o ambiente adequado e seguro para o desenvolvimento, testes e implementações de modelos ou soluções de IA; X - promover avaliação dos sistemas de Inteligência Artificial classificadas como de alto risco, avaliando o impacto algorítmico, nos moldes definidos pelo Comitê Nacional de Inteligência Artificial do Poder Judiciário; e XI - propor metodologias de inovação, identificar oportunidades de automação e coordenar o mapeamento de riscos e benefícios do uso de IA. Parágrafo único. A análise de viabilidade das propostas de adoção, criação e desenvolvimento de novos modelos ou sistemas de IA deverá considerar aspectos de segurança da informação e proteção de dados, inclusive pessoais e sensíveis, baseando-se, ainda, na categorização e nos critérios de avaliação de risco previstos no Anexo "Classificação de Riscos" da Resolução CNJ nº 615/2025. Art. 8º Compete à Secretaria de Tecnologia da Informação: I - disponibilizar ou contratar ambiente adequado e seguro para o desenvolvimento, testes e implementações de modelos ou sistemas de IA; II - monitorar e garantir a integridade do ambiente, realizar atualizações de segurança, gerenciar de recursos e implementar políticas de retenção de dados; e III - conceder o acesso ao ambiente aos(às) usuários(as) internos(as) mediante solicitação. Parágrafo único: É vedada a criação de ambientes destinados ao desenvolvimento, testes ou qualquer outra finalidade relacionada à IA fora do âmbito institucional seguro e adequado. CAPÍTULO III DO CICLO DE VIDA, DO DESENVOLVIMENTO E DA CONTRATAÇÃO DE IA Art. 9º Propostas de novos modelos ou sistemas de IA deverão ser submetidas ao CGIA para avaliação de viabilidade, antes de qualquer início. Art. 10. Os novos projetos de modelos ou sistemas de IA considerados viáveis pelo CGIA deverão: I - indicar os(as) gestores(as) negociais e de tecnologia; II - adotar os princípios e diretrizes desta Resolução; e III - ser incluídos na plataforma Sinapses. Art. 11. O TRE-PI divulgará anualmente, em meio institucional, relatório com informações sobre iniciativas e projetos de IA, indicadores de uso, boas práticas e resultados obtidos. Art. 12. O desenvolvimento e a aquisição de soluções de IA deverão priorizar: I – a interoperabilidade e o desenvolvimento colaborativo com outros órgãos; II – o uso de dados provenientes de fontes públicas ou governamentais, garantindo sua precisão e integridade; III – a adoção de medidas de segurança da informação, incluindo criptografia e isolamento de dados, em conformidade com a LGPD e a Política de Segurança da Informação do TRE-PI; e IV - a compatibilidade dessas soluções com os direitos fundamentais previstos na Constituição da República ou em tratados de que a República Federativa do Brasil seja parte, em todas as fases do ciclo de vida da solução de IA. Art. 13. Será priorizada a utilização de dados sintéticos ou anonimizados nos processos de treinamento de IA. Parágrafo único. Na hipótese de utilização de dados reais, as amostras deverão ser, preferencialmente, representativas e observar as cautelas necessárias relativas à proteção de dados pessoais e sensíveis. Art. 14. O desenvolvimento de novos modelos ou soluções de IA deverá seguir os procedimentos dispostos na Política de Segurança da Informação da Justiça Eleitoral estabelecida pela Resolução TSE nº 23.644/2021 ou outra que venha a substituí-la. Art. 15. O desenvolvimento de soluções de IA no âmbito do TRE-PI deverá ser realizado preferencialmente no ambiente da Plataforma Sinapses ou em outro ambiente institucional seguro que garanta o isolamento dos dados. Art. 16. A utilização de modelos de IA de mercado (proprietários ou de código aberto) em ambiente institucional só será permitida mediante contratação ou acordo formal que assegure: I – a não utilização, para fins de treinamento do modelo, dos dados inseridos pelo TRE-PI; II – o armazenamento dos dados em território nacional ou em país que garanta nível de proteção de dados adequado; e III – a conformidade com a LGPD e as diretrizes de segurança da informação do Tribunal. Art. 17. A descontinuidade e a substituição de soluções de IA deverão observar o ciclo de vida seguro dos dados e do sistema, garantindo a eliminação adequada de registros, a revogação de chaves e credenciais de acesso, a exclusão de dados pessoais e a preservação dos logs necessários à auditoria e à rastreabilidade. CAPÍTULO IV DA CLASSIFICAÇÃO DE RISCO, DO USO E DAS VEDAÇÕES Art. 18. O uso de soluções de IA no TRE-PI observará a classificação de risco estabelecida pelo CNJ, visando à proteção dos direitos fundamentais, à mitigação de vieses discriminatórios e à garantia de equidade. § 1º As soluções de IA classificadas como de alto risco, conforme definição do CNJ, exigirão Avaliação de Impacto Algorítmico (AIA) prévia à sua implementação. § 2º A AIA deverá ser documentada e conter, no mínimo, a descrição do sistema, a finalidade, a análise de necessidade e proporcionalidade, e os mecanismos de mitigação de riscos identificados. § 3º Caso se constate a impossibilidade de eliminação do viés discriminatório, a solução de inteligência artificial deverá ser descontinuada e o registro do Sinapses deverá ser cancelado, podendo-se submeter o relatório de medidas adotadas e as razões que justificaram a decisão à análise independente, para a realização de estudos, se for o caso. Art. 19. Consideram-se de alto ou baixo risco, conforme o caso, as soluções que utilizem técnicas de inteligência artificial, desenvolvidas e utilizadas para as finalidades e contextos descritos no Anexo de Classificação de Riscos da Resolução CNJ nº 615/2025. § 1º As soluções de alto risco deverão ser submetidas a processos regulares de auditoria e monitoramento contínuo para supervisionar seu uso e mitigar potenciais riscos aos direitos fundamentais, à privacidade e à justiça. § 2º As soluções de baixo risco deverão ser monitoradas e revisadas periodicamente, para assegurar que permaneçam dentro dos parâmetros de baixo risco e que eventuais mudanças tecnológicas ou contextuais não alterem essa categorização. Art. 20. Qualquer sistema de IA deverá ser utilizado como ferramenta de apoio e auxílio na elaboração de minutas, nunca como substituto da competência decisória do(a) magistrado(a) ou do(a) gestor(a), sendo indispensável a supervisão humana para revisão e validação final, bem como vedada a tomada de decisões judiciais ou administrativas de forma totalmente automatizada. § 1º O(a) usuário(a) interno(a), seja magistrado(a), servidor(a) ou colaborador(a), terá autonomia para revisar e modificar qualquer conteúdo gerado pela IA, sendo responsável final pela decisão ou ato final praticado. § 2º Deverá ser priorizado o uso de prompts e modelos disponibilizados por fontes confiáveis e validadas. § 3º A revisão realizada pelo(a) usuário(a) deve englobar a análise de elementos como a acurácia factual, a correção jurídica, a pertinência ao caso concreto, a ausência de vieses e de alucinações, a adequação da linguagem e a fidedignidade de jurisprudências, leis e doutrinas citadas. Art. 21. Aos (Às) magistrados(as) e aos servidores(as) da Justiça Eleitoral do Piauí, no exercício de suas atribuições, somente é permitida a utilização de sistemas de Inteligência Artificial autorizados oficialmente pela Presidência do Tribunal, após manifestação do CDTI. Art. 22. As soluções de IA Generativa não contratadas pelo Tribunal poderão ser utilizadas por magistrados(as), servidores(as) e colaboradores(as) da Justiça Eleitoral do Piauí, em suas respectivas atividades, como ferramentas de auxílio à gestão ou de apoio à decisão, mediante autorização da STI, desde que em obediência aos padrões de segurança da informação e às normas desta Resolução. Parágrafo único. As solicitações para uso de solução de IA Generativa, a que se refere o caput, deverão ser encaminhadas à STI por meio do sistema SEI, utilizando-se modelo específico de formulário. Art. 23. Ficam vedados ao TRE-PI, por acarretarem risco excessivo à segurança da informação e aos direitos fundamentais dos cidadãos, o desenvolvimento e a utilização de soluções que se enquadrem nas vedações de risco excessivo previstas na Resolução CNJ nº 615/2025. Art. 24. Quando houver emprego de IA generativa para auxílio à redação de ato judicial, tal situação poderá ser mencionada no corpo da decisão, a critério do(a) magistrado(a), sendo, porém, devido o registro no sistema judicial com a utilização de marcador específico contendo essa indicação, para fins de produção de estatísticas, monitoramento e eventual auditoria. Art. 25. É vedado o uso de LLMs e sistemas de IA generativa para processar, analisar, gerar conteúdo ou servir de suporte a decisões, a partir de documentos ou dados sigilosos ou protegidos por segredo de justiça, salvo quando devidamente anonimizados na origem ou quando forem adotados mecanismos técnicos e procedimentais que garantam a efetiva proteção e segurança desses dados e de seus titulares. Art. 26. É vedado ao TRE-PI o desenvolvimento de sistemas, bem como o uso de LLMs e sistemas de IA generativa privados ou externos ao Judiciário, para as finalidades a seguir e outras que venham a ser igualmente consideradas de alto risco: I – que não possibilitem a revisão humana dos resultados propostos ao longo de seu ciclo de treinamento, desenvolvimento e uso, ou que gerem dependência absoluta do(a) usuário(a) em relação ao resultado proposto, sem possibilidade de alteração ou revisão; II – que valorem traços da personalidade, características ou comportamentos de pessoas naturais ou de grupos de pessoas naturais, para fins de avaliar ou prever o cometimento de crimes ou a probabilidade de reiteração delitiva na fundamentação de decisões judiciais, bem como para fins preditivos ou estatísticos com o propósito de fundamentar decisões em matéria eleitoral a partir da formulação de perfis pessoais; III – que classifiquem ou ranqueiem pessoas naturais, com base no seu comportamento ou situação social ou ainda em atributos da sua personalidade, para a avaliação da plausibilidade de seus direitos, méritos judiciais ou testemunhos; e IV – a identificação e a autenticação de padrões biométricos para o reconhecimento de emoções. CAPÍTULO V DA TRANSPARÊNCIA, DA AUDITORIA E DA CAPACITAÇÃO Art. 27. O TRE-PI deverá manter inventário atualizado de suas soluções de IA em uso, classificando-as quanto ao risco, conforme diretrizes do CNJ. Art. 28. O CGIA, em conjunto com a STI, definirá protocolos de auditoria periódica para monitorar o desempenho dos sistemas de IA desenvolvidos pelo Tribunal, especialmente quanto à detecção de vieses e à segurança dos dados. Art. 29. Os(as) gestores(as) negociais e de tecnologia, dos projetos de modelos ou soluções de IA homologados pelo CDTI, deverão submeter ao CGIA a prestação de contas de cada sistema, que compreenderá: I – os nomes dos responsáveis pela execução das ações e pela prestação de contas; II – os custos envolvidos com pesquisa, desenvolvimento, implantação, comunicação e treinamento; III – a existência de ações de colaboração e cooperação entre os agentes do setor público ou entre esses e a iniciativa privada ou a sociedade civil; IV – os resultados pretendidos e os que foram efetivamente alcançados; V – a demonstração de efetiva publicidade quanto à natureza do serviço oferecido, técnicas utilizadas, desempenho do sistema e riscos de erros; e VI – a demonstração da divulgação das informações acima mencionadas em formato acessível e linguagem simples, através de canais adequados, com atualizações regulares, permitindo a interação do público para esclarecimento de dúvidas e sugestões. Art. 30. Os(as) usuários(as) externos(as) deverão ser informados, de forma clara e acessível, quando interagirem com um sistema de IA. Art. 31. Ficam garantidos aos titulares, nos termos da Lei Geral de Proteção de Dados (LGPD), os direitos de contestação e revisão quanto às decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses. Art. 32. O desenvolvimento de pesquisas, ensino e treinamentos de Inteligência Artificial deve ser livre de preconceitos, visando: I – respeitar a dignidade e a liberdade de pessoas ou grupos envolvidos em suas atividades, evitando práticas de discriminação, assédio ou exclusão; II – coibir atividades que envolvam qualquer forma de risco ou prejuízo aos seres humanos, como testes inseguros ou a manipulação de dados sensíveis sem consentimento, ou ainda o uso indiscriminado ou malicioso de dados que possam comprometer a equidade das decisões; III – identificar e evitar sectarismos ou vieses que possam direcionar o curso da pesquisa ou seus resultados, comprometendo a objetividade ou a imparcialidade dos estudos. CAPÍTULO VI DA PLATAFORMA SINAPSES Art. 33. O TRE-PI incentivará o uso e a contribuição para a Plataforma Sinapses, mantida pelo CNJ, como ambiente preferencial para o desenvolvimento e o compartilhamento de soluções de IA. Art. 34. As soluções de IA desenvolvidas pelo TRE-PI, quando não envolverem informações estratégicas ou de segurança, deverão ser depositadas na Plataforma Sinapses para fomentar o desenvolvimento colaborativo. Parágrafo único. O depósito do código-fonte, bases de dados e demais partes da solução de IA poderão ser dispensados, sempre que as licenças de proteção ao direito autoral e à propriedade intelectual limitem seu compartilhamento público, hipótese em que o Tribunal deverá indicar quais são os sistemas, motores, bases de dados, LLMs e demais elementos utilizados na solução de IA, acompanhados de suas respectivas versões e fornecedores. CAPÍTULO VII DAS DISPOSIÇÕES FINAIS Art. 35. Os projetos de modelos ou soluções de IA, atualmente implantados ou em desenvolvimento, deverão ser submetidos ao CDTI para registro e inventário, no prazo de 90 (noventa) dias; e gradualmente adequados ao disposto nesta resolução, pelas áreas responsáveis, no prazo de 180 (cento e oitenta) dias. Art. 36. O CDTI deverá aprovar, em até 120 (cento e vinte) dias, documento ou formulário contendo as informações do modelo ou solução de IA a ser registrado ou avaliado. Art. 37. O CDTI deverá submeter à alta administração, em até 180 (cento e oitenta) dias, processo visando assegurar a realização de estudos, pesquisas, ensino e treinamentos de Inteligência Artificial livre de preconceitos, visando cumprir o art. 32 desta resolução. Art. 38. Os eventos adversos relacionados ao uso de soluções de inteligência artificial deverão ser comunicados, de forma imediata e obrigatória, por meio do sistema SEI, ao Comitê Gestor de Inteligência Artificial, que, quando necessário, reportará ao Comitê Nacional de Inteligência Artificial do Poder Judiciário no prazo de até 72 (setenta e duas) horas, após a sua identificação, conforme disposto no art. 42 da Resolução CNJ nº 615/2025. Art. 39. Os casos omissos serão resolvidos pela Presidência e pela Diretoria-Geral, no âmbito de suas atribuições. Art. 40. Esta resolução entra em vigor na data de sua publicação.
Desembargador SEBASTIÃO RIBEIRO MARTINS Presidente e Relator
Este texto não substitui o publicado no DJE de 07/01/2026. |

