Outros

Líderes jurídicos devem preparar organizações para regulamentação de IA

A Gartner identificou quatro áreas críticas para os líderes legais e de compliance terem em conta no âmbito da popularização de ferramentas de Large Language Model e consequentes regulamentações

07-07-2023 . Por TecnoHotelPortugal

Líderes jurídicos devem preparar organizações para regulamentação de IA

Com vários legisladores em todo o mundo a proporem regulamentações e orientações sobre ferramentas de Large Language Model (LLM), a Gartner identificou quatro áreas críticas para os líderes legais e de compliance. 

“Os líderes legais podem examinar onde as várias propostas se sobrepõem para ajudar os líderes séniores e o conselho a se prepararem para mudanças regulatórias à medida que desenvolvem a sua estratégia corporativa de IA”, disse Laura Cohn, investigadora sénior na Gartner. “Embora as leis em muitas jurisdições possam não entrar em vigor até 2025, os líderes podem começar enquanto esperam que a regulamentação finalizada tome forma”, acrescentou. 

Incorporar transparência no uso de IA 

“A transparência sobre o uso de IA está a emergir como um princípio crítico da legislação proposta em todo o mundo. Os líderes jurídicos precisam de pensar em como as suas organizações vão deixar isso claro para qualquer ser humano quando estiverem a interagir com a IA”, disse Laura Cohn. Por exemplo, com a utilização de IA em conteúdo de marketing e no processo de contratação, os líderes podem ajudar a atualizar os avisos de privacidade e os termos de condições nos sites da empresa, com, inclusivamente, uma seção separada que avisa sobre a recolha de dados e as maneiras como a organização usa a IA. Os líderes jurídicos também podem considerar a atualização do código de conduta do fornecedor para ser notificado no caso de o fornecedor planear usar IA.

Garantir que a gestão de riscos seja contínua

“Os líderes legais e de General Counsel (GC) devem participar num esforço multifuncional para implementar controlos de gestão de risco que abranjam o ciclo de vida de qualquer ferramenta de IA de alto risco. Uma abordagem para isso pode ser uma avaliação de impacto do algoritmo que documenta a tomada de decisões, demonstra a devida diligência e reduzirá o risco regulatório presente e futuro e outras responsabilidades”, disse a investigadora. 

Além do jurídico, o GC deve envolver segurança da informação, gestão de dados, ciência de dados, privacidade, compliance e as unidades de negócios relevantes para obter uma visão mais completa do risco. Como os líderes jurídicos normalmente não são donos do processo de negócios para o qual incorporam controlos, consultar as unidades de negócios relevantes é vital.

Construa governance que inclua supervisão humana e responsabilidade 

“Um risco que é muito claro no uso de ferramentas de LLM é que podem errar muito enquanto soam superficialmente plausíveis. É por isso que os reguladores estão a exigir supervisão humana, que deve fornecer verificações internas sobre a produção de ferramentas de IA”, disse Laura Cohn. As empresas podem querer designar uma pessoa, dependendo de qual departamento hospeda a iniciativa de IA, com profundo conhecimento funcional. O GC também poderia estabelecer um conselho consultivo de ética digital de especialistas jurídicos, operacionais, de IT, marketing e externos para ajudar as equipas de projeto a gerir questões éticas e, em seguida, garantir que o conselho de administração esteja ciente de descobertas.

Proteja-se contra riscos de privacidade de dados 

A investigadora da Gartner diz que “está claro que os reguladores querem proteger a privacidade de dados dos indivíduos quando se trata do uso de IA. Será fundamental que os líderes jurídicos fiquem por dentro de quaisquer práticas recentemente proibidas, como a monitorização biométrica em espaços públicos”.

Os líderes legais e de compliance devem gerir o risco de privacidade aplicando princípios de privacidade por design a iniciativas de IA. Por exemplo, com avaliações de impacto à privacidade no início do projeto ou membros da equipa de privacidade a avaliar os riscos à privacidade, desde o início.

Segundo a Gartner, com as versões públicas das ferramentas de LLM, as organizações devem alertar a força de trabalho de que qualquer informação inserida pode se tornar parte do conjunto de dados de treino, pelo que informações confidenciais ou proprietárias usadas em treinos podem ir dar a respostas para utilizadores fora da empresa. Portanto, é fundamental estabelecer diretrizes, informar a equipa sobre os riscos envolvidos e fornecer orientação sobre como implementar essas ferramentas com segurança.

Líderes jurídicos devem preparar organizações para regulamentação de IA

A Gartner identificou quatro áreas críticas para os líderes legais e de compliance terem em conta no âmbito da popularização de ferramentas de Large Language Model e consequentes regulamentações

06/07/2023

Com vários legisladores em todo o mundo a proporem regulamentações e orientações sobre ferramentas de Large Language Model (LLM), a Gartner identificou quatro áreas críticas para os líderes legais e de compliance. 

“Os líderes legais podem examinar onde as várias propostas se sobrepõem para ajudar os líderes séniores e o conselho a se prepararem para mudanças regulatórias à medida que desenvolvem a sua estratégia corporativa de IA”, disse Laura Cohn, investigadora sénior na Gartner. “Embora as leis em muitas jurisdições possam não entrar em vigor até 2025, os líderes podem começar enquanto esperam que a regulamentação finalizada tome forma”, acrescentou. 

Incorporar transparência no uso de IA 

“A transparência sobre o uso de IA está a emergir como um princípio crítico da legislação proposta em todo o mundo. Os líderes jurídicos precisam de pensar em como as suas organizações vão deixar isso claro para qualquer ser humano quando estiverem a interagir com a IA”, disse Laura Cohn. Por exemplo, com a utilização de IA em conteúdo de marketing e no processo de contratação, os líderes podem ajudar a atualizar os avisos de privacidade e os termos de condições nos sites da empresa, com, inclusivamente, uma seção separada que avisa sobre a recolha de dados e as maneiras como a organização usa a IA. Os líderes jurídicos também podem considerar a atualização do código de conduta do fornecedor para ser notificado no caso de o fornecedor planear usar IA.

Garantir que a gestão de riscos seja contínua

“Os líderes legais e de General Counsel (GC) devem participar num esforço multifuncional para implementar controlos de gestão de risco que abranjam o ciclo de vida de qualquer ferramenta de IA de alto risco. Uma abordagem para isso pode ser uma avaliação de impacto do algoritmo que documenta a tomada de decisões, demonstra a devida diligência e reduzirá o risco regulatório presente e futuro e outras responsabilidades”, disse a investigadora. 

Além do jurídico, o GC deve envolver segurança da informação, gestão de dados, ciência de dados, privacidade, compliance e as unidades de negócios relevantes para obter uma visão mais completa do risco. Como os líderes jurídicos normalmente não são donos do processo de negócios para o qual incorporam controlos, consultar as unidades de negócios relevantes é vital.

Construa governance que inclua supervisão humana e responsabilidade 

“Um risco que é muito claro no uso de ferramentas de LLM é que podem errar muito enquanto soam superficialmente plausíveis. É por isso que os reguladores estão a exigir supervisão humana, que deve fornecer verificações internas sobre a produção de ferramentas de IA”, disse Laura Cohn. As empresas podem querer designar uma pessoa, dependendo de qual departamento hospeda a iniciativa de IA, com profundo conhecimento funcional. O GC também poderia estabelecer um conselho consultivo de ética digital de especialistas jurídicos, operacionais, de IT, marketing e externos para ajudar as equipas de projeto a gerir questões éticas e, em seguida, garantir que o conselho de administração esteja ciente de descobertas.

Proteja-se contra riscos de privacidade de dados 

A investigadora da Gartner diz que “está claro que os reguladores querem proteger a privacidade de dados dos indivíduos quando se trata do uso de IA. Será fundamental que os líderes jurídicos fiquem por dentro de quaisquer práticas recentemente proibidas, como a monitorização biométrica em espaços públicos”.

Os líderes legais e de compliance devem gerir o risco de privacidade aplicando princípios de privacidade por design a iniciativas de IA. Por exemplo, com avaliações de impacto à privacidade no início do projeto ou membros da equipa de privacidade a avaliar os riscos à privacidade, desde o início.

Segundo a Gartner, com as versões públicas das ferramentas de LLM, as organizações devem alertar a força de trabalho de que qualquer informação inserida pode se tornar parte do conjunto de dados de treino, pelo que informações confidenciais ou proprietárias usadas em treinos podem ir dar a respostas para utilizadores fora da empresa. Portanto, é fundamental estabelecer diretrizes, informar a equipa sobre os riscos envolvidos e fornecer orientação sobre como implementar essas ferramentas com segurança.

 

Fonte: www.smartplanet.pt


RECOMENDADO PELOS LEITORES

Revista digital

THPORTUGAL 30 MARÇO/ABRIL 2024

THPORTUGAL 30 MARÇO/ABRIL 2024

Newsletter

Seja o primeiro a receber todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.