O que é ChatGTP e, de forma mais geral, oIA generativa eles tinham um potencial imenso, nós rapidamente entendemos isso. Mas talvez com a mesma rapidez eles tentaram explorá-lo, sem avaliar adequadamente as implicações ou consequências. A Itália foi um dos primeiros países a tentar estabelecer fronteiras para estabelecer até onde você pode ir sem violar sua privacidade. Outras nações seguiram um caminho semelhante. E agora vem a notícia delançamento de uma task force europeia promover a cooperação e o intercâmbio de informações sobre possíveis medidas de execução tomadas por diferentes autoridades nacionais de proteção de dados.
Em suma, parece que está se espalhando a opinião de que para usar o ChatGTP de forma eficaz, você precisa saber como dominá-loimpedindo-o de fazer tudo o que ele quer ou poderia fazer, caso contrário, os riscos que ele corre podem ser muito grandes.
50 especialistas para uma lei de cobertura estendida
É neste sentido que um grupo de mais de 50 especialistas inteligência artificial e instituições. Este grupo tem escreveu um documento com quem exorta os funcionários europeus tente estabelecer regulamentação mais ampla para a tecnologia escopo da lei de IA da União Europeia.
Nesse sentido, lembramos que a proposta inicial de lei de inteligência artificial era introduzido pela Comissão Europeia em abril de 2021 e de fato isento em desenvolvedores de IA de uso geral (General Purpose AI, GPAI) da obrigação de atender a vários requisitos de documentação e relatórios previsto em lei. Esses requisitos eles se aplicam apenas a IA de alto risco, assim definido na lei de acordo com o uso ou contexto. Outra disposição (Artigo 28) confirmou esta posição, implicando que Os desenvolvedores de IA se tornariam responsáveis conformidade apenas se tiverem modificado ou adaptado significativamente o sistema de IA para uso de alto risco.
A “abordagem geral” do Conselho Europeu que se seguiu assumiu uma posição diferente, segundo a qual Os fornecedores originais do GPAI estarão sujeitos a determinados requisitos legaisembora o desenvolvimento das especificações seja delegado na Comissão.
A abordagem do IA Act para GPAI visa criar uma estrutura regulatória para resolver problemas em escala global (muito parecido com os objetivos regulatórios do GDPR).
O grupo de signatários, que inclui instituições como a Mozilla Foundation e especialistas como Timnit Gebru (nota do pesquisador sobre a ética da IA), acredita que, com o recente aumento da atenção do público na IA generativa, existe o risco de que a posição regulatória acabe se ajustando Também às preocupações do momento. E, portanto, embora as ferramentas GPAI possam não ser destinadas a usos de alto risco, elas ainda podem ser empregados em áreas que os tornam particularmente arriscados. Nesse sentido, o documento indica expressamente como exemplo as ferramentas de IA generativa, como ChatGPT, DALL-E, Bard ou Midjourney, que no entanto são definidas como ponta do iceberg.
Cinco considerações principais
O documento escrito por especialistas e instituições oferece cinco considerações principais para orientar a regulamentação dos AIPGs:
- GPAI é uma categoria estendida. Para que o direito europeu em inteligência artificial é sustentável, deve ser aplicado a uma gama de tecnologiasem vez de se limitar a chatbots ou modelos de linguagem grandes (LLMs).
- Os modelos GPA têm riscos inerentes e causaram danos consideráveis e comprovados. Embora esses riscos possam ser transferidos para uma ampla gama de atores e aplicações a jusante, eles não podem ser efetivamente mitigados na camada de aplicação.
- GPAI deve ser regulamentado durante todo o ciclo de vida do produto, e não apenas ao nível da aplicação, para ter em conta a variedade de assuntos envolvidos. A fase inicial de desenvolvimento é crucial e as empresas que desenvolvem esses modelos devem ser responsáveis pelos dados que usam e pelas escolhas de design o que eles estão fazendo. Sem regulação ao nível do desenvolvimento, a estrutura atual da cadeia de suprimentos de IA realmente permite que os atores que criam os modelos lucrem com isso de um aplicativo downstream, fugir de toda responsabilidade.
- Os desenvolvedores de GPAI eles não devem ser capazes de excluir sua responsabilidade simplesmente confiando em uma cláusula padrão. Essa abordagem cria uma brecha perigosa que libera os desenvolvedores originais do GPAI (muitas vezes grandes empresas com bons recursos), em vez disso, atribua responsabilidade apenas aos atores a jusante que carecem de recursos, acesso e capacidade para mitigar todos os riscos.
- A do GPAI é um campo de pesquisa ativo e altamente contestado e deve estar sujeito a ampla consulta, inclusive com a sociedade civil, pesquisadores e outras partes interessadas não industriais. Os regulamentos devem evite endossar métodos estreitos de avaliação e controle para que isso não resulte em um exercício superficial de marcar caixas.
Um precedente global
Segundo Mehtab Khan, signatário residente e companheiro, bem como líder da Yale/Wikimedia Initiative sobre intermediários e informações, a legislação deve considerar como a IA é desenvolvida, incluindo coleta de dados, atores envolvidos em tal coleta de tecnologia e treinamento e muito mais. Kahn argumentou que rótulos simples indicando alto e baixo risco “falha em capturar adequadamente o momento” de tecnologia.
“Como é, A lei europeia sobre inteligência artificial está prestes a se tornar a primeira legislação global sobre inteligência artificial – ele adicionou Sarah Myers West, CEO do AI Now Instituteque contribuíram para a redação do documento – E se acontecer, vai ficar tudo bem um precedente global. Para isso é acima de tudo É importante que a lei regule adequadamente esta categoria de IA: ele poderia realmente se tornar um modelo que outros possam seguir”.
“Aficionado por zumbis que gosta de hipster. Explorador típico. Defensor da cultura pop. Nerd de mídia social.”