¡Rexístrate

informe

Unha guía para os responsables políticos: avaliación de tecnoloxías en rápido desenvolvemento, incluíndo IA, grandes modelos lingüísticos e máis alá

Neste documento, o ISC explora o esquema dun marco para informar aos responsables políticos sobre as múltiples discusións globais e nacionais que teñen lugar relacionadas coa IA.

A guía do ISC ofrece un marco completo deseñado para salvar a brecha entre os principios de alto nivel e unha política práctica e accionable. Responde á necesidade urxente dunha comprensión común tanto das oportunidades como dos riscos que presentan as tecnoloxías emerxentes. Este é un documento esencial para aqueles que traballan no nexo político na nosa era dixital en rápido cambio.

O marco explora o potencial da IA ​​e os seus derivados a través dunha lente integral, que abarca o benestar humano e social xunto con factores externos como a economía, a política, o medio ambiente e a seguridade. Algúns aspectos da lista de verificación poden ser máis relevantes que outros, dependendo do contexto, pero as mellores decisións parecen máis probables se se consideran todos os dominios, aínda que algúns poidan identificarse rapidamente como irrelevantes en casos particulares. Este é o valor inherente dun enfoque de lista de verificación.

"Nunha era marcada pola rápida innovación tecnolóxica e complexos desafíos globais, o marco do ISC para a análise integral e multidimensional dos posibles impactos capacita aos líderes para tomar decisións informadas e responsables. Asegura que a medida que avanzamos tecnoloxicamente, o fagamos cunha consideración coidadosa das implicacións éticas, sociais e económicas”.

Peter Gluckman, presidente do ISC

Aínda que a UNESCO, a OCDE, a Comisión Europea e a ONU, entre outros, promulgaron principios de alto nivel, e continúan varias discusións sobre cuestións de gobernanza, regulación, ética e seguridade en potencia, existe unha gran brecha entre tales principios e un gobernanza ou marco normativo. O ISC aborda esta necesidade a través da súa nova guía para os responsables políticos.

Esta guía para responsables políticos non pretende proscribir un réxime normativo, senón máis ben suxerir un marco analítico adaptativo e en evolución que podería sustentar calquera avaliación e proceso normativo que poidan desenvolver as partes interesadas, incluídos os gobernos e o sistema multilateral.

"O marco é un paso crítico na conversación global sobre a IA, xa que proporciona unha base a partir da cal podemos construír consenso sobre as implicacións da tecnoloxía para agora e para o futuro". 

Hema Sridhar, antiga asesora científica xefa do Ministerio de Defensa de Nova Zelandia e agora investigadora sénior Fellow, Universidade de Auckland, Nova Zelandia.

Desde outubro de 2023, houbo varias iniciativas nacionais e multilaterais significativas con máis consideración da ética e a seguridade da IA. As implicacións da IA ​​na integridade dalgúns dos nosos sistemas críticos, incluídos os financeiros, os gobernamentais, os legais e a educación, así como os diferentes sistemas de coñecemento (incluído o coñecemento científico e autóctono), son cada vez máis preocupantes. O marco reflicte ademais estes aspectos.

Os comentarios recibidos dos membros do ISC e da comunidade internacional de formulación de políticas ata a data reflíctese na versión revisada do marco analítico, que agora se publica como guía para os responsables políticos.

Unha guía para os responsables políticos: avaliación de tecnoloxías en rápido desenvolvemento, incluíndo IA, grandes modelos lingüísticos e máis alá

Este documento de debate proporciona o esquema dun marco inicial para informar as múltiples discusións globais e nacionais que teñen lugar relacionadas coa IA.

Marco para o seu uso na súa organización

Descarga o marco para usar na túa organización

Aquí fornecemos a ferramenta de marco como folla de Excel editable para usar na súa organización. Se prefires un formato de código aberto, póñase en contacto [protexido por correo electrónico].

introdución

As tecnoloxías emerxentes rapidamente presentan problemas desafiantes cando se trata do seu uso, goberno e regulación potencial. As políticas e os debates públicos en curso sobre a intelixencia artificial (IA) e o seu uso fixeron que estes problemas se centren de forma aguda. A UNESCO, a OCDE, a ONU e outros anunciaron principios amplos para a IA, incluída a Declaración de Bletchley do Reino Unido, e están emerxentes intentos xurisdiccionais de regulación de aspectos da tecnoloxía a través, por exemplo, da IA ​​da Unión Europea (UE). Act ou a recente Orde Executiva de AI dos Estados Unidos.

Aínda que o uso da intelixencia artificial se discute extensamente nestes e noutros foros, a través das divisións xeopolíticas e en países a todos os niveis de renda, segue habendo unha brecha ontolóxica entre o desenvolvemento de principios de alto nivel e a súa incorporación á práctica a través de regulacións, políticas ou gobernanza. ou enfoques de administración. O camiño do principio á práctica está mal definido, pero dada a natureza e a cadencia do desenvolvemento e aplicación da IA, a variedade de intereses implicados e a gama de aplicacións posibles, calquera enfoque non pode ser excesivamente xenérico ou prescritivo.

Por estes motivos, a comunidade científica non gobernamental segue a desempeñar un papel especial. O Consello Internacional da Ciencia (ISC) -coa súa pluralidade de membros das ciencias sociais e naturais- publicou un documento de debate en outubro de 2023 no que presentaba un marco analítico preliminar que consideraba os riscos, beneficios, ameazas e oportunidades asociadas coa tecnoloxía dixital en rápido movemento. Aínda que foi desenvolvido para considerar a IA, é inherentemente independente da tecnoloxía e pódese aplicar a unha variedade de tecnoloxías emerxentes e disruptivas, como a bioloxía sintética e a cuántica. Ese documento de debate invitou a comentarios de académicos e responsables políticos. Os comentarios abrumadores fixeron necesaria a realización desta análise e constituíronse un enfoque valioso para abordar tecnoloxías emerxentes como a IA.

O obxectivo do marco é proporcionar unha ferramenta para informar a todas as partes interesadas, incluídos os gobernos, os negociadores comerciais, os reguladores, a sociedade civil e a industria, sobre a evolución destas tecnoloxías para axudarlles a definir como poden considerar as implicacións, positivas ou negativas, de a propia tecnoloxía, e máis concretamente a súa aplicación particular. Este marco analítico desenvolveuse independentemente dos intereses do goberno e da industria. É o máximo pluralista nas súas perspectivas, que abarca todos os aspectos da tecnoloxía e as súas implicacións baseándose nunha ampla consulta e comentarios.

Este documento de debate para os responsables políticos non pretende proscribir un réxime normativo, senón suxerir un marco analítico adaptativo e en evolución que podería sustentar calquera avaliación e proceso de regulación que poidan desenvolver as partes interesadas, incluídos os gobernos e o sistema multilateral.

Dado que os responsables de tomar decisións a nivel mundial e nacional consideran as configuracións políticas e palancas adecuadas para equilibrar os riscos e as recompensas dunha nova tecnoloxía como a IA, o marco analítico pretende ser unha ferramenta complementaria para garantir que se reflictan adecuadamente todo o conxunto de posibles implicacións.

Antecedentes: por que un marco analítico?

A rápida aparición de tecnoloxías coa complexidade e as implicacións da IA ​​está a impulsar moitas afirmacións de gran beneficio. Non obstante, tamén provoca medos a riscos significativos, desde o nivel individual ata o xeoestratéxico.1 Gran parte da discusión ata a data considerouse nun sentido binario xa que as opinións expresadas publicamente tenden a ter lugar nos extremos do espectro. As afirmacións a favor ou en contra da IA ​​adoitan ser hiperbólicas e, dada a natureza da tecnoloxía, difíciles de avaliar.

É necesario un enfoque máis pragmático onde se substitúa a hipérbole por avaliacións calibradas e máis granulares. A tecnoloxía da intelixencia artificial seguirá evolucionando e a historia mostra que practicamente todas as tecnoloxías teñen usos beneficiosos e prexudiciais. A pregunta é, polo tanto: como podemos conseguir os resultados beneficiosos desta tecnoloxía, reducindo ao mesmo tempo o risco de consecuencias prexudiciais, algunhas das cales poderían ser de magnitude existencial?

O futuro é sempre incerto, pero hai suficientes voces creíbles e expertas sobre a IA e a IA xerativa para fomentar un enfoque relativamente precautorio. Ademais, é necesario un enfoque de sistemas, xa que a IA é unha clase de tecnoloxías con amplo uso e aplicación por varios tipos de usuarios. Isto significa que debe considerarse o contexto completo ao considerar as implicacións de calquera uso da IA ​​para os individuos, a vida social, a vida cívica, a vida social e no contexto global.

A diferenza da maioría das outras tecnoloxías, para tecnoloxías dixitais e relacionadas, o tempo entre o desenvolvemento, o lanzamento e a aplicación é extremadamente curto, en gran parte impulsado polos intereses das produtoras ou axencias. Pola súa propia natureza -e dado que está baseada na columna vertebral dixital- a IA terá aplicacións que se extenderán rapidamente, como xa se viu co desenvolvemento de grandes modelos lingüísticos. Como resultado, algunhas propiedades só poden aparecer despois do lanzamento, o que significa que existe o risco de consecuencias imprevistas, tanto malévolas como benévolas.

As dimensións dos valores sociais importantes, especialmente en diferentes rexións e culturas, influirán na forma en que se percibe e se acepta calquera uso. Ademais, os intereses xeoestratéxicos xa dominan a discusión, con intereses soberanos e multilaterais que se cruzan continuamente e impulsan así a competencia e a división.

Ata a data, gran parte da regulación dunha tecnoloxía virtual foi vista en gran medida a través da lente dos "principios" e do cumprimento voluntario, aínda que coa Lei de IA da UE2 e similar estamos a ver un cambio cara a normativas máis exixibles pero algo estreitas. Establecer un sistema de goberno e/ou regulación tecnolóxico global ou nacional eficaz segue sendo un reto e non hai unha solución obvia. Serán necesarias varias capas de toma de decisións informadas sobre o risco ao longo da cadea, desde o inventor ao produtor, ao usuario, ao goberno e ao sistema multilateral.

Aínda que a UNESCO, a OCDE, a Comisión Europea e a ONU, entre outros, promulgaron principios de alto nivel, e continúan varias discusións de alto nivel sobre cuestións de gobernanza, regulación, ética e seguridade en potencia, existe unha gran brecha entre tales principios e un marco normativo ou de goberno. Isto hai que abordalo.

Como punto de partida, o ISC considera desenvolver unha taxonomía de consideracións que calquera desenvolvedor, regulador, asesor de políticas, consumidor ou toma de decisións podería facer referencia. Dadas as amplas implicacións destas tecnoloxías, tal taxonomía debe considerar a totalidade das implicacións en lugar dun encadramento estreito. A fragmentación global está aumentando debido á influencia dos intereses xeoestratéxicos na toma de decisións e, dada a urxencia desta tecnoloxía, é esencial que as voces independentes e neutrales defendan de xeito persistente un enfoque unificado e integrador.


1) Hindustan Times. 2023. O G20 debe constituír un panel internacional sobre o cambio tecnolóxico.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) A Lei de Intelixencia Artificial da UE. 2023. https://artificialintelligenceact.eu

O desenvolvemento dun marco analítico

O ISC é a principal organización non gobernamental global que integra as ciencias naturais e sociais. O seu alcance global e disciplinario significa que está ben situado para xerar consellos independentes e relevantes a nivel mundial para informar as complexas eleccións por diante, especialmente porque as voces actuais neste ámbito son en gran parte da industria ou das comunidades políticas e políticas das principais potencias tecnolóxicas.

Tras un período de extensa discusión, que incluíu a consideración dun proceso de avaliación non gobernamental, o ISC concluíu que a súa contribución máis útil sería producir un marco analítico adaptativo que poida ser utilizado como base para o discurso e a toma de decisións por parte de todos. partes interesadas, incluso durante calquera proceso de avaliación formal que xurda.

O marco analítico preliminar, que se publicou para debate e comentarios en outubro de 2023, tomou a forma dunha lista de verificación xeral deseñada para o seu uso tanto por institucións gobernamentais como por institucións non gobernamentais. O marco identificou e explorou o potencial dunha tecnoloxía como a IA e os seus derivados a través dunha lente ampla que abarca o benestar humano e social, así como factores externos como a economía, a política, o medio ambiente e a seguridade. Algúns aspectos da lista de verificación poden ser máis relevantes que outros, dependendo do contexto, pero as mellores decisións parecen máis probables se se consideran todos os dominios, aínda que algúns poidan identificarse rapidamente como irrelevantes en casos particulares. Este é o valor inherente dun enfoque de lista de verificación.

O marco preliminar derivouse de traballos e pensamentos anteriores, incluíndo o informe da Rede Internacional de Asesoramento Científico Gubernamental (INGSA) sobre o benestar dixital3 e o Marco da OCDE para a Clasificación de Sistemas de IA,4 para presentar a totalidade das oportunidades, riscos e impactos potenciais. de AI. Estes produtos anteriores eran máis restrinxidos na súa intención dado o seu tempo e contexto; é necesario un marco global que presente toda a gama de cuestións tanto a curto como a longo prazo.

Desde a súa publicación, o documento de debate recibiu un apoio significativo de moitos expertos e responsables políticos. Moitos apoiaron especificamente a recomendación de desenvolver un marco adaptativo que permita unha consideración deliberada e proactiva dos riscos e implicacións da tecnoloxía e, ao facelo, sempre teña en conta a totalidade das dimensións desde o individuo ata a sociedade e os sistemas.

Unha observación clave feita a través da retroalimentación foi o recoñecemento de que varias das implicacións consideradas no marco son inherentemente multifacéticas e esténdense a través de múltiples categorías. Por exemplo, a desinformación podería considerarse tanto dende a lente individual como xeoestratéxica; así, as consecuencias serían amplos.

Tamén se suxeriu a opción de incluír casos prácticos ou exemplos para probar o marco. Isto podería usarse para desenvolver directrices que demostren como se podería usar na práctica en diferentes contextos. Non obstante, esta sería unha empresa importante e pode limitar a forma en que os diferentes grupos perciben o uso deste marco. Faino mellor os responsables políticos que traballan con expertos en xurisdicións ou contextos específicos.

Desde outubro de 2023, houbo varias iniciativas nacionais e multilaterais significativas con máis consideración da ética e a seguridade da IA. As implicacións da IA ​​na integridade dalgúns dos nosos sistemas críticos, incluídos os financeiros, os gobernamentais, os legais e a educación, así como os diferentes sistemas de coñecemento (incluído o coñecemento científico e autóctono), son cada vez máis preocupantes. O marco revisado reflicte aínda máis estes aspectos.

Os comentarios recibidos ata a data reflíctese na versión revisada do marco analítico, que agora se publica como guía para os responsables políticos.

Aínda que o marco preséntase no contexto da IA ​​e tecnoloxías relacionadas, é inmediatamente transferible ás consideracións doutras tecnoloxías de emerxencia rápida como a bioloxía cuántica e sintética.


3) Gluckman, P. e Allen, K. 2018. Comprensión do benestar no contexto das rápidas transformacións dixitais e asociadas. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OCDE. 2022. Marco da OCDE para a Clasificación dos sistemas de IA. Documentos da OCDE sobre economía dixital, n.o 323,#. París, OCDE Publishing.
https://oecd.ai/en/classificatio

O Marco

A seguinte táboa presenta as dimensións dun suposto marco analítico. Ofrécense exemplos para ilustrar por que cada dominio pode importar; no contexto, o marco requiriría unha expansión contextualmente relevante. Tamén é importante distinguir entre os problemas xenéricos que xorden durante o desenvolvemento da plataforma e os que poden xurdir durante aplicacións específicas. Ningunha consideración incluída aquí debe ser tratada como unha prioridade e, como tal, deberían examinarse todas.

As cuestións agrúpanse amplamente nas seguintes categorías, como se indica a continuación:

  • Benestar (incluíndo o dos individuos ou propios, a sociedade, a vida social e a vida cívica)
  • Comercio e economía
  • Ambiental
  • Xeoestratéxico e xeopolítico
  • Tecnolóxico (características do sistema, deseño e uso)

A táboa detalla as dimensións que poden ter que ter en conta ao avaliar unha nova tecnoloxía.

? INGSA. 2018. Comprender o benestar no contexto das rápidas transformacións dixitais e asociadas.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

? Novos descritores (obtidos a través da ampla consulta e comentarios e revisión da literatura)

? Marco da OCDE para a Clasificación de Sistemas de IA: unha ferramenta para políticas eficaces de IA.
https://oecd.ai/en/classification

Dimensións do impacto: Individual / propio

CriteriosExemplos de como isto pode reflectirse na análise
?Competencia de IA dos usuariosQue tan competentes e conscientes das propiedades do sistema son os usuarios probables que interactuarán co sistema? Como se lles proporcionará a información e as advertencias pertinentes do usuario?
? Parte interesada afectadaQuen son os principais actores que se verán afectados polo sistema (individuos, comunidades, persoas vulnerables, traballadores sectoriais, nenos, responsables políticos, profesionais, etc.)?
? Opcionalidade¿Os usuarios teñen a oportunidade de desactivar o sistema ou se lles dá oportunidades de desafiar ou corrixir a saída?
?Riscos para os dereitos humanos e os valores democráticosIncide o sistema fundamentalmente nos dereitos humanos, incluíndo, entre outros, a privacidade, a liberdade de expresión, a equidade, a non discriminación, etc.?
?Efectos potenciais sobre o benestar das persoasAs áreas de impacto do sistema están relacionadas co benestar individual do usuario (calidade do traballo, educación, interaccións sociais, saúde mental, identidade, medio ambiente, etc.)?
? Potencial de desprazamento laboral humanoExiste potencial para que o sistema automatice tarefas ou funcións que estaban a ser executadas por humanos? En caso afirmativo, cales son as consecuencias posteriores?
? Potencial de manipulación da identidade, dos valores ou do coñecementoÉ o sistema deseñado ou potencialmente capaz de manipular a identidade do usuario ou
establecen valores ou difunden desinformación?
? Oportunidades de autoexpresión e autorrealizaciónHai potencial para o artificio e a dúbida de si mesmo? Existe potencial para falso ou
reclamacións de pericia non verificables?
? Medidas de autoestimaHai presión para retratar o eu idealizado? Podería a automatización substituír un sentido
de realización persoal? Hai presión para competir co sistema no
lugar de traballo? É máis difícil protexer a reputación individual contra a desinformación?
? PrivacidadeHai responsabilidades difusas para salvagardar a privacidade e hai algunha?
suposicións sobre como se usan os datos persoais?
? AutonomíaPodería o sistema de IA afectar á autonomía humana xerando unha dependencia excesiva de?
usuarios finais?
? Desenvolvemento humanoHai un impacto na adquisición de habilidades clave para o desenvolvemento humano, como
funcións executivas ou habilidades interpersoais, ou cambios no tempo de atención que afectan
aprendizaxe, desenvolvemento da personalidade, problemas de saúde mental, etc.?
? Asistencia sanitaria persoalExisten reclamacións de autodiagnóstico ou solucións de atención sanitaria personalizadas? Se é así,
están validados segundo os estándares regulamentarios?
? Saúde mentalExiste o risco de aumentar a ansiedade, a soidade ou outros problemas de saúde mental, ou
pode a tecnoloxía mellorar tales impactos?
? Evolución humanaPoderían os grandes modelos lingüísticos e a intelixencia xeral artificial cambiar o
curso da evolución humana?
? Interacción humano-máquinaPodería o uso levar a descualificación e dependencia ao longo do tempo dos individuos? Son
hai impactos na interacción humana?
5) Os criterios tecnolóxicos considerados no marco son específicamente para a IA e deberán ser revisados ​​para outras tecnoloxías segundo corresponda.

Dimensións de impacto: Sociedade/vida social

Criterios Exemplos de como isto pode reflectirse na análise
? Valores sociaisO sistema cambia fundamentalmente a natureza da sociedade, permite a normalización de ideas antes consideradas antisociais ou viola os valores sociais da cultura na que se está aplicando?
? Interaccións sociaisHai algún efecto no contacto humano significativo, incluídas as relacións emocionais?
? Saúde da poboaciónExiste potencial para o sistema para avanzar ou socavar as intencións de saúde da poboación?
? Expresión culturalÉ probable ou máis difícil abordar un aumento da apropiación cultural ou da discriminación? A dependencia do sistema para a toma de decisións exclúe ou marxina lazos sectoriais da sociedade culturalmente relevantes?
? Educación públicaHai algún efecto nos roles do profesorado ou nas institucións educativas? O sistema enfatiza ou reduce a fenda dixital e a desigualdade entre os estudantes? Está avanzado ou minado o valor intrínseco do coñecemento ou da comprensión crítica?
? Realidades distorsionadasSeguen aplicables os métodos utilizados para discernir o que é verdade? Está comprometida a percepción da realidade?

Dimensións do impacto: contexto económico (comercio)

CriteriosExemplos de como isto pode reflectirse na análise
? Sector industrialEn que sector industrial está implantado o sistema (finanzas, agricultura, sanidade, educación, defensa, etc.)?
? Modelo de negocioEn que función empresarial se emprega o sistema e en que funcións? Onde se utiliza o sistema (privado, público, sen ánimo de lucro)?
? Impactos nas actividades críticas A interrupción da función ou actividade do sistema afectaría aos servizos esenciais ou ás infraestruturas críticas?
?Amplitude do despregamentoComo se implanta o sistema (uso limitado dentro da unidade vs. xeneralizado a nivel nacional/internacional)?
? Madurez técnicaQue tan maduro está tecnicamente o sistema?
? Interoperabilidade É probable que haxa silos, a nivel nacional ou mundial, que inhiban o libre comercio e afecten a cooperación cos socios?
? Soberanía tecnolóxicaO desexo de soberanía tecnolóxica impulsa os comportamentos, incluído o control sobre toda a cadea de subministración de IA?
? Redistribución da renda e pancas fiscais nacionaisPoderíanse comprometer os papeis fundamentais do Estado soberano (por exemplo, os bancos de reserva)? ¿Avanzarase ou reducirase a capacidade do Estado para satisfacer as expectativas e implicacións dos cidadáns (sociais, económicas, políticas, etc.)?
? División dixital (división AI) Agravan as desigualdades dixitais existentes ou créanse outras novas?

Dimensións do impacto: vida cívica

CriteriosExemplos de como isto pode reflectirse na análise
? Gobernanza e servizo públicoOs mecanismos de goberno e o sistema de goberno global poderían verse afectados positiva ou negativamente?
? Medios informativosÉ probable que o discurso público se polarize e se afiance a nivel poboacional? Haberá un efecto nos niveis de confianza no Cuarto Estado? A ética dos xornalistas convencionais e os estándares de integridade veranse aínda máis afectados?
? Estado de dereitoHaberá un efecto sobre a capacidade de identificar individuos ou organizacións para responsabilizarse (por exemplo, que tipo de responsabilidade asignar a un algoritmo para os resultados adversos)? Prodúcese unha perda de soberanía (ambiental, fiscal, social, ética, etc.)?
?Política e cohesión socialHai unha posibilidade de visións políticas máis arraigadas e menos oportunidades de construción de consenso? Existe a posibilidade de marxinar aínda máis os grupos? Son máis ou menos probables os estilos políticos adversarios?
? Licenza socialHai problemas de privacidade, problemas de confianza e preocupacións morais que deben ser considerados para a aceptación do uso das partes interesadas?
? Coñecemento indíxenaPoderíanse corromper ou apropiarse indebidamente do coñecemento e dos datos indíxenas? Existen medidas adecuadas para protexerse contra as declaracións falsas, a información errónea e a explotación?
? Sistema científicoEstá comprometida a integridade académica e investigadora? Hai perda de confianza na ciencia? Existen posibilidades de uso indebido, uso excesivo ou abuso? Cal é a consecuencia da práctica da ciencia?

Dimensións de impacto: contexto xeoestratéxico/xeopolítico

CriteriosExemplos de como isto pode reflectirse na análise
? Vixilancia de precisiónOs sistemas están adestrados en datos biolóxicos e de comportamento individuais e poderían utilizarse para explotar individuos ou grupos?
? Concurso dixitalPoderían actores estatais ou non estatais (por exemplo, grandes empresas tecnolóxicas) aproveitar sistemas e datos para comprender e controlar as poboacións e os ecosistemas doutros países, ou socavar o control xurisdicional?
? Competencia xeopolíticaPodería o sistema estimular a competencia entre as nacións polo aproveitamento dos datos individuais e grupais para os intereses económicos, médicos e de seguridade?
? Cambio de poderes globais¿Está ameazada a condición dos Estados-nación como principais actores xeopolíticos do mundo? As empresas tecnolóxicas exercen o poder antes reservado para os estados-nación e convertéronse en actores independentes e soberanos (orde mundial tecnopolar emerxente)?
? DesinformaciónFacilitaría o sistema a produción e difusión de desinformación por parte dos actores estatais e non estatais con impacto na cohesión social, na confianza e na democracia?
? Aplicacións de dobre usoHai unha posibilidade tanto de aplicación militar como de uso civil?
? Fragmentación da orde globalPoderían desenvolverse silos ou agrupacións de regulación e cumprimento que dificulten a cooperación, conduzan a incoherencias na aplicación e crean espazo para o conflito?

Dimensións do impacto: Ambiental

CriteriosExemplos de como isto pode reflectirse na análise
? Consumo de enerxía e recursos (pegada de carbono)Aumentan o sistema e os requisitos o consumo de enerxía e recursos por riba das ganancias de eficiencia obtidas a través da aplicación?
?Fonte de enerxíaDe onde se obtén a enerxía do sistema (renovables vs. combustibles fósiles, etc.)?

Dimensións do impacto: datos e entrada

CriteriosExemplos de como isto pode reflectirse na análise
? Dirección e recollidaOs datos e as entradas son recollidos por humanos, sensores automatizados ou ambos?
? Procedencia dos datosOs datos e as achegas dos expertos son proporcionados, observados, sintéticos ou derivados? Existen proteccións de marca de auga para confirmar a procedencia?
? Carácter dinámico dos datosOs datos son dinámicos, estáticos, dinámicos actualizados de cando en vez ou en tempo real?
? DereitosOs datos son propietarios, públicos ou persoais (relacionados con persoas identificables)?
? Identificación e datos persoaisSe son persoais, os datos son anónimos ou pseudónimos?
? Estrutura dos datosOs datos están estruturados, semiestruturados, complexos ou non?
? Formato dos datosO formato dos datos e metadatos está estandarizado ou non?
? Escala dos datosCal é a escala do conxunto de datos?
? Adecuación e calidade dos datos O conxunto de datos é adecuado para o propósito? O tamaño da mostra é o adecuado? É o suficientemente representativo e completo? Que ruidosos son os datos? É propenso a erros?

Dimensións do impacto: Modelo

CriteriosExemplos de como isto pode reflectirse na análise
? Dispoñibilidade da informaciónHai algunha información dispoñible sobre o modelo do sistema?
? Tipo de modelo de IAO modelo é simbólico (regras xeradas por humanos), estatístico (utiliza datos) ou híbrido?
? Dereitos asociados ao modeloO modelo é de código aberto ou propietario, xestionado por conta propia ou por terceiros?
? Único de varios modelosO sistema está composto por un modelo ou por varios modelos interconectados?
? Xerativo ou discriminatorioO modelo é xerador, discriminatorio ou ambos?
? Edificio modeloO sistema aprende baseándose en regras escritas por humanos, a partir de datos, a través da aprendizaxe supervisada ou a través da aprendizaxe de reforzo?
? Evolución do modelo (deriva da IA)O modelo evoluciona e/ou adquire habilidades ao interactuar cos datos no campo?
? Aprendizaxe central ou federadaO modelo está adestrado de forma centralizada ou en varios servidores locais ou dispositivos "borde"?
? Desenvolvemento/mantementoO modelo é universal, personalizable ou adaptado aos datos do actor da IA?
? Determinista ou probabilístico O modelo utilízase de forma determinista ou probabilística?
? Transparencia do modelo Hai información dispoñible para os usuarios para permitirlles comprender os resultados e limitacións do modelo ou as restricións de uso?
? Limitación computacionalExisten limitacións computacionais no sistema? É posible prever saltos de capacidade ou leis de escala?

Dimensións do impacto: tarefa e saída

CriteriosExemplos de como isto pode reflectirse na análise
? Tarefa(s) realizada(s) polo sistemaQue tarefas realiza o sistema (recoñecemento, detección de eventos, predición, etc.)?
? Combinando tarefas e acciónsO sistema combina varias tarefas e accións (sistemas de xeración de contidos, sistemas autónomos, sistemas de control, etc.)?
? Nivel de autonomía do sistema Que autónomos son as accións do sistema e que papel xogan os humanos?
? Grao de implicación humanaHai algunha implicación humana para supervisar a actividade xeral do sistema de IA e a capacidade de decidir cando e como usar o sistema de IA en calquera situación?
? Aplicación básicaPertence o sistema a unha área de aplicación básica como tecnoloxías da linguaxe humana, visión por ordenador, automatización e/ou optimización ou robótica?
? AvaliaciónExisten estándares ou métodos dispoñibles para avaliar a saída do sistema?

Como se podería utilizar este marco?

Este marco pódese usar de moitas maneiras, incluíndo:

  • Para salvar a brecha entre os principios de alto nivel e a avaliación con fins normativos ou de goberno. O marco pode apoiar isto establecendo unha taxonomía común validada da gama de cuestións que merecen ser consideradas polas partes interesadas relevantes como base para informar e dar forma a máis reflexións. Por exemplo, a nivel nacional, o marco podería ser utilizado como ferramenta polo goberno xa que desenvolve unha estratexia e políticas nacionais de IA para establecer unha base común dos riscos e oportunidades entre os grupos de partes interesadas.
  • Para informar as avaliacións de impacto. A Lei de IA da UE esixe que as organizacións que proporcionan ferramentas de IA ou adoptan a IA nos seus procesos realicen unha avaliación de impacto para identificar o risco das súas iniciativas e aplicar un enfoque de xestión de riscos axeitado. O marco que aquí se presenta podería utilizarse como base para isto.
  • Para informar a exploración do horizonte en busca de riscos e escenarios futuros. A categorización dos riscos no Informe provisional do Órgano Consultivo de IA da ONU6 está en liñas xerais co marco presentado no marco aquí. Hai unha oportunidade para que o marco se use para xerar consenso e probar a gravidade dos riscos emerxentes, así como previr estes.
  • Mellorar os principios éticos necesarios para guiar e gobernar o uso da IA. O marco pode facelo proporcionando unha base flexible sobre a que se poidan desenvolver sistemas fiables e garantindo o uso legal, ético, robusto e responsable da tecnoloxía. Estes principios poderían ser probados contra toda a gama de impactos presentados neste marco.
  • Facilitar un balance das medidas existentes e en evolución (regulatorias, lexislativas, políticas, estándares, gobernanza, etc.) e identificar as lagoas que precisan unha maior consideración. Estes poderían compararse coas categorías do marco a nivel nacional ou multinacional para determinar as lagoas e identificar as medidas adecuadas para mitigar os riscos.
  • Para apoiar o uso do goberno da IA. Dado que moitos gobernos determinan as súas respectivas estratexias para o uso da IA ​​dentro das axencias e dos sistemas, o marco podería utilizarse para definir os limiares de risco adecuados e identificar as principais partes interesadas e responsabilidades.
  • Apoiar o discurso público e establecer unha licenza social sobre como se usa a IA e os datos fundamentais que se utilizarán nos servizos gobernamentais ou, de xeito máis amplo, na sociedade.

Un camiño a seguir
En resumo, o marco analítico preséntase como a base dun conxunto de ferramentas que poderían ser utilizados polas partes interesadas para analizar de forma exhaustiva os desenvolvementos significativos das plataformas ou do uso dunha forma coherente e sistemática. As dimensións que se presentan neste marco teñen relevancia desde a avaliación da tecnoloxía ata as políticas públicas, dende o desenvolvemento humano ata a socioloxía e os estudos de futuros e tecnoloxía. Aínda que se desenvolveu para a IA, este marco analítico ten unha aplicación moito máis ampla a calquera outra tecnoloxía emerxente.

6 Consello Asesor de AI da ONU. 2023. Informe provisional: Governing AI for Humanity. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Grazas

Moitas persoas foron consultadas e proporcionaron comentarios tanto no desenvolvemento do documento de debate inicial como despois da súa publicación. Ambos documentos foron redactados por Sir Peter Gluckman, presidente do ISC e Hema Sridhar, antiga asesora científica xefa do Ministerio de Defensa de Nova Zelandia e agora investigadora sénior Fellow, Universidade de Auckland, Nova Zelandia.

En particular, o ISC Lord Martin Rees, antigo presidente da Royal Society e cofundador do Center for the Study of Existential Risks, Universidade de Cambridge; o profesor Shivaji Sondhi, profesor de Física da Universidade de Oxford; o profesor K Vijay Raghavan, antigo conselleiro científico principal do Goberno da India; Amandeep Singh Gill, enviado do secretario xeral da ONU para a tecnoloxía; Seán Ó hÉigeartaigh, director executivo, Center for the Study of Existential Risks, Universidade de Cambridge; Sir David Spiegelhalter, profesor Winton de Comprensión Pública do Risco, Universidade
de Cambridge; Amanda-June Brawner, asesora senior de políticas e Ian Wiggins, director de Asuntos Internacionais da Royal Society, Reino Unido; o doutor Jerome Duberry, director xeral e a doutora Marie-Laure Salles, directora do Instituto de posgrao de Xenebra; Chor Pharn Lee, Centro de Futuros Estratéxicos, Oficina do Primeiro Ministro, Singapur; Barend Mons e o doutor Simon Hodson, o Comité de Datos (CoDATA); a profesora Yuko Harayama, ex directora executiva de RIKEN; Profesor
Rémi Quirion, presidente do INGSA; a doutora Claire Craig, da Universidade de Oxford e antiga xefa de Foresight da Oficina de Ciencia do Goberno; o profesor Yoshua Bengio, Consello Asesor Científico do Secretario Xeral da ONU e da Universidade de Montréal; e os moitos outros que proporcionaron comentarios ao ISC sobre o documento de discusión inicial.


Outras lecturas

Preparando ecosistemas nacionais de investigación para a IA: estratexias e progreso en 2024

Este documento de traballo do think tank do ISC, o Center for Science Futures, ofrece información fundamental e acceso a recursos de países de todas as partes do mundo, en varias etapas da integración da IA ​​nos seus ecosistemas de investigación.


tres investigadores nunha conversa

Construíndo sistemas científicos preparados para o futuro no Sur Global

As tecnoloxías emerxentes están a remodelar a forma en que se leva a cabo a ciencia e ofrecen un potencial significativo para fortalecer os sistemas científicos no Sur Global, se a súa adopción se guía por enfoques inclusivos, ben apoiados e sensibles ao contexto. O foco central desta recente reunión estratéxica foi como garantir que estas tecnoloxías contribúan a sistemas científicos máis equitativos e resilientes, en lugar de reforzar as disparidades existentes.