La firma Anthropic, que cuenta con una participación de Google, y que gestiona el asistente de inteligencia artificial Claude, ha intervenido en el debate sobre el uso ético de la citada tecnología emergente, detallando los principios que utiliza para dar forma a las respuestas que ofrece su plataforma.
En un blog, explicó que la denominada “Constitución de Claude” contiene elementos extraídos de la Declaración Universal de Derechos Humanos de la ONU, publicada en 1948, junto con otros documentos que incorporan temas específicamente asociados con la era digital.
Entre dichos documentos modernos utilizados figuran los Términos de servicio de Apple y la información publicada por el laboratorio DeepMind de investigación de inteligencia artificial, propiedad de Google.
Los principios a los que se adhiere incluyen códigos morales tradicionales como apoyar la libertad y no contribuir a la delincuencia, junto con otros basados en evitar la difusión de información errónea, ofender o sonar condescendiente.
El documento también tiene varios puntos basados en alentar respuestas que tengan en cuenta las “perspectivas no occidentales”.
AI: Aumentan en 910% registros de dominios relacionados con ChatGPT
En su explicación de los fundamentos de su código, Anthropic señala que “mucha gente ha criticado que los modelos de IA estén siendo entrenados para reflejar un punto de vista específico o una ideología política, generalmente uno con el que el crítico no está de acuerdo. Desde nuestra perspectiva, nuestro objetivo a largo plazo no es tratar de que nuestros sistemas representen una ideología específica, sino que puedan seguir un conjunto de principios dado”.
“Esperamos que con el tiempo se desarrollen procesos sociales más amplios para la creación de constituciones de IA”.
IA: ChatGPT en procesos de selección y evaluaciones de ingreso
La compañía indica que sus reglas son en gran medida un documento de trabajo que también explora formas de “producir de manera más democrática una guía para Claude” e investiga constituciones personalizables para casos de uso específicos.
La publicación del código se produce en un momento en que las plataformas de IA generativa atraen una atención cada vez mayor de los reguladores y figuras de alto perfil, muchas de las cuales han expresado su preocupación sobre el potencial de la tecnología si se maneja mal dado su rápido ritmo de desarrollo.
Fuente: tynmagazine.com