Inteligencia artificial: discriminación, repetición y narrativas algorítmicas

Autores/as

  • Miguel Ángel Contreras Natera Sociólogo, Especialista, Magister Scientiarum en Planificación del Desarrollo y Doctor en Estudios del Desarrollo, Cendes, UCV. Jefe del Laboratorio de Teoría y Diseño de Sistemas Sociales Complejos del Centro de Estudios de la Ciencia del IVIC y Profesor de la Escuela de Sociología de la UCV. Investigador Senior de Intersaber.

Resumen

La inteligencia artificial se ha convertido en uno de los temas del debate científico de mayor relevancia epistémica, laboral e institucional en los Estudios de
la Ciencia. Las grandes corporaciones tecnológicas en su darwiniana competencia desarrollan mecanismos de innovación que convierten a la
persona en materia prima mediante el algoritmo de excedente conductual. Simultáneamente, recopilan, seleccionan, clasifican y califican la datificación
convirtiéndose en gestores y administradores de los mundos posibles. Este proceso de codificación refuerza simbólicamente las desigualdades y
exclusiones sociales soportadas en criterios raciales, sexuales, de edad, por origen y clase social en la civilización euroccidental. La existencia
de discriminación algorítmica que fundamenta narrativas históricamente excluyentes es una de las tareas centrales de deconstrucción de la teoría
crítica decolonial y la ciencia de datos críticas.

Palabras clave
Inteligencia Artificial / Discriminación Algorítmica / Repetición Algorítmica / Narrativas Algorítmicas / Colonialidad del Representar

Abstract
Artificial intelligence has become one of the topics of scientific debate of major epistemic, labor, and institutional relevance in the Studies of Science. Massive technological corporations, using their Darwinian competencies, develop innovative mechanisms that convert a person into raw material using the algorithm of behavioral surplus. Simultaneously, they collect, select, and classify the datafication, thus becoming managers and administrators of possible worlds. This codification process symbolically reinforces social inequalities and exclusions that are supported by racial, sexual, age, origin, and social class criteria in euro western civilizations. The existence of algorithmic discrimination on which historically excluding narratives are based, is one of the central tasks of deconstructing critical decolonial theory, and the science of critical data.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Miguel Ángel Contreras Natera, Sociólogo, Especialista, Magister Scientiarum en Planificación del Desarrollo y Doctor en Estudios del Desarrollo, Cendes, UCV. Jefe del Laboratorio de Teoría y Diseño de Sistemas Sociales Complejos del Centro de Estudios de la Ciencia del IVIC y Profesor de la Escuela de Sociología de la UCV. Investigador Senior de Intersaber.

La inteligencia artificial se ha convertido en uno de los temas del debate científico de mayor relevancia
epistémica, laboral e institucional en los Estudios de la Ciencia. Las grandes corporaciones tecnológicas
en su darwiniana competencia desarrollan mecanismos de innovación que convierten a la persona en materia prima mediante el algoritmo de excedente conductual. Simultáneamente, recopilan, seleccionan, clasifican y califican la datificación convirtiéndose en gestores y administradores de los mundos posibles. Este proceso de codificación refuerza simbólicamente las desigualdades y exclusiones sociales soportadas en criterios raciales, sexuales, de edad, por origen y clase social en la civilización euroccidental. La existencia de discriminación algorítmica que fundamenta narrativas históricamente excluyentes es una de las tareas centrales de deconstrucción de la teoría crítica decolonial y la ciencia de datos críticas.

Palabras clave
Inteligencia Artificial / Discriminación Algorítmica / Repetición Algorítmica / Narrativas Algorítmicas /
Colonialidad del Representar

Abstract
Artificial intelligence has become one of the topics of scientific debate of major epistemic, labor, and
institutional relevance in the Studies of Science. Massive technological corporations, using their
Darwinian competencies, develop innovative mechanisms that convert a person into raw material using the algorithm of behavioral surplus. Simultaneously, they collect, select, and classify the datafication, thus becoming managers and administrators of possible worlds. This codification process symbolically reinforces social inequalities and exclusions that are supported by racial, sexual, age, origin, and social class criteria in euro western civilizations. The existence of algorithmic discrimination on which historically excluding narratives are based, is one of the central tasks of deconstructing critical decolonial theory, and the science of critical data.

Descargas

Publicado

2022-08-05