RESUMEN

La tecnología digital ha traído características de conexión que restablecen nuestra comprensión de arquitecturas sociales. Sobre la Inteligencia Artificial (IA) y Big Data, el campo educativo reorganiza su estructura para considerar a los actores humanos y no humanos y sus acciones en plataformas digitales. En este escenario cada vez más complejo, esta propuesta tiene como objetivo presentar definiciones y debates sobre IA y Big Data de naturaleza académica o publicados por organizaciones internacionales. El estudio de IA y Big Data puede ir más allá de la búsqueda de poder computacional / lógico y entrar en áreas menos difíciles (y quizás más complejas) del campo científico para responder a sus impactos sociales en la educación. Esta investigación sugiere un análisis de la educación a través de las habilidades del siglo XXI y los impactos del desarrollo de IA en la era de las plataformas, pasando por tres ejes de grupos metodológicos: investigación, aplicación y evaluación. Para llevar a cabo la investigación, confiamos en revisiones sistemáticas, investigaciones bibliográficas y análisis de calidad de estudios de casos para componer un documento de posición que arroje luz sobre cómo funcionan la IA y el Big Data y en qué nivel se pueden aplicar en el campo de la educación. Nuestro objetivo es ofrecer un análisis triangular bajo un enfoque multimodal para comprender mejor la interfaz entre la educación y las nuevas perspectivas tecnológicas.

Palabras clave

Inteligencia artificial, macrodatos, educación, metodologías mixtas, multimodalidad, tecnología digital, sociedad de las pantallas, conexión digital

Keywords

Artificial intelligence, big data, education, mixed methods, multimodality, digital technology, platform society, digital connection

Abstract

Digital technology has provided users with new connections that have reset our understanding of social architectures. As a reaction to Artificial Intelligence (AI) and Big Data, the educational field has rearranged its structure to consider human and non-human stakeholders and their actions on digital platforms. In light of this increasingly complex scenario, this proposal aims to present definitions and discussions about AI and Big Data from the academic field or published by international organizations. The study of AI and Big Data goes beyond the search for mere computational power and instead focuses upon less difficult (yet perhaps more complex) areas of the study social impacts in Education. This research suggests an analysis of education through 21st century skills and the impact of AI development in the age of platforms, undergoing three methodological considerations: research, application and evaluation. To accomplish the research, we relied upon systematic reviews, bibliographic research and quality analyses conducted within case studies to compose a position paper that sheds light on how AI and Big Data work and on what level they can be applied in the field of education. Our goal is to offer a triangular analysis under a multimodal approach to better understand the interface between education and new technological prospects, taking into consideration qualitative and quantitative procedures.

Palabras clave

Inteligencia artificial, macrodatos, educación, metodologías mixtas, multimodalidad, tecnología digital, sociedad de las pantallas, conexión digital

Keywords

Artificial intelligence, big data, education, mixed methods, multimodality, digital technology, platform society, digital connection

Introducción

A principios del siglo XX, los estudios de conectividad buscaban comprender cómo se impulsaban los sistemas socio-técnicos. El objetivo era dar sentido a la materialidad de la comunicación integrada en el proceso y a los diversos papeles que desempeñaba. Utilizando el marco de la materialidad de la comunicación, los académicos argumentaron que los humanos han emergido de un mundo físico para habitar una atmósfera simbólica donde todo comprende contenido material (Habermas, 1985).

Reflexionar sobre la educación no solo implica considerar la interfaz entre el maestro y el alumno: implica comprender que los términos asignados a este proceso tienen significados que pueden enmascarar la tecnología y la construcción colectiva del conocimiento. La tecnología se asocia frecuentemente con la resolución y la creación de problemas dentro de la educación. Mick y Fournier (1998) describen este fenómeno como la «paradoja de la tecnología», que puede ser a la vez emancipadora y esclavizadora.

Una idea sobre cómo definir la tecnología es el concepto de «technium»: un ecosistema autorreforzante de creación de artefactos, herramientas e ideas que abarcan las tecnologías. Según esta idea, la tecnología depende de innumerables avances anteriores. Kelly (2010) argumenta que la tecnología es anterior a la humanidad, sugiriendo que el «technium» involucra construcciones como complejidad, diversidad, especialización, mutualismo, ubicuidad, sensibilidad y exotropía. Sin embargo, Kelly (2010) advierte que la tecnología también puede verse como conocimiento científico utilizado de manera práctica en la industria, por ejemplo, en el diseño de nuevas máquinas.

Este artículo aborda los desarrollos en Inteligencia Artificial (IA) y Big Data y su intersección con la educación. Presenta la ilustración de esta interfaz como la sociedad de plataforma capaz de promover las habilidades del siglo XXI. Se presentarán métodos de investigación mixtos, su aplicación y evaluación. Esto incluye netnografía, Educación Basada en Competencias (CBE), Modelo de Cuatro Dimensiones, Modelo de Brújula y multimodalidad, teniendo en cuenta el enfoque triangular como un método complejo y sofisticado para realizar análisis en este intrincado entorno.

Estado del arte: IA y Macrodatos (Big Data)

La IA ha sido un tema en el radar de teóricos y expertos desde la década de 1950 y, hasta hoy, no se ha llegado a un acuerdo sobre su definición. Los estudios sobre IA comenzaron en 1956 cuando John McCarthy usó el término en un seminario en la Universidad de Dartmouth en Estados Unidos. Antes de McCarthy, los estudios de investigación en genética dentro del campo de las ciencias biológicas también las había como primer ejemplo aplicado. Además, en 1950, Alan Turing publicó el estudio «Maquinaria de computación e inteligencia» en el que presentó el «Juego de imitación», también conocido como «Prueba de Turing»: un conjunto de preguntas destinadas a evaluar si el encuestado es un humano o una máquina.

Russel y Norvig (1995) exploraron la IA en cuatro categorías: sistemas que piensan como humanos; sistemas que actúan como humanos; sistemas que piensan racionalmente; y sistemas que actúan racionalmente. En la historia del estudio de IA, las cuatro categorías dan la bienvenida a teóricos y seguidores, encontrando tensiones en sus bordes entre estudios centrados en «Humanidad» o «Racionalidad».

Publicaciones recientes reflejan estas distinciones sobre cómo se puede aplicar la IA. La Unión Internacional de Telecomunicaciones (UIT) publicó los informes «Serie de Inteligencia Artificial para el Desarrollo» (2017) y «AI for Good Summit» (2017 y 2018); donde describió los desarrollos en el concepto de un sistema que no reemplaza la inteligencia humana. Del mismo modo, la Organización para la Cooperación y el Desarrollo Económico (OCDE) en asociación con International Business Machines (IBM) en el documento «IA: máquinas inteligentes, políticas inteligentes» (2018) posiciona a la IA como una estructura que aumenta el potencial de la inteligencia humana.

Floridi (2014), por otro lado, discutió las aplicaciones de IA argumentando que los sistemas exitosos son aquellos con un entorno moldeado a su alrededor. En otras palabras, los sistemas que responden a propósitos específicos funcionan mejor (el autor da un ejemplo de que es poco probable que un robot que puede cortar bien el césped desempeñe también el papel de un refrigerador). Esto se conoce como un «problema de marco». Según Floridi (2014), la IA no tiene un enfoque descriptivo o prescriptivo del mundo: evalúa la coerción lógica y matemática que hace posible construir artefactos e interactuar con ellos de manera efectiva. Las Naciones Unidas, por otro lado, en su publicación «Enfoques innovadores de Big Data para capturar y analizar datos para monitorear y lograr los ODS» (2017) reconocieron que definir la IA no es una tarea sencilla. El problema inicial es definir qué significa «inteligencia» o qué inteligencia es ejecutada por humanos y no humanos. A pesar de varios intentos, ninguna de las disciplinas involucradas, como la psicología o la ciencia de la educación, ha llegado a una definición de inteligencia satisfactoria y mutuamente acordada. Legg y Hutter (2018) proporcionaron una visión general de las muchas definiciones propuestas a lo largo de los años: «La inteligencia mide la capacidad de un agente para lograr objetivos en una amplia gama de entornos». En términos de IA, el «agente» en esta definición podría ser un ser humano (inteligencia regular) o un sistema (AI). Como tal, una máquina que exhibe inteligencia, que es igual a la inteligencia humana, se puede denominar que tiene IA general.

Conexión entre IA y Macrodatos

La IA ocurre a raíz de la era de Zettabyte, lo que significa que se requiere un rendimiento inteligente de una máquina como consecuencia de Big Data. Generaciones desde 2014 han experimentado la inundación de Zetta que describe el tsunami de bytes que se está apoderando del medio ambiente donde vivimos. Si bien la IA se ha convertido en un desarrollo natural de un sistema inteligente que necesita lidiar con Big Data, esta es la razón por la cual los términos están estructuralmente conectados. A pesar de la importancia del fenómeno, la definición de Big Data aún no está clara. El término fue introducido por primera vez en 1989 por Erik Larson en un artículo publicado por The Washington Post sobre cómo tratar el correo basura. Sin embargo, los teóricos atribuyen el concepto de Big Data tal como lo usamos hoy a «Big Data y la próxima ola de infrastress» de John R. Mashey, publicado en 1998, donde reconoce un campo que requiere una gran capacidad para ejecutar modelos analíticos para hacer frente a grandes cantidades de datos. Muchos autores han contribuido al desarrollo del término, y en 2012 se lanzó una de las primeras regulaciones legales de datos públicos y sensibles.

La ley actual del Reglamento General de Protección de Datos (GDPR - Comisión de la Unión Europea, 2020) contiene requisitos legales para el uso de datos personales con fines de investigación histórica, estadística y científica vigentes en todo el mundo. Floridi (2014), quien contribuyó al lanzamiento de GDPR, advierte sobre dos errores comunes al hablar de Big Data: uno está malinterpretando «Big» para referirse al tamaño físico, y el otro está malinterpretando «Data» como «Big» solo cuando está en perspectiva con el poder computacional. Estos dos errores pueden considerarse de una manera diferente: el problema epistemológico cuando se piensa que hay demasiados datos; y otro cuando se piensa que la solución a este problema es tecnológica (como si la tecnología pudiera sintetizar / reducir la cantidad de datos). La confusión radica en el aspecto de que un problema epistemológico requiere una solución epistemológica, más que técnica.

Los problemas en la interpretación de macrodatos y características básicas

Dado que el problema no es solo la creciente cantidad de datos, las soluciones deben actualizarse: no se trata de nuestra capacidad de procesamiento (ya que esta actividad ocurre bajo demanda), sino de la cuestión epistemológica de pequeños patrones que analizan Big Data. Los pequeños patrones representan una nueva frontera de innovación y competencia, desde la ciencia hasta los negocios, desde la gobernanza hasta las políticas sociales, desde la seguridad hasta la protección. La razón por la que los patrones deberían ser pequeños es para mejorar su velocidad de procesamiento (dado que los datos están en una cantidad muy alta, los pequeños patrones los aglutinan para acelerar su síntesis). Un posible problema ético relacionado con el uso de pequeños patrones se deriva de su capacidad para predecir eventos futuros, ya que pueden prever elecciones y comportamientos, que se enfrentan a principios éticos de información.

Otra característica de los datos está relacionada con el volumen, y la Cloud Security Alliance (2014) en su informe «Big Data Taxonomy» introduce tres límites al creciente uso y almacenamiento de datos: termodinámica, inteligencia y memoria. Esto proporciona un contrapeso preocupante al argumento de que la IA es una solución para Big Data, ya que la inteligencia es una de las limitaciones de Macrodatos. Macrodatos responden a la adquisición y almacenamiento de datos, y la humanidad no ha producido suficiente almacenamiento para los datos que estamos produciendo, lo que es una limitación de memoria.

Søe (2018) advierte, sin embargo, que el principal problema con este campo en particular es epistemológico. La perspectiva de que la cantidad de datos sea un problema es engañosa, una vez que la pregunta principal es qué tan tarde la gente se dio cuenta de la existencia de Macrodatos. Este análisis va en la dirección opuesta a la idea de los datos como conjuntos tan grandes y complejos que se hace difícil de procesar usando herramientas de administración de bases de datos disponibles para aplicaciones de procesamiento de datos tradicionales, lo que nos lleva a otra concepción engañosa como se mencionó anteriormente: poder computacional débil.

Pero, ¿por qué los patrones pequeños son un problema tan grande? Floridi en una conferencia en 2018 en el Oxford Internet Institute respondió a esa pregunta con una ilustración de figura de conexión de puntos: cuantos más puntos de datos tenga, mejor debe ser el patrón y, a menos que conecte todos los puntos, no verá cuál es realmente la cifra. La cuestión de Macrodatos es que entre los bytes de información Zetta se requiere un patrón para analizarlo. Floridi lo comparó con encontrar una aguja en un pajar. La integración entre Macrodatos e IA es que los grupos de datos deben crear su propia inteligencia para identificar la aguja.

Sin embargo, no todos los datos son importantes. Mantelero (2018) señala que quizás la mitad de nuestros datos sea insignificante, mientras que la otra mitad sea valiosa. El papel de los patrones pequeños es saber qué mitad se requiere. Una vez que se mapean los activos valiosos y se encuentran las agujas, se podría considerar una característica de agregación. Esto significa que los datos importantes cuando se combinan pueden impulsar un sistema para comprender a sus clientes e incluso para predecir sus elecciones. Por lo tanto, los patrones pequeños, como procedimiento de método, son significativos cuando correlacionan datos relevantes, incluida la ausencia de datos en sí.

La inteligencia colectiva y la capacidad de avanzar con algoritmos de IA dependen de una colosal base de datos histórica capaz de generar información sobre comportamientos predictivos y resultados educativos. Sin embargo, uno de los principales desafíos para el avance de la IA es la sistematización y la organización de datos útiles.

Material y métodos: La era de las plataformas

Las discusiones que surgen de la aplicación de IA y Macrodatos con respecto al desarrollo de habilidades digitales se deben en parte al impacto en los entornos de trabajo, como la automatización y el requisito de habilidades del siglo XXI. Dichas competencias se concentran en los aspectos socioemocionales y el carácter antropocéntrico, que se consideran construcciones complejas y difíciles de automatizar. Cukurova et al. (2019) definen las habilidades del siglo XXI como conceptos compuestos por un grupo de otras habilidades o conocimientos y, por esta razón, presentan una alta complejidad para la parametrización.

En esta investigación, se explorarán las competencias del siglo XXI en interfaz con la IA entre dos aspectos: primero la obtención de la competencia; segundo la representación del conocimiento (Barrett y Edwards, 1995). Con respecto al primer aspecto, Pearson realizó un estudio «El futuro del empleo de habilidades en 2030» (Bakhshi, 2017) que reunió experiencia y datos estadísticos de la base de datos del Ministerio de Trabajo de los Estados Unidos (O'net) para diseñar 120 competencias del futuro compuesto por tres subcategorías: competencias, conocimientos y habilidades. Dado el sofisticado carácter cuantitativo, la IA mejora la operación, el mapeo y el análisis de estos nuevos aspectos dentro de la interfaz de tecnología y educación.

De acuerdo con Scoular et al. (2017), la IA permite analizar la multiplicidad de facetas de la enseñanza y el aprendizaje. Desde el punto de vista de la representación del conocimiento mediante el modelado, la construcción de plataformas gana profundidad en la interfaz entre IA y educación. Luckin et al. (2016) argumentan que la IA permite la automatización de partes del proceso educativo mediante tres modelos: contexto pedagógico, conocimiento y alumno, que el autor concluye como modelos fundamentales para la creación de tutores adaptativos.

Cuando se habla de competencias futuras, «científico profundo» y «artístico profundo» son dos perfiles marcados por rutinas repetitivas sin tomar decisiones complejas y sin precedentes. Estos forman parte del grupo de ocupaciones que se rediseñarán. Algunas habilidades probablemente se extinguirán por completo; otras sufrirán adaptaciones. Los beneficios de la implementación tecnológica deberían invertirse en las personas, y países como los EE.UU. Ya se ocupan de las poblaciones sin ocupación, pero con ingresos (utilizando menos economía).

Como respuesta a este problema, las plataformas en línea, como los sistemas de gestión de aprendizaje, las aplicaciones móviles de idiomas, los tutores adaptativos, etc., prevalecen hoy en día. Son capaces de proporcionar beneficios personalizados y ejercen presión sobre los servicios públicos (Van-Dijck et al., 2018). Además, afirman que las plataformas no son construcciones neutrales ni libres de valor; vienen con normas y valores específicos inscritos en sus arquitecturas. Estos valores no reflejan en muchos casos los valores culturales en los que operan esas plataformas, como la privacidad, la precisión, la seguridad y la protección del consumidor. Sin embargo, otros valores como la equidad, la igualdad, la solidaridad, la responsabilidad, la transparencia y el control democrático son relevantes en las discusiones públicas.

Después de todo, las plataformas no siempre reflejan simplemente lo social: también pueden crearlo. Las sociedades basadas en plataformas tienen un tráfico social y económico canalizado cada vez más por un ecosistema global de plataformas en línea que es impulsado por algoritmos y alimentado por datos. Otra evidencia es cómo la cantidad de dispositivos móviles (8.300 millones) (UIT 2020) ha superado a la población mundial (7.800 millones) (ONU, 2020). Sin embargo, según el estudio de la UIT, aproximadamente el 87% de la población en los países desarrollados tiene acceso a Internet, mientras que solo el 47% en los países en desarrollo comparte el mismo privilegio (UIT, 2020). La explosión de aplicaciones móviles (coloquialmente «aplicaciones»), junto con el aumento del acceso global a Internet y los dispositivos móviles para acceder a estas plataformas, caracteriza el concepto cuestionable de ubicuidad tecnológica en la que vivimos.

Competencias del siglo XXI: Métodos mixtos para aplicarlas y evaluarlas

La sociedad de plataformas tiene el potencial de exigir nuevas competencias a los ciudadanos, lo que lleva a discusión las competencias del siglo XXI. Se necesita una aclaración entre conceptos tales como competencia, capacidad, capabilidad, habilidades naturales y adquiridas teniendo en cuenta que, generalmente, estas palabras se usan indistintamente. Algunas definiciones del Oxford English Dictionary (OED) pueden ayudar a abordar esta tarea:

  • Habilidad: el hecho de que alguien / algo es capaz de hacer algo.
  • Capacidad: la capacidad de comprender o hacer algo.
  • Capabilidad: la habilidad o cualidades necesarias para hacer algo.
  • Competencia: la capacidad de hacer algo bien.
  • Conocimiento: la información, comprensión y habilidades que obtienes a través de la educación o la experiencia.
  • Alfabetización: la capacidad de leer y escribir de forma creativa y cultural en cualquier superficie.
  • Según este diccionario, habilidad, capacidad y capabilidad son sinónimos, así como habilidad y competencia.
  • La base de datos O'Net define los términos de la siguiente manera:
  • Capacidad: atributos duraderos del individuo que influyen en el rendimiento (habilidades cognitivas, físicas, psicomotoras y sensoriales)
  • Habilidades: capacidades desarrolladas que facilitan el aprendizaje o la adquisición más rápida de conocimientos (resolución de problemas complejos, gestión de recursos, habilidades sociales, de sistema y técnicas).

Según Zabala y Arnau (2015), la competencia se define como la capacidad o habilidad (que significa tener la estructura cognitiva) para realizar tareas y participar en diversas situaciones, como las de la vida política, social y cultural, en una forma efectiva y consciente, adaptado a un determinado contexto. Es necesario movilizar actitudes, habilidades y conocimientos orquestando e interrelacionándolos. Del mismo modo, la OCDE (Rychen y Salganik, 2003) definió la competencia como la capacidad de satisfacer con éxito demandas complejas en un contexto particular a través de la movilización de habilidades de conocimiento, actitudes y valores. En este caso, agregar valores como un nuevo elemento a la construcción. En este artículo, utilizaremos el concepto general de competencia de la OCDE, en el que las habilidades se considerarán un subconjunto de competencias. La capacidad y la capabilidad se considerarán sinónimos exactamente como lo define el OED.

La aparición de marcos propuestos para el siglo XXI organiza la estructura de una mentalidad globalizada y tecnológicamente impulsada en la era de la información. Por ejemplo, Fadel y Groff (2019) propusieron el Modelo educativo de Cuatro Dimensiones en el que el conocimiento, las habilidades, el carácter y las competencias de meta-aprendizaje son dimensiones que deben explorarse para rediseñar con éxito un plan de estudios. La mentalidad tradicional de pensar y diseñar un plan de estudios se centra en la transferencia de conocimiento. Wilson (1999) señala que la humanidad se está ahogando en información mientras se muere de hambre por sabiduría. El mundo en adelante estará dirigido por sintetizadores: personas capaces de reunir la información correcta en el momento correcto, pensar críticamente al respecto y tomar decisiones importantes sabiamente. A continuación, presentaremos tres grupos metodológicos que pueden ayudar a explicar la interfaz entre Macrodatos, IA y Educación: investigación, aplicación y evaluación.

Investigación, aplicación y evaluación

Los experimentos en educación necesariamente implican el estudio sistemático de formas particulares de aprendizaje. Este contexto se somete a investigación, prueba y revisión, y en esta investigación, ofrecemos la netnografía como un método de investigación seguido de tres ejemplos de aplicación que pueden ser vistos por los métodos: Educación Basada en Competencias (Competency Based Education o CBE), Modelo de Cuatro Dimensiones y Modelo de Brújula de la OCDE.

Investigación netnográfica

a) Netnografía

En netnografía, como estrategias metodológicas para comprender el comportamiento comunicacional de las partes interesadas pueden establecerse de dos maneras. Primero, inspiradas en los clásicos de la etnografía tradicional con Malinowski (1922) y Mead (1979); y segundo, considerando el pensamiento netnográfico innovador y aún reciente, basado en los principios de investigación de Kozinets et al. (2014; 2015). Para describir la presencia de competencias emergentes del siglo XXI de la población participante, Kozinets et al. (2014) buscó llevar a cabo investigaciones de campo entre lo que se puede llamar experiencias de escuela callejera (tradicionales e institucionalizadas).

Debido a la diversidad de enfoques y afiliaciones teóricas que dialogan entre perspectivas mejor vinculadas al marketing o la antropología, el primer resultado que fue necesario para el método seleccionado fue el uso del término netnografía. Según Kozinets et al. (2014), el cuerpo científico de comunicación del siglo XXI está creando un neologismo que no puede usarse como un obstáculo para el uso del término ni puede determinar el fin o la reinvención total de la etnografía tradicional. El argumento del autor explica que los neologismos son parte de las evoluciones cíclicas de la ciencia y los conceptos, como instrumentos de discurso que sirven para explicar las realidades observadas y experimentar transformaciones. Por lo tanto, asegurando las diversas nomenclaturas que el método ha asumido, Kozinets (2015) se refiere a estudios seminales del cambio de siglo que comenzaron la investigación de mapeo y descripción de comportamientos comunicacionales en el ciberespacio.

Hine (1994) propuso una alineación de diferentes terminologías: netnografía, etnografía virtual, webnografía, ciberantropropología y etnografía digital. A pesar del uso indiscriminado ocasional de la yuxtaposición, el investigador debe prestar atención a mantener la concepción real del método netnográfico. Asumiendo que el término etnografía virtual era apropiado para la fase inicial de Internet, Hine (1994) cuestionó si aplicar o no el concepto de etnografía exclusivamente, dadas las afirmaciones recurrentes del proceso en superar la dicotomía entre las experiencias en y fuera de línea.

En términos de procedimiento, la netnografía lleva al investigador a comprender qué tipo de partes interesadas participan en redes y plataformas, y cómo se comportan con la dinámica de producción de conocimiento. La IA se puede aplicar en dos niveles: para difundir la experiencia educativa y para personalizar la experiencia de aprendizaje. Esta recopila cohortes de datos que, una vez sintetizados, pueden reflejar las preferencias, fortalezas y debilidades del usuario.

Aplicación: Modelo de educación basado en competencias, modelo de cuatro dimensiones y modelo de brújula

b) Modelo educativo basado en competencias

Gervais (2016) afirma, basándose en una revisión sistemática, la definición de educación basada en competencias (CBE): un enfoque de la educación basado en resultados que incorpora modos de entrega de instrucción y esfuerzos de evaluación diseñados para evaluar el dominio del aprendizaje por parte de los estudiantes a través de su demostración de los conocimientos, actitudes, valores, habilidades y comportamientos requeridos para el título buscado.

La historia de CBE data de 1862 con las leyes de tierras de Morrill en los Estados Unidos que «proporcionaron la base para una educación aplicada orientada a las necesidades de las personas de las granjas y pueblos que no podían asistir a las universidades y colegios más exclusivos y prestigiosos del este de Estados Unidos» (Clark, 1976). Según Clark, los títulos de educación superior, antes de la revolución industrial, eran para las clases privilegiadas que preparaban a los estudiantes para ser pensadores, no trabajadores manuales. La fundación del CBE defendió que la educación debía centrarse en preparar a un estudiante para su papel en la sociedad (Riesman, 1979).

c) Modelo de cuatro dimensiones

En la comprensión de Fadel y Groff (2019), la dimensión del conocimiento ocupa, en muchos planes de estudio, un enfoque central que caracteriza la falta de relevancia en el mundo real, lo que resulta en un bajo compromiso y una baja motivación de los estudiantes. Claramente, todavía es importante aprender matemáticas y lenguaje, pero insisten en que esto debe integrarse dentro de las competencias individuales más grandes de una manera interdisciplinaria, enfatizando temas como la robótica, los sistemas biológicos, los sistemas sociales, el bienestar, el emprendimiento y los medios. En este modelo, la dimensión de habilidad se ve principalmente como habilidades de orden superior, como lo que Fadel y Groff llaman las «Cuatro C»: comunicación, colaboración, pensamiento crítico y creatividad.

Considerando la dimensión de carácter, se destaca que existen implicaciones éticas en la mayoría de los desafíos globales que nos enfrentamos hoy en día, como el cambio climático, la corrupción, el terrorismo y la desigualdad de ingresos. Los seis elementos principales de la dimensión de carácter de este modelo son la atención plena, la curiosidad, el coraje, la resiliencia, la ética y el liderazgo. La última dimensión es el meta-aprendizaje entendido como «cómo aprender a aprender», específicamente cómo reflexionar y adaptar nuestro aprendizaje compuesto por el crecimiento mental y la meta-cognición. El meta-aprendizaje, cuando se implementa de manera efectiva, hace posible que el conocimiento, las habilidades y las competencias de carácter puedan transferirse a través de múltiples disciplinas, lo cual es el objetivo final de toda la educación.

d) Modelo Brújula de la OECD

El modelo Brújula de la OCDE (OCDE, 2020) utiliza la metáfora de una brújula de aprendizaje compuesta por siete elementos: fundamentos básicos, competencias transformadoras, agencia y co-agencia de estudiantes y ciclo de anticipación-acción-reflexión. Las bases fundamentales se tratan como una nueva forma de incluir el plan de estudios en un modelo educativo relacionándolo con el conocimiento, las habilidades, las actitudes y los valores. Este nuevo plan de estudios también incluye materias como alfabetización digital, salud física y mental y habilidades sociales y emocionales. Las competencias transformadoras son: crear nuevos valores, conciliar tensiones y dilemas, además de asumir la responsabilidad. Finalmente, el ciclo de anticipación-acción-reflexión, de acuerdo con este modelo, es un proceso de aprendizaje iterativo mediante el cual los alumnos mejoran continuamente su pensamiento y actúan de manera intencional y responsable en interés del bienestar colectivo.

Evaluación: Multimodalidad

e) Multimodalidad

La definición de un sistema multimodal según Nigay y Coutaz (1993) es un sistema que admite la comunicación con el usuario a través de diferentes modalidades o «modos» como video, voz, texto y gestos. «Multi» significa más de uno y «modalidades» o «modos» se refieren a los canales de comunicación. Esta posibilidad es especialmente importante para una plataforma educativa donde la falta de comprensión de los procesos subyacentes cuando la mayoría de las teorías se importan de las ciencias sociales y la psicología. Las plataformas educativas procesan constantemente entradas y salidas multimodales, por ejemplo: texto (autoinformes), voz (pensar en voz alta), video, mediciones biológicas (como seguimiento ocular, expresiones faciales) para comprender los estados afectivos; clickstream o rastrear datos sobre el comportamiento del usuario y la navegación. Los métodos de análisis cualitativos y cuantitativos se pueden aplicar a datos multimodales estrechos en información que puede ayudar a la toma de decisiones efectiva. La multimodalidad es la base de la nueva analítica de aprendizaje de disciplina que proporciona a los educadores y a otros interesados ​​en el análisis de educación e indicadores que los ayudan a controlar los procesos educativos y sus resultados.

Discusión

Primero, es importante enfatizar la diferencia entre multimedia y multimodalidad. Ambos sistemas utilizan múltiples canales de comunicación. Un sistema multimodal es capaz de modelar automáticamente contenido informativo en un alto nivel de abstracción, buscando el significado. En educación, la tecnología educativa (EdTech) multimodal es un área emergente de estudio. Con el llamado Internet de las Cosas, sensores portátiles, almacenamiento de datos en la nube, mayor potencia computacional para procesar y analizar conjuntos de Big Data, los sensores se pueden utilizar para recopilar mediciones de alta frecuencia y granularidad de eventos de comportamiento a nivel micro. Por ejemplo, los microniveles pueden ser movimientos, habla, lenguaje corporal o respuestas fisiológicas que proporcionan una panacea de datos, capaces de mitigar el efecto de la luz de la calle.

Un entorno educativo complejo requiere niveles sofisticados de medición y para eso, los métodos mixtos de aplicación y evaluación son necesarios para hacer frente a esta perspectiva. La complejidad aquí es apoyada por Morin (2015), y su formulación de la Complejidad como una nueva forma de pensar sobre las relaciones en un entorno que ya no es sistémico y unificador. Introduce tres principios (dialógico, organizativo y hologramático) para pensar en una red como una estructura compleja en lugar de una visión general sistémica. La red se convierte en arquitectura informativa, aun desempeñando su papel material (en referencia al trabajo de Habermas sobre la materialidad de la comunicación).

Esta materialidad sutil proporciona métodos de los campos de conocimiento, que pueden verse como un beneficio de trabajar en un área transdisciplinaria. Sin embargo, ese escenario requiere que los investigadores y las partes interesadas presten más atención a qué son las tecnologías, cómo se definen y cómo se pueden aplicar, evitando enfoques superficiales en la educación.

Cuando se compilan, los tres ejes (investigación, aplicación y evaluación): la educación puede prosperar con el esfuerzo digital en cuestión de tiempo y calidad. Sin embargo, se recomienda la contextualización de la investigación, ya que la experiencia de las comunidades con IA o Big Data puede ser diversa. Razón por la cual, la netnografía se considera el primer grupo de procedimientos, ya que permite al educador comprender sus comportamientos objetivo con respecto a la tecnología digital. La aplicación puede variar según los modelos, siendo relevante la aplicación del modelo según el estudio netnográfico. La multimodalidad concluye este proceso proporcionando un tramo de aspectos que pueden considerarse evidencia para evaluar el impacto de una educación a través de la plataforma.

Consideraciones finales

Las aplicaciones de la tecnología en la educación pueden tener una estrecha relación con los modelos pedagógicos, por medio de la tecnología como medio de almacenamiento e intercambio de información. La discusión sobre la cultura digital y las tecnologías contemporáneas sobre educación tiene diferentes perspectivas. Aquí, se han explorado tres dimensiones: los desafíos en la investigación, aplicar y evaluar esas propuestas de plataforma. Para ilustrar estas percepciones y apoyar las reflexiones de esta transformación digital en curso, los estudios introducen técnicas como el análisis de aprendizaje (minería de datos en entornos educativos) y la aplicación de IA como ejemplo de nuevos métodos incorporados al campo educativo.

Desde el juego de imitación de Alan Turing y las primeras etapas de la IA, las técnicas en el procesamiento, indexación y análisis de software de gestión de datos han evolucionado a diferentes velocidades. En seguridad pública, por ejemplo, el uso de tecnología de reconocimiento facial y vigilancia con regulaciones de Macrodatos (por ejemplo, GDPR). En educación, por otro lado, los argumentos éticos plantean problemas sobre las contribuciones significativas hechas por los esfuerzos tecnológicos. Ya sea en seguridad pública, educación o en otros lugares, el cambio digital abre cuestiones paradójicas en la medida en que estos dilemas aún necesitan razonamiento, inversión y calificaciones profesionales para ser considerados culturalmente presentes. A pesar del volumen de referencias requeridas, esta investigación utiliza tanto la multimodalidad como la netnografía para abordar los impactos tanto de la IA como del Big Data en la educación. La cohorte metodológica combina variaciones teóricas y prácticas.

Diseñar un experimento de investigación o una plataforma es una práctica para administrar los atajos de datos y la representatividad de los datos. Cuando se analizan conjuntos de datos incompletos o construcciones complejas (como competencias), especialmente aquellas que tienen datos faltantes (por ejemplo, debido a fallas de hardware), la superposición de información en múltiples modalidades (triangulación de datos) es conveniente ya que permite preservar su significado general (Bosch et al., 2015). Cukurova et al. (2019) lo hizo evidente cuando, en su estudio con IA para analizar la toma de decisiones en humanos, compararon enfoques unimodales y multimodales para observar los datos sensibles de los estudiantes como huellas de movimientos oculares y posturas corporales.

En resumen, la triangulación de datos, en el contexto del enfoque multimodal, tiene la capacidad de complementar el análisis de dos maneras diferentes: cuando los datos se enfrentan a un estado incompleto para analizar una construcción, y cuando los datos parciales obligan a uno a hacer inferencias de otras parcelas de datos. Por ejemplo, es posible analizar la ansiedad con tecnología educativa por parte de los estudiantes, utilizando fuentes de datos muy diferentes, desde mediciones de actividad neuronal y frecuencia cardíaca hasta cuestionarios. El proceso de triangulación de datos ofrece un método confiable y seguro que permite inferir evidencia basada en conclusiones extraídas.

Este documento trató de ofrecer ambas configuraciones: una comprensión profunda de la tecnología en su correlación con la educación y una exploración de los métodos utilizados para investigar, aplicar y evaluar esas características. Existe un punto de inflexión aparente en el contexto teórico de la educación que ya no considera solo los factores humanos (educadores y estudiantes), sino que introduce una cartografía de nuevos interesados ​​que abarca conceptos transdisciplinarios y entidades técnicas. El desafío de realizar investigación dentro de este campo proviene de alinear las elaboraciones académicas con el contexto pragmático: capacitar a los ciudadanos para que comprendan las implicaciones de lo que parece ser una nueva posibilidad para la filosofía del conocimiento. Quizás la era de las plataformas traerá un nuevo paradigma. Quizás no: ya veremos.1

References

  1. Cukurova, Mutlu, Kent, Carmel & Luckin, Rosemary. 2019.intelligence and multimodal data in the service of human decision‐making: A case study in debate tutoring&author=Cukurova&publication_year= Artificial intelligence and multimodal data in the service of human decision‐making: A case study in debate tutoring. British Journal of Educational Technology 50(6):3032–3046.
  2. Bakhshi, H, Downing, J, Osborne, M & Schneider, P. 2017.future of skills: Employment in 2030&author=&publication_year= The future of skills: Employment in 2030.Pearson
  3. European Union Comission (Ed.) 2012.General data protection regulation (GDPR - COD - 2012/0011 - EUR/Lex)https://bit.ly/2WqBc8N
  4. Fava, R. 2018.educação e inteligência artificial: a era do indivíduo versátil&author=&publication_year= Trabalho, educação e inteligência artificial: a era do indivíduo versátil.Penso
  5. Hine, C. 1994.The virtual objects of ethnography. In: International Conference on Public Communication of Science and Technology (PCST), Montreal, Canada&author=&publication_year= 3th International Conference on Public Communication of Science and Technology (PCST), Montreal, Canada. (pp. 10-13)
  6. Mead, M. 1979.y cultura en Samoa&author=&publication_year= Adolescencia y cultura en Samoa.Paidós
  7. Turing, A M. 2009.machinery and intelligence&author=Turing&publication_year= Computing machinery and intelligence. In: R. Epstein, G. Roberts & G. Beber, eds. the turing test&author=&publication_year= Parsing the turing test.Springer
  8. Van-Dijck, J, Poell, T & De-Waal, M. 2018.platform society: Public values in a connective world&author=&publication_year= The platform society: Public values in a connective world.Oxford University Press
  9. Wilson, W. 1999.The unity of knowledge&author=&publication_year= Consilience: The unity of knowledge.Vintage
  10. International Telecommunication Union (Ed.) 2017.Artificial Intelligence for development series. https://bit.ly/3dHWvbG
  11. Organisation for Economic Co-operation and Development (Ed.) 2020.Better Policies for lives – Learning Compass. https://bit.ly/3fUW93A
  12. Cloud Security Alliance (Ed.) 2014.data taxonomy&author=&publication_year= Big data taxonomy.
  13. Kozinets, R V, Pierre-Yann, D & Amanda E. 2014.analysis: Understanding culture through social media data&author=Kozinets&publication_year= Netnographic analysis: Understanding culture through social media data. In: handbook of qualitative data analysis&author=&publication_year= Sage handbook of qualitative data analysis. (pp. 262-275) Sage
  14. Habermas, J. 1985.theory of communication action&author=&publication_year= The theory of communication action.Heinemen Educ
  15. United Nations (Ed.) 2017.Innovative Big Data approaches for capturing and analysing data to monitor and achieve the SDGs. https://bit.ly/2Zhcfi0
  16. Bosch, N, Chen, H, D'mello, S, Baker, R & Shute, V. 2015.vs. availability heuristic in multimodal affect detection in the wild&author=Bosch&publication_year= Accuracy vs. availability heuristic in multimodal affect detection in the wild. In: of the 2015 ACM on International Conference on Multimodal Interaction&author=&publication_year= Proceedings of the 2015 ACM on International Conference on Multimodal Interaction. (pp. 267-274)
  17. Nigay, L & Coutaz, J. 1993.design space for multimodal systems: Concurrent processing and data fusion&author=Nigay&publication_year= A design space for multimodal systems: Concurrent processing and data fusion. In: of the INTERACT'93 and CHI'93 conference on Human factors in computing systems&author=&publication_year= Proceedings of the INTERACT'93 and CHI'93 conference on Human factors in computing systems. (pp. 172-178)
  18. Luckin, R, Holmes, W, Griffiths, M & Forcier, L B. 2016.Intelligence unleashed: An argument for AI in education. https://bit.ly/2TjdXf0
  19. International Telecommunication Union (Ed.) 2017.AI for good global summit report. https://bit.ly/3cxf3LQ
  20. Gervais, J.. 2016.operational definition of competency-based education&author=Gervais&publication_year= The operational definition of competency-based education. The Journal of Competency-Based Education 1(2):98–106.
  21. Mantelero, Alessandro. 2018.and Big Data: A blueprint for a human rights, social and ethical impact assessment&author=Mantelero&publication_year= AI and Big Data: A blueprint for a human rights, social and ethical impact assessment. Computer Law & Security Review 34(4):754–772.
  22. Scoular, Claire, Care, Esther & Hesse, Friedrich W.. 2017.for operationalizing collaborative problem solving for automated assessment&author=Scoular&publication_year= Designs for operationalizing collaborative problem solving for automated assessment. Journal of Educational Measurement 54(1):12–35.
  23. Clark, F. 1976.Characteristics of the competency-based curriculum. Competency-based education for social work: Evaluation and curriculum issues.
  24. Fadel, C & Groff, J. 2019.education for sustainable societies&author=Fadel&publication_year= Four-dimensional education for sustainable societies. In: human well-being, and the future of education&author=&publication_year= Sustainability, human well-being, and the future of education. (pp. 269-281) Palgrave Macmillan
  25. International Telecommunication Union (Ed.) 2018.AI for good summit webcast archives. https://bit.ly/3fE8x7M
  26. Zabala, A & Arnau, L. 2015.aprender y enseñar competencias: 11 ideas clave&author=&publication_year= Cómo aprender y enseñar competencias: 11 ideas clave.Graó
  27. Rychen, D S & Salganik, L H. 2003.competencies for a successful life and well-functioning society&author=&publication_year= Key competencies for a successful life and well-functioning society.Hogrefe Publishing
  28. International Telecommunication Union (Ed.) 2018.Innovative Big Data approaches for capturing and analyzing data to monitor and achieve the SDGS. https://bit.ly/2zx5Sw8
  29. Kelly, K. 2010.technology wants&author=&publication_year= What technology wants.Penguin Editorial Publishing
  30. Malinowski, B. 1922.of the Pacific&author=&publication_year= Argonauts of the Pacific. New York, Holt: New York, Holt, Reinhart and Winston
  31. Legg, S & Hutter, M. 2018.intelligence: A definition of machine intelligence&author=Legg&publication_year= Universal intelligence: A definition of machine intelligence. Mind Mach 17(4):391–444.
  32. Russell, S & Norvig, P. 1995.intelligence: A modern approach prentice-hall&author=&publication_year= Artificial intelligence: A modern approach prentice-hall.Englewood cliffs
  33. Mick, David Glen & Fournier, Susan. 1998.of technology: Consumer cognizance, emotions, and coping strategies&author=Mick&publication_year= Paradoxes of technology: Consumer cognizance, emotions, and coping strategies. Journal of Consumer Research 25(2):123–143.
  34. Riesman, D. 1979.Society's demands for competence. In: G. Grant, P. Elbow, T. Ewens, Z. Gamson, W. Kohli, W. Neumann, V. Olesen & D. Riesman, eds. competence: A critical analysis of competence-based reforms in higher education&author=&publication_year= On competence: A critical analysis of competence-based reforms in higher education. (pp. 18-65) Jossey-Bass Inc
  35. Kozinets, R V. 2015.Understanding networked communication society&author=&publication_year= Netnography: Understanding networked communication society.
  36. Cukurova, Mutlu, Luckin, Rosemary & Kent, Carmel. 2020.of an artificial intelligence research frame on the perceived credibility of educational research evidence&author=Cukurova&publication_year= Impact of an artificial intelligence research frame on the perceived credibility of educational research evidence. International Journal of Artificial Intelligence in Education 30(2):205–235.
  37. Barrett, A.R. & Edwards, J.S.. 1995.elicitation and knowledge representation in a large domain with multiple experts&author=Barrett&publication_year= Knowledge elicitation and knowledge representation in a large domain with multiple experts. Expert Systems with Applications 8(1):169–176.
  38. Organisation for Economic Co-operation and Development (Ed.) 2018.AI: Intelligent machines, smart policies. https://bit.ly/2LqNAQ4
  39. Floridi, L. 2014.fourth revolution: How the infosphere is reshaping human reality&author=&publication_year= The fourth revolution: How the infosphere is reshaping human reality. Oxford: OUP Oxford
  40. Søe, Sille Obelitz. 2018.detection of misinformation and disinformation: Gricean perspectives&author=Søe&publication_year= Algorithmic detection of misinformation and disinformation: Gricean perspectives. Journal of Documentation 74(2):309–332.
  41. Cobb, Paul, Confrey, Jere, diSessa, Andrea, Lehrer, Richard & Schauble, Leona. 2003.experiments in educational research&author=Cobb&publication_year= Design experiments in educational research. Educational Researcher 32(1):9–13.
  42. Morin, E. 2015.ao pensamento complexo&author=&publication_year= Introdução ao pensamento complexo.Editora Sulina
Back to Top

Document information

Published on 30/09/20
Accepted on 30/09/20
Submitted on 30/09/20

Volume 28, Issue 2, 2020
DOI: 10.3916/C65-2020-04
Licence: CC BY-NC-SA license

Document Score

0

Views 0
Recommendations 0

Share this document

claim authorship

Are you one of the authors of this document?