lunes, 29 de junio de 2020

El big data aplicado a la educación


El mundo de la educación no es ajeno, ni mucho menos, a la innovación, y hace varias décadas que está inmerso en la transformación de los procesos de enseñanza a través del impulso de la creatividad, la incorporación de la tecnología en el aula, y el análisis sobre su papel como motor de cambio hacia un modelo de aprendizaje más personalizado. Dentro de las tendencias más vanguardistas en este campo, destaca el concepto de analítica del aprendizaje o learning analytics, que aprovecha el rastro digital que deja el estudiante en la esfera digital para recopilar y sintetizar toda esa información con el fin de conocerle mejor, y de poder adaptar y personalizar las acciones formativas a sus necesidades específicas. En suma, se trata de hacer uso de datos inteligentes, de los datos producidos por los alumnos y de modelos de análisis, para descubrir información y conexiones sociales que permitan predecir y asesorar el aprendizaje de las personas.

Numerosos expertos en innovación pedagógica se muestran partidarios de introducir las técnicas de analítica en los procesos de enseñanza y aprendizaje. Básicamente se basan en tres elementos: los datos, como materia prima de este proceso, el análisis, que añade valor a los datos por medio de algoritmos, y la acción a emprender, como respuesta proactiva a los resultados del proceso de analítica.

En general, son diversos los beneficios que se hacen patentes, tanto para el alumno como para centro educativo. Por una parte, la learning analytics es una herramienta para mejorar la tasa de retención de alumnado y su desempeño formativo. Disponiendo de los resultados adecuados de los análisis, se puede llevar a cabo una intervención tutorial efectiva, que evite el abandono y refuerce el rendimiento.

Otra ventaja es que permite optimizar la calidad de los cursos, puesto que identifica patrones de consumo de contenidos. En función de los resultados de la analítica, es posible reforzar aquellas partes de cada curso con más aceptación entre el alumnado y mejorar las que menos. Además, la analítica del aprendizaje puede utilizarse para identificar los factores que determinan el éxito académico, y ayudar al diseño del currículo del estudiante. Finalmente, es un apoyo fiable para el diseño de estrategias y la distribución de costes, al señalar qué recursos formativos funcionan bien y cuáles no.

Las principales barreras a las que se enfrenta el desarrollo de la learning analytics están relacionadas con los datos, el verdadero combustible de este motor. Como hemos visto recientemente en todo el mundo, el uso indiscriminado de big data con fines comerciales o políticos ha levantado una corriente crítica y un gran debate en torno a este tema, que en ocasiones ha desembocado en el desarrollo de un acervo legislativo restrictivo, tendente a proteger la privacidad, como es el Reglamento General de Protección de Datos europeo. Puede darse el caso de que, aunque estén disponibles, los datos no puedan ser utilizados para estos fines por razones legales o por la propia normativa de las instituciones educativas.

Con todo, la analítica del aprendizaje se perfila como una de las mejores herramientas de que disponemos, dentro de este mundo inundado de datos en el que nos ha tocado vivir, para alcanzar el ansiado objetivo de la pedagogía actual de ofrecer una formación lo más personalizada posible a las necesidades del estudiante.

lunes, 22 de junio de 2020

Cuando la banca se hace invisible


El sector financiero siempre ha ido en vanguardia de la digitalización. Desde los primeros cajeros electrónicos en red, llegados a España en la década de los 70, hasta las apps actuales para teléfono móvil, que nos permiten llevar la sucursal bancaria en el bolsillo, lo cierto es que la tecnología siempre ha estado muy presente en el mundo de la banca.

Hoy en día, las entidades tienden a sustituir las sucursales físicas por los servicios ofrecidos a través de internet. De hecho, y según datos del Banco de España, el número de oficinas en nuestro país ha caído un 43% en 10 años, desde 45.707 de 2008 a 26.011 de diciembre de 2018. En septiembre de 2019 el número de sucursales operativas en España eran 20­.622 de acuerdo con el Registro de ofcinas de entidades supervisadas del Banco de España.

En paralelo, la proporción de ciudadanos que utiliza la banca a través de la web creció un 30% entre 2007 y 2017, y las estimaciones apuntan a que, en 2022, cerca de la mitad de los pagos relacionados con el comercio electrónico se realizarán a través de monederos electrónicos y, en el caso de los pagos en punto de venta, esta cifra se situará en torno al 28­%, sustituyendo una buena parte del volumen actual de abonos en efectivo. Resulta más que evidente que la actividad se está virtualizando a pasos agigantados.

Una de las principales consecuencias que trae consigo esta tendencia es que hay un desplazamiento del eje de atención hacia el cliente, de forma que este se convierte en el centro de un servicio que a partir de ahora se moldea para satisfacer sus necesidades de manera que le resulte lo más cómodo posible. Atrás quedaron las colas en las ventanillas para realizar una transferencia; hoy es posible realizarla en unos pocos minutos a través de un ordenador, una tableta o un smartphone.

Y la consecuencia directa de esto es que el servicio en sí prima sobre la entidad financiera, un fenómeno que se empieza a conocer como banca invisible. La idea básica es que el cliente de la era digital espera que sus necesidades financieras no dependan de cómo el banco oferta sus servicios, sino de cómo él quiere que le sean prestados. El nuevo consumidor demanda que las entidades eliminen todo procedimiento engorroso y tedioso a la hora de operar con él. Quiere que el servicio esté embebido en su vida diaria sin que necesariamente perciba la presencia del banco.

En la banca invisible los productos y servicios están empaquetados en la “trastienda” de forma que no son visibles para el cliente, que solamente recibe una experiencia positiva para él. Las apps y otros canales cada vez serán más autónomos y sustituirán la decisión consciente de pago. Una buena comparación son los smartphones, y en general, todos los dispositivos electrónicos de consumo, que bajo una determinada marca encierran componentes de otros fabricantes cuya presencia queda oculta. ¿A alguien le interesa o le preocupa saber que dentro de un iPhone pueden estar alojadas marcas como Samsung, Sony, Toshiba o LG? Igual llegará a suceder con los servicios financieros, pues los consumiremos asociados a experiencias comerciales, sin prestar atención a qué entidad o entidades están detrás prestándolos.

lunes, 15 de junio de 2020

La era de la computación cuántica


Los ordenadores cuánticos prometen llevar la computación hasta límites inimaginables actualmente, basando su funcionamiento en la física de partículas. Todavía no es más que eso, una promesa, cuyo despliegue durará décadas, pero ya hoy en día podemos anticipar, a través de experiencias y pruebas, la transformación que traerá consigo esta nueva generación de máquinas.

Aunque es pronto para predecir todo su impacto, la llegada de la computación cuántica implicará importantes ganancias en productividad, que Boston Consulting Group valora en 450.000 millones de dólares anuales. Los pioneros en su utilización serán aquellos sectores cuya actividad reposa sobre unas necesidades de simulación y optimización de sistemas altamente complejas, como pueden ser, entre otros, el diseño de materiales o la creación de nuevos fármacos. A medio plazo, la consultora prevé la generación de un valor para los usuarios finales en cantidades todavía modestas, entre los 2.000 millones de dólares y los 5.000 en 2024.

En la computación cuántica ya no hablamos de bits como en la informática tradicional, sino de qubits. Se trata de ordenadores cuyo funcionamiento no reposa sobre transistores, sino sobre partículas subatómicas, que pueden adquirir los valores 1 y 0. Hasta aquí parece que se comportan como los bits, sin embargo, existen dos propiedades de la mecánica cuántica que los hace distintos: la superposición y el entrelazamiento. Por una parte, la superposición implica que los qubits pueden adoptar el valor 1 o el valor 0, pero también simultáneamente propiedades de ambos. Esto amplía de forma exponencial la capacidad computacional, pues un ordenador con varios qubits en superposición puede cotejar simultáneamente un elevado número de resultados posibles, y, solamente cuando el estado cuántico de los qubits colapsa a 1 o 0, es el momento en que aparece el resultado final.

La otra propiedad es la posibilidad de entrelazar pares de qubits, de forma que ambos existan en un mismo estado cuántico, lo que implica que, si es alterado el estado de uno de ellos, el del otro cambia instantáneamente de una forma predecible. El entrelazamiento funciona incluso si están separados por grandes distancias. Mientras que en la informática convencional al doblar el número de bits se dobla la capacidad de procesado de información, en el ordenador cuántico el entrelazamiento permite que, al añadir nuevos qubits, la potencia computacional se dispare exponencialmente.

El desarrollo de ordenadores cuánticos es harto complejo. Manejar y manipular partículas subatómicas es un reto científico de primer orden. En algunos casos se requiere crear circuitos superconductores y enfriarlos a temperaturas menores que las que hay en el espacio exterior; otras veces se intenta atrapar átomos individuales en campos electromagnéticos dentro de cámaras de vacío. El objetivo en ambos casos es conseguir aislar a los qubits en un espacio cuántico controlado.

Aunque la informática cuántica todavía está dando sus primeros pasos de forma experimental, a principios de 2019 IBM presentó en el marco de CES 2019, la feria de tecnología de Las Vegas, la primera versión comercial de su ordenador cuántico. Bautizado como Q System One, llega hasta los 20 qubits -30 menos que el prototipo que la compañía presentó en 2017-, y está destinado a apoyar actividades científicas y de negocios. El sistema tiene la forma de un gran cubo de cristal de casi tres metros, al que se accede a través de una puerta. La estructura está diseñada para mantener el chip cuántico a una temperatura de 10 milikelvin o una fracción por encima del cero.

Por otro lado, la Unión Europea ha materializado su apoyo al desarrollo de la tecnología cuántica a través del programa Flagship, dotado de 1.000 millones de euros para financiar iniciativas en este campo. Precisamente, uno de los primeros proyectos seleccionados ha sido el presentado por el grupo Quantum Technologies for Information Science (QUTIS) de la Universidad del País Vasco, para construir un ordenador cuántico europeo de libre acceso para investigadores y científicos. El OpenSuperQ estará basado en circuitos superconductores y albergará entre 50 y 100 qubits, muy por encima de los 20 que ostenta la versión comercial de IBM. Si todo va bien, el primer ordenador cuántico de Europa tendrá origen vasco.
 
Google Analytics Alternative