El boom de la inteligencia artificial dispara el interés por la carrera de Matemáticas, que promete un 100% de empleabilidad

El boom de la inteligencia artificial dispara el interés por la carrera de Matemáticas, que promete un 100% de empleabilidad

Pareciera que no hace tanto de cuando, en el momento de escoger carrera, apenas era necesario un cinco para entrar en Matemáticas. Unos años después, esta se ha convertido en una alternativa de gran demanda en España, con una tasa de empleabilidad del 100% y una nota de corte que llega al 13,77 si el grado se acompaña del Grado de Física.

La era de internet y la tecnología parecen ser los principales responsables de este boom, creando puestos relacionados con la inteligencia artificial o biomedicina, entre otros, que no existían hace unos años.

Un millón de empleos ocupados directos y 2,3 millones de empleos indirectos generados
Maths

Como cuenta El País, el número de empleos que generó Matemáticas en el año 2016 alcanza el millón de ocupados directos (empleos pagados por la empresa) y los 2,3 millones de empleos indirectos (empleos generados por la actividad de dicha empresa). Esta cantidad de empleos llega a suponer un 10% del producto interior bruto español.

Hace unos años, la principal aspiración de un matemático era aspirar a ser profesor de secundaria o ejercer en universidades. No obstante, estos tiempos tecnológicos permiten que la empleabilidad sea mayor, con salidas como el big data y la inteligencia artificial.

«La empleabilidad es del 100%. Hace años, las empresas tecnológicas pedían un ingeniero informático o industrial y ahora han abierto el campo a los físicos y los matemáticos». Sara Álvarez, manager en Adecco.

En la página de Grados de la Universidad de Granada, se detallan del mismo modo algunas de las salidas de la carrera de Matemáticas, así como el porcentaje de tasa de empleo que tiene la misma (algo que, casualmente, no se muestra en otro tipo de carreras con tasa de empleo baja).

Salidas profesionales

Empresas de banca, finanzas, consultoría, industria, administración pública… La UGR presume de un 98,2% de tasa de empleo al cabo de cinco años, y de un 95% en tan solo dos. Números bastante positivos, que pueden despejar cualquier duda a aquellos que quieran matricularse en este grado.

El gran cambio en la nota de corte y la importancia de las Matemáticas

Esta mejora en la tasa de empleo ha propiciado que se dispare la nota de corte en la carrera de Matemáticas. Con una simple búsqueda podemos ver cómo gran parte de las universidades exigen más de un diez, llegando hasta el 13,77 en el Doble Grado de Matemáticas y Física de la Complutense de Madrid.

Titulaciones

Si nos vamos a ciudades que exigen menor nota de corte, como Almería, observamos que en nueve años se ha subido desde un cinco justo hasta un 8,7. Según estudios, hay una clara relación entre los conocimientos de matemáticas y el éxito laboral, llegando incluso a relacionarse el sueldo con la habilidad temprana con estas.

«No sorprende en absoluto, y es que tener una educación matemática define en una gran medida tu capacidad crítica y tu habilidad en tomar decisiones». Santiago García Cremades, matemático, investigador, divulgador y profesor asociado en la Universidad Miguel Hernandez de Elche

En definitiva, Matemáticas ha pasado del «cinco pelado» a ser una de las carreras con la corte de nota y tasa de empleabilidad más altas, fenómeno propiciado por el boom de las tecnologías, que han logrado crear puestos de trabajo que no existían hace unos años.

Fuente: genbeta.com




Pronto beberemos whisky destilado por una inteligencia artificial

Los orígenes del whisky se pierden en la noche de los tiempos. Algunos dicen que los egipcios ya conocían los misterios de la destilación de grano fermentado, otros que las bases de su elaboración llegaron a Mesopotamia desde China.

En lo que parece que hay consenso es que fueron los monjes los que llevaron el whisky a Escocia e Irlanda y, desde allí, esta bebida se empezó a popularizar en Europa.  Hablamos de algo que sucedió hace unos mil años, sin embargo, los tiempos cambian y ahora parece que la inteligencia artificial hará suyo también ese conocimiento milenario y asumirá un inédito protagonismo en la fabricación del whisky.

Así, la destilería sueca Mackmyraha anunciado la próxima comercialización de un whisky elaborado siguiendo la fórmula dictada por una inteligencia artificial, cuyas aplicaciones parecen no tener fin. Para ello, colaborará con la empresa de tecnología finlandesa Fourkind y Microsoft.No es la primera vez que la tecnología del siglo XXI se utiliza para dar forma a bebidas tradicionales. La cervecera danesa Carlsberg, través del Beer Fingerprinting Project ya utiliza sensores avanzados y métricas que son utilizados por sus investigadores para no tener que probar litros y litros de cerveza antes de decidir su comercialización.  

EL COMPLEJO PROCESO DE FABRICACIÓN DEL WHISKY

Sin embargo, desde Mackmyra se explica que el proceso de fabricación del whisky es mucho más complejo que los modelos utilizados para crear cerveza, debido a la gran cantidad de combinaciones de factores que hay que valorar, y el hecho de que “las recetas de whisky son más arte que ingeniería”.

Y es que la calidad de un buen whisky no solo depende de la combinación de los distintos ingredientes, sino que entran en juego los barriles donde se almacena y el tiempo que se dedica a su maduración.

Los modelos de aprendizaje automático que utiliza la destilería, impulsados ​​por la plataforma Azure de Microsoft, se “alimentan” de las recetas existentes de Mackmyra, datos de ventas y preferencias de los clientes. Con este conjunto de datos, la IA puede generar más de 70 millones de recetas y predecir cuáles serán más populares así como su calidad, despejando buena parte de las incertidumbres asociadas a la fabricación del whisky.

fabricación del whisky con inteligencia artificial

¿Y qué pasará con el “master blender”,? ¿Sucumbirá esta profesión, como tantas otras, al poderío de la inteligencia artificial? Desde la compañía finlandesa lanzan un mensaje tranquilizador: “la inteligencia artificial crea la receta del nuevo whisky, pero aún nos beneficiamos de la experiencia y el conocimiento de una persona, especialmente la parte sensorial humana, que nunca puede ser reemplazada por ningún programa.

“El whisky es generado por la inteligencia artificial, pero perfeccionado por el hombre. En última instancia, la decisión la toma una persona “, concluyen.

El whisky generado por la IA de Mackmyra estará disponible a partir de otoño de 2019. Según la destilería, esta es la primera vez que se crea una receta compleja de productos de consumo con aprendizaje automático…pero el whisky es solo el comienzo.

Fuente: nobbot.com




Los héroes robóticos de Fukushima

Los héroes robóticos de Fukushima

11 de marzo de 2011. Se produce en Japón un terremoto de magnitud 9,0, al que le sigue un tsunami. La central nuclear de Fukushima, sin un muro de protección adecuado, recibe olas de varios metros de alto. La refrigeración comienza a fallar y, como se sabría después, tres de los reactores llegan a sufrir la fusión de su núcleo. Se producía así el peor desastre nuclear desde Chernobyl.

Durante los primeros días, un grupo que fue creciendo de empleados se encargaron de trabajar en las inmediaciones de los reactores, poniendo en peligro seriamente su vida. Debido a los altos niveles de radiación, estos sólo podían estar un tiempo mínimo y limitado en algunos lugares. Otras zonas, en cambio, están tan contaminadas que todavía hoy y, durante varios años más, no podrán ser visitadas por seres humanos. Aquí es precisamente donde entran en juego los robots controlados remotamente.

Sin embargo, no todos los robots están preparados para meterse de lleno en este tipo de desastres. Muchos de ellos, y hasta el accidente, no incluían protección contra altos niveles de radiación. Y, aunque la incluyan, estamos hablando de cifras tan altas que la circuitería puede resentirse al cabo de unas horas en las zonas más críticas. A esto hay que sumar los escombros, el desconocimiento del estado del interior de las salas de los reactores y la dificultad de las misiones en general.

Los robots japoneses no estuvieron a la altura

Siendo Japón un país con muy buena fama en todo lo que se refiere a la robótica, ¿cómo es que tuvieron que recurrir a empleados de carne y hueso durante las primeras horas de la tragedia para evitar que ésta se convirtiera en un desastre mayor? ¿Por qué, como veremos ahora, el primer robot en meterse en los edificios afectados fue un iRobot… de origen estadounidense? «Los robots han fallado a Fukushima y a Japón», titulaba Fortune en un artículo de hace tiempo, y en cierto modo existe la sensación de que ha sido así.

Además de que nadie se esperaba una tragedia de estas características, en el artículo de Fortune citan a un trabajador anónimo de la central que parece tener la clave: «a pesar de todo el poderío de Japón en la alta tecnología, ninguno de esos alabados humanoides sirvieron para algo«. ¿De qué sirve que un robot tenga una cara humana, un cuerpo humano y unos gestos similares a los nuestros si cuando se les necesita para tareas específicas no sirven para nada? Bailando o jugando al fútbol son muy graciosos, pero nada más.

Los medios locales fueron bastante críticos en su día con este hecho, citando a expertos que afirmaban que los robots japoneses no venían equipados con protecciones contra la radiación desde hace años. ¿Quiénes estaban preparados? Los estadounidenses, lo que para algunos japoneses fue casi otra tragedia nacional.

«Los robots no deberían tener piernas. Los brazos tienen sentido y la cabeza también. Nosotros no tenemos ruedas, pero los robots pueden. (…) En Japón los robots se usan como símbolo de estatus y como herramientas de marketing. Sus empresas no crean beneficios, sino sueños», decía en 2010, antes del desastre, el CEO de iRobot en una entrevista

«Cuando escuché que robots extranjeros fueron los primeros en entrar a la primera planta de Fukishima, sentí un gran dolor, así que empecé a pensar qué podría hacer yo para ayudar», dijo por aquel entonces Satoshi Shigemi, ingeniero jefe de Asimo (el humanoide de Honda). Desde entonces algunas compañías japonesas se están poniendo las pilas y en los últimos dos años han estado llegando nuevas soluciones diseñadas casi a medida para ayudar en Fukushima.

A continuación os hacemos un resumen de algunos (no todos) de losrobots que trabajan o han trabajado en Fukushima:

PackBot y Warrior (iRobot)

Packbot Warrior

PackBot fue el primer robot en entrar al edificio del reactor en 2011, poco después del accidente. Se trata de un robot con diversas funcionalidades y con un brazo robótico muy preciso, todo ello fabricado por iRobot. Sí, los mismos que hacen Roombas. Su misión en Fukushima es principalmente de reconocimiento: los equiparon con cámaras y con sensores para medir temperatura y niveles de radiación. Inicialmente se idearon como robots para utilizar en combate, y de hecho son herramientas que utilizan Policía y ejércitos de todo el mundo.

Fukushima

El PackBot entrando a las instalaciones de Fukushima

Warrior es una versión más grande, pesada y avanzada del PackBotaunque tiene una estructura similar. Con el gran brazo robótico puede recoger y mover de sitio obstáculos pesados (de hasta 130 kg bajo algunas condiciones) para que otros robots puedan operar. Además, presumen de gran movilidad y aseguran que puede subir hasta escaleras. Aquí podéis ver cómo lo utilizan para cortar y retirar una chapa de metal. Y oye, hasta pasa la aspiradora para recoger polvo contaminado si hace falta.

Warrior Fail

Pero no es infalible. El año pasado, un Warrior se atascó en una de sus misiones en Fukushima, quedándose al poco tiempo sin batería. ¿Cómo fue posible esto si estaba enchufado a un cable todo el rato? Por diseño, una vez la batería se carga, se corta la alimentación externa y la única forma de reanudarla una vez se agota la batería es activar manualmente un interruptor, lo que es imposible ya que no se puede acceder a dicha zona. Allí quedó abandonado.

Quince (Chiba Institute of Technology y otros)

Quince 2

Si PackBot fue el primer robot en entrar en la Central Nuclear de Fukushima, Quince tiene el honor de ser el primer robot japonés en hacerlo. Se trata de un robot ideado para rescates y para hacer frente a desastres. Es capaz de subir escaleras, lo que hace que tenga más movilidad que el PackBot, e incluye un brazo que puede utilizar para desplazar escombros o abrir puertas. Su objetivo es explorar y tomar muestras.

Comenzaron a desarrollarlo en 2006 y en 2012 ya tenían el primer prototipo listo. Después del desastre de Fukushima, y todavía sin modelos comerciales, decidieron utilizarlo allí también a modo de prueba, aunque el hecho de que los operarios no tuvieran suficiente conocimiento sobre el funcionamiento del mismo fue ampliamente criticado por sus creadores. ¿Otro problema adicional? Que no estaba preparado para soportar grandes dosis de radiación, así que tuvieron que «parchearlo» como pudieron, añadiendo materiales y peso.

Propiciado por todo esto, el Quince también protagonizó un accidente en 2011 después de que el cable de comunicación con los operarios se dañaray no se pudiera recuperar el contacto con él. Poco después llegó el Quince 2 con nuevos sensores y más herramientas para recoger muestras. Un tercer modelo incluso viene equipado con un escáner en 3D. Existe otra versión parecida, de nombre Rosemary, que examina y busca fuentes de radiación en los edificios de los reactores.

ASTACO-Sora (Hitachi)

Astaco Sora

También para retirar escombros, el ASTACO-Sora llama la atención por sus dos brazos. En cada uno de ellos puede levantar hasta 150kg pero el hecho de que el módulo principal no supere el metro de alto lo hace una solución bastante compacta (y pesada: 2,5 toneladas). Utiliza un motor diesel que le ofrece hasta 15 horas de autonomía.

Limpieza Arco

A la derecha, cómo quedó una habitación después de que el robot retirara un conducto caído

Robot de cuatro patas (Toshiba)

Robot Toshiba

Toshiba, empresa japonesa, fue otra de las que se puso las pilas con las críticas y a finales de 2012 presentó un robot motorizado de cuatro patas con las que puede superar obstáculos con facilidad. Alcanza velocidades de 1km/h y tiene una autonomía de hasta dos horas. En su parte superior se incluye otro mini-robot diseñado para explorar superficies lisas, en este caso con una autonomía de una hora adicional. En Fukushima lo han utilizado para explorar las tuberías de la zona justo debajo del reactor, con el robot principal encargándose de los laterales y el robot secundario moviéndose sobre las propias tuberías.

Raccoon (ATOX) y otros robots de descontaminación

Raccoon

Tiene forma de aspiradora… porque es un robot aspiradora gigante. A finales de noviembre de 2013, TEPCO envió el Raccoon a realizar tareas de limpieza. ¿El objetivo? Recuperar el «polvo» contaminado que está esparcido por todo el edificio del reactor 2 de cara a preparar la entrada de técnicos humanos. Su cabeza pesa más de 35 kg y posee dos cabezales: el que veis en la foto con forma de flecha y otro con cepillos.

Descontaminadores

Descontaminador de Toshiba con hielo seco (izquierda) y robot de Hitachi de agua a presión (derecha)

No es el único robot que TEPCO está empleando para descontaminar algunas zonas. Hitachi, por ejemplo, tiene un robot que expulsa agua a presión, mientras que Toshiba ha optado por otro que utiliza hielo seco. Este material abrasivo se expulsa contra las superficies en una forma innovadora de «rascar» y levantar los materiales contaminados que hayan podido quedar pegados a ellas.

MEISTeR (Mitsubishi)

Fukushima Mitsubishi 2

La opción más robusta de Mitsubishi, preparada además para soportar altos niveles de radiación. Tiene dos brazos robóticos de siete ejes, uno de los cuales puede personalizarse con varias herramientas como taladros o sierras. Puede, por ejemplo, agarrar una tubería con un brazo y cortar el extremo con el otro, por lo que es muy útil para misiones de exploración al poder salvar y retirar obstáculos. Eso sí, no es precisamente ligero: pesa 440 kg.

En Fukushima también se está utilizando para descontaminar algunas zonas. Se le ha equipado con una aspiradora para recoger los restos radiactivos más pequeños en el edificio del reactor 3 y también la emisión de un material abrasivo que es capaz de levantar capas contaminadas de algunas superficies. En el reactor 2, en cambio, lo han utilizado para extraer muestras de hormigón para analizar.

Robot de «altos vuelos» (Honda)

Robot Honda

¿Recordáis lo que decíamos al principio de cómo Honda quiso sumarse con sus propios robots no humanoides? La compañía construyó un robot con un brazo telescópico capaz de extenderse hasta 7 metros con el fin de alcanzar lugares de gran altitud a los que el resto de robots no pueden llegar. Para ello reutilizaron los sistemas de movimiento que desarrollaron para ASIMO, el robot humanoide.

Honda Trabajando

A la izquierda, el robot trabajando. A la derecha, imagen tomada por su cámara.

Robot nadador y robot trepador (Hitachi)

Nadador Escalador

Robot nadador (izquierda) y robot escalador (derecha)

Para comprobar el estado del sistema de refrigeración que contiene el agua contaminada en la parte más baja del edificio de contención nuclear, Hitachi diseñó una pareja de robots para que trabajaran a la par en la inspección del reactor 2: uno era sumergible y el otro estaba preparado para trepar por las paredes. En julio de 2014, ambos inspeccionaron la zona entre el reactor y el sistema de refrigeración, tomaron imágenes para que los científicos pudiesen comprobar visualmente el estado y descartaron, mediante el uso de ultrasonidos, la existencia de daños estructurales o filtraciones.

El robot serpiente (Hitachi)

Serpiente Hitachi 1

Robot diseñado específicamente para entrar al reactor 1 por sus tuberías

Éste es uno de los últimos robots que han visto la luz. En este caso ha sido diseñado específicamente para trabajar en Fukushima. Su forma es realmente curiosa: es una especie de «serpiente» de 60 cm de largo que reptará por las tuberías de 10 cm de diámetro hasta introducirse de lleno dentro del núcleo del reactor 1. Una vez allí, los extremos se plegarán hasta quedar en forma de U y el robot se desplazará gracias a las ruedas que incorpora.

Robot Forma U

El robot toma forma de U para desplazarse cuando está sobre suelo firme

Será la primera vez que un robot acceda al interior del reactor. Lo intentaron en 2012 introduciendo un fibroscopio, pero la calidad de las imágenes era tan mala que apenas pudieron aprovecharlas. Con el nuevo robot, la idea es tomar fotografías que muestren el estado actual del reactor y también realizar mediciones de cara a preparar su desmantelamiento. Está previsto que comience a trabajar en abril. Sin embargo, y según los ingenieros, para el resto de reactores tendrán que diseñarse otros robots específicos ya que cada uno posee una estructura distinta. Éste, una vez cumpla su misión de exploración, será «jubilado» para siempre. Calculanque la cámara, por la radiación, no vivirá más de 10 horas.

Algunos de estos robots en acción

No se incluye el robot serpiente de Hitachi porque todavía no se ha desplegado, pero TEPCO ha hecho público un vídeo en el que se puede ver cómo utilizan algunos de los robots que hoy os hemos presentado. Lo cierto es que hay bastantes más: desde la página web oficial podéis echar un vistazo a la lista de robots que funcionan por encima del primer piso y a otra en la que se muestra los que operan en la zona más baja del edificio contenedor de cada reactor. Además, están en pleno desarrollo de nuevos robots que ayuden en el proceso de exploración, limpieza y desactivación de la central de Fukushima.

Fuente: xataka.com




Tecnología que aprende de las personas: así funciona la inteligencia artificial con Deep Learning

Tecnología que aprende de las personas: así funciona la inteligencia artificial con Deep Learning

Seguro que más de una vez has leído eso de deep learning, pero ¿qué es? ¿En qué puede aplicarse? ¿Cómo nos ayudará? Todas esas preguntas pueden surgir en tu cabeza si te decimos que los nuevos televisores 8K de LG vienen con deep learning integrado o si escuchas que Alexa trabaja con aprendizaje profundo. Te explicamos qué es el Deep Learning, en qué puede aplicarse y cómo te ayudará en tu día a día.

¿Qué es el Deep Learning?

Imagina tu cerebro. Todas las conexiones neuronales que crean una red por la que la información y el conocimiento se mueven. Pero la red no es algo plano, hay diferentes niveles y cada zona y cada neurona están especializadas en tareas concretas. Tienes zonas de lenguaje o de reconocimiento de imágenes, por ejemplo, y funcionan como un equipo. No hay una única neurona que haga todo el trabajo, sino que todas trabajan y se complementan.

El Deep Learning utiliza algo parecido. Es como si imitara el cerebro humano. Se distribuye en redes neuronales con varios niveles para que diferentes zonas puedan trabajar para un mismo fin dentro de un sistema de inteligencia artificial.

Según nos explican en Xataka, “en el enfoque Deep Learning se usan estructuras lógicas que se asemejan en mayor medida a la organización del sistema nervioso de los mamíferos, teniendo capas de unidades de proceso (neuronas artificiales) especializadas.” Así que podríamos decir que el deep learning trata de imitar esa estructura de nuestro sistema nervioso, lo que permite que diferentes procesos se realicen a la vez y que “aprendan” mediante ejemplos.

Deep Learning Que Es Es Donde Se Aplica Y Como Nos Ayuda 7

Con este sistema se consigue mayor precisión: el sistema sabrá identificar mejor qué tiene delante. En 2012 se produjo un de los primeros avances dentro del deep learning cuando una red neural de 16.000 procesadores fue capaz de reconocer un gato entre los más de 10 millones de vídeos de Youtube. De no haber trabajado todas las zonas juntas, el reconocimiento no habría sido tan preciso.

¿En qué se aplica el deep learning?

No te exageramos si te decimos que puede aplicarse en todo. Actualmente se utiliza en los procesadores de datos de grandes empresas como Google o Amazon, en televisores, en coches autónomos, en Facebook para detectar rostros en las fotografías o en el Google Translate para procesar los textos en otro idioma, pero sus usos a futuro van mucho más allá.

No es difícil imaginar cómo la medicina podría utilizar este tipo de tecnología para que un robot realizara operaciones de forma autónoma, o cómo podría emplearse para construir asentamientos en Marte, por ejemplo. Los sistemas cognitivos artificiales que operan con Deep Learning ya no son cosa del futuro ni pertenecen a las pelis de ciencia ficción.

Deep Learning Que Es Es Donde Se Aplica Y Como Nos Ayuda 3

En Las Vegas ya existen taxis autónomos que funcionan con IA y que tienen integrado Deep Learning. El nuevo televisor de 8k de LG también lo llevará integrado y Scout, el robot autónomo que reparte paquetes para Amazon también cuenta con tecnología con Deep Learning. Además hay estudios sobre el cáncer, como este de UCLA que están comenzando a utilizar Deep Learning para detectar células cancerígenas de manera automática.

¿Cómo nos ayuda el deep learning?

Lo más beneficioso del Deep Learning no nos afecta de forma directa: el procesamiento de datos a gran escala. El tándem con el Big Data ha posibilitado la aparición de sistemas autónomos que reconocen el terreno y actúan en consecuencia. Puede usarse en banca para controlar el fraude, en hospitales para reducir el tiempo de espera en pruebas de laboratorio o incluso en diagnóstico porque con el Deep Learning una máquina podría distinguir un cuadro clínico de una enfermedad.

Otro de los usos del Deep Learning que puede beneficiarnos es el de la localización de fake news. El sistema podría interpretar si es o no una noticia falsa y bloquearla o avisarnos de que es una de ellas. Según señala a IPMARK José Barranquero -country manager de RTB House en España y Portugal- podría servir para “predecir los deseos de un usuario en la industria de la publicidad”. Así la publicidad que te saldría estaría 100% enfocada en ti.

En el caso de nuestro hogar, el deep learning podrá ayudarnos desde a saber qué tiene que comprar para nosotros en base a nuestros hábitos (nuestra nevera podrá hacer la compra por nosotros) hasta a identificar nuestro estado de ánimo y poner música adecuada para animarnos. Por ejemplo, una televisión con Deep Learning podría interactuar contigo, aprender de tus hábitos y adelantarse a tus deseosy así cuando le digas que quieres ver una serie de Netflix te activaría automáticamente el modo de cine y el sistema de sonido que uses de forma habitual para ese tipo de series. Muchos smartphones ya tienen IA y se trabaja para que tengan Deep Learning integrado.

Deep Learning Que Es Donde Se Aplica Y Como Nos Ayuda

El siguiente paso es que pase a formar parte de nuestras vidas sin apenas darnos cuenta, como un componente más de nuestros aparatos electrónicos. Pero tranquilo, las máquinas se volverán más inteligentes que nosotros y no tratarán de aniquilar al ser humano como Skynet. O al menos, eso esperamos.

Fuente: trendencias.com




GPT-2: qué sabemos y qué no del generador de textos con IA que OpenAI dice haber censurado por ser demasiado peligroso

GPT-2: qué sabemos y qué no del generador de textos con IA que OpenAI dice haber censurado por ser demasiado peligroso

Un ejemplo de ese posible mal uso es el del ejemplo incluido en este vídeo del medio británico The Guardian, en el que vemos cómo, a partir de unas pocas líneas de texto escritas por un humano, la IA es capaz no sólo de elaborar un texto largo creíble y con sentido, sino también de inventarse fuentes humanas que respalden la información.

Sin embargo, más allá de ese resumen, quedan aún muchas dudas por resolver en torno a GPT-2: ¿cómo de revolucionario es el anuncio de OpenAI? ¿Es tan peligrosa como nos ha dejado entrever?

¿Qué hay detrás de GPT-2?

Un poco de contexto

GPT-2 es tan sólo el último hito en el campo del PNL(procesamiento de lenguaje natural), un campo en el que la inteligencia artificial se entremezcla con la lingüística para estudiar las interacciones entre tecnología y lenguaje humano.

El PNL empezó a levantar el vuelo como disciplina a partir de la tímida introducción del machine learning en los años 80, y ha experimentado una gran aceleración en la presente década con la introducción del word embedding.

Esta técnica consiste en el mapeo de palabras en un vector n-dimensional (recordemos que las redes neuronales sólo trabajan con números), partiendo de la premisa de que su cercanía en el espacial conlleva alguna clase de relación entre los mismos. Veamos un ejemplo:

Vectores de palabrasVectores de palabras (Extraído de TensorFlow.org).

Los modelos de lenguaje

Esto permite a la red neuronal comprender la semántica de las palabras, pero no termina de ser un sistema preciso a la hora de ‘comprender’ las relaciones entre las mismas. Por ello, en los últimos dos años, ha surgido una técnica de NLP más evolucionada, que conocemos como ‘modelos de lenguaje’.

Los modelos de lenguaje son, en resumidas cuentas, modelos de machine learning destinados a predecir cuál ha de ser la siguiente palabra de un texto en función de todas las palabras anteriores.

El gran potencial de esta técnica es que, una vez que la IA comprende la estructura de un lenguaje, es relativamente fácil descargar estos modelos pre-entrenados (GPT significa ‘Generative Pre-Training’), y adaptarlos mediante ‘fine-tuning’ a otras tareas diferentes a la creación de textos, como la realización de resúmenes y traducciones.

De GPT-1 a GPT-2

GPT-1, publicado en 2018, se basaba en un modelo de lenguaje llamado Transformer, desarrollado por Google el año anterior (a su vez, Google también se basó en GPT-1 para desarrollar Google BERT).

GPT-2 es poco más que una versión 10 veces mayor del modelo anterior (en número de parámetros, 1500 millones; y de volumen de datos usados para su entrenamiento; 45 millones de páginas web con un peso de 40 Gb).

Una de las particularidades de GPT-2 es que ha demostrado ser capaz de realizar traducciones, resúmenes y hasta de contestar preguntas sobre el texto sin necesidad de un proceso de fine-tuning, tan sólo dándole a entender con el texto que le proporcionamos qué queremos que nos responda.

¿Cómo es eso posible? Centrémonos, por ejemplo, en la tarea de resumir: es habitual que las webs en inglés (y, recordemos, a esta IA se le ha entrenado con millones de ellas) que incluyen textos largos muestren, al final de los mismos, la expresión «TL;DR» (siglas en inglés de ‘Demasiado largo, no lo he leído’) y un breve resumen del texto en cuestión.

De modo que los investigadores sólo deben alimentar a GPT-2 con textos largos que terminen en «TL;DR» et voilà!, la IA asume que lo que debe ir a continuación es un resumen de los párrafos anteriores.

¿Podemos estar seguros de que GPT-2 es tan peligroso como cuentan?

Las demostraciones del funcionamiento de GPT-2 realizadas hasta el momento (como el vídeo de antes sobre el Brexit) son un ejemplo del gran ‘dominio’ del lenguaje que es capaz de mostrar. Aquí otro ejemplo, una historia sobre el descubrimiento de unicornios en Sudamérica:

Ver imagen en Twitter

Ver imagen en Twitter

Ryan Lowe@ryan_t_lowe

Here’s a ridiculous result from the @OpenAI GPT-2 paper (Table 13) that might get buried — the model makes up an entire, coherent news article about TALKING UNICORNS, given only 2 sentences of context.

WHAT??!!

1.147

580 personas están hablando de esto
Información y privacidad de Twitter Ads

Aunque, ojo: GPT-2 no es perfecto. En la historia del tuit anterior, se le escapa una referencia a los «cuatro cuernos» de los unicornios, y Open AI reconoce que también, en alguna ocasión, llegó a escribir sobre «incendios bajo el agua».

En realidad, este modelo fue capaz de producir textos convincentes «en torno a un 50% de las veces», cuando se le pedían temas populares (como Brexit o Miley Cyrus), pero su efectividad se reducía al abordar contenidos «altamente técnicos».

Sin embargo, esa cifra ha sido lo bastante alta como para que los investigadores de OpenAI hayan a la conclusión de que lo mejor que pueden hacer es no publicar este modelo de lenguaje.

Jack Clark, director de Políticas de OpenAI, explica que el problema no radica únicamente en que pueda ser utilizado para generar ‘fake news’ muy convincentes (no hace falta ninguna IA para eso), sino en que facilitaría su automatización y su optimización, en base a factores demográficos, para sectores sociales concretos (e, incluso, a nivel individual):

«Está muy claro que si esta tecnología madura, y yo le daría uno o dos años, podría ser utilizada para la desinformación o la propaganda».

Sin embargo Anima Anandkumar, directora de investigación de Nvidia, criticó con fiereza en Twitter el anuncio de OpenAI de que no haría público el código de GPT-2.

Lo que estáis haciendo es todo lo contrario a «abierto». Es lamentable que exageréis, propaguéis el miedo y desbaratéis tanto la reproducibilidad de resultados como el esfuerzo científico.

Hay investigaciones en marcha por parte de otros grupos (de investigadores) sobre modelos de lenguaje no supervisados.

Estáis exagerando como nunca antes se había hecho. ¿Qué chorrada es ésa de ‘malicioso’? No le hacéis ningún favor a la ciencia usando esa palabra.

El progreso en IA es, en su mayor parte, atribuible al open source y a la publicación abierta.

Frente a las justificaciones de Jack Clark, de que GPT-2 tiene usos maliciosos obvios, Anandkumar contesta así:

«¿Dónde hay alguna evidencia de que vuestro sistema sea capaz de hacer eso? ¿Qué investigadores independientes han analizado sus sistema? Nadie. […]

Si crees que realmente es capaz de eso, lo abrirás a los investigadores, no a los medios de comunicación que buscan con ansia el clickbait.

Fuente: xataka.com




La inteligencia artificial trae un nuevo mercado laboral

Robot./Ap

Reformulará los puestos de trabajo con la desaparición de las tareas automatizadas

Las cifras de puestos destruidos y reconvertidos con la llegada de la inteligencia artificial a los puestos de trabajo difieren según los estudios y lo mismo sucede con la fecha de su desembarco.

En los últimos meses, numerosos informes han cuantificado la revolución que la inteligencia artificial provocará en el mercado laboral y también en la industria. El Foro Económico Mundial prevé que se eliminen 75 millones de puestos de trabajo para 2027. Para McKinsey Global Insitute, un 14% de la fuerza laboral en todo el mundo, es decir entre 400 y 800 millones de personas se verán afectadas por las nuevas tecnologías.

Sin embargo, la destrucción de empleo es la cara B. La cara amable llega, según el Foro Económico Mundial, con la creación de 133 millones de nuevas funciones.  un estudio de PWC, que sostiene que el PIB mundial crecerá un 14%, alrededor de 15,7 billones de dólares, por los efectos de esta tecnología sobre la producción y el consumo.

Destrucción y a la vez conversión de los puestos actuales y de las funciones desempeñadas en la mayoría de puestos de trabajo. Según un informe de CompTIA en el primer semestre de 2018 se produjo un 63% de vacantes de empleo en nuevas tecnologías y, especialmente, en el campo de la inteligencia artificial.

La falta de experiencia y formación es un aspecto clave a resolver en los próximos años, apuntan la mayoría de expertos. Según KPGM, la inteligencia artificial generará cientos de nuevos puestos de trabajo, aún por cubrir.

La llegada de la inteligencia artificial modificará la forma de trabajar, pero para su implantación es necesaria la creación de una estructura que permita un ecosistema para su desarrollo. La figura del arquitecto de inteligencia artificial será una de los puestos, según los expertos, por cubrir en los próximos años.

Entre sus funciones se encuentra el medir el rendimiento y mantener el modelo de inteligencia artificial durante su aplicación «La falta de arquitectos de inteligencia artificial es una razón importante por la que las empresas no pueden sostener con éxito las iniciativas en este campo», explican los analistas de KPMG.

Durante la construcción, programación y desarrollo de estos sistemas es necesario vigilar cada paso para no cometer ciertos errores en la aplicación futura de la inteligencia artificial.

Todo sistema está programado por un ser humano con sus filias, su ideología y su subjetividad. «Las empresas pueden necesitar crear nuevos puestos de trabajo con la responsabilidad fundamental de establecer marcos de AI que respeten los estándares y códigos de ética de la compañía», añaden. El puesto de responsable de ética de inteligencia artificial velará por el cumplimiento de las directrices de la compañía y que se respeten los valores de la misma. Así se evitarán sistemas racistas, discriminatorios o imperfectos.

Junto a estos dos nuevos cargos convive uno que ya forma parte de los equipos de trabajo más puntero: el ingeniero de software. Uno de los mayores problemas que enfrentan las empresas es obtener un sistema de inteligencia artificial desde la fase piloto hasta la implementación. Los ingenieros de software han de trabajar con los científicos de datos para llevar la inteligencia artificial a la producción, combinando la visión para los negocios con una comprensión profunda de cómo funciona la inteligencia artificial.

Para ello, los científicos de datos han de controlar toda la información que se genera en la empresa. Sin embargo, con la cantidad cada vez mayor de datos disponibles para las empresas, hay una escasez de expertos con las habilidades para limpiar estos datos, y luego diseñar y aplicar los algoritmos adecuados para obtener información valiosa.

Foco en la educación

Kai-Fu Lee, una de las voces más importantes en cuanto a inteligencia artificiales, menciona que la clave está en los jóvenes y en su educación, porque «se enfrentarán a una vida laboral donde el 40% de los empleos del mundo desaparecerán».

Lee apuesta por un cambio en la educación a través de nuevos sistemas de inteligencia artificial en aulas para así poder impulsar el crecimiento en sus áreas de fortaleza.

Fuente: hoy.es




La inteligencia artificial consigue anticipar si tendrás alzhéimer

Computación, inteligencia artificial y cerebro

Un algoritmo experimental aprende a identificar imágenes de cerebros que desarrollarán la enfermedad con una antelación de hasta 6 años

El alzhéimer es escurridizo en su diagnóstico y tratamiento. Sin embargo, cada vez se cuentan con mejores técnicas de imagen que retratan a esta enfermedad que es capaz de cambiar la morfología del cerebro. Por desgracia, muchas veces, demasiado tarde. Si se entrena a una máquina para que detecte esos pequeños cambios en las fotos cerebrales se puede anticipar el diagnóstico y retrasar sus efectos. Eso es en lo que trabajan en el Departamento de Imagen Biomédica de la Universidad de California-San Francisco (EE.UU.). En concreto, acaban de conseguir que una inteligencia artificial reconozca cambios en el metabolismo cerebral que resultan a veces desapercibidos al ojo humano.

La investigación ha relacionado el proceso de la enfermedad con los cambios, precisamente, en el metabolismo. Es el caso de la captación de glucosa en ciertas regiones del cerebro, un típico rasgo de cerebro enfermo; pero estos cambios pueden ser difíciles de reconocer.

“Las diferencias en el patrón de captación de glucosa en el cerebro son muy sutiles y difusas”, afirma el coautor del estudio Jae Ho Sohn (@sohn522). “Las personas son buenas para encontrar biomarcadores específicos de enfermedades, pero los cambios metabólicos representan un proceso más global y sutil”. El autor principal del estudio, Benjamin Franc, se acercó al doctor Sohn y se unieron a sus colegas de Berkeley. Allí hablaron con Yiming Ding a través del grupo de investigación de Big Data en Radiología (BDRAD). Franc estaba interesado en aplicar el aprendizaje profundo para encontrar cambios en el metabolismo cerebral predictivo de la enfermedad de Alzheimer.

Más de 2.000 imágenes para aprender

Los investigadores entrenaron el algoritmo de aprendizaje en imágenes de PET en pacientes a los que se había inyectado una especie de glucosa radiactiva.. En una exploración de FDG- Las tomografías PET pueden medir la captación de esa sustancia en las células del cerebro, un indicador de la actividad metabólica.

La IA es capaz de distinguir entre varias imágenes aquella de quien desarrollará alzhéimer a partir de ligerísimas diferencias.

La IA es capaz de distinguir entre varias imágenes aquella de quien desarrollará alzhéimer a partir de ligerísimas diferencias. M.V. / UCSF

Los investigadores tuvieron acceso a los datos de la Iniciativa de Neuroimagen de la Enfermedad de Alzheimer (ADNI, por sus siglas en inglés), un importante estudio en varios sitios que se centra en ensayos clínicos para mejorar la prevención y el tratamiento de esta enfermedad. El conjunto de datos de ADNI incluyó más de 2.100 imágenes cerebrales de FDG-PET de 1.002 pacientes. Los investigadores entrenaron el algoritmo de aprendizaje profundo en el 90% del conjunto de datos y luego lo probaron en el 10% restante del conjunto de datos. La inteligencia artificial, tras haber visto el grueso de los datos, acertó con aquellos que no había conocido y dio un diagnóstico certero.

La IA dio anticipó hasta en 6 años el diagnóstico definitivo de alzhéimer

Finalmente, los investigadores probaron el algoritmo en un conjunto independiente de 40 exámenes de imágenes de 40 pacientes que nunca había estudiado. El algoritmo logró un éxito del 100% para detectar la enfermedad hasta seis años antes del diagnóstico final hecho por humanos.

“Estamos muy satisfechos con el rendimiento del algoritmo”, dice Sohn. “Fue capaz de predecir cada caso en que avanzó a la enfermedad de Alzheimer”. Aunque advirtió que su conjunto de pruebas independientes era pequeño y necesita una validación adicional con un estudio prospectivo multiinstitucional más amplio, el algoritmo podría ser una herramienta útil para complementar el trabajo de los radiólogos, especialmente en conjunto con otros productos bioquímicos y pruebas de imagen.

“Si diagnosticamos la enfermedad de Alzheimer cuando todos los síntomas se han manifestado, la pérdida de volumen cerebral es tan importante que es demasiado tarde para intervenir”, afirma. “Si podemos detectarlo antes, es una oportunidad para que los investigadores encuentren formas mejores de frenar o incluso detener el proceso de la enfermedad”.

Las direcciones de investigación futuras incluyen entrenar el algoritmo de aprendizaje profundo para buscar patrones asociados con la acumulación de proteínas beta-amiloides y de proteínas anormales en el cerebro que son marcadores específicos del alzhéimer.

Fuente: elindependiente.com




Cámaras equipadas con inteligencia artificial permitirán ‘cazar’ furtivos en un centenar de parques naturales de África

Cámaras equipadas con inteligencia artificial permitirán 'cazar' furtivos en un centenar de parques naturales de África

Si te piden que pienses en una animal que puedas perder de vista, sin duda el elefante africano no será el primero que te venga a la mente. Pero no sería tan difícil que te pasara si fueras uno de los tan sólo 150 guardabosques que patrullan las llanuras de la reserva del Serengeti (Tanzania), que ocupan una extensión similar a la de toda Bélgica.

Por supuesto, la desprotección generada por este déficit de vigilancia ha sido aprovechada durante años por los cazadores furtivos para esquilmar impunemente la población de elefantes, y de otras especies igualmente en peligro de extinción.

Según la organización sin ánimo de lucro Resolve,

«un elefante muere cada 15 minutos por un cazador furtivo, a un ritmo de aproximadamente 35.000 elefantes por año. En una década, los expertos predicen que no habrá más elefantes […] y otros grandes mamíferos también están en peligro por los furtivos»

TrailGuard AI, tecnología Intel para detectar eficazmente a los furtivos

Pero Resolve ha puesto ahora en marcha un proyecto destinado a solventar esta situación utilizando cámaras equipadas con inteligencia artificial en los senderos más usados por los furtivos. El dispositivo presentado hace unos días para Resolve ha sido bautizado como TrailGuard AI y utiliza chips de visión Movidius Myriad 2 VPU.

Estos chips, fabricados por Intel, permiten detectar la presencia de vehículos e identificar las distintas especies animales(incluida la nuestra) que pasan por su campo de visión, gracias al uso de redes neuronales profundas. Si se detecta alguna actividad sospechosa, los TrailGuard AI avisan a los guardias y les envían las imágenes capturadas.

No es el primer dispositivo de este tipo lanzado por Resolve, pero sí es el primero del grosor de un dedo humano (los anteriores eran bastante voluminosos), con una batería capaz de durar año y medio, frente a las aproximadamente 5 semanas del modelo anterior, lo que requería mucho más trabajo por parte de los guardias y aumentaba las probabilidades de que los furtivos detectaran la localización del dispositivo.

Edge computing, una tecnología clave para proteger nuestros ecosistemas

Pero, sobre todo, lo que marca la diferencia en estos nuevos dispositivos es que son los primeros dotados con inteligencia artificial, lo que evitar los numerosos falsos positivos de los antiguos sensores de movimiento, y permite así que los guardias dispongan de más tiempo para realizar sus patrullas.

National Geographic Society, colaborará con la Fundación Leonardo DiCaprio y con Resolve en implementar esta solución no sólo en el Parque Nacional de Serengeti, sino también en otro centenar de reservas africanas durante el próximo año, y tienen en mente expandir esta solución en el futuro a otras áreas tropicales del mundo.

Fabien Laurier, vicepresidente de National Geographic Labs, afirma que el uso de edge computing (la utilización de IA en los dispositivos sin necesidad de recurrir a una nube) «tiene el poder de revolucionar la forma en que protegemos nuestra herencia natural».

Fuente: xataka.com




Cómo recoger todos los matices de la luz natural gracias a la inteligencia artificial

Acabamos de dejar el otoño y aún podemos apreciar en algunas zonas los atractivos colores y tonalidades de los árboles y las hojas esparcidas por doquier que caracterizan a esta época especialmente llamativa en su gama cromática. Los lugares, que durante la primavera y el verano nos parecían esencialmente verdes, en otoño se convierten en un festival de color y en invierno dejan paso a un manto banco lleno de destellos. Además, estos tonos cambian casi de un día para otro.

Hace años era común ver a los fotógrafos sacar sus cámaras y sus trípodes para capturar las escenas más vivas y propias de la época, pero los smartphones han alcanzado un grado de calidad en sus cámaras suficientemente elevado como para que las fotos que hagamos con ellos sean detalladas y ricas en matices hasta el punto de rivalizar con los resultados obtenidos con cámaras dedicadas.

Si las condiciones de luz son buenas y no necesitamos recurrir a ópticas muy especializadas, como pueda ser un teleobjetivo de más de 100 mm, un gran angular o un macro, terminales móviles incluso de gamas medias están preparados para hacer un buen trabajo capturando las escenas otoñales.

Buenas ópticas y sensores

El punto de partida es contar con ópticas y sensores capaces de capturar la luz de un modo correcto. En terminales como el Honor 8Xtenemos una cámara trasera principal con 20 Mpx y apertura de F1.8, con la que se puede conseguir una notable cantidad de detalle. La cámara frontal también está cuidada incluso en modelos de gamas medias como el mencionado.

De todos modos, la óptica y los sensores son solo una parte de la ecuación de la fotografía móvil. El procesamiento digital de las imágenes es otro ingrediente que cobra protagonismo a medida que los smartphones se hacen más inteligentes y los procesadores de imagen ganan en complejidad.

La IA, un ayudante muy conveniente

De los avances que más están contribuyendo a hacer que sea muy fácil sacar el máximo partido posible a las cámaras de los móviles sin necesidad de ser un experto en su uso o en fotografía, la inteligencia artificial es uno de los más sobresalientes. La IA analiza la imagen capturada por la cámara en tiempo real, identifica el tipo de contexto y ajusta los parámetros para que se enfatice la “esencia” de la escena en cuestión.

En realidad, es un proceso más automático que inteligente. Todo se basa en algoritmos que procesan las imágenes para identificar patrones y elementos que caracterizan un entorno determinado. Por ejemplo, en otoño, las hojas y los colores son característicos de esta época y es frecuente encontrarnos con una IA que reconoce correctamente la estación como parte de las escenas que es capaz de identificar.

Cómo hacer fotos optimizadas para la estación

La IA se puede ver, desde cierto punto de vista, como un especialista en edición fotográfica. Una vez que ha reconocido una escena, hace la foto y la edita de un modo automático y digital para realzar los aspectos que singularizan, en nuestro ejemplo, al otoño. Una temperatura de color cálida o colores enfatizados son parte de los ajustes que una IA aplica a las instantáneas que entran dentro de la categoría de “otoñales”.

De este modo, nos ahorramos la tarea de abrir un editor y realizar los cambios nosotros mismos para realzar esos puntos. Si queremos una foto más “fidedigna”, siempre podemos usar un modo sin IA o el profesional (manual), si el equipo lo permite.

Lo importante al hacer fotos de esta temporada es encontrar el encuadre y la composición óptimos para que sean lo más luminosas como sea posible.

En este sentido, es interesante que encontremos un enfoque en el que tengamos el sol detrás, incidiendo en las hojas sin que haya contraluces. Los contraluces apagan los colores. Y por mucho que usemos HDR o tratemos de compensar la exposición a través de un editor de fotografía, perderemos fuerza en los tonos.

El otoño es un momento en el que las hojas dejan entrever lo que hay detrás. No sucede como en primavera y verano, cuando las hojas lo tupen todo. Ahora, hay margen para entrever lo que hay más allá de la hojarasca y para usar esta circunstancia como una herramienta creativa. Para ejemplificar este punto, podéis observar la imagen superior, para la que hemos usado un terminal Honor 8X con IA activada.

Selfies con HDR

Los autorretratos son también propicios para esta época del año. Es relativamente fácil encontrar escenarios en los que podemos usar las hojas de los árboles para crear marcos naturales para un selfie  y es una técnica que podemos extrapolar a cualquier otro elemento propio de otra estación, como la nieve del invierno.

En este caso, la IA también ayuda. De hecho, empieza a haber teléfonos que integran funciones de IA en la cámara selfieConcretamente, el Honor 8X aplica efectos de HDR en las imágenes. En los autorretratos es una aplicación de la IA especialmente interesante, al compensar el efecto de contraluz que sucede cuando el fondo es más luminoso que el rostro. Es algo que suele ocurrir en esta clase de captura, en la que es mas cómodo tener la luz detrás para evitar que nos deslumbre.

El resultado es óptimo, considerando que en un contraluz los colores tienden a apagarse. Pasa, pero la IA del Honor 8X compensa bastante bien los efectos secundarios asociados a este tipo de ambientes.

El modo vegetación también vale

Para hacer fotos del otoño, los modos de IA del tipo de flores, vegetación o cielo azul también son válidos. La combinación de colores de un césped verde con hojas ocre es igualmente muy atractiva desde el punto de vista estético. Y el cielo azul como fondo para un árbol desnudo típico del invierno resulta perfecto para inmortalizar también en la época más fría del año.

En el caso del modo vegetación se enfatizan los tonos verdes, y en el de cielo azul, los tonos azules. Pero en ambos tenemos colores intensos que combinan bien.

Es posible echar mano de los tópicos

En las fotos estacionales hay infinidad de estereotipos que funcionan muy bien cuando se trata de retratar esta estación. Los caminos forrados de hojas o los bancos solitarios en parques nevados son elementos que en otoño e invierno lucen más. Son tiempos para el recogimiento y los ritmos lentos.

Lo bueno de los móviles es que los tenemos siempre a mano para capturar ese momento especial que nos llama la atención. La IA es una buena aliada y en gran cantidad de ocasiones es capaz de hacer un notable trabajo de edición por nosotros, enfatizando tonalidades, ajustando la temperatura de color, etcétera. Los modos específicos para nuestra estación protagonista son evidentes, pero también los modos vegetación y cielo azul brindan la oportunidad de obtener buenos resultados en terminales como el Honor 8X, como podéis apreciar en el siguiente vídeo:

En otros smartphones que integren IA, habrá que buscar los modos equivalentes. La IA aplicada a lo selfies es otro punto interesante, especialmente en el capítulo del HDR automático, que permitirá salvar bastantes capturas que, de otro modo, nos harían aparecer con el rostro en sombra o contraluz. Con todo, lo mejor es sair a la calle, disfrutar de los estímulos visuales y ponerse a disparar.

Fuente: espaciohonor.xataka.com




Exynos Auto V9, el primer procesador automovilístico de Samsung, se monta en los Audi con sus ocho núcleos y su NPU

Exynos Auto V9, el primer procesador automovilístico de Samsung, se monta en los Audi con sus ocho núcleos y su NPU

Los móviles de Samsung han sido el estandarte principal que el fabricante ha usado para lucir sus procesadores propios, pero los semiconductores pasan ahora esta frontera para llegar a otro campo en auge: los sistemas avanzados en los vehículos. Y de este modo Samsung presenta el Exynos Auto V9, su primer procesador automóvilistico que veremos montado en los coches de la marca Audi.

Así, los chips alimentarán la nueva generación de sistemas internos de información y entretenimiento de algunos modelos de esta marca, pensando en los vehículos que veremos en los próximos dos años. De este modo, el fabricante sigue los pasos de otros como NVIDIA, quien anunció también un nuevo SoC para la industria automovilística.

Ocho núcleos, ocho nanómetros y una unidad de procesamiento neural

La carrera en los procesadores últimamente se centra un poco en los nanómetros de los chips, persiguiendo que este número sea cada vez menor. De Samsung ya se rumoreaba desde hace tiempo que preparaba chips de 6 y 8 nanómetros, y en el caso del Exynos Auto V9 han recurrido a la tecnología de procesos de 8 nanómetros a diferencia de los 10 nanómetros del Exynos 9810 para móviles que vimos en los Samsung Galaxy S9 o el Note 9.

Se trata de un procesador con ocho núcleos ARM Cortex-A76 y la gráfica ARM Mali G76. Integra también el procesador HiFi de señales digitales de audio premium y una unidad de procesamiento neural (NPU), algo que también estamos viendo como tendencia en los procesadores para smartphone y que permite trabajar con algoritmos de inteligencia artificial.

Los núcleos Cortex-A76 pueden ir a velocidades de hasta 2,1 GHz y la unidad de procesamiento gráfico (GPU) se organiza en tres grupos individuales de núcleos Mali G76, capaces de combinar el trabajo de distintos sistemas como una pantalla central y las pantallas traseras de entretenimiento. De hecho, con vistas a lo que podamos ver en el interior y exterior de los automóviles en cuanto a recogida y muestra de la información, el Exynos Auto V9 admite hasta seis pantallas y doce conexiones a cámaras.

Audi Etron

Junto a todo esto integra también un núcleo de seguridad que admite los estándares de nivel integro de seguridad automovilística (ASIL)-B, permitiendo una protección a tiempo real para las operaciones del sistema. Además, el Exynos Auto C9 también es compatible con sistemas LPDDR4 y LPDDR5 DRAM.

Que nuestro coche nos conozca y nos reconozca

Esta serie de componentes está orientada a automóviles que veremos en un futuro próximo, pero sobre todo a coches que integren funciones avanzadas y menos habituales en la actualidad la interacción con el usuario a nivel de gestos. El Exynos Auto V9 por ejemplo dispone de la NPU que es capaz de procesar información visual y auditiva como el reconocimiento facial, gestual o de voz, por lo que quizás Bixby (el asistente propio de Samsung) dé el salto también a los coches.

Por el momento se trata de un producto orientado a formar parte de los sistemas internos de información y entretenimiento de los vehículos Audi que se lanzarán al mercado antes de 2021, pero veremos si en un futuro otros fabricantes de automóvil también optan por la propuesta de Samsung.

Fuente: xataka.com