viernes, 17 de noviembre de 2017

The Jobs That Artificial Intelligence Will Create

The Jobs That Artificial Intelligence Will Create

A global study finds several new categories of human jobs emerging, requiring skills and training that will take many companies by surprise.
The threat that automation will eliminate a broad swath of jobs across the world economy is now well established. As artificial intelligence (AI) systems become ever more sophisticated, another wave of job displacement will almost certainly occur.
It can be a distressing picture.
But here’s what we’ve been overlooking: Many new jobs will also be created — jobs that look nothing like those that exist today.
In Accenture PLC’s global study of more than 1,000 large companies already using or testing AI and machine-learning systems, we identified the emergence of entire categories of new, uniquely human jobs. These roles are not replacing old ones. They are novel, requiring skills and training that have no precedents. (Accenture’s study, “How Companies Are Reimagining Business Processes With IT,” will be published this summer.)
More specifically, our research reveals three new categories of AI-driven business and technology jobs. We label them trainers, explainers, and sustainers. Humans in these roles will complement the tasks performed by cognitive technology, ensuring that the work of machines is both effective and responsible — that it is fair, transparent, and auditable.


This first category of new jobs will need human workers to teach AI systems how they should perform — and it is emerging rapidly. At one end of the spectrum, trainers help natural-language processors and language translators make fewer errors. At the other end, they teach AI algorithms how to mimic human behaviors.
Customer service chatbots, for example, need to be trained to detect the complexities and subtleties of human communication. Yahoo Inc. is trying to teach its language processing system that people do not always literally mean what they say. Thus far, Yahoo engineers have developed an algorithm that can detect sarcasm on social media and websites with an accuracy of at least 80%.
Consider, then, the job of “empathy trainer” — individuals who will teach AI systems to show compassion. The New York-based startup Kemoko Inc., d/b/a Koko, which sprung from the MIT Media Lab, has developed a machine-learning system that can help digital assistants such as Apple’s Siri and Amazon’s Alexa address people’s questions with sympathy and depth. Humans are now training the Koko algorithm to respond more empathetically to people who, for example, are frustrated that their luggage has been lost, that a product they’ve bought is defective, or that their cable service keeps going on the blink even after repeated attempts to fix it. The goal is for the system to be able to talk people through a problem or difficult situation using the appropriate amount of understanding, compassion, and maybe even humor. Whenever Koko responds inappropriately, a human trainer helps correct that action — and over time, the machine-learning algorithm gets better at determining the best response.
Without an empathy trainer, Alexa might respond to a user’s anxieties with canned, repetitive responses such as “I’m sorry to hear that” or “Sometimes talking to a friend can help.” With the right training, Alexa becomes much more helpful. The following is a verbatim transcription of how Alexa with Koko responds to a person who says he’s worried that he’ll fail an upcoming exam: “Exams are really stressful, but a little anxiety can help us succeed. It sharpens our minds. … It’s your body’s way to prepare itself for action. It’s actually a really good thing. I wonder if you could think of your nerves as your secret weapon. Easier said than done, I know. But I think you will do much better than you think.”


The second category of new jobs — explainers — will bridge the gap between technologists and business leaders. Explainers will help provide clarity, which is becoming all the more important as AI systems’ opaqueness increases. Many executives are uneasy with the “black box” nature of sophisticated machine-learning algorithms, especially when the systems they power recommend actions that go against the grain of conventional wisdom. Indeed, governments have already been considering regulations in this area. For example, the European Union’s new General Data Protection Regulation, which is slated to take effect in 2018, will effectively create a “right to explanation,” allowing consumers to question and fight any decision made purely on an algorithmic basis that affects them.
Companies that deploy advanced AI systems will need a cadre of employees who can explain the inner workings of complex algorithms to nontechnical professionals. For example, algorithm forensics analysts would be responsible for holding any algorithm accountable for its results. When a system makes a mistake or when its decisions lead to unintended negative consequences, the forensics analyst would be expected to conduct an “autopsy” on the event to understand the causes of that behavior, allowing it to be corrected. Certain types of algorithms, like decision trees, are relatively straightforward to explain. Others, like machine-learning bots are more complicated. Nevertheless, the forensics analyst needs to have the proper training and skills to perform detailed autopsies and explain their results.
Here, techniques like Local Interpretable Model-Agnostic Explanations (LIME), which explains the underlying rationale and trustworthiness of a machine prediction, can be extremely useful. LIME doesn’t care about the actual AI algorithms used. In fact, it doesn’t need to know anything about the inner workings. To perform an autopsy of any result, it makes slight changes to the input variables and observes how they alter that decision. With that information, the algorithm forensics analyst can pinpoint the data that led to a particular result.
So, for instance, if an expert recruiting system has identified the best candidate for a research and development job, the analyst using LIME could identify the variables that led to that conclusion (such as education and deep expertise in a particular, narrow field) as well as the evidence against it (such as inexperience in working on collaborative teams). Using such techniques, the forensics analyst can explain why someone was hired or passed over for promotion. In other situations, the analyst can help demystify why an AI-driven manufacturing process was halted or why a marketing campaign targeted only a subset of consumers.


The final category of new jobs our research identified — sustainers — will help ensure that AI systems are operating as designed and that unintended consequences are addressed with the appropriate urgency. In our survey, we found that less than one-third of companies have a high degree of confidence in the fairness and auditability of their AI systems, and less than half have similar confidence in the safety of those systems. Clearly, those statistics indicate fundamental issues that need to be resolved for the continued usage of AI technologies, and that’s where sustainers will play a crucial role.
One of the most important functions will be the ethics compliance manager. Individuals in this role will act as a kind of watchdog and ombudsman for upholding norms of human values and morals — intervening if, for example, an AI system for credit approval was discriminating against people in certain professions or specific geographic areas. Other biases might be subtler — for example, a search algorithm that responds with images of only white women when someone queries “loving grandmother.” The ethics compliance manager could work with an algorithm forensics analyst to uncover the underlying reasons for such results and then implement the appropriate fixes.
In the future, AI may become more self-governing. Mark O. Riedl and Brent Harrison, researchers at the School of Interactive Computing at Georgia Institute of Technology, have developed an AI prototype named Quixote, which can learn about ethics by reading simple stories. According to Riedl and Harrison, the system is able to reverse engineer human values through stories about how humans interact with one another. Quixote has learned, for instance, why stealing is not a good idea and that striving for efficiency is fine except when it conflicts with other important considerations. But even given such innovations, human ethics compliance managers will play a critical role in monitoring and helping to ensure the proper operation of advanced systems.
The types of jobs we describe here are unprecedented and will be required at scale across industries. (For additional examples, see “Representative Roles Created by AI.”) This shift will put a huge amount of pressure on organizations’ training and development operations. It may also lead us to question many assumptions we have made about traditional educational requirements for professional roles.
Empathy trainers, for example, may not need a college degree. Individuals with a high school education and who are inherently empathetic (a characteristic that’s measurable) could be taught the necessary skills in an in-house training program. In fact, the effect of many of these new positions may be the rise of a “no-collar” workforce that slowly replaces traditional blue-collar jobs in
manufacturing and other professions. But where and how these workers will be trained remain open questions. In our view, the answers need to begin with an organization’s own learning and development operations.
On the other hand, a number of new jobs — ethics compliance manager, for example — are likely to require advanced degrees and highly specialized skill sets. So, just as organizations must address the need to train one part of the workforce for emerging no-collar roles, they must reimagine their human resources processes to better attract, train, and retain highly educated professionals whose talents will be in very high demand. As with so many technology transformations, the challenges are often more human than technical.

 About the Authors
H. James Wilson is managing director of IT and business research at Accenture Research. Paul R. Daugherty is Accenture’s chief technology and innovation officer. Nicola Morini-Bianzino is global lead of artificial intelligence at Accenture.

This article was originally published on March 27, 2017. It has been updated to reflect edits made for its inclusion in our Summer 2017 print edition.

lunes, 13 de noviembre de 2017

Investigación e innovación: ¿qué nos jugamos?

Investigación e innovación: ¿qué nos jugamos?

¿Son los países con recursos los que realizan una mayor inversión en ciencia? ¿O son los países que dedican más esfuerzo a la ciencia los que generan mayor riqueza? Con esta pregunta abre el tercer Dossier del Observatorio Social de ”la Caixa”, que analiza el actual contexto social de la ciencia y en qué medida esta supone una aportación de valor a nuestra sociedad.

ver tambien:

martes, 26 de septiembre de 2017



 El vídeo de la candidatura de Toni para un contrato 'Ford España - Apadrina la Ciencia' en el que explico un poco de qué va mi investigación de doctorado, lo que hemos conseguido y los objetivos que nos quedan por cumplir durante el próximo año. Es una de mis últimas oportunidades para obtener financiación, así que me haríais un gran favor con cada visita, enlace compartido y/o comentario... Gracias de corazón!
Doneu suport al Toni mirant el seu video per la candidatura a un contracte per acabar la tesi doctoral amb un sou digne! Porta anys investigant sobre l’ús de nanopartícules per facilitar el tractament del càncer
👀 El video de la candidatura per un contracte 'Ford España - Apadrina la Ciencia' on explico una mica de què va la meva tesi, el que hem aconseguit fins ara i aconseguirem durant el proper any. És una de les meves últimes oportunitats per obtenir finançament, així que em feu un gran favor mirant, compartint i/o comentant... Gràcies de tot cor!
My application video for a 'Ford España - Apadrina la Ciencia' contract where I explain a little of my PhD research, what we have already accomplished and what are the goals we'll have accomplished by the end of next year. It's the last opportunity I may have to have some finantial aid to end my PhD, so you are doing me a big favour just by viewing, sharing and/or commenting... Thanks from the bottom of my heart!

lunes, 18 de septiembre de 2017

Nuestro cerebro funciona con algoritmos paralelos interactivos

Edvard Moser, premio Nobel de Medicina 2014 por su descubrimiento del GPS” del cerebro
Tengo 55 años: joven para tener el nobel, pero no tanto para ser científico. Nací en Noruega: gracias a unas instituciones eficientes y al petróleo es un gran país para investigar. Estoy divorciado de la científica con quien compartí el Nobel. Colaboro con la Fundació “la Caixa”-Palau Macaya

Nuestro cerebro funciona con algoritmos paralelos interactivos

Pareja de laboratorio

Moser conoció en el laboratorio, se casó y acaba de divorciarse de May Britt, otra reputada científica también galardonada con el premio Nobel. Al enterarme, lamento esa separación de dos genios de la neurociencia, porque tal vez afecte a los valiosos descubrimientos que todavía podrían hacer juntos. Y se lo digo al doctor con cierto temor de resultar intrusivo, pero me tranquiliza su sonrisa al aclarar que se han separado en su vida privada, pero siguen juntos en el laboratorio. La inteligencia , sin duda, es tanto la capacidad de relacionar como de discernir y May Britt y Edvard poseen ambas en grado sumo. Le digo que me alegro por el bien de la humanidad. Y el doctor añade con imperturbable franqueza: “Yo también”.
Por qué hay quien se orienta donde otro se pierde?
Esa diferencia es resultado de muchos factores complejos, que en parte hemos explicado en nuestras investigaciones.
Usted descubrió el “GPS cerebral” que nos orienta...¿O esa analogía no le gusta?
Es una buena analogía. Descubrimos las grid cells, células rejilla, con que el cerebro reproduce el espacio y nuestro movimiento en él.
¿Tenemos un mapa dentro del cerebro?
Algo así. Para orientarnos tenemos un mecanismo de cálculo dinámico para el auto posicionamiento basado en información de cálculo y dirección continuamente actualizada.
No me extraña que me pierda siempre.
Eso no sólo depende de esas células del mapa. También de su memoria y de si usted cuando se orientaba caminaba sólo o acompañado.
He notado que cuando voy a un sitio me parece tardar más que cuando vuelvo.
Porque la percepción del tiempo está ligada a la memoria, que se encuentra en buena parte en el hipocampo, donde se halla también ese GPS neuronal del que hablamos.
¿Si pierdo memoria, me desoriento?
Sí, porque cuando se orienta va colocando mentalmente marcas en ese mapa interno: edificios, árboles, calles...Los almacena en su memoria y luego los usa para orientarse.
¿Qué diferencia al mecanismo cerebral con que nos orientamos de un vulgar GPS?
Eso es lo que investigo: cómo computan nuestros cerebros. Cómo calculan algo nuestras neuronas. Busco esos algoritmos que aplica nuestro cerebro para ver cómo funciona, porque si entiendes uno, a menudo también entiendes otros. Y podremos descifrarlos todos.
Algoritmo es la palabra del siglo.
Porque es algo que compartimos humanos y máquinas: significa operación o conjunto de operaciones, un cálculo, que es lo que hacen las neuronas, cuánto tardarás en llegar a casa, por ejemplo, o si puedes saltar hasta allí.
¿Y los ordenadores pueden hacerlo?
De otro modo, pero sí. Si averiguamos qué algoritmos usamos nosotros, también podemos hacer que los apliquen ellos.
Suena inquietante.
Pero nuestras neuronas son mucho más lentas que los ordenadores, claro, aunque nuestro cerebro tiene aún mucha ventaja...
...¿Que sólo el cerebro puede aprender?
Los ordenadores también aprenden. Le llevamos ventaja a las máquinas, porque nuestro cerebro puede procesar miles de operaciones a la vez, en red; el ordenador, en cambio, va de una en una, aunque mucho más rápido .
¿Sólo les llevamos esa ventaja?
Tenemos dos más al menos por ahora. Y es que en nuestro cerebro esas operaciones interactúan y se coordinan entre ellas en paralelo.
¿Fabricaremos ordenadores así?
Probablemente: es cuestión de tiempo.
¿Incluso más rápidos que nosotros?
Esa es siempre la pregunta: ¿Puede el ser humano crear algo superior a sí mismo?
De momento le llevamos esa ventaja al ordenador, pero es menos de la que se cree, porque hay cosas que consideramos exclusivamente humanas que ya hace un ordenador.
Por ejemplo.
Ser creativos. Un ordenador ya puede componer melodías. Aprende los elementos de una buena composición; los mezcla al azar y el resultado creativo puede sorprendernos.
Mientras tanto, el alzheimer sigue sin curación...¡Qué gran fracaso científico!
Nos estamos dando cuenta de que la línea que seguíamos no era la buena y eso también forma parte de mi investigación, porque los alzheimer pierden primero la orientación así que nos deberíamos preguntar: ¿por qué esas células rejilla del GPS cerebral son tan vulnerables y por qué son las primeras que ataca el alzheimer?
Hace muchos años que acusan del alzheimer a la acumulación de placas de amiloide.
Pero puedes tener esas placas sin sufrir el alzheimer así que hay que buscar otra explicación.
Mientras se pierden miles de millones.
La investigación funciona así. Por eso necesitas tener sistemas de financiación que te permitan ideas tan originales -que son las únicas que realmente cambian el mundo- que tal vez necesites 10 ó 15 años para ensayarlas. Y quizá no sirvan, pero tal vez lleven a otras que sí.
¿Cuántos años necesitó usted?
Yo debo dar las gracias al petróleo que permite a Noruega financiar generosos programas de investigación de diez años de duración.
En cambio, los ministros de Ciencia a veces sólo dura semanas.
En Noruega la investigación no cambia con cada ministro. Nosotros fuimos rápidos. Descubrir ese “GPS” cerebral llevó 7 años. Los primeros dos o tres fueron para construir el laboratorio y luego llegaron los primeros resultados, que nos llevaron a otros no previstos. Fue una investigación al principio errática.
¿Serendipia? ¿El error llevó al acierto?
No esperábamos ver lo que vimos, pero sí que veríamos algo. Y sobre todo estábamos dispuestos a ver ese GPS en el cerebro con que nos orientamos. Otros habían visto lo mismo, pero no supieron darse cuenta de lo que era.
Supieron abrirse a lo imprevisto.
Así es la investigación: no pasa nada durante años...Da un salto y se vuelve a ralentizar otros tantos años...Y da otro...Y así.


viernes, 15 de septiembre de 2017

Libros recomendados sobre Estadística & R.Rosana Ferrero

Libros recomendados sobre Estadística & R

Libros recomendados sobre Estadística & R

¡Aloha! Hoy te voy a mostrar varios libros excelentes, los pondré en orden de dificultad para que vayas directamente al nivel en el cual te encuentras.
También te dejo los links para que puedas encontrarlos en la web rápidamente.
La lista la iré actualizando según lea otros libros destacados que me parezcan imprescindibles.



  1. Nivel básico
  2. Nivel intermedio
  3. Nivel avanzado

Nivel básico

• Introductory Statistics with R de Peter Dalgaard. Es un curso de Estadística básica con R que logra su objective, es rápido y una buena referencia para comenzar. Utiliza mucho ejemplos para su desarrollo y puedes descargarte un paquete que contiene todos los datos.
• Using R for Introductory Statistics de John Verzani. Es un libro de R básico que se divide en pequeños pasos orientados a la realización de tareas. Tiene un paquete propio que se llama UsingR, disponible en el CRAN, con los datos mencionados en el texto, las respuestas a los problemas, algunas demostraciones y código. Es de acceso público.
• An Introduction to R de W.N. Venables, D. M. Smith & the R Core Team. Es una introducción al lenguaje R y cómo utilizarlo para el análisis estadístico y gráfico. Es simple, corto y al grano, pero termina siendo más una guía de referencia que un buen libro. Es de acceso público.
• R for Beginners de Emmanuel Paradis. Es un buen punto de partida para aprender R, sencillo. Es de acceso público.
• A first course in statistical programming with R de W.J. Braun & D.J. Murdoch. Es una buena introducción para emperzar a programar en R. Está escrito por uno de los integrantes del R Core Team. Cuenta con una buena colección de ejercicios y no asume conocimientos previos de estadística ni programación. Sin embargo algunos ejemplos son más estadísticos que de casos reales.
• The R Book de Michael J. Crawley. Una guía exteeeensa sobre la estadística aplicada en R, puedes encontrar de todo en este libraco. Es bastante sencillo de seguir.
• A Beginner´s Guide to R de Alan Zuur. Me gusta mucho este autor, tal vez porque trabaja con Estadística aplicada en Ecología, mi campo, aunque en persona no es tan simpático como en sus libros... :p. Este libro es una introducción a R que no asume conocimientos previos de estadística ni de R. El único contra es que es un poco lento para avanzar.

Mi favorito: A Beginner´s Guide to R de Alan Zuur

Nivel intermedio

• Discovering Statistics Using R de Andy Field & Jeremy Miles. Es un libro muy interesante, con humor y autocrítica. Cubre desde la estadística básica hasta niveles más avanzados como el MANOVA y los modelos multinivel. Utiliza muchos ejemplos de la vida real y bien editados.
• A Handbook of Statistical Analyses Using R (2nd ed.) de B.S. Everitt & T. Hothorn. Es un libro muy demandado y bastante completo, que te sitúa en el background estadístico de cada tema con buenas referencias.
• Data Analysis and Graphics Using R: An Example-based Approach de J. Maindonald & J. Braun. Como indica el título trata del análisis de datos y gráficos mediante ejemplos, digamos que corresponde a un curso intermedio de estadística.
• R in a Nutshell de Joseph Adler. Es una guía sencilla y práctica sobre el lenguaje R. Tiene una gran cantidad de ejemplos para cada paso. Es muy interesante aunque un poco pesado para principiantes.
• Modern Applied Statistics with S de W.N. Venables & B.D. Ripley. Una buy buena introducción a la estadística moderna. Está escrito para el language S pero el código es buy similar al de R, por eso lo agrego a la lista.

Sobre temas específicos: GRÁFICOS

• R Graphics (2nd ed.) de Paul Murrell. Es un libro interesante sobre cómo realizar gráficos en R, aplica el paquete lattice, pero no toca el tema de ggplot2 (lo cual creo que es un gran fallo).
• R Graphics Cookbook de Winston Chang. Sobre gráficos y manipulación de datos, detalla las ventajas y desventajas de los distintos métodos. Focaliza en el paquete ggplot2, lo cual es una gran gran ventaja a mi entender. Da 150 "recetas" para generar gráficos de alta calidad y rápidamente.
• ggplot2 de Hadley Wickham. Buen libro sobre el paquete ggplot2.

Mi favorito: Discovering Statistics Using R de Andy Field & Jeremy Miles.

Nivel avanzado

Sobre temas específicos

• An R Companion to Applied Regression de John Fox & Sanford Weisberg. Muy bueno. Sobre cómo realizar análisis de regresión utilizando R. Es una guía paso a paso desde el análisis exploratorio de los datos, pasando por los modelo lineales, modelos lineales generalizados hasta los gráficos. Asume que el lector está familiarizado con los métodos estadísticos que describe. Utiliza el paquete propio car.

• Linear Models with R y Extending the Linear Model with R: Generalized Linear, Mixed Effects and Nonparametric Regression Modelsambos de J.J. Faraway. Los dos son libros muy buenos. Tienen además un suplemento práctico y gratuito ( Estos libros atacan directamente al tema del título, ponen el foco en la práctica de la regresión y análisis de varianza, no dan rodeos como otros tantos libros. Asume que el lector tiene conocimientos previos del tema; puede ser tedioso para el principiante.
• Mixed Effects Models and Extensions in Ecology with R (2009) de Zuur, Ieno. Walker, Saveliev & Smith. Cubre todo tipo de modelos LM, GLM, GAM, GEE, GLMM, GAMM. Un gran libro sobre modelos mixtos, ya he dicho que este autor me gusta mucho.
• Data Analysis Using Regression and Multilevel/Hierarchical Models, de Andrew Gelman & Jennifer Hill. Un gran libro sobre modelos estadísticos, práctico y profundo.
• Introductory Time Series with R de Paul S.P. Cowpertwait & Andrew C. Metcalfe. Muy buena introducción al análisis de series temporales.
• Time Series Analysis with Applications in R de Jonathan D. Cryer & Kung-Sik Chan. Otra buena introducción al análisis de series temporales, paso a paso y con burn código en R.
• Applied Spatial Data Analysis de R. Bivand, Roger S., Pebesma, Edzer, Gómez-Rubio, Virgilio. Desde cómo acceder y visualizar datos espaciales hasta cómo utilizar GRASS GIS desde R y realizar modelos avanzados. Muy interesante y con varios ejemplos de aplicación sencillos.

Mi favorito: Mixed Effects Models and Extensions in Ecology with R (2009) de Zuur, Ieno. Walker, Saveliev & Smith.

Recursos en español para aplicar la Estadística con el software R.

Recursos en español para aplicar la Estadística con el software R

Libros en español

  1. “R para Principiantes”, la versión en español del libro “R for Beginners”, traducida por Jorge A. Ahumada (PDF).
  2. La traducción al español de “An Introduction to R” por Andrés González y Silvia González (PDFTexinfo sources).
  3. “Gráficos Estadísticos con R” por Juan Carlos Correa y Nelfi González (PDF).
  4. “Cartas sobre Estadística de la Revista Argentina de Bioingeniería” por Marcelo R. Risk (PDF).
  5. “Generacion automatica de reportes con R y LaTeX” por Mario Alfonso Morales Rivera (PDF).
  6. “Metodos Estadisticos con R y R Commander” por Antonio Jose Saez Castillo (PDFZIP, 2010-07-08).
  7. “Optimización Matemática con R: Volumen I” por Enrique Gabriel Baquela y Andrés Redchuk (PDF).
  8. “Introducción al uso de R y R Commander para el análisis estadístico de datos en ciencias sociales” por Rosario Collatón Chicana (PDF, 2014-05-11).
  9. “El arte de programar en R” por Julio Sergio Santana y Efraín Mateos Farfán (PDF, 2014-12-15; online).

Hojas de referencia (resúmenes) en español

  1. ¿Cómo manipular datos en R? ordenar, transformar, seleccionar, resumir, crear, combinar con dplyr y tidyr. No te pierdas estos trucos en español. (PDF
  2. R Markdown te permite escribir informes reutilizables con R. Exporta los resultados en html, pdf, Word, documentos interactivos y diapositivas. (PDF)
  3. Hoja de referencia para realizar gráficos con el paquete ggplot2 de R. Visualiza tus datos de manera espectacular y personalizada. (PDF)
  4. Cómo crear y personalizar una aplicación interactiva con el paquete Shiny de R, fácil y personalizada. (PDF)
  5. Esta hoja de trucos te resume cómo importar y exportar archivos en R: desde texto, csv, Excel hasta datos tabulares tibble; cómo ordenar, transformar, combinar datos y sustituir valores ausentes con tidyr. (PDF)
  6. Sparklyr es una interfaz R a Apache Spark, un motor rápido y general para procesar grandes volúmenes de datos. Puedes conectarte a una sesión Spark local o remota, utilizar dplyr para manipular datos y utilizar técnicas de machene learning de Spark. (PDF)