Artificial intelligence is going to completely change your life
Republished with permission fromKnowledge@Wharton, the online research and business analysis journal of the Wharton School of the University of Pennsylvania
10 Nov 2017
Just as electricity transformed the way industries functioned in the past century, artificial intelligence — the science of programming cognitive abilities into machines — has the power to substantially change society in the next 100 years. AI is being harnessed to enable such things as home robots, robo-taxis and mental health chatbots to make you feel better. A startup is developing robots with AI that brings them closer to human level intelligence. Already, AI has been embedding itself in daily life — such as powering the brains of digital assistants Siri and Alexa. It lets consumers shop and search online more accurately and efficiently, among other tasks that people take for granted.
“AI is the new electricity,” said Andrew Ng, co-founder of Coursera and an adjunct Stanford professor who founded the Google Brain Deep Learning Project, in a keynote speech at the AI Frontiers conference that was held this past weekend in Silicon Valley. “About 100 years ago, electricity transformed every major industry. AI has advanced to the point where it has the power to transform” every major sector in coming years. And even though there’s a perception that AI was a fairly new development, it has actually been around for decades, he said. But it is taking off now because of the ability to scale data and computation.
Ng said most of the value created through AI today has been through supervised learning, in which an input of X leads to Y. But there have been two major waves of progress: One wave leverages deep learning to enable such things as predicting whether a consumer will click on an online ad after the algorithm gets some information about him. The second wave came when the output no longer has to be a number or integer but things like speech recognition, a sentence structure in another language or audio. For example, in self-driving cars, the input of an image can lead to an output of the positions of other cars on the road.
Indeed, deep learning — where a computer learns from datasets to perform functions, instead of just executing specific tasks it was programmed to do — was instrumental in achieving human parity in speech recognition, said Xuedong Huang, who led the team at Microsoft on the historic achievement in 2016when their system booked a 5.9% error rate, the same as a human transcriptionist. “Thanks to deep learning, we were able to reach human parity after 20 years,” he said at the conference. The team has since lowered the error rate even more, to 5.1%.
The Rise of Digital Assistants
Starting in 2010, the quality of speech recognition began to improve for the industry, eventually leading to the creation of Siri and Alexa. “Now, you almost take it for granted,” Ng said. That’s not all; speech is expected to replace touch-typing for input, said Ruhi Sarikaya, director of Amazon Alexa. The key to greater accuracy is to understand the context. For example, if a person asks Alexa what he should do for dinner, the digital assistant has to assess his intent. Is he asking Alexa to make a restaurant reservation, order food or find a recipe? If he asks Alexa to find ‘Hunger Games,’ does he want the music, video or audiobook?
And what’s next for the digital assistant is an even more advanced undertaking — to understand “meaning beyond words,” said Dilek Hakkani-Tur, a research scientist at Google. For example, if the user uses the words “later today,” it could mean 7 p.m. to 9 p.m. for dinner or 3 p.m. to 5 p.m. for meetings. This next level up also calls for more complex and lively conversations, multi-domain tasks and interactions beyond domain boundaries, she said. Moreover, Hakkani-Tur said, digital assistants should be able to do things such as easily read and summarize emails.
After the speech, ‘computer vision’ — or the ability of computers to recognize images and categorize them — was the next to leap, speakers said. With many people uploading images and video, it became cumbersome to add metadata to all content as a way to categorize them. Facebook built an AI to understand and categorize videos at scale called Lumos, said Manohar Paluri, a research lead at the company. Facebook uses Lumos to do data collection of, for example, fireworks images and videos. The platform can also use people’s poses to identify a video, such as categorizing people lounging around on couches as hanging out.
What’s critical is to ascertain the primary semantic content of the uploaded video, added Rahul Sukthankar, head of video understanding at Google. And to help the computer correctly identify what’s in the video — for example, whether professionals or amateurs are dancing — his team mines YouTube for similar content that AI can learn from, such as having a certain frame rate for non-professional content. Sukthankar adds that a promising direction for future research is to do computer training using videos. So if a robot is shown a video of a person pouring cereal into a bowl at multiple angles, it should learn by watching.
At Alibaba, AI is used to boost sales. For example, shoppers of its Taobao e-commerce site can upload a picture of a product they would like to buy, like a trendy handbag sported by a stranger on the street, and the website will come up with handbags for sale that come closest to the photo. Alibaba also uses augmented reality/virtual reality to make people see and shop from stores like Costco. On its Youku video site, which is similar to YouTube, Alibaba is working on a way to insert virtual 3D objects into people’s uploaded videos, as a way to increase revenue. That’s because many video sites struggle with profitability. “YouTube still loses money,” said Xiaofeng Ren, a chief scientist at Alibaba.
Rosie and the Home Robot
But with all the advances in AI, it’s still no match for the human brain. Vicarious is a startup that aims to close the gap by developing human level intelligence in robots. Co-founder Dileep George said that the components are there for smarter robots. “We have cheap motors, sensors, batteries, plastics and processors … why don’t we have Rosie?” He was referring to the multipurpose robot maid in the 1960s space-age cartoon The Jetsons. George said the current level of AI is like what he calls the “old brain,” similar to the cognitive ability of rats. The “new brain” is more developed such as what’s seen in primates and whales.
George said the “old brain” AI gets confused when small inputs are changed. For example, a robot that can play a video game goes awry when the colors are made just 2% brighter. “AI today is not ready,” he said. Vicarious uses deep learning to get the robot closer to human cognitive ability. In the same test, a robot with Vicarious’s AI kept playing the game even though the brightness had changed. Another thing that confuses “old brain” AI is putting two objects together. People can see two things superimposed on each other, such as a coffee mug partly obscuring a vase in a photo, but robots mistake it for one unidentified object. Vicarious, which counts Facebook CEO Mark Zuckerberg as an investor, aims to solve such problems.
The intelligence inside Kuri, a robot companion and videographer meant for the home, is different. Kaijen Hsiao, chief technology officer of creator Mayfield Robotics, said there is a camera behind the robot’s left eye that gathers video in HD. Kuri has depth sensors to map the home and uses images to improve navigation. She also has pet and person detection features so she can smile or react when they are around. Kuri has place recognition as well, so she will remember she has been to a place before even if the lighting has changed, such as the kitchen during the day or night. Moment selection is another feature of the robot, which lets her recognize similar videos she records — such as dad playing with the baby in the living room — and eliminates redundant ones.
“Her job is to bring a spot of life to your home. She provides entertainment — she can play music, podcasts, audiobooks. You can check your home from anywhere,” Hsiao said. Kuri is the family’s videographer, going around the house recording so no one is left out. The robot will curate the videos and show the best ones. For this, Kuri uses vision and deep learning algorithms. “Her point is her personality … [as] an adorable companion,” Hsiao said. Kuri will hit the market in December at $799.
“About 100 years ago, electricity transformed every major industry. AI has advanced to the point where it has the power to transform” every major sector in coming years.–Andrew Ng
Business Response to AI
The U.S. and China lead the world in investments in AI, according to James Manyika, chairman and director of the McKinsey Global Institute. Last year, AI investment in North America ranged from $15 billion to $23 billion, Asia (mainly China) was $8 billion to $12 billion, and Europe lagged at $3 billion to $4 billion. Tech giants are the primary investors in AI, pouring in between $20 billion and $30 billion, with another $6 billion to $9 billion from others, such as venture capitalists and private equity firms.
Where did they put their money? Machine learning took 56% of the investments with computer vision second at 28%. Natural language garnered 7%, autonomous vehicles was at 6% and virtual assistants made up the rest. But despite the level of investment, actual business adoption of AI remains limited, even among firms that know its capabilities, Manyika said. Around 40% of firms are thinking about it, 40% experiment with it and only 20% actually adopt AI in a few areas.
The reason for such reticence is that 41% of companies surveyed are not convinced they can see a return on their investment, 30% said the business case isn’t quite there and the rest said they don’t have the skills to handle AI. However, McKinsey believes that AI can more than double the impact of other analytics and has the potential to materially raise corporate performance.
There are companies that get it. Among sectors leading in AI are telecom and tech companies, financial institutions and automakers. Manyika said these early adopters tend to be larger and digitally mature companies that incorporate AI into core activities, focus on growth and innovation over cost savings and enjoy the support of C-suite level executives. The slowest adopters are companies in health care, travel, professional services, education and construction. However, as AI becomes widespread, it’s a matter of time before firms get on board, experts said.
https://www.weforum.org/agenda/2017/11/artificial-intelligence-is-going-to-completely-change-your-life?utm_content=bufferf764a&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer
La inteligencia artificial va a cambiar completamente tu vida
Publicado de nuevo con permiso deKnowledge @ Wharton, el diario de investigación y análisis de negocios en línea de la Wharton School de la Universidad de Pensilvania.
10 de noviembre de 2017
Así como la electricidad transformó el funcionamiento de las industrias en el siglo pasado, la inteligencia artificial -la ciencia de programar las habilidades cognitivas en máquinas- tiene el poder de cambiar sustancialmente la sociedad en los próximos 100 años. AI está siendo aprovechada para permitir cosas como robots domésticos, robo-taxis y chatbots de salud mental para hacerte sentir mejor. Una startup está desarrollando robots con inteligencia artificial que los acerca a la inteligencia humana. Ya, AI se ha estado incrustando en la vida cotidiana, como el poder de los cerebros de los asistentes digitales Siri y Alexa. Permite a los consumidores comprar y buscar en línea de forma más precisa y eficiente, entre otras tareas que las personas dan por hecho.
"AI es la nueva electricidad", dijo Andrew Ng, cofundador de Coursera y profesor adjunto de Stanford que fundó el proyecto Google Brain Deep Learning, en un discurso en la conferenciaAI Frontiers que se celebró este fin de semana pasado en Silicon Valley. "Hace aproximadamente 100 años, la electricidad transformó todas las industrias importantes. AI ha avanzado hasta el punto en que tiene el poder de transformar "todos los sectores principales en los próximos años". Y a pesar de que existe la percepción de que la IA era un desarrollo bastante nuevo, en realidad ha existido durante décadas, dijo. Pero está despegando ahora debido a la capacidad de escalar datos y computación.
Ng dijo que la mayor parte del valor creado a través de la IA hoy ha sido a través del aprendizaje supervisado, en el cual una entrada de X lleva a Y. Pero ha habido dos grandes olas de progreso: una onda aprovecha el aprendizaje profundo para permitir cosas tales como predecir si un consumidor hará clic en un anuncio en línea después de que el algoritmo obtenga información sobre él. La segunda ola llegó cuando la salida ya no tiene que ser un número o entero, sino cosas como el reconocimiento de voz, una estructura de oraciones en otro idioma o audio. Por ejemplo, en autos que conducen por sí mismos, la entrada de una imagen puede conducir a una salida de las posiciones de otros autos en la carretera.
De hecho, el aprendizaje profundo -donde una computadora aprende de conjuntos de datos para realizar funciones, en lugar de solo ejecutar tareas específicas para las que fue programado- fue instrumental para lograr la paridad humana en el reconocimiento de voz, dijo Xuedong Huang, quien dirigió el equipo de Microsoft en el histórico logro en 2016 cuando su sistema reservó una tasa de error del 5.9%, lo mismo que un transcriptor humano. "Gracias al aprendizaje profundo, pudimos alcanzar la paridad humana después de 20 años", dijo en la conferencia. Desde entonces, el equipo ha reducido la tasa de error aún más, hasta el 5,1%.
El auge de los asistentes digitales
A partir de 2010, la calidad del reconocimiento de voz comenzó a mejorar para la industria, lo que finalmente condujo a la creación de Siri y Alexa. "Ahora, casi lo das por sentado", dijo Ng. Eso no es todo; se espera que el habla sustituya a la mecanografía por entrada, dijo Ruhi Sarikaya, director de Amazon Alexa. La clave para una mayor precisión es comprender el contexto. Por ejemplo, si una persona le pregunta a Alexa qué debe hacer para cenar, el asistente digital tiene que evaluar su intención. ¿Le está pidiendo a Alexa que haga una reserva de restaurante, pida comida o encuentre una receta? Si le pide a Alexa que encuentre "Hunger Games", ¿quiere la música, el video o el audiolibro?
Y lo que sigue para el asistente digital es una tarea aún más avanzada: comprender el "significado más allá de las palabras", dijo Dilek Hakkani-Tur, investigador científico de Google. Por ejemplo, si el usuario usa las palabras "más tarde hoy", podría significar de 7 pm a 9 pm para la cena o de 3 a 5 pm para las reuniones. Este próximo nivel también requiere conversaciones más complejas y animadas, tareas e interacciones multidominio más allá de los límites del dominio, dijo. Además, dijo Hakkani-Tur, los asistentes digitales deberían ser capaces de hacer cosas tales como leer fácilmente y resumir correos electrónicos.
Después del discurso, la "visión por computadora" -o la capacidad de las computadoras para reconocer imágenes y categorizarlas- fue la siguiente en saltar, dijeron los oradores.Con muchas personas subiendo imágenes y videos, se volvió engorroso agregar metadatos a todo el contenido como una forma de categorizarlos. Facebook creó una IA para comprender y categorizar videos a escala llamada Lumos, dijo Manohar Paluri, un investigador líder de la compañía. Facebook utiliza Lumos para recopilar datos de, por ejemplo, imágenes y videos de fuegos artificiales. La plataforma también puede usar las poses de las personas para identificar un video, como categorizar a las personas que descansan en los sofás como pasando el rato.
Lo que es crítico es determinar el contenido semántico principal del video cargado, agregó Rahul Sukthankar, jefe de comprensión de videos en Google. Y para ayudar a la computadora a identificar correctamente lo que está en el video, por ejemplo, si los profesionales o los aficionados están bailando, su equipo explora YouTube para contenido similar del que AI puede aprender, como tener una cierta velocidad de fotogramas para contenido no profesional. Sukthankar agrega que una dirección prometedora para futuras investigaciones es hacer entrenamiento en computación usando videos. Entonces, si a un robot se le muestra un video de una persona que vierte cereal en un tazón en múltiples ángulos, debe aprender observando.
En Alibaba, AI se usa para aumentar las ventas. Por ejemplo, los compradores de su sitio de comercio electrónico de Taobao pueden cargar una imagen de un producto que les gustaría comprar, como un bolso de moda lucido por un extraño en la calle, y el sitio web vendrá con bolsos de mano que se acerquen más a la foto. Alibaba también usa la realidad aumentada / realidad virtual para que la gente vea y compre en tiendas como Costco. En su sitio de videos Youku, que es similar a YouTube, Alibaba está trabajando en una forma de insertar objetos 3D virtuales en los videos subidos de las personas, como una forma de aumentar los ingresos. Eso se debe a que muchos sitios de videos luchan con la rentabilidad."YouTube aún pierde dinero", dijo Xiaofeng Ren, científico jefe de Alibaba.
Rosie y el robot doméstico
Pero con todos los avances en IA, aún no es rival para el cerebro humano. Vicarious es una startup que busca cerrar la brecha desarrollando inteligencia a nivel humano en robots. El cofundador Dileep George dijo que los componentes están ahí para robots más inteligentes. "Tenemos motores, sensores, baterías, plásticos y procesadores baratos ... ¿por qué no tenemos a Rosie?". Se estaba refiriendo a la criada robot multipropósito en los dibujos animados de la era espacial de los años 60 The Jetsons. George dijo que el nivel actual de IA es como lo que él llama el "viejo cerebro", similar a la capacidad cognitiva de las ratas. El "nuevo cerebro" está más desarrollado, como lo que se ve en primates y ballenas.
George dijo que la inteligencia artificial del "viejo cerebro" se confunde cuando se cambian pequeñas entradas. Por ejemplo, un robot que puede jugar un videojuego falla cuando los colores se hacen un 2% más brillantes. "AI hoy no está listo", dijo. Vicarious utiliza el aprendizaje profundo para acercar al robot a la capacidad cognitiva humana. En la misma prueba, un robot con IA de Vicarious siguió jugando aunque el brillo había cambiado. Otra cosa que confunde la IA del "viejo cerebro" es unir dos objetos. La gente puede ver dos cosas superpuestas entre sí, como una taza de café que oscurece parcialmente un jarrón en una foto, pero los robots la confunden con un objeto no identificado. Vicarious, que cuenta con el CEO de Facebook Mark Zuckerberg como inversor, tiene como objetivo resolver esos problemas.
La inteligencia dentro de Kuri , un compañero robot y camarógrafo destinado para el hogar, es diferente. Kaijen Hsiao, director de tecnología del creador Mayfield Robotics, dijo que hay una cámara detrás del ojo izquierdo del robot que reúne video en HD. Kuri tiene sensores de profundidad para mapear la casa y usa imágenes para mejorar la navegación. También tiene características de detección de mascotas y personas para que pueda sonreír o reaccionar cuando están cerca. Kuri también tiene reconocimiento de lugar, por lo que recordará que ha estado en un lugar antes incluso si la iluminación ha cambiado, como la cocina durante el día o la noche. La selección de momentos es otra característica del robot, que le permite reconocer videos similares que graba, como cuando papá juega con el bebé en la sala de estar, y elimina los redundantes.
"Su trabajo es llevar un poco de vida a tu hogar. Ella proporciona entretenimiento: puede reproducir música, podcasts, audiolibros. Puedes verificar tu casa desde cualquier lugar ", dijo Hsiao. Kuri es el camarógrafo de la familia, recorriendo la grabación de la casa para que nadie quede fuera.El robot curará los videos y mostrará los mejores. Para esto, Kuri utiliza algoritmos de visión y aprendizaje profundo. "Su punto es su personalidad ... [como] un compañero adorable", dijo Hsiao. Kuri llegará al mercado en diciembre a $ 799.
"Hace aproximadamente 100 años, la electricidad transformó todas las industrias importantes. AI ha avanzado hasta el punto en que tiene el poder de transformar "cada sector importante en los próximos años". Andrew Ng
Respuesta empresarial a la IA
Estados Unidos y China lideran el mundo en inversiones en IA, según James Manyika, presidente y director del McKinsey Global Institute. El año pasado, la inversión de IA en América del Norte varió de $ 15,000 a $ 23,000 millones, Asia (principalmente China) fue de $ 8,000 a $ 12,000 millones, y Europa quedó rezagada de $ 3,000 millones a $ 4,000 millones.Los gigantes tecnológicos son los principales inversores en IA, aportan entre $ 20 mil millones y $ 30 mil millones, con otros $ 6 mil millones a $ 9 mil millones de otros, como capitalistas de riesgo y firmas de capital privado.
¿Dónde pusieron su dinero? El aprendizaje automático tomó el 56% de las inversiones con visión artificial en segundo lugar con un 28%. El lenguaje natural obtuvo el 7%, los vehículos autónomos estuvieron en el 6% y los asistentes virtuales se encargaron del resto. Pero a pesar del nivel de inversión, la adopción comercial real de AI sigue siendo limitada, incluso entre las empresas que conocen sus capacidades, dijo Manyika. Alrededor del 40% de las empresas lo está pensando, el 40% experimenta con él y solo el 20% realmente adopta la IA en algunas áreas.
El motivo de tal reticencia es que el 41% de las empresas encuestadas no están convencidas de que puedan ver un retorno de su inversión, el 30% dijo que el caso empresarial no está del todo allí y el resto dijo que no tienen las habilidades para manejar la IA. Sin embargo, McKinsey cree que AI puede duplicar con creces el impacto de otros análisis y tiene el potencial de aumentar materialmente el rendimiento corporativo.
Hay empresas que lo obtienen. Entre los sectores líderes en AI se encuentran las empresas de telecomunicaciones y tecnología, las instituciones financieras y los fabricantes de automóviles. Manyika dijo que estos primeros adoptantes tienden a ser empresas más grandes y digitalmente maduras que incorporan inteligencia artificial en las actividades centrales, se centran en el crecimiento y la innovación sobre el ahorro de costos y disfrutan del apoyo de los ejecutivos de nivel C-suite. Los adoptantes más lentos son las compañías de servicios de salud, viajes, servicios profesionales, educación y construcción. Sin embargo, a medida que la inteligencia artificial se generaliza, es cuestión de tiempo antes de que las empresas participen, según los expertos.