Con la reciente explosión en AI, ha sido la preocupación comprensible sobre su impacto potencial sobre el trabajo humano. Muchas personas han tratado de predecir qué industrias y puestos de trabajo serán los más afectados, y qué habilidades será de mayor demanda. (En caso de que aprender a codificar? ¿O AI sustituir codificadores también?)
En lugar de tratar de predecir los detalles, se sugiere un enfoque alternativo. La teoría económica sugiere que la AI aumentará sustancialmente el valor del juicio humano. Las personas que demuestran el buen juicio serán más valioso, no menos. Pero para entender lo que implica el buen juicio y por qué va a ser más valiosa, tenemos que ser precisos acerca de lo que queremos decir.
Lo que hace AI y por qué es útil
Los recientes avances en la IA son mejor como una caída en el costo de la predicción . Por predicción, no nos limitamos a decir el futuro, la predicción es sobre el uso de datos que hay que generar datos que usted no tiene, a menudo mediante la traducción de grandes cantidades de datos en cantidades pequeñas y manejables. Por ejemplo, el uso de imágenes divididas en partes a detectar si la imagen contiene una cara humana es un problema de predicción clásica. La teoría económica nos dice que a medida que el costo de la predicción de la máquina cae, las máquinas van a hacer más y más la predicción.
La predicción es útil porque ayuda a mejorar las decisiones. Pero no es la única entrada en la toma de decisiones; la otra entrada clave es juicio. Consideremos el ejemplo de una red de tarjetas de crédito para decidir si se aprueba o no cada intento de transacción. Ellos quieren permitir las transacciones legítimas y el fraude declive. Utilizan AI para predecir si cada intento de transacción es fraudulenta. Si tales predicciones eran perfectos, proceso de toma de la red es fácil. Rechazar si y sólo si existe fraude.
Sin embargo, incluso los mejores inhibidores de la aromatasa cometen errores, y que es poco probable que cambie en el corto plazo. Las personas que se han ejecutado las redes de tarjetas de crédito saben por experiencia que hay un compromiso entre la detección de todos los casos de fraude y molestar al usuario. (¿Alguna vez ha tenido una tarjeta rechazó al intentar utilizarlo mientras viaja?) Y puesto que la conveniencia es todo el negocio de tarjetas de crédito, esa compensación no es algo como para ignorarlo.
Esto significa que para decidir si aprueba o no una transacción, la red de tarjetas de crédito tiene que saber el costo de los errores. ¿Qué tan grave sería para rechazar una transacción legítima? ¿Qué tan grave sería para permitir una transacción fraudulenta?
Alguien en la asociación de tarjetas de crédito tiene que evaluar la forma en toda la organización se ve afectada cuando se deniega una transacción legítima. Necesitan al comercio que fuera contra los efectos de permitir una transacción que es fraudulenta. Y esa compensación puede ser diferente para individuos de alto patrimonio neto que para los usuarios de tarjetas casuales. Sin IA puede hacer esa llamada. Los seres humanos necesitan para hacerlo. Esta decisión es lo que llamamos juicio.
Lo que implica juicio
El juicio es el proceso de determinar cuál es la recompensa a una acción en particular se encuentra en un entorno particular. El juicio es como trabajamos los beneficios y costos de las diferentes decisiones en diferentes situaciones.
fraude de tarjetas de crédito es una decisión fácil de explicar en este sentido. Juicio consiste en determinar cuánto dinero se pierde en una transacción fraudulenta, lo infeliz que un cliente legítimo será cuando se rechaza una transacción, así como la recompensa por hacer lo correcto y permitiendo buenas transacciones y la disminución de los malos. En muchas otras situaciones, las compensaciones son más complejas, y los pagos no son sencillos. Los humanos aprenden los pagos a los diferentes resultados de la experiencia, la toma de decisiones y la observación de sus errores.
Obtención de los pagos derecha es duro. Se requiere una comprensión de lo que su organización se preocupa por la mayoría, lo que se beneficia de, y lo que podría ir mal.
En muchos casos, especialmente en el corto plazo, se requerirá que los seres humanos para ejercer este tipo de juicio. Ellos se especializan en sopesar los costos y beneficios de las diferentes decisiones, y después de que el juicio se combinarán con las predicciones generadas por la máquina para tomar decisiones.
Pero no podía AI calcular los costos y los beneficios en sí? En el ejemplo de tarjeta de crédito, no podía AI utilizar datos de los clientes a considerar el equilibrio y optimizar con fines de lucro? Sí, pero alguien habría tenido que programar la IA en cuanto a lo que la medida es de beneficio apropiado. Esto pone de relieve una forma particular de juicio humano que creemos que va a ser a la vez más común y más valioso.
Como la gente, inhibidores de la aromatasa también se puede aprender de la experiencia. Una técnica importante en la IA es el aprendizaje por refuerzo por el que un equipo está capacitado para tomar las acciones que maximizan una función determinada recompensa. Por ejemplo, AlphaGo de DeepMind fue entrenado esta manera de maximizar sus posibilidades de ganar el juego de Go. Los juegos son a menudo fáciles de aplicar este método de aprendizaje, porque la recompensa puede ser descrito y programar fácilmente - cerrar el paso a un ser humano a partir del bucle.
Sin embargo, los juegos pueden ser engañados. Como alámbricas informes , cuando los investigadores de IA entrenados una IA para jugar el juego de carreras de barcos, CoastRunners, la IA descubierto la manera de maximizar su puntuación haciendo dar vueltas en círculos en lugar de completar el curso como estaba previsto. Se podría considerar este ingenio de un tipo, pero cuando se trata de aplicaciones más allá de los juegos de este tipo de ingenio puede conducir a resultados adversos.
El punto clave del ejemplo CoastRunners es que en la mayoría de las aplicaciones, el objetivo dado a la IA difiere del objetivo verdadero y difícil de medida de la organización. Mientras ese es el caso, los humanos tendrán un papel central en el juicio, y por lo tanto en la toma de decisiones de la organización.
De hecho, incluso si una organización está permitiendo a la IA a tomar ciertas decisiones, obtener los beneficios adecuado para la organización en su conjunto requiere una comprensión de cómo las máquinas de tomar esas decisiones. ¿Qué tipos de errores de predicción es probable? ¿Cómo podría una máquina de aprender el mensaje equivocado?
Introduzca Recompensa función de ingeniería. Como inhibidores de la aromatasa servir a mejores y más baratos predicciones, hay una necesidad de pensar con claridad y encontrar la manera de utilizar mejor esas predicciones. Ingeniería recompensa función es la tarea de determinar las recompensas a diversas acciones, dadas las predicciones hechas por la IA. Al ser grande en él requiere tener una comprensión de las necesidades de la organización y las capacidades de la máquina. (Y es no lo mismo que poner un ser humano en el bucle para ayudar a entrenar a la IA.)
A veces Ingeniería Recompensa función consiste en la programación de las recompensas antes de las predicciones para que las acciones pueden ser automatizados. vehículos de auto-conducción son un ejemplo de este tipo de recompensas no modificables. Una vez que se hizo la predicción, la acción es instantánea. Pero como el ejemplo ilustra CoastRunners, conseguir el derecho de recompensa no es trivial. Ingeniería recompensa función tiene que considerar la posibilidad de que la IA sobre-optimizar en una métrica de éxito, y al hacerlo actuar de una manera que es inconsistente con los objetivos generales de la organización.
En otras ocasiones, tan dura-codificación de las recompensas es demasiado difícil. Es posible que así sea muchas predicciones posible que sea demasiado costoso para cualquier persona para juzgar todos los posibles pagos por adelantado. En cambio, algunos humano necesita esperar a que la predicción para llegar, y luego evaluar la rentabilidad. Esto está más cerca de cómo funciona la mayor toma de decisiones de hoy, si es o no incluye las predicciones generadas por la máquina. La mayoría de nosotros ya lo hacen alguna recompensa función de ingeniería, pero para los seres humanos - no máquinas. Los padres enseñan a sus hijos valores. Los mentores enseñan nuevos trabajadores cómo funciona el sistema. Los gestores dan objetivos a su personal, y luego los ajustan para obtener un mejor rendimiento. Cada día, tomar decisiones y juzgar las recompensas. Pero cuando hacemos esto para los seres humanos, la predicción y el juicio se agrupan,
Como las máquinas a mejorar en la predicción, el valor distinto de Recompensa Diseño de la función aumentará a medida que la aplicación del criterio humano se convierte en el centro.
En general, será la máquina disminución predicción o aumentar la cantidad de trabajo disponible para los seres humanos en la toma de decisiones? Es demasiado pronto para decir. Por un lado, la predicción de la máquina sustituirá a la predicción humana en la toma de decisiones. Por otro lado, la predicción de la máquina es un complemento al juicio humano. Y la predicción más barato va a generar más demanda para la toma de decisiones, por lo que habrá más oportunidades para ejercer el juicio humano. Por lo tanto, aunque es demasiado pronto para especular sobre el impacto global sobre el empleo, no hay duda de que pronto será testigo de un gran florecimiento de la demanda de juicio humano en forma de Ingeniería Recompensa de funciones.
Ajay Agrawal es el profesor Peter Munk de Emprendimiento de la Universidad de Rotman School of Management e investigador asociado de Toronto en la Oficina Nacional de Investigación Económica en Cambridge, MA. Es fundador de la destrucción creativa de Laboratorio, co-fundador de The Next AI, y co-fundador de los Vástagos.
Joshua Gans es profesor de gestión estratégica en la Rotman School of Management. Su último libro, El dilema de interrupción , es publicado por MIT Press.
Avi Goldfarb es el profesor Ellison de Marketing de la Rotman School of Management de la Universidad de Toronto. También es investigador asociado en el National Bureau of Economic Research, Jefe Científico de datos en la destrucción Creative Lab, y Editor Senior en Marketing Science.
No hay comentarios.:
Publicar un comentario