EXPEDIENTE DE COLABORADORES

¿Puede la IA volverse sensible? Esto es importante para tu empresa

¿Puede la IA volverse sensible? Esa pregunta ha estado ardiendo en los círculos tecnológicos durante varias semanas, desde que un ingeniero solitario de Google afirmó que su modelo LAMDA había logrado tanto la autoconciencia como el alma.

Si bien esta es una pregunta importante, no es algo de lo que la empresa deba preocuparse por el momento. Incluso si surgiera tal algoritmo, ¿sería tan útil en un sentido práctico?

 ¿Por qué algunos proveedores de tecnología promocionan su capacidad para crear la » empresa sensible «?

Por un lado, la ambigüedad en la terminología ha sido durante mucho tiempo el sueño de un vendedor. Sin embargo, el hecho es que, a pesar de que la IA de hoy en día no es consciente, aún proporciona una serie de capacidades útiles para los entornos de datos empresariales.

Un gran grupo de científicos y empresas relacionadas al mundo del marketing pueden ir a una habitación y decir que la inteligencia artificial que han creado posee sensibilidad, pero la realidad, al menos para semejantes declaraciones, siempre tumba esas ideas. Y lo hace porque es muy probable que eso que han creído ver como sensible no lo sea.

Los grupos de científicos e informáticos que se encuentran inmersos en la creación de inteligencia artificial, siempre dicen hallarse en los bordes de la inteligencia artificial general (AGI) y no haberse extralimitado de ella.

Sin embargo, hay otro grupo de científicos que afirma que ya la IA tiene sensibilidad, entre ellos se encuentra Ilya Sutskever, el científico jefe de OpenAI. En cambio, Yann LeCun, el gurú de IA de Facebook/Meta, cree lo contrario. Y Judea Pearl, una científica informática ganadora del premio Turing, cree que incluso la sensibilidad falsa debería considerarse conciencia.

¿Y el marco legal?

Y aquí está el cambio de perspectiva: probablemente, una máquina solo es sensible si es capaz de cumplir con un conjunto simple de calificaciones racionales para la sensibilidad. Ello significa que tendríamos que recurrir al sistema legal para codificar y verificar cualquier incidente potencial de conciencia de máquina.

Hacer eso no es posible, ya que el único país que posee un marco legal existente por el cual se pueden discutir los derechos de una máquina sensible es Arabia Saudita. Eso fue porque en el año 2017, un robot llamado Sophia (fabricado por la empresa de Hong Kong Hanson Robotics) recibió la ciudadanía durante un evento de inversión.

Pero debemos decirles que ese robot, al menos a nivel de inteligencia artificial, no es más complejo que el algoritmo de Netflix. Así que si ese robot puede ser considerado sensible, Alexa también debería serlo.

Y en marcos legales, Estados Unidos sigue en su enfoque continuo de no intervención para la regulación de la IA. La Unión Europea tampoco planea introducirse en esto, hecho que nos plantea este escenario: es poco probable que veamos un tribunal, en cualquier país democrático, hacer observaciones racionales sobre la sensibilidad de las máquinas.

Todo ello nos deja con dos bandos: los jueces y abogados que no logran comprender a fondo lo que conlleva la inteligencia artificial y el grupo de científicos que no logra ofrecer una visión coherente del asunto.

Concéntrate en los riesgos

Lo cierto que es el debate sobre la sensibilidad de IA está dejando de lado la equivalencia de todo un proyecto de desarrollo.  No descuidar los errores y riesgos pasó a segundo plano y se está pensando en la sensibilidad y la compatibilidad humana. 

¿Requieres llevar a cabo un desarrollo de software que reúna lo mejor de las dos partes? Consúltalo con nosotros

 

Contactanos

Contáctanos

y cuéntanos sobre tu proyecto