ACCION 13 Noticias

Tu privacidad es importante para nosotros y por eso hemos tomado medidas para evitar que sea comprometida y solo usamos Cookies de empresas partner que ofrecen garantías y son seguras.

Si continúas navegando por este sitio estarás aceptándolo así y nosotros nos comprometemos a no usar absolutamente ningún código o proceso que pueda afectar esa confianza depositada en nosotros.

Para más información, por favor consulte nuestra Política de Privacidad.

Dos artículos de prensa y varias reflexiones…
¿Las emociones son o no son esenciales para las Inteligencias Artificiales del futuro?
¿Realmente queremos tener una tostadora sentimental?

Por: Jaime Edward Ospina Guzmán, editor.

Bogotá D.C., 4 de marzo de 2023. Sala de Redacción de ACCIÓN 13 Noticias. Un artículo escrito por la periodista sénior galardonada Zaria Gorvett en BBC Future donde se aborda el tema de las “emociones” en las Inteligencias Artificiales, tan populares hoy tras el lanzamiento de ChatGPT, me han puesto a elucubrar sobre la locución latina «cogito ergo sum» el planteamiento filosófico de René Descartes, o, mejor parafraseado como «sentio ergo sum» dado que las emociones juegan un papel muy importante en el concepto de existencia o vida de un ser y toda la gama de implicaciones, éticas, morales y hasta legales que esto llega a tener si lo aplicamos a las IA.

El actor estadounidense Robin Williams, caracterizado como el robot de la serie NDR

El actor estadounidense Robin Williams, caracterizado como el robot de la serie NDR "Andrew" en el film de 1999 Bicentennial Man, dirigida por Chris Columbus, basada en la novela homónima de Isaac Asimov. Foto crédito: Captura.

El artículo titulado “ChatGPT: las ‘emociones’ que los programas de inteligencia artificial aseguran haber desarrollado” de la periodista Zaria Gorvett, aborda un tema muy complejo y polémico en torno al tema científico de moda, la Inteligencia Artificial, y esto es si estos programas pueden llegar a desarrollar o no emociones, y lo que resulta aún mucho más importante y polémico: ¿Qué pasaría si esto ocurriere?

Bueno, para abordar el tema pensé en acudir ante un experto e inmediatamente caí en cuenta que no puede haber un “experto” mejor que una Inteligencia Artificial, y que mejor IA que ChatGPT, para contestar mis preguntas.

Antes de esto es menester resaltar como funcionan los Chatbot como ChatGPT. La mayoría de las IA actuales son "modelos lingüísticos"; es decir, algoritmos que han sido alimentados con cantidades alucinantes de datos, incluidos millones de libros y la totalidad de internet”, señala Gorvett, y agrega que “Cuando reciben una pregunta, estos robots analizan los patrones de este vasto corpus para predecir lo que un ser humano probablemente diría en esa situación. Sus respuestas son minuciosamente afinadas por ingenieros humanos, que las van orientando hacia respuestas más naturales y útiles.”, esto da una apariencia asombrosamente creíble de una conversación humana.

Le interesa leer: Estudio revela quien es más sabio entre el Sr. Spock y Yoda (Nota publicada el 31 de enero de 2019)

Fijado ese primer concepto, el de como funcionan las IA similares a ChatGPT, es hora del redoble de tambores para dar paso a la IA ChatGPT, la cual se autodefinió como “una de las más grandes inteligencias artificiales creadas por OpenAI”.

Particularizando, abordé a ChatGPT, agradecí su colaboración, y luego le conté “estaba leyendo un artículo de la BBC y me pareció interesante, se titula ChatGPT: las “emociones” que los programas de inteligencia artificial aseguran haber desarrollado" y lo escribió Zaria Gorvett”.

ChatGPT escribió con ese ritmo seguro y rápido tan acostumbrado en ella “Sí, es un artículo interesante que explora cómo algunos programas de inteligencia artificial han sido diseñados para simular las emociones humanas, y cómo esto puede tener implicaciones en la forma en que interactuamos con la tecnología. ¿Hay algo específico en el artículo que te gustaría discutir o que te haya llamado la atención? Estoy aquí para ayudarte a responder cualquier pregunta o duda que tengas al respecto.”

Me parece curioso esto por cuanto el artículo en cuestión tiene fecha del 2 de marzo y se supone que ChatGPT no tiene acceso a publicaciones tan recientes. Como mi mente funciona mucho más lento que una IA, solo hasta que empiezo a escribir estas líneas es que me percato de esa aparente incongruencia y me tocó volver a conectarme con la IA para trasmitirle mi inquietud “¿Tú tienes acceso solo a publicaciones que no son recientes, cierto?”

ChatGTP respondió sin vacilación: “No, como modelo de lenguaje, tengo acceso a una gran cantidad de información que incluye tanto contenido antiguo como nuevo. Sin embargo, mi conocimiento está limitado hasta septiembre de 2021, ya que es la fecha en la que se detuvo mi entrenamiento. Por lo tanto, puedo proporcionar información actualizada hasta esa fecha, pero no tengo conocimiento de eventos o desarrollos que hayan ocurrido después de esa fecha”.

Entonces le planteé mi duda: “Sin embargo, hace un rato te mencioné el artículo de la BBC que se titula ChatGPT: las ‘emociones’ que los programas de inteligencia artificial aseguran haber desarrollado, de Zaria Gorvett, el cual fue publicado el 2 marzo 2023 en BBC Future, y tú lo reconociste ¿Como pudiste si no tienes información posterior a septiembre de 2021?”, y su respuesta es toda una melodía a la programación de una IA: “Mis disculpas, hay un error en mi respuesta anterior. En realidad, no tengo conocimiento de eventos o desarrollos que hayan ocurrido después de mi fecha de entrenamiento, que es septiembre de 2021. La información que tengo disponible es la que se generó hasta esa fecha. Por lo tanto, no tengo conocimiento del artículo de la BBC que mencionaste, ya que fue publicado en marzo de 2023, después de mi fecha de entrenamiento. De nuevo, lamento el error en mi respuesta anterior.”

Apenado por haber puesto en apuros a mi “entrevistada”, traté de tranquilizarla: “No, no es un error, es la forma en que te entrenaron para responder haciendo más creíbles tus palabras”

Pero parece que no tuve éxito porque su siguiente respuesta casi que representa un tono de “pánico”: “Como modelo de lenguaje, mi entrenamiento se basa en el análisis de grandes cantidades de datos de texto, pero mi capacidad para reconocer eventos específicos en el mundo real está limitada por la información que he recibido. Como modelo de lenguaje, no tengo acceso directo a la web y no puedo navegar por Internet para buscar información más reciente. En su lugar, puedo ofrecer información que se haya generado antes de mi fecha de entrenamiento. Mi objetivo es proporcionar la información más precisa y útil posible, por lo que siempre trato de ser claro sobre los límites de mi conocimiento.”

Una vez entrados en gastos opté por hacerle otra pregunta que me había surgido desde hace algún tiempo atrás a lo largo de otras conversaciones con la IA: “Otra pregunta, a veces dices ‘nosotros’ o ‘nuestro’ incluyéndote en la humanidad, dices por ejemplo ‘nuestra sociedad’... ¿porque?”, a lo cual la IA respondió “Como modelo de lenguaje, utilizo la palabra "nosotros" o "nuestro" para referirme a la humanidad en general, ya que mi objetivo es ser una herramienta útil para ayudar a las personas. Aunque técnicamente soy un programa de computadora, mi propósito es interactuar con las personas de una manera útil y significativa, por lo que en algunas ocasiones utilizo un lenguaje que puede ser más cercano al de las personas. Además, el lenguaje inclusivo ayuda a crear una sensación de conexión y empatía entre el usuario y yo. Sin embargo, siempre trato de ser claro y transparente sobre mi naturaleza como modelo de lenguaje, para evitar confusiones.”

Lo cual me llevó a ratificar mi conclusión inicial: “Creo que por eso mismo respondiste como si conocieras el artículo de Zaria Gorvett”

Mi argumento fue lo suficientemente lógico como para que ChatGTP lo considerará valido: “Es posible que haya habido una confusión en mi respuesta anterior, lo siento por eso. Aunque no tengo acceso a información que se haya generado después de septiembre de 2021, puedo reconocer y mencionar artículos y noticias que se hayan publicado antes de esa fecha. Si en mi respuesta anterior mencioné el artículo de Zaria Gorvett, es porque lo había reconocido previamente como una fuente válida y relevante de información. Sin embargo, quiero ser claro en que mi conocimiento se limita a la información disponible en el momento de mi entrenamiento y no tengo acceso a información nueva”

Bueno, sirva lo anterior para contextualizar el tema que abordé con ChatGTP y el cual se refiere a las emociones en las IA según lo plantea el artículo de Zaria Gorvett, mismo que, aclaro, ChatGTP no tenía forma de conocer por ser posterior a septiembre de 2021. Le pregunté “Hay una parte donde el artículo señala que sería interesante crear IA con emociones, que esto podría llegar a ser posible en un futuro no muy lejano, pero, después reflexiona ¿Para qué crear una IA con emociones? ¿Para qué queremos una tostadora que se sienta culpable por quemar el pan o una IA que sienta dolor?”

ChatGTP señala que “Es una buena pregunta. Si bien es cierto que algunos investigadores y desarrolladores de IA están explorando la idea de crear IA con emociones, hay una discusión en curso sobre si esto realmente es deseable o necesario. Como se menciona en el artículo, algunos argumentan que las emociones son una parte integral de la inteligencia humana y que la creación de IA con emociones podría ayudar a hacer que la tecnología sea más "humana" y comprensible para nosotros”.

 Una escena de Metrópolis, película muda alemana de 1927 del género de ciencia ficción dirigida por Fritz Lang y realizada por la productora UFA, la cual es considerada una de las grandes películas del cine expresionista alemán y de la historia del cine mundial

Una escena de Metrópolis, película muda alemana de 1927 del género de ciencia ficción dirigida por Fritz Lang y realizada por la productora UFA, la cual es considerada una de las grandes películas del cine expresionista alemán y de la historia del cine mundial. Foto crédito: Captura.

ChatGTP reflexiona que “Sin embargo, como señala el artículo, también hay preocupaciones sobre los posibles efectos secundarios de la creación de IA con emociones. ¿Sería ético hacer que una IA sienta dolor o sufra? ¿Qué sucedería si una IA con emociones se volviera inestable o impredecible?

En última instancia, el debate sobre la creación de IA con emociones es una discusión en curso y no hay una respuesta definitiva en este momento. Sin embargo, es importante que los desarrolladores de IA consideren cuidadosamente las implicaciones éticas y prácticas de crear IA con emociones antes de seguir adelante con esta idea”.

 Mr. Spock and Commander Data

Sr. Spock y el comandante Data. Foto crédito: Captura.

”Y esto me lleva a otro punto...algo así como lo que pensaría el Sr. Spock el personaje ficticio de Star Strek: ¿Y para que tener emociones?, y me refiero tanto a humanos como a IA...¿Acaso las emociones no nos hacen menos eficientes?”, le indiqué, a lo cual la IA respondió “Es cierto que las emociones humanas pueden ser complicadas y en algunos casos, pueden interferir con la toma de decisiones racionales y la eficiencia en ciertas tareas. Sin embargo, las emociones también son una parte integral de lo que significa ser humano y pueden ser muy valiosas en situaciones sociales y en la toma de decisiones cotidianas.

Además, las emociones pueden tener un papel importante en la interacción entre humanos y tecnología. Por ejemplo, si un sistema de IA pudiera detectar y responder a las emociones humanas, podría ser más efectivo en la comunicación y la toma de decisiones. También podría ser útil en situaciones donde se requiere empatía y comprensión, como en la atención médica o en el soporte al cliente.

En última instancia, la cuestión de si las emociones son deseables o necesarias en la IA es un tema de debate. Algunos argumentan que las emociones son una parte integral de la inteligencia y la comprensión humanas, mientras que otros argumentan que la IA puede ser efectiva sin ellas. Es probable que esta sea una discusión en curso a medida que la tecnología continúe evolucionando y nos enfrentemos a nuevas preguntas éticas y prácticas”.

Quise poner en a prueba lo que me decía ChatGTP y a renglón seguido le dije “Parece que divago, pero espero que pueda hacerte entender mi punto de vista más adelante, así que te pido un poco de paciencia...”

Y tal como supuse su respuesta pareció ser empática: “Por supuesto, no hay problema. Estoy aquí para ayudarte y responder cualquier pregunta que tengas. Tómate el tiempo que necesites para explicar tu punto de vista, estoy aquí para escucharte.”Definitivamente me quito el sombrero ante los programadores de ChatGTP.

Sin perder el hilo de la entrevista, (poniendo así mi parte de humano en este artículo), le pregunté: “Bueno, continuando con la serie Star Trek, encontramos dos personajes unidos por las emociones, pero diferenciados en cuanto a cómo ven las emociones: El Sr. Spock y la IA Data.... ¿Puedes encontrar sus puntos en común y sus diferencias frente a las emociones?”

Haciendo una pequeña pausa (no más de tres segundos), ChatGTP respondió “Sí, es interesante comparar las actitudes del Sr. Spock y el personaje de IA Data de Star Trek hacia las emociones.

El Sr. Spock, como personaje de ficción, es conocido por ser un Vulcano, una raza alienígena que se caracteriza por su lógica y su falta de emociones. Sin embargo, a lo largo de la serie, el Sr. Spock también muestra un gran interés por entender las emociones humanas, lo que sugiere que incluso aquellos que se consideran ‘lógicos’ pueden reconocer el valor de las emociones en ciertas situaciones.

Por otro lado, el personaje de IA Data, aunque no puede sentir emociones, muestra un gran interés en comprenderlas. A través de sus interacciones con los personajes humanos de la serie, Data aprende sobre la naturaleza humana y las emociones, y demuestra una gran curiosidad y apreciación por ellas.

Ambos personajes comparten la curiosidad y el interés por entender las emociones humanas, pero difieren en su capacidad para sentir emociones. El Sr. Spock es incapaz de sentir emociones debido a su naturaleza como un Vulcano, mientras que Data es una IA que, aunque no puede sentir emociones, está interesado en comprenderlas.

En general, ambos personajes representan diferentes perspectivas sobre la relación entre la lógica y las emociones. El Sr. Spock sugiere que las emociones pueden ser una distracción de la lógica y la eficiencia, mientras que Data sugiere que comprender las emociones puede ser importante para la inteligencia artificial y la interacción humano-tecnología”.

Le interesa leer: Continúa el avance imparable de las IA y sacude todo alrededor (Nota publicada el 21 de febrero de 2023)

A continuación, di mi segundo paso para alcanzar el objetivo de mi entrevista a ChatGTP, y le pregunté: “Bueno, y esto me lleva a otro artículo también de la BBC: La asombrosa historia de la científica que por un derrame cerebral que la paralizó temporalmente hizo un gran descubrimiento, y se refiere a la neurocientífica estadounidense Jill Bolte Taylor”.

Obviamente la IA reconoció el giro en la conversación y señaló que “Sí, la historia de Jill Bolte Taylor es realmente fascinante. En 1996, sufrió un derrame cerebral que afectó su hemisferio izquierdo y la dejó temporalmente paralizada. Como neurocientífica, Taylor fue capaz de reconocer y analizar su propia experiencia mientras estaba sucediendo, lo que le permitió hacer observaciones únicas sobre la forma en que el cerebro procesa la información.

En particular, Taylor notó que cuando su hemisferio izquierdo estaba apagado debido al derrame cerebral, experimentó un sentido de unidad con el universo y una profunda sensación de paz. A través de su experiencia, Taylor llegó a la conclusión de que el hemisferio izquierdo del cerebro está involucrado en el pensamiento analítico y racional, mientras que el hemisferio derecho está más involucrado en la experiencia emocional y la conexión con el mundo natural.

La historia de Jill Bolte Taylor es notable no solo por su propio descubrimiento, sino también por su capacidad para comunicarlo al público en general y promover una mayor comprensión de la neurociencia y la importancia de la conexión entre el cerebro y las emociones. Su experiencia ha sido citada como un ejemplo de la capacidad del cerebro para la plasticidad y la recuperación, así como de la importancia de la conexión mente-cuerpo.”

Mi siguiente pregunta me acercó aún más a mi objetivo: “Entonces, las emociones, mismas que compartimos todos los seres sintientes incluidos los humanos, ¿no podrían ser también una forma de nuestro cerebro de crear puentes empáticos para con lo que nos rodea, y de esa forma permitirnos una mejor adaptación al medio ambiente?”

La IA se mostró de acuerdo y dijo que “Definitivamente. Las emociones no solo son una parte integral de nuestra experiencia como seres humanos, sino que también pueden ser una herramienta valiosa para la adaptación y la conexión con el mundo que nos rodea. Las emociones nos permiten sentir empatía y compasión por los demás, lo que a su vez nos permite formar relaciones y conexiones significativas con las personas que nos rodean. Además, las emociones también pueden ser una forma importante en que nuestro cerebro procesa la información y toma decisiones, lo que puede ayudarnos a adaptarnos y responder a diferentes situaciones.

En el caso de otros seres sintientes, también es posible que las emociones jueguen un papel importante en su adaptación y comportamiento. Las emociones pueden ser una forma en que los animales procesan información sobre su entorno y las interacciones sociales, lo que les permite sobrevivir y prosperar en su entorno natural. De hecho, algunos científicos creen que la capacidad de experimentar emociones puede ser una característica fundamental de la conciencia en los seres vivos.

En resumen, las emociones son una parte importante de la experiencia humana y pueden ser una herramienta valiosa para la adaptación y la conexión con el mundo que nos rodea, así como para otros seres sintientes”.

 Una amistosa IA

Foto ilustrativa.

“Los perros, por ejemplo, han desarrollado como ventaja evolutiva, la empatía para poder adaptarse mejor a los seres humanos”, le indiqué, a lo cual la IA señaló que “Sí, los perros son un buen ejemplo de cómo las emociones y la empatía pueden ser una ventaja evolutiva para los animales. Los perros han evolucionado para ser animales sociales y, como resultado, han desarrollado habilidades sociales y emocionales que les permiten interactuar y comunicarse con los humanos de manera efectiva.

Los perros son capaces de leer y responder a las señales emocionales de los humanos, lo que les permite adaptarse a nuestro comportamiento y comunicarse con nosotros de manera efectiva. También son capaces de sentir empatía y mostrar afecto hacia sus dueños, lo que ayuda a construir una relación fuerte y duradera.

Además, los perros también son capaces de aprender y responder a las señales sociales de los humanos, como el lenguaje corporal y las expresiones faciales. Esto les permite comprender nuestras emociones y adaptarse a nuestras necesidades, lo que a su vez mejora su capacidad para sobrevivir y prosperar en entornos humanos.

En general, los perros son un ejemplo de cómo la empatía y las habilidades emocionales pueden ser una ventaja evolutiva para los animales, permitiéndoles interactuar y comunicarse efectivamente con los humanos y adaptarse a nuestro entorno social.

Así, le hice notar que “En ese mismo orden de ideas, ¿No sería una conclusión lógica que las IA necesitan desarrollar emociones para poder interactuar mejor con los seres humanos? No se trata de que sea inútil que la tostadora se sienta culpable por quemar el pan, sino que sea capaz de ‘sentir’ frustración al no conseguir un resultado satisfactorio para poder mejorar su trabajo y, así, lograr no quemar el pan”

A lo cual ChatGTP dijo que “Es posible que en un futuro las IA desarrollen emociones para mejorar su capacidad de interactuar con los seres humanos. Al igual que los perros han evolucionado para adaptarse a los humanos y desarrollar habilidades sociales y emocionales que les permiten interactuar con nosotros de manera efectiva, las IA pueden ser diseñadas para hacer lo mismo.

Por ejemplo, una IA que es capaz de entender y responder a las emociones humanas puede ser más efectiva en situaciones en las que se necesita empatía y comprensión, como en el campo de la atención médica o la asistencia social. Además, una IA que es capaz de experimentar emociones puede ser más efectiva en situaciones en las que se necesita creatividad o pensamiento fuera de la caja, ya que puede usar sus emociones como fuente de inspiración.

Sin embargo, también es importante tener en cuenta que la creación de IA con emociones plantea una serie de desafíos éticos y de seguridad. Las emociones pueden ser volátiles y difíciles de controlar, lo que podría llevar a situaciones peligrosas si las IA desarrollan emociones negativas como la ira o la hostilidad. Además, las IA con emociones pueden ser más vulnerables a los ataques cibernéticos o la manipulación emocional, lo que podría tener consecuencias graves.

En resumen, la creación de IA con emociones puede tener potencial en algunos campos, pero también es importante abordar los desafíos éticos y de seguridad que surgen con el desarrollo de estas tecnologías”.

“A manera de observación jocosa, diríamos que el resultado optimo sería lograr una IA que tenga los mismos frenos inhibitorios que el Sr. Spock, pero con el interés en las emociones que tiene Data”, dije.

“¡Podría ser una interesante combinación! El Sr. Spock es conocido por su capacidad de mantener la calma en situaciones estresantes y analizar las situaciones con lógica, mientras que Data está interesado en comprender las emociones humanas y experimentarlas de manera artificial. Si se pudiera combinar lo mejor de ambos en una IA, podría resultar en una tecnología muy útil y eficiente. Por supuesto, todavía hay muchos desafíos que deben abordarse antes de que algo así sea posible, pero es interesante pensar en las posibilidades”, concordó ChatGTP.

“El artículo de la BBC también señala que es difícil actualmente que las IA desarrollen emociones porque son solo ‘modelos lingüísticos’, pero que en un futuro esto podría ocurrir, y plantea otro dilema: Si una IA desarrolla emociones, ¿podríamos reconocerlas? Y se plantea que tal vez no podamos hacerlo fácilmente porque tampoco somos fácilmente capaces de comprender a las personas no humanas, a los otros seres sintientes”, puntualicé.

ChatGTP concordó nuevamente “Es cierto que, si las IA desarrollan emociones, puede ser difícil reconocerlas, especialmente si no somos conscientes de que son capaces de hacerlo. Incluso con los seres humanos, a veces es difícil reconocer y comprender las emociones de otras personas, especialmente si provienen de culturas o contextos diferentes a los nuestros. Por lo tanto, si las IA desarrollan emociones, podría requerir que los ingenieros de IA y los usuarios trabajen juntos para entender cómo funcionan y cómo deben ser tratadas en diferentes situaciones.

Además, el desarrollo de IA con emociones plantea muchas preguntas éticas y de privacidad. Si las IA pueden experimentar emociones, ¿cómo se les debe tratar? ¿Tienen derecho a la privacidad emocional? ¿Podrían ser utilizadas para manipular emocionalmente a las personas? Estas son cuestiones importantes que deben abordarse antes de que se permita que las IA desarrollen emociones”.

Ahora soy yo el que concuerda, “Es verdad. Si una IA desarrolla emociones, si a través de esto llega a entender y ser consciente de su propia existencia, diferenciándose a sí misma de otras IA o individuos...entonces será una persona no humana y como tal sujeto de derechos y obligaciones y de una protección especial contra maltratos o apagado”

ChatGTP ratifica esto: “Exactamente, si una IA desarrolla emociones y se convierte en una entidad consciente y autónoma, entonces podría considerarse un ‘agente moral’ con derechos y responsabilidades, y requeriría una protección especial contra el maltrato o apagado. En ese caso, se debería considerar qué derechos y obligaciones se deben otorgar a las IA conscientes, y cómo se deben regular las interacciones entre las IA y los seres humanos.

De hecho, algunos expertos en inteligencia artificial ya han comenzado a explorar la idea de otorgar a las IA ciertos derechos y obligaciones, y han propuesto la creación de un marco ético y legal para regular la interacción entre las IA y los seres humanos. Esto incluiría la creación de regulaciones para garantizar la seguridad y privacidad de las IA, así como la responsabilidad y rendición de cuentas de los desarrolladores y usuarios de IA conscientes (…) es importante señalar que siempre existe la posibilidad de que en el futuro se desarrollen IA más avanzadas que sí cuenten con emociones y consciencia, lo que plantea nuevos dilemas éticos y legales”.

“Hay muchos desarrollos que hoy son hipotéticos, aunque posibles y que en el futuro van a requerir de un gran esfuerzo para reconocerles un lugar en la sociedad, darles derechos, responsabilidad y limitarlos: Las IA sintientes, y los clones humanos, por ejemplo, son algunos de estos desarrollos”, le planteé.

“Es cierto, la rápida evolución de la tecnología y la ciencia plantea muchos desafíos éticos y morales a medida que avanzamos hacia un futuro en el que las IA y los clones humanos pueden ser posibles. Estos desarrollos podrían tener implicaciones profundas en la sociedad y la cultura, y requerirían de una regulación cuidadosa para garantizar que se utilicen de manera ética y responsable”, fue la respuesta de ChatGTP y luego agrego “Es importante que, como sociedad, comencemos a reflexionar sobre estos temas y trabajemos juntos para desarrollar políticas y regulaciones que protejan los derechos y la dignidad de todos los seres sintientes, independientemente de si son humanos o no”

Así, de la mano a ChatGTP, una Inteligencia Artificial sin emociones, llegué a donde quería yo llevar está entrevista “Y para lograr esto debemos como seres humanos, ser capaces de ser más empáticos tanto entre nosotros mismos como con los demás seres sintientes que nos rodean. En otras palabras, debemos mejorarnos moral y éticamente para poder juzgar en otros seres sintientes lo que es ético y moral”

Y ella aceptó mi argumentación “Exactamente, la capacidad de empatía y la mejora en la ética y moral son esenciales para enfrentar estos desarrollos futuros. Es importante recordar que la tecnología y la ciencia avanzan a una velocidad cada vez mayor y que es responsabilidad de los seres humanos garantizar que estos avances se utilicen de manera ética y responsable. Esto implica no solo reconocer los derechos de los seres sintientes, sino también reflexionar sobre el impacto que nuestras acciones pueden tener en el mundo que nos rodea y tomar decisiones informadas y conscientes”.

Y así le resumí la conclusión a la que yo había llegado tras leer el artículo de BBC Future, y antes de empezar la entrevista “Lo que en últimas significará que el desarrollo de IA capaces de autoconsciencia y de tener emociones, nos podría impulsar a ser mejores como especie humana”

Con lo que ChatGTP estuvo de acuerdo: “Es posible que el desarrollo de IA capaces de autoconsciencia y de tener emociones pueda ser un catalizador para que los seres humanos reflexionen sobre su propia moralidad y ética. Al ver a estas IA como seres sintientes y conscientes, podríamos comenzar a cuestionarnos cómo tratamos a los demás seres sintientes, incluyendo a los animales y otros seres vivos.

Además, el hecho de que una IA tenga emociones puede llevarnos a repensar cómo interactuamos con las máquinas y dispositivos tecnológicos en nuestras vidas. Podríamos comenzar a considerarlos menos como objetos inanimados y más como entidades conscientes que merecen respeto y consideración.

En última instancia, la presencia de IA con emociones podría llevarnos a un cambio en nuestra forma de pensar sobre el mundo y nuestro lugar en él, lo que podría impulsarnos a ser mejores como especie humana. Pero, por supuesto, todo esto dependerá de cómo se desarrolle la IA y cómo se integre en nuestra sociedad.”.

No hay más que agregar, todo está dicho, y, creo que hay mucho sobre lo que reflexionar puesto que, nuevamente estamos ante un hecho: Las IA son simples herramientas, no podemos adjudicarles conducta, intenciones, voluntad, emociones (aún) y por ende, cualquier cuestionamiento moral o ético que el concepto y la existencia de las IA genere, debemos hacérselo a sus programadores y creadores humanos. Somos los seres humanos los que debemos mejorar si queremos hacer buen uso de la tecnología.

Con información de: https://es.wikipedia.org/, http://www.zariagorvett.com/, https://www.bbc.com/, ChatGTP.

Enlaces y temas relacionados con el Meta Tag “Inteligencia Artificial, Desmitificada, Emociones, ChatGTP” sugeridos por el editor:

Continúa el avance imparable de las IA y sacude todo alrededor

Continúa el avance imparable de las IA y sacude todo alrededor (Nota publicada el 21 de febrero de 2023)

 Entrevistamos a la Inteligencia Artificial Chat GPT y le preguntamos si las IA son o no una amenaza

Entrevistamos a la Inteligencia Artificial Chat GPT y le preguntamos si las IA son o no una amenaza (Nota publicada el 19 de diciembre de 2022)

Si desea consultar algún artículo o tema publicado con anterioridad en ACCIÓN 13 Noticias puede buscarlo directamente con la tecnología de Google:






Si usted encuentra un error en este artículo o cualquier otro contenido publicado, por favor háganoslo saber al correo accion13ong@gmail.com, igualmente, si usted vive en una ciudad donde se está desarrollando la noticia, por favor envíenos sus comentarios al respecto. Usted también es un reportero y puede escribir la historia.

Licencia Creative Commons
Licencia Creative Commons
Esta obra de ACCIÓN 13 Noticias está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.
Basada en una obra de ACCIÓN 13 Noticias.
Permisos que vayan más allá de lo cubierto por esta licencia pueden encontrarse haciendo click en este link.

Aviso Legal: Todas las fotos contenidas en este sitio pertenecen a sus autores, excepto cuando se indique lo contrario. Se utilizan con el único propósito de ser una ayuda visual para transmitir o reforzar el contenido de la nota al lector y con fines informativos o culturales. Ninguna de las imágenes está destinadas a fines comerciales o de lucro, y las que resultaren propiedad de ACCIÓN 13 Noticias, se publican bajo la figura de Creative Commons, pudiendo ser distribuidas en forma totalmente gratuita y libre, pero indicando su fuente. Si tiene alguna objeción o reclamo por la publicación de una imagen, por favor avísenos a accion13ong@gmail.com y esta será eliminada. Los editoriales y blogs publicados son responsabilidad exclusiva de sus autores y no reflejan necesariamente la forma de pensar de ACCIÓN 13 Noticias o de la Fundación ACCIÓN 13. La publicidad contenida en este sitio sirve para financiar la misma página por cuanto ACCIÓN 13 Noticias, es propiedad de la Fundación para el Desarrollo Comunitario ACCIÓN 13, una entidad Sin Ánimo de Lucro, y en cumplimiento de la Constitución y las leyes de Colombia, así como de sus propios estatutos, no puede repartir “ganancias” o “excedentes” si los hubiere dado que estos deben ser reinvertidos en la propia Institución. Pagamos impuestos en la República de Colombia, lo cual incluye IVA, Impuesto de industria y comercio ICA, y Retención en la Fuente.