ACCION 13 Noticias

Tu privacidad es importante para nosotros y por eso hemos tomado medidas para evitar que sea comprometida y solo usamos Cookies de empresas partner que ofrecen garantías y son seguras.

Si continúas navegando por este sitio estarás aceptándolo así y nosotros nos comprometemos a no usar absolutamente ningún código o proceso que pueda afectar esa confianza depositada en nosotros.

Para más información, por favor consulte nuestra Política de Privacidad.

El CEO de OpenAI, declaró el martes ante un panel del Senado de Estados Unidos…
Sam Altman de OpenAI manifiesta sus temores sobre la Inteligencia Artificial
Urge regular la Inteligencia Artificial (IA) para limitar los riesgos del creciente uso de esta tecnología

Bogotá D.C., 18 de mayo de 2023. Sala de Redacción de ACCIÓN 13 Noticias. Sam Altman, el CEO y cofundador de OpenAI, la empresa que desarrolló a ChatGPT la hasta ahora más poderosa herramienta de Inteligencia Artificial creada por los seres humanos, se presentó ante el Senado de los Estados Unidos en la primera audiencia sobre inteligencia artificial y habló de sus temores y de la necesidad de regular la Inteligencia Artificial, y garantizar que el público acceda a los muchos beneficios de esta tecnología que está marcando un antes y un después de su aparición.

 Sam Altman de OpenAI manifiesta sus temores sobre la Inteligencia Artificial

Foto crédito: TechCrunch y https://playgroundai.com/

El Senado de los Estados Unidos se ha hecho eco de las diferentes preocupaciones que la aparición de Inteligencias Artificiales tan sofisticadas como la generadora de textos ChatGPT, o las otras que generan imágenes, canciones o música, está causando tanto en los gobiernos, como en las personas del común. Temores distintos, según quien los experimente, si se trata de gobiernos las preocupaciones van desde los riesgos que los datos de las personas puedan afrontar, hasta temas de seguridad nacional, si hablamos de individuos, los miedos se refieren desde el clásico “Terminator” hasta la perdida de empleos, pero independiente de quien experimente ese temor o esa desconfianza, el trasfondo es el mismo: ¿Qué pasará si las Inteligencias Artificiales se descontrolan?

Con eso en mente los Senadores miembros de ambos partidos de la Comisión Judicial, citaron a una primera audiencia sobre inteligencia artificial y pidieron escuchar que tenían que decir al respecto expertos en esa tecnología de punta como Sam Altman, cofundador de OpenAI, creadora de ChatGPT; la ejecutiva de IBM, Christina Montgomery; y Gary Marcus, profesor emérito de la Universidad de Nueva York.

Le interesa leer: Del Heliocentrismo a la Inteligencia Artificial, miedos que buscan frenar la ciencia (Nota publicada el 06 de abril de 2023)

El ambiente, descrito como de gran cordialidad, sirvió para que la estrella del momento, Sam Altman, se pronunciara sobre el tema que más maneja últimamente y sobre lo cual sus frases fueron directas y firmes: “Es esencial regular la inteligencia artificial, y que esas normas garanticen que el público acceda a los muchos beneficios de esta tecnología”, dijo. Otra frase fue lapidaria: ”Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”.

El CEO de OpenAI, también señaló que comprendía que la “gente esté ansiosa por cómo [la IA] puede cambiar la forma en que vivimos”. “Pero creemos que podemos y debemos trabajar juntos para identificar y gestionar las posibles desventajas para que todos podamos disfrutar de las tremendas ventajas”. Dentro de las ventajas que podría traer el correcto uso de las IA, Altman citó: “ayudar a lograr nuevos descubrimientos y a abordar algunos de los mayores desafíos de la humanidad, como el cambio climático y la cura del cáncer”.

Altman se tomó unos instantes para recordarle a los legisladores que OpenAI, con todo y su arrasador éxito reciente, es una “entidad sin ánimo de lucro” y que él no cobra “más dinero que el suficiente para cubrir la seguridad social”, ni tiene acciones en la compañía. “Es simplemente porque amo lo que hago”, sentenció.

Altman se refirió también al significado que tiene la Inteligencia Artificial para el futuro del trabajo, en los modos en los que su uso irresponsable puede afectar en la difusión de desinformación, en los resultados de las próximas elecciones presidenciales en Estados Unidos o en el trabajo de las industrias creativas.

Altman lanzó otra propuesta: “Estados Unidos debe ser el primer país en hacer algo. Pero creo que, por muy quimérico que suene, también opino que esto debería ser también un esfuerzo de alcance global”, dijo y sugirió crear una organización internacional que establezca estándares para la IA, al estilo de cómo se ha hecho en el pasado con “las armas nucleares”.

Un punto quedo en el ambiente: la creación de una agencia, del tipo de la FDA para establecer un examen previo a las nuevas herramientas y otra que haga un seguimiento posterior una vez estén en el mercado, así como la creación de maneras de financiación para intervenir en la investigación para el futuro.

Lo que definitivamente quedó descartado fue el pausar el desarrollo de la Inteligencia Artificial. Preocupa al Senado que otras potencias ya están trabajado en versiones más complejas de IA y si Estados Unidos decidiera pausar el desarrollo tecnológico de las IA sería como sentarse en la banca y ver a los demás jugar.

It is important to highlight that legislation must be balanced and adapt to a constantly evolving technological environment

Foto crédito: Captura.

ACCIÓN 13 Noticias consultó ChatGPT sobre los riesgos inherentes en la nueva tecnología y la IA señaló que “Sí, existen riesgos asociados al desarrollo de la inteligencia artificial (IA) que deben abordarse de manera responsable. Algunos de los riesgos más destacados incluyen:

Riesgo de sesgo algorítmico: Los sistemas de IA pueden reflejar los sesgos inherentes a los datos con los que son entrenados. Si los conjuntos de datos contienen prejuicios o discriminación, los modelos de IA pueden perpetuar y amplificar estos sesgos, lo que puede tener efectos negativos en la toma de decisiones automatizada.

Riesgo de falta de transparencia: En ocasiones, los modelos de IA pueden ser cajas negras, lo que significa que su funcionamiento interno y la forma en que toman decisiones pueden resultar difíciles de comprender. Esto plantea desafíos en términos de responsabilidad y rendición de cuentas, ya que es importante comprender cómo se llega a ciertas conclusiones o decisiones.

Riesgo de desplazamiento laboral: A medida que la IA avanza, existe la posibilidad de que ciertos trabajos sean reemplazados por sistemas automatizados. Esto puede tener un impacto significativo en la fuerza laboral y requerir una adaptación y reentrenamiento de habilidades para los trabajadores afectados.

Riesgo de seguridad: Los sistemas de IA también pueden presentar vulnerabilidades y ser susceptibles a ataques cibernéticos. Si los sistemas de IA no están adecuadamente protegidos, podrían ser explotados con fines maliciosos, lo que podría tener consecuencias graves en áreas como la infraestructura crítica, la privacidad de los datos y la seguridad nacional.

Es importante destacar que, si bien existen riesgos, también hay muchas oportunidades y beneficios asociados con la IA. La clave radica en abordar activamente estos riesgos a través de una regulación adecuada, estándares éticos, transparencia en el desarrollo de los sistemas de IA y una colaboración continua entre la industria, los investigadores, los responsables de la toma de decisiones y la sociedad en general. Esto permitirá aprovechar el potencial transformador de la IA de manera responsable y segura.

Sobre la necesidad de crear un marco regulatorio ChatGPT dijo: “Sí, la creación de legislación para regular la inteligencia artificial (IA) es un tema crucial. Dada la creciente influencia y el potencial impacto de la IA en diversos aspectos de nuestra vida fundamental establecer marcos legales que aborden los desafíos y promuevan el desarrollo responsable de esta tecnología”.

Y agregó que “Aquí hay uso de la IA por lo que las legislaciones deberán garantizar que los sistemas de IA sean justos, imparciales y no discriminatorios, así como establecer privacidad y cuidado de los datos: La legislación puede establecer mecanismos dar pasos de reducción de las preocupaciones relacionadas con la condición de cuenta la privacidad y la seguridad de los datos en el contexto de la IA. Puede establecer requisitos claros sobre la recopilación, el almacenamiento y el uso de datos, así como garantizar la protección de la información personal y sensible.

Transparencia y explicabilidad: La legislación puede exigir que los sistemas de IA sean transparentes y explicables. Esto implica que las organizaciones que desarrollan algoritmos de IA proporcionen información clara sobre cómo funcionan y cómo toman decisiones, lo que contribuye a evitar la opacidad y promueve la confianza y comprensión por parte de los usuarios y la sociedad.

Seguridad y protección contra riesgos: La legislación puede abordar la seguridad de la IA y la protección contra riesgos potenciales. Esto implica establecer medidas de seguridad cibernética para proteger los sistemas de IA contra posibles ataques, así como establecer salvaguardias y estándares de calidad para garantizar que los sistemas de IA sean confiables y seguros.

Responsabilidad y ética: La legislación puede establecer responsabilidades claras para los desarrolladores y usuarios de IA, definiendo quién es responsable en caso de daños o decisiones perjudiciales causadas por sistemas de IA. También puede promover la adopción de principios éticos y estándares de conducta en el desarrollo y uso de la IA.

Le interesa leer: Entrevistamos a la Inteligencia Artificial Chat GPT y le preguntamos si las IA son o no una amenaza (Nota publicada el 19 de diciembre de 2022)

ChatGPT continuó diciendo que “Es importante destacar que la legislación debe ser equilibrada y adaptarse a un entorno tecnológico en constante evolución. Debe fomentar la innovación y no ser excesivamente restrictiva, pero al mismo tiempo debe abordar los riesgos y proteger los intereses y derechos de las personas. La colaboración entre gobiernos, la industria, la academia y otros actores relevantes es fundamental para desarrollar y aplicar una legislación efectiva que guíe el desarrollo y uso responsable de la IA”.

Sobre la reflexión que se hizo en el Senado sobre que otras potencias están trabajando en desarrollar Inteligencias Artificiales más poderosas, ChatGPT señaló que “Es cierto que existe una creciente competencia y una especie de "carrera" por el desarrollo de la inteligencia artificial (IA) en todo el mundo. Varios países, incluidos Estados Unidos, China y algunos países europeos han reconocido el potencial estratégico y económico de la IA y están invirtiendo recursos significativos en su investigación y desarrollo.

Estas potencias están compitiendo por liderar la vanguardia de la IA y obtener ventajas en campos como la economía, la defensa, la medicina y otros sectores clave. La IA se considera una tecnología transformadora que puede tener un impacto significativo en diversas industrias y sectores, lo que ha llevado a una mayor inversión y enfoque en su desarrollo”.

ChatGPT también dijo que “La competencia en el desarrollo de IA también está impulsada por preocupaciones geopolíticas. Los países reconocen que la IA puede tener implicaciones en la seguridad nacional, la competitividad económica y la influencia global. Por lo tanto, hay un deseo de no quedarse rezagados y asegurarse de que sus respectivas naciones estén a la vanguardia de esta tecnología.

Sin embargo, es importante destacar que esta competencia no implica detener el desarrollo de la IA por completo, sino más bien regularlo y guiarlo de manera responsable. La mayoría de los actores reconocen la importancia de abordar los riesgos y desafíos éticos asociados con la IA, mientras aprovechan sus beneficios potenciales.

En este sentido, es crucial que los esfuerzos de desarrollo de la IA se realicen con consideraciones éticas, responsabilidad y colaboración internacional. Los avances en IA deben beneficiar a la humanidad en general y no convertirse en una carrera desenfrenada sin considerar las implicaciones sociales, éticas y de seguridad.

Por lo tanto, mientras existe una competencia en el desarrollo de la IA, también es esencial fomentar la cooperación y el diálogo internacional para abordar los desafíos comunes y establecer estándares globales que promuevan un desarrollo ético y responsable de la IA en beneficio de toda la sociedad”.

 Inclusion and diversity: In the development of AI, it is essential to promote inclusion and diversity. This involves making sure that the data sets used to train the models are representative and not biased, and ensuring that the voices and perspectives of different groups are considered in the design and implementation of AI systems

Foto crédito: https://playgroundai.com.

Le preguntamos si deseaba decir alguna cosa más al respecto y ChatGPT respondió: “Sí, me gustaría agregar algunos puntos adicionales sobre el tema:

Colaboración y estándares internacionales: Dado que la inteligencia artificial es un campo global y transversal, es fundamental fomentar la colaboración y establecer estándares internacionales. Esto puede ayudar a promover un enfoque común en cuanto a la ética, la responsabilidad y la seguridad en el desarrollo de la IA, evitando así una competencia desenfrenada y garantizando que se aborden los desafíos de manera colectiva.

Énfasis en la educación y la investigación: Para mantenerse al frente de la competencia en IA, es importante invertir en educación y capacitación en este campo. Esto incluye promover la formación de expertos en IA, fomentar la investigación y la innovación, y garantizar que los recursos y las oportunidades estén disponibles para aquellos que deseen incursionar en este campo en rápido crecimiento.

Consideraciones éticas y sociales: A medida que se avanza en el desarrollo de la IA, es crucial tener en cuenta las implicaciones éticas y sociales. Esto implica abordar los sesgos algorítmicos, asegurar la transparencia y explicabilidad de los sistemas de IA, y garantizar que las decisiones tomadas por los algoritmos sean justas y equitativas. Además, es importante tener en cuenta los impactos en el empleo y la sociedad en general, y trabajar en soluciones para mitigar los posibles efectos negativos.

Inclusión y diversidad: En el desarrollo de la IA, es fundamental promover la inclusión y la diversidad. Esto implica asegurarse de que los conjuntos de datos utilizados para entrenar los modelos sean representativos y no estén sesgados, y garantizar que las voces y perspectivas de diferentes grupos sean consideradas en el diseño y la implementación de los sistemas de IA.

En resumen, la competencia por el desarrollo de la IA es evidente, pero también es necesario que los países y las organizaciones adopten un enfoque equilibrado que combine el avance tecnológico con la responsabilidad ética y la colaboración internacional. Al hacerlo, podemos aprovechar el potencial de la IA de manera responsable y construir un futuro en el que esta tecnología beneficie a la humanidad en su conjunto”.

Así, en los próximos meses y no mucho después de cinco años, debemos esperar ver importantes y cada vez más innovadores avances en el campo de la Inteligencia Artificial, tanto en el desarrollo y aplicación de esta tecnología, como en su reglamentación y en la forma en que la sociedad responderá a la forma en que su presencia se va extendiendo y haciendo algo normal y cotidiano.

Con información de: https://cnnespanol.cnn.com/, https://www.rosario3.com/, https://es.wikipedia.org/, https://www.bbc.com/, https://elpais.com/.

Enlaces y temas relacionados con el Meta Tag “Senado de los Estados Unidos, Sam Altman, OpenAI, IA, Regulación, Riesgos, Temores, Amenaza Cibernética” sugeridos por el editor:

 Carta firmada por más de 1000 expertos desata nueva polémica en torno a la IA

Carta firmada por más de 1000 expertos desata nueva polémica en torno a la IA (Nota publicada el 30 de marzo de 2023)

 ¿Una versión personal de ChatGPT y robots humanoides podrían acercarnos a la singularidad tecnológica?

¿Una versión personal de ChatGPT y robots humanoides podrían acercarnos a la singularidad tecnológica? (Nota publicada el 15 de abril de 2023

Si desea consultar algún artículo o tema publicado con anterioridad en ACCIÓN 13 Noticias puede buscarlo directamente con la tecnología de Google:






Si usted encuentra un error en este artículo o cualquier otro contenido publicado, por favor háganoslo saber al correo accion13ong@gmail.com, igualmente, si usted vive en una ciudad donde se está desarrollando la noticia, por favor envíenos sus comentarios al respecto. Usted también es un reportero y puede escribir la historia.

Licencia Creative Commons
Licencia Creative Commons
Esta obra de ACCIÓN 13 Noticias está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.
Basada en una obra de ACCIÓN 13 Noticias.
Permisos que vayan más allá de lo cubierto por esta licencia pueden encontrarse haciendo click en este link.

Aviso Legal: Todas las fotos contenidas en este sitio pertenecen a sus autores, excepto cuando se indique lo contrario. Se utilizan con el único propósito de ser una ayuda visual para transmitir o reforzar el contenido de la nota al lector y con fines informativos o culturales. Ninguna de las imágenes está destinadas a fines comerciales o de lucro, y las que resultaren propiedad de ACCIÓN 13 Noticias, se publican bajo la figura de Creative Commons, pudiendo ser distribuidas en forma totalmente gratuita y libre, pero indicando su fuente. Si tiene alguna objeción o reclamo por la publicación de una imagen, por favor avísenos a accion13ong@gmail.com y esta será eliminada. Los editoriales y blogs publicados son responsabilidad exclusiva de sus autores y no reflejan necesariamente la forma de pensar de ACCIÓN 13 Noticias o de la Fundación ACCIÓN 13. La publicidad contenida en este sitio sirve para financiar la misma página por cuanto ACCIÓN 13 Noticias, es propiedad de la Fundación para el Desarrollo Comunitario ACCIÓN 13, una entidad Sin Ánimo de Lucro, y en cumplimiento de la Constitución y las leyes de Colombia, así como de sus propios estatutos, no puede repartir “ganancias” o “excedentes” si los hubiere dado que estos deben ser reinvertidos en la propia Institución. Pagamos impuestos en la República de Colombia, lo cual incluye IVA, Impuesto de industria y comercio ICA, y Retención en la Fuente.