ACCION 13 Noticias

Tu privacidad es importante para nosotros y por eso hemos tomado medidas para evitar que sea comprometida y solo usamos Cookies de empresas partner que ofrecen garantías y son seguras.

Si continúas navegando por este sitio estarás aceptándolo así y nosotros nos comprometemos a no usar absolutamente ningún código o proceso que pueda afectar esa confianza depositada en nosotros.

Para más información, por favor consulte nuestra Política de Privacidad.

Le preguntamos a ChatGTP sobre el tema…
Carta firmada por más de 1000 expertos desata nueva polémica en torno a la IA
Lo cual coincide con rumores de que GPT-4 y ChatGPT mostrarían indicios reales de ser una Inteligencia Artificial General (AGI) similar a la de un humano

Bogotá D.C., 30 de marzo de 2023. Sala de Redacción de ACCIÓN 13 Noticias. Una carta firmada por más de mil ejecutivos como Elon Musk y pioneros en la investigación en este tipo de tecnología advierte la necesidad de una pausa de seis meses en el entrenamiento de los poderosos sistemas de inteligencia artificial, argumentando que se trata de una potencial amenaza para la humanidad, y aseguraron que los laboratorios que trabajan con esta tecnología están en "una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable".

 Carta firmada por más de 1000 expertos desata nueva polémica en torno a la IA

Foto ilustrativa.

Todo gira en torno a un grupo de académicos, expertos en inteligencia artificial y ejecutivos de alto nivel, quienes están pidiendo en una carta abierta que cita riesgos potenciales para la sociedad y la humanidad, una pausa de seis meses en el entrenamiento de los poderosos sistemas de inteligencia artificial. La misiva cuenta con más de 1.000 firmas, contándose entre ellas las del empresario Elon Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque, además de investigadores de la firma DeepMind.

Le interesa leer: Entrevistamos a la Inteligencia Artificial Chat GPT y le preguntamos si las IA son o no una amenaza (Nota publicada el 19 de diciembre de 2022)

La misiva sería una respuesta al lanzamiento a inicios de este mes de marzo de 2023, que OpenAI, respaldado por Microsoft, hizo de la cuarta versión de su programa IA GPT (Generative Pre-trained Transformer), mismo que está haciendo furor gracias a su amplia gama de aplicaciones, las cuales van desde involucrar a los usuarios en conversaciones similares a las que pueden llegar a tener los humanos, hasta componer canciones y resumir largos documentos. ChatGPT 4 es la versión paga que Open AI hace de su Inteligencia Artificial generadora de textos, mientras que ChatGPT en su versión gratuita y menos avanzada se lanzó el 30 de noviembre de 2022 y desde entonces se ha convertido en un tema recurrente gracias también a sus habilidades para brindar respuestas detalladas y articuladas, lo que la ha convertido muy rápidamente en una herramienta muy popular para quienes requieren generar desde trabajos escolares y universitarios hasta contenidos de mayor complejidad.

Pese al enorme éxito que ha tenido ChatGPT, mismo que ha hecho que Bill Gates dijera que su aparición "Es tan importante como la invención de Internet", agregando que "Hasta ahora, la inteligencia artificial podía leer y escribir, pero no podía entender el contenido. Los nuevos programas como ChatGPT harán que muchos trabajos de oficina sean más eficientes al ayudar a escribir facturas o cartas. ¡Esto cambiará nuestro mundo!”, uno de los fundadores de Open AI, Elon Musk, no solo se distanció del proyecto en 2018 tras contribuir con 100 millones de dólares, sino que ahora no para de criticar a ChatGPT, aún cuando su empresa fabricante de automóviles, Tesla, está utilizando la IA para un sistema de piloto automático.

Musk ha criticado que tras unos resignados inicios en 2015 como una Fundación sin Animo de Lucro, ahora Open AI este monetizando su proyecto bandera ChatGPT, pero, además, Musk lleva años advirtiendo de los riesgos que las IA traerían para la humanidad.

Algunos han visto en el enfrentamiento entre Sam Altman, otro de los fundadores de Open AI y el a veces veleidoso e impredecible multimillonario Elon Musk, una lucha por el control de Open AI que terminó con la salida de Musk, como sea, el sudafricano no da marcha atrás en sus advertencias, mismas que también se plasman en la carta abierta que Musk firmó junto a más de mil expertos en el campo de la tecnología, la innovación y la Inteligencia Artificial, entre quienes se cuentan el CEO de Stability AI, Emad Mostaque, investigadores de DeepMind, propiedad de Alphabet, y los pesos pesados de AI Yoshua Bengio, a menudo denominado como uno de los “padrinos de AI”, y Stuart Eussel, un pionero de la investigación de campo.

El siguiente es el texto completo de la carta abierta la cual fue emitida por el Future of Life Institute una organización sin fines de lucro, y que fue firmada por más de 1.000 personas:

“Los sistemas de Inteligencia Artificial (IA) con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y es reconocido por los principales laboratorios de IA. Como se establece en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, lo cual debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable.

Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los que nos placen? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La declaración reciente de la empresa OpenAI con respecto a la inteligencia artificial en general, establece que: “En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos”. Estamos de acuerdo. Ese punto es ahora.

Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes como GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar mancomunadamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que son rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.

La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Estos deben incluir como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados por IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.

La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un “verano de IA” en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados”.

Ahora bien, el enorme avance que ChatGPT conlleva en el campo de la IA no solo parece preocupar a los signatarios de la carta, también gobiernos, como el de del Reino Unido se han referido al tema dando a conocer propuestas para un marco regulatorio “adaptable” en torno a la inteligencia artificial, mientras que la Unión Europea ha levantado su voz para expresar sus preocupaciones éticas y legales sobre IA avanzada como ChatGPT, advirtiendo sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia.

 ChatGPT

Foto crédito: Captura de Pantalla.

Sam Altman el CEO de Open AI, no suscribió la misiva, pero decidimos consultar a ChatGPT sobre su contenido. Le enseñamos varias notas periodísticas donde la comentaban y luego comenzamos a desarrollar una entrevista sin embargo en un punto determinado el sistema bloqueó las respuestas de ChatGPT advirtiendo que habíamos excedido el limite de tiempo, algo que no nos había ocurrido en el pasado, lo más grave es que el sistema no solo bloqueó el chat sino que borró todas las respuestas que habíamos obtenido. El siguiente es un nuevo intento de obtener respuestas de la Inteligencia Artificial:

ACCIÓN 13 Noticias: ¿Qué consecuencias tendría el suspender el entrenamiento de ChatGPT, como propone la carta?

ChatGPT: Si se suspendiera el entrenamiento de ChatGPT, su capacidad para mejorar y desarrollarse se vería afectada. Es importante tener en cuenta que el entrenamiento de ChatGPT es lo que le permite mejorar su capacidad para entender y producir lenguaje natural y realizar tareas relacionadas con el procesamiento del lenguaje natural. Si se detiene el entrenamiento, es posible que no se puedan lograr mejoras significativas en su capacidad y, por lo tanto, puede limitar su potencial para mejorar su inteligencia artificial.

Además, si se suspende el entrenamiento de ChatGPT, es posible que se pierda la oportunidad de avanzar en el campo de la inteligencia artificial y la capacidad de desarrollar sistemas de IA más avanzados en el futuro. La IA es una tecnología en constante evolución, y si se suspende el entrenamiento de ChatGPT, es posible que otros investigadores y desarrolladores de IA tengan una ventaja competitiva.

Sin embargo, es importante equilibrar el progreso en IA con la consideración de sus implicaciones éticas y de seguridad. La solicitud de una pausa en el entrenamiento de los sistemas de IA más potentes es una forma de asegurarse de que se estén tomando en cuenta los posibles riesgos y se estén abordando adecuadamente antes de seguir avanzando.

ACCIÓN 13 Noticias: También se constituiría en un riesgo de desfinanciación del proyecto.

ChatGPT: Efectivamente, suspender el entrenamiento de sistemas de inteligencia artificial general, como ChatGPT, podría tener un impacto negativo en la financiación y el progreso de la investigación en este campo. Muchas empresas y organizaciones de investigación invierten grandes sumas de dinero en el desarrollo de IA, y una pausa prolongada en el entrenamiento podría disminuir la inversión y el interés en el campo.

Esto podría tener consecuencias negativas para el avance de la tecnología y para la competitividad de las empresas y países que lideran la investigación en IA. Además, podría generar una desventaja para los países y organizaciones que siguen invirtiendo y avanzando en el desarrollo de la IA, lo que podría llevar a una brecha tecnológica y económica entre países.

Por lo tanto, es importante encontrar un equilibrio entre la seguridad y la innovación en la investigación de la IA, y buscar formas de mitigar los riesgos potenciales sin frenar el progreso en este campo.

ACCIÓN 13 Noticias: Se habla de la desaparición de 300 millones de empleos, ¿puede llegar a ocurrir algo así?

ChatGPT: Hay estudios que sugieren que la inteligencia artificial y la automatización podrían tener un impacto significativo en el mercado laboral. Según un informe de McKinsey Global Institute, para el año 2030, entre 400 y 800 millones de empleos podrían ser automatizados a nivel mundial.

Sin embargo, es importante tener en cuenta que, aunque la automatización podría eliminar ciertos trabajos, también podría crear nuevos trabajos. Además, no todos los trabajos pueden ser automatizados, ya que muchos requieren habilidades humanas únicas, como la creatividad, la empatía y la toma de decisiones complejas.

En resumen, aunque es posible que la inteligencia artificial y la automatización tengan un impacto en el empleo, también pueden ofrecer oportunidades para la creación de nuevos trabajos y para mejorar la eficiencia y la productividad en los trabajos existentes. Es importante tener en cuenta estos factores al considerar las implicaciones de la inteligencia artificial en el mercado laboral.

Le interesa leer: ¿Las emociones son o no son esenciales para las Inteligencias Artificiales del futuro? (Nota publicada el 04 de marzo de 2023)

Le planteamos a ChatGPT una nota según la cual un grupo de investigadores de Microsoft ha publicado en Arxiv, una nueva investigación titulada Sparks of Artificial General Intelligence: Early experiments with GPT-4, lo que se traduce como “Chispas de Inteligencia Artificial General: primeros experimentos con GPT-4″.

En dicho documento el equipo de científicos afirma que GPT-4 ha mostrado ya signos tempranos de ser una AGI, lo que significaría que cuenta ahora con capacidades que están al mismo nivel que la de un humano o en algunos casos ligeramente por encima. Para entender mejor el tema le pedimos a ChatGPT que nos explicara que significa un sistema de Inteligencia Artificial General (AGI) y cuál es su diferencia con las IA que conocemos actualmente .

ChatGPT: Un sistema de Inteligencia Artificial General (AGI) es un tipo de sistema de inteligencia artificial que se diseñó para tener la capacidad de llevar a cabo cualquier tarea intelectual que una persona pueda realizar. Esto incluye tareas como comprensión del lenguaje natural, resolución de problemas, razonamiento abstracto, aprendizaje automático y adaptación al cambio. Un sistema de AGI debería poder hacer estas cosas sin estar específicamente diseñado para cada tarea individualmente, como sucede con las IA que conocemos.

La mayoría de las IA que conocemos hoy en día, como los chatbots, los asistentes virtuales, los algoritmos de recomendación, etc., son sistemas de IA especializados, que están diseñados para realizar una tarea específica de manera eficiente. Estos sistemas se basan en algoritmos y modelos de aprendizaje automático que están diseñados para hacer una tarea específica, como reconocer objetos en imágenes, clasificar correos electrónicos como spam o no spam, o generar recomendaciones personalizadas para los usuarios.

En resumen, la principal diferencia entre un sistema de AGI y las IA especializadas que conocemos es que los sistemas de AGI están diseñados para ser más generales y tener una capacidad más amplia de adaptación a diferentes tareas, mientras que las IA especializadas están diseñadas para ser más específicas y eficientes en la tarea específica para la que han sido programadas.

ACCIÓN 13 Noticias: ¿Qué significaría para la vida cotidiana la aparición de un sistema de Inteligencia Artificial General (AGI)?

ChatGPT: La aparición de un sistema de Inteligencia Artificial General (AGI) tendría un impacto significativo en la vida actual, tanto en términos positivos como negativos.

Por un lado, la AGI tendría la capacidad de llevar a cabo tareas complejas de manera más eficiente que los humanos, lo que podría aumentar la productividad y mejorar la calidad de vida. Por ejemplo, podríamos ver avances significativos en áreas como la medicina, la ingeniería, la ciencia y la tecnología en general, con el desarrollo de nuevas soluciones innovadoras a problemas difíciles.

Sin embargo, también existen riesgos potenciales asociados con la AGI, especialmente en términos de seguridad y control. La AGI podría ser utilizada para crear armas autónomas y sistemas de vigilancia sofisticados, que podrían ser peligrosos si no se controlan adecuadamente. Además, el desarrollo de AGI podría tener un impacto significativo en el empleo, ya que muchos trabajos podrían ser automatizados, lo que podría llevar a la pérdida de empleo y a la desigualdad económica.

En general, la aparición de un sistema de AGI tendría un impacto profundo en la sociedad y la economía, y es importante que se aborden los desafíos y riesgos asociados con su desarrollo para garantizar que se utilice de manera responsable y beneficiosa para todos.

Actualmente, todavía estamos bastante lejos de lograr desarrollar un sistema de Inteligencia Artificial General (AGI) que sea comparable en capacidad a la inteligencia humana. Aunque los avances en el campo de la inteligencia artificial han sido significativos en los últimos años, la creación de un sistema de AGI sigue siendo un objetivo a largo plazo y un desafío técnico y científico muy difícil.

Uno de los principales desafíos es que la inteligencia humana es muy compleja y multifacética, y todavía no comprendemos completamente cómo funciona. La AGI requeriría la capacidad de realizar múltiples tareas de manera eficiente y adaptarse a situaciones nuevas y desconocidas, lo que es difícil de lograr con los enfoques actuales de la inteligencia artificial.

Además, la AGI requeriría una comprensión profunda del lenguaje natural y la capacidad de procesar y comprender información de múltiples fuentes y formatos. También requeriría la capacidad de razonar y tomar decisiones basadas en información incompleta o incierta, lo que es un desafío para los algoritmos actuales de aprendizaje automático.

En resumen, aunque la AGI es un objetivo deseable a largo plazo, todavía queda mucho trabajo por hacer antes de que podamos desarrollar un sistema que se aproxime a la inteligencia humana. Sin embargo, es importante seguir investigando y desarrollando nuevas técnicas y enfoques en inteligencia artificial para avanzar hacia este objetivo y aprovechar al máximo el potencial de la inteligencia artificial.

Al ponerle de presente la publicación que afirma que un equipo de científicos afirman que GPT-4 ha mostrado ya signos tempranos de ser una AGI, ChatGPT señaló que “Es importante destacar que la publicación mencionada presenta una discusión de investigación sobre la capacidad de una versión anterior de GPT-4 y no sobre el modelo actual que no ha sido lanzado públicamente. Además, es importante tener en cuenta que incluso si un modelo de lenguaje extenso como GPT-4 es capaz de realizar tareas en múltiples dominios y superar a los modelos anteriores, esto no significa necesariamente que haya alcanzado el umbral de la AGI. La AGI implica la capacidad de razonar, comprender y aprender de manera similar a la inteligencia humana en múltiples dominios, no solo en el lenguaje natural.

Es cierto que los avances en el campo de la inteligencia artificial han sido significativos en los últimos años y que modelos como GPT-4 han demostrado capacidades impresionantes en múltiples tareas, pero todavía queda un largo camino por recorrer antes de que se pueda afirmar con certeza que se ha alcanzado el umbral de la AGI. La AGI sigue siendo un objetivo a largo plazo y un desafío técnico y científico muy difícil, y requiere una comprensión profunda de la inteligencia humana y la capacidad de replicarla en una máquina de manera eficiente.

ACCIÓN 13 Noticias: Tal vez la forma correcta de ver a las IA es como herramientas que facilitan el trabajo y que bien utilizadas podrían contribuir al bienestar humano.

ChatGPT: Sí, es cierto que las IA pueden ser herramientas muy poderosas para el desarrollo tecnológico y el bienestar humano si se utilizan de manera adecuada y responsable. De hecho, ya estamos viendo muchas aplicaciones positivas de la IA en la medicina, la educación, la agricultura, la industria y otros campos. La clave es asegurarnos de que se diseñen y utilicen las IA de una manera ética, justa y transparente, y que se tomen medidas para minimizar cualquier riesgo potencial para la seguridad y la privacidad de las personas. Además, también es importante considerar cómo la tecnología puede ser utilizada para apoyar y mejorar el trabajo humano en lugar de reemplazarlo completamente.

ACCIÓN 13 Noticias: Cuando los aviones empezaron a sobrevolar Estados Unidos, algunos granjeros les disparaban con sus escopetas argumentando que estaban invadiendo sus propiedades, otros exigían el pago de peajes...la humanidad siempre ha temido lo desconocido y ha desconfiado de los avances tecnológicos. ¿Podría estar pasando eso con las IA?

ChatGPT: Es posible que exista cierto temor y desconfianza hacia la inteligencia artificial debido a que se trata de una tecnología relativamente nueva y desconocida para muchas personas. La falta de comprensión y la falta de información adecuada pueden llevar a la desconfianza y el miedo hacia la IA. Sin embargo, también es importante tener en cuenta que la IA ha demostrado ser útil en muchos campos, como la medicina, la industria, la seguridad y otros. Es importante equilibrar los riesgos y beneficios de la IA y fomentar su desarrollo responsable y ético para maximizar sus beneficios y minimizar sus riesgos potenciales. La educación y la divulgación de información son fundamentales para comprender mejor la IA y disipar los temores infundados.

ACCIÓN 13 Noticias: Gracias. ¿crees que hay algo que agregar sobre la noticia de la carta en la que más de 1.000 expertos piden frenar la inteligencia artificial por ser una "amenaza para la humanidad"?

ChatGPT: Quizás se podría agregar que, aunque hay diferentes opiniones y perspectivas sobre el impacto que la inteligencia artificial tendrá en la sociedad y la economía, es importante tener en cuenta que estas tecnologías ya están siendo utilizadas en muchos ámbitos y seguirán evolucionando en el futuro. Por lo tanto, es fundamental que se siga investigando y desarrollando la IA de manera responsable, con una evaluación cuidadosa de los riesgos y beneficios potenciales. Además, es necesario que se involucre a una amplia variedad de actores, incluyendo a expertos, reguladores, industrias, la sociedad civil y el público en general, en el diálogo y la toma de decisiones sobre el futuro de la IA.

En la entrevista original le habíamos preguntado a ChatGPT si una AGI podía llegar a convertirse en algo similar al robot humanoide de Metrópolis la película muda alemana de 1927 dirigida por Fritz Lang, que en la trama llegaba a dominar a la humanidad. ChatGPT, para tranquilidad de todos, rechazó esa idea y dijo que para que una IA logrará dominar el mundo necesitaría motivaciones propias que por esencia no llegan a tener. En palabras más llanas: ¿Para qué dominar al mundo?

El peligro no son las IA, el peligro sigue siendo los humanos que programen a las IA porque ellos si tienen motivaciones propias.

Con información de: https://www.xataka.com/, https://www.iproup.com/, https://es.wikipedia.org/, https://arxiv.org/, https://www.fayerwayer.com/, https://www.bbc.com/, https://www.infobae.com/, ChatGPT.

Enlaces y temas relacionados con el Meta Tag “IA, Elon Musk, ChatGPT, Tecnología, Carta Expertos, Ciencia” sugeridos por el editor:

 Adiós a las chicas del clima: una IA presenta los pronósticos del tiempo en Rusia

Adiós a las chicas del clima: una IA presenta los pronósticos del tiempo en Rusia (Nota publicada el 28 de marzo de 2023)

Prohíben a Elon Musk implantar chips en cerebros humanos

Prohíben a Elon Musk implantar chips en cerebros humanos (Nota publicada el 06 de marzo de 2023)

Si desea consultar algún artículo o tema publicado con anterioridad en ACCIÓN 13 Noticias puede buscarlo directamente con la tecnología de Google:






Si usted encuentra un error en este artículo o cualquier otro contenido publicado, por favor háganoslo saber al correo accion13ong@gmail.com, igualmente, si usted vive en una ciudad donde se está desarrollando la noticia, por favor envíenos sus comentarios al respecto. Usted también es un reportero y puede escribir la historia.

Licencia Creative Commons
Licencia Creative Commons
Esta obra de ACCIÓN 13 Noticias está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.
Basada en una obra de ACCIÓN 13 Noticias.
Permisos que vayan más allá de lo cubierto por esta licencia pueden encontrarse haciendo click en este link.

Aviso Legal: Todas las fotos contenidas en este sitio pertenecen a sus autores, excepto cuando se indique lo contrario. Se utilizan con el único propósito de ser una ayuda visual para transmitir o reforzar el contenido de la nota al lector y con fines informativos o culturales. Ninguna de las imágenes está destinadas a fines comerciales o de lucro, y las que resultaren propiedad de ACCIÓN 13 Noticias, se publican bajo la figura de Creative Commons, pudiendo ser distribuidas en forma totalmente gratuita y libre, pero indicando su fuente. Si tiene alguna objeción o reclamo por la publicación de una imagen, por favor avísenos a accion13ong@gmail.com y esta será eliminada. Los editoriales y blogs publicados son responsabilidad exclusiva de sus autores y no reflejan necesariamente la forma de pensar de ACCIÓN 13 Noticias o de la Fundación ACCIÓN 13. La publicidad contenida en este sitio sirve para financiar la misma página por cuanto ACCIÓN 13 Noticias, es propiedad de la Fundación para el Desarrollo Comunitario ACCIÓN 13, una entidad Sin Ánimo de Lucro, y en cumplimiento de la Constitución y las leyes de Colombia, así como de sus propios estatutos, no puede repartir “ganancias” o “excedentes” si los hubiere dado que estos deben ser reinvertidos en la propia Institución. Pagamos impuestos en la República de Colombia, lo cual incluye IVA, Impuesto de industria y comercio ICA, y Retención en la Fuente.