La imprudencia de la IA

Acciones

La inteligencia artificial parece destinada a cambiar el mundo, pero hasta ahora se ha permitido que sus errores maten a personas inocentes, escribe uno de los dos Joe Laurias.

El meteorólogo televisivo Joe Lauria. (Fox 4 News Kansas City/YouTube)

By jose lauria (No el meteorólogo)
Especial para Noticias del Consorcio

TNo hay forma de revertir el surgimiento de la Inteligencia Artificial en su camino a dominar nuestras vidas. Desde el servicio al cliente hasta censura y la guerra, la IA está dejando su huella y el potencial de desastre es real. 

La cantidad de contacto cara a cara, o incluso la interacción humana de voz a voz por teléfono cuando se hacen negocios, ha ido disminuyendo durante años y está empeorando con la IA. Pero la IA está haciendo mucho más que erosionar la comunidad, destruir empleos y debilitar a las personas que esperan en línea.

La IA está cada vez más detrás de las decisiones que toman las empresas de redes sociales sobre qué publicaciones eliminar porque violan algunos estándares vagos de la “comunidad” (ya que destruyen la comunidad), cuando es obvio que la IA está programada para eliminar los mensajes políticos disidentes. 

La IA también toma decisiones sobre a quién suspender o prohibir en un sitio de redes sociales, y también parece evaluar las “apelaciones” a las suspensiones, que en muchos casos serían revocadas si solo se aplicaran un par de ojos humanos.

El fundador de Facebook, Mark Zuckerberg aceptado Esta semana, Facebook admitió que utilizó sistemas de inteligencia artificial para moderar el contenido, pero el problema con los sistemas complejos es que cometen errores. remove publicaciones de los usuarios.

“Incluso si censuran accidentalmente solo el 1% de las publicaciones, eso significa millones de personas, y hemos llegado a un punto en el que hay demasiados errores y demasiada censura”, dijo Zuckerberg.

Los absurdos extremos a los que se está aplicando la IA incluyen un “think tank” en Washington que está totalmente dirigido por Inteligencia Artificial. Lanzar noticias del sitio (aqui) en Centro de políticas de la red de Beltway que no tiene dirección de oficina.

“La falta de presencia física de Beltway Grid en Washington —o en cualquier otro lugar del plano terrenal de la existencia— se debe a algo más que una generosa política de trabajo desde casa. La organización no parece exigir a sus empleados que existan en absoluto”, escribe el sitio. Sin embargo, produce una gran cantidad de informes, comunicados de prensa y presentaciones a los periodistas.

Si bien este puede ser un uso extremo de la IA, la interacción más habitual con el público está plagada de otro problema: cuán equivocada puede estar la IA.

Todavía bastante experimental

La IA está claramente en una etapa experimental y, aunque es inevitable que se cometan errores importantes, estos no han frenado su aplicación. Los errores van desde lo mundano hasta lo ridículo y lo peligroso.

Recientemente descubrí un ejemplo de lo ridículo. 

Cualquiera que busque en Google su perfil en línea seguramente encontrará a otras personas con su mismo nombre. Hace tiempo que conozco a Joe Lauria, un meteorólogo de la cadena Fox en Kansas City, Missouri. 

Ya hemos estado confundidos antes. Hace apenas dos semanas, recibí un correo electrónico de un espectador de Fox en el área de Kansas City que elogiaba a Lauria por estar tan bien vestida y me pedía consejo sobre dónde comprar un traje. Tenía curiosidad por saber quién más podría estar confundido, así que le pregunté a Grok, el tan promocionado sistema de inteligencia artificial de Elon Musk, quién era Joe Lauria. 

Este es el respuesta Tengo:

“Joe Lauria es un profesional polifacético conocido principalmente por su trabajo en periodismo y meteorología. A continuación, se presenta un resumen de su carrera según la información disponible:

  • Periodismo: Joe Lauria ha sido periodista de asuntos exteriores en las Naciones Unidas desde 1990. Ha colaborado con numerosas publicaciones, entre ellas el Boston Globe, el London Daily Telegraph, el Johannesburg Star, el Montreal Gazette, el Wall Street Journal, el New York Times, el Washington Post, Salon.com y The Guardian.

  • También ha sido periodista de investigación para The Sunday Times de Londres y Bloomberg News. Actualmente, Lauria es el editor jefe de Consortium News, donde escribe sobre asuntos internacionales, con especial atención a Oriente Medio. Ha escrito libros en coautoría con figuras destacadas, como el ex senador estadounidense Mike Gravel, centrados en la política exterior y el militarismo de Estados Unidos.

  • Meteorología: Joe Lauria es un meteorólogo galardonado. Trabaja como meteorólogo de noticias vespertinas para FOX4 en Kansas City desde enero de 1995 y transmite pronósticos meteorológicos todos los días de la semana a las 5, 6, 9 y 10 p. m. Su enfoque en la meteorología incluye educar a los espectadores sobre aspectos del clima que no se encuentran comúnmente en las aplicaciones meteorológicas estándar.

  • Antes de su puesto en FOX4, se desempeñó como meteorólogo jefe en KOSA-TV en Midland, Texas, y trabajó en varios otros lugares como Orlando, Florida, y Kansas City, Missouri. Su trabajo ha sido reconocido al recibir el Sello de Aprobación tanto de la Sociedad Meteorológica Estadounidense (AMS) como de la Asociación Meteorológica Nacional (NWA). Lauria también posee la designación de Meteorólogo Certificado en Radiodifusión (CBM) de la AMS.

  • Vida personal: Joe Lauria nació en New Rochelle, Nueva York, y actualmente reside en Olathe, Kansas, con su esposa, Jaye Lynn, y sus dos gatos. Le gustan los restaurantes italianos, el golf y ha participado en servicios comunitarios a través de seminarios y discursos sobre el clima.

La doble carrera de Joe Lauria en periodismo y meteorología resalta sus diversos intereses y contribuciones a la comprensión y seguridad públicas a través de informes meteorológicos e informes perspicaces sobre asuntos internacionales”.

Solo para que conste, no tengo gatos, no juego al golf y no nací en New Rochelle (pero no tan lejos, en el Bronx). Por supuesto, hay mucho humor en todo esto. (También es curioso que entré a la universidad sin saber si ser periodista o meteorólogo. Luego vi cuántas matemáticas hay involucradas en la meteorología).

Sin embargo, la posibilidad de que se produzcan tales disparates en un sistema que parece estar apoderándose gradualmente del mundo no siempre es motivo de risa. Es preocupante que la inteligencia artificial de Grok diera por sentado que dos personas son una, en lugar de admitir simplemente que hay varias personas con el mismo nombre.

Por otra parte, Chat GPT hizo una disertación impresionante, incisiva y políticamente neutral sobre mi trabajo en respuesta a la pregunta "¿Quién es Joe Lauria?". Fue casi como si lo hubiera contratado para que fuera mi agente de relaciones públicas. El ensayo suena como si Chat GPT hubiera pasado meses leyendo todo lo que había escrito, cuando fue generado en segundos. Tampoco había señales del meteorólogo de Kansas City.

Sin embargo, cuando profundicé un poco más en su “conocimiento” de mí, inventó cosas de la nada. Cuando le pregunté qué libros había escrito, en lugar de nombrar los libros que realmente escribí, me ofreció un título completamente ficticio de un supuesto libro de no ficción: El Assange Agenda: El legado del fundador de Wikileaks. Incluso se asumió un editor: Clarity Press.

No existe tal libro. Basándose en su conocimiento de mis artículos sobre Julian Assange, hizo una conjetura ridícula sobre un libro imaginario que creyó que yo había escrito. En resumen, gran parte de la inteligencia artificial es una tontería.   

IA y guerra

Los daños en Gaza.  (Naaman Omar, Agencia Palestina de Noticias e Información, Wafa, para APAimages, Wikimedia Commons, CC BY-SA 3.0)

Por ridículos que sean estos resultados, por frustrantes que se estén volviendo las interacciones sin humanos en el servicio al cliente (como las atractivas publicaciones en las redes sociales eliminadas por la IA) y por muchos empleos que se estén perdiendo debido a la IA, la preocupación más angustiosa sobre la Inteligencia Artificial es su uso en la conducción de la guerra. 

En otras palabras, ¿qué sucede cuando los errores de la IA pasan de ser algo inofensivo y cómico a ser cuestiones de vida o muerte?

Hora La revista informó en diciembre sobre el uso de inteligencia artificial por parte de Israel para matar civiles en su genocidio en Gaza:

“Un programa conocido como 'El Evangelio' genera sugerencias sobre edificios y estructuras en los que pueden estar operando militantes. 'Lavender' está programado para identificar a presuntos miembros de Hamás y otros grupos armados para asesinarlos, desde comandantes hasta soldados rasos. '¿Dónde está papá?' según se informa Los terroristas siguen sus movimientos rastreando sus teléfonos para localizarlos, a menudo hasta sus casas, donde su presencia se considera una confirmación de su identidad. El ataque aéreo que sigue puede matar a todos los miembros de la familia del objetivo, o incluso a todos los habitantes del edificio de apartamentos.

Estos programas, que la Fuerza de Defensa de Israel (FDI) ha reconocido estar desarrollando, pueden ayudar a explicar el ritmo de la campaña de bombardeos más devastadora del siglo XXI…”

La revista israelí +972 y The Guardian La historia apareció en abril, informando que la IA había seleccionado hasta 37,000 objetivos (la cifra debería ser mucho mayor desde abril), agilizando un proceso que antes implicaba análisis humano y una autorización legal antes de poder lanzar una bomba.

Se dependía de Lavender bajo intensa presión para que lanzara más y más bombas sobre Gaza. The Guardian informaron:

“Nos presionaban constantemente: ‘Traednos más objetivos’. Realmente nos gritaban”, dijo un oficial de inteligencia [israelí]. “Nos decían: ahora tenemos que joder a Hamás, sin importar el costo. Todo lo que podáis, lo bombardeáis”. 

Para satisfacer esta demanda, las FDI recurrieron en gran medida a Lavender para generar una base de datos de individuos que se consideraba que tenían características de militantes de la PIJ [Yihad Islámica Palestina] o de Hamás. […]

Después de tomar muestras al azar y verificar sus predicciones, la unidad concluyó que Lavender había logrado una tasa de precisión del 90%, dijeron las fuentes, lo que llevó a las FDI a aprobar su uso generalizado como herramienta de recomendación de objetivos.

Lavender creó una base de datos de decenas de miles de personas que fueron marcadas como miembros predominantemente de bajo rango del ala militar de Hamas”.

El noventa por ciento no es una evaluación independiente de su precisión, sino la propia evaluación de las FDI. Incluso si la utilizáramos, significaría que de cada 100 personas a las que Israel ataca con este sistema, al menos 10 son completamente inocentes, según su propia admisión. 

Pero no estamos hablando de 100 personas atacadas, sino de “decenas de miles”. Hagan los cálculos: de cada 10,000 personas atacadas, 1,000 son víctimas inocentes, que podrían ser asesinadas por las FDI. 

En abril del año pasado, Israel admitió en esencia que 3,700 habitantes de Gaza habían sido asesinados por sus aliados israelíes. Eso fue hace ocho meses. ¿Cuántos más han sido asesinados?

La Dirección Nacional de Periódico de Abu Dhabi reportaron:

“Los expertos en tecnología han advertido IsraelEl ejército de Estados Unidos está expuesto a un posible "error de sesgo extremo" al confiar en el Big Data para identificar a personas en Gaza durante el uso inteligencia artificial programas. […]

El uso por parte de Israel de poderosos sistemas de inteligencia artificial ha llevado a su ejército a ingresar a territorio para una guerra avanzada nunca antes vista a tal escala entre soldados y máquinas.

Informes no verificados dicen que los sistemas de IA tenían "un error de sesgo extremo, tanto en los datos de orientación que se estaban utilizando, como también en la acción cinética", dijo Hammond-Errey en respuesta a una pregunta de La Dirección Nacional deUn error de sesgo extremo puede ocurrir cuando un dispositivo está calibrado incorrectamente, por lo que calcula mal las mediciones.

El experto en inteligencia artificial y director de tecnología emergente de la Universidad de Sydney sugirió que los amplios conjuntos de datos "que son altamente personales y comerciales" significan que las fuerzas armadas "en realidad no tienen la capacidad de verificar" los objetivos y que ese era potencialmente "un factor que contribuye a errores tan grandes".

Ella dijo que tomará “mucho tiempo para que podamos realmente tener acceso a esta información”, si es que alguna vez lo logramos, “para evaluar algunas de las realidades técnicas de la situación”, mientras continúan los combates en Gaza.

Seguramente la inteligencia artificial de las FDI debe ser más sofisticada que las versiones de inteligencia artificial disponibles comercialmente para el público en general, como Grok o ChatGPT. Y, sin embargo, las FDI admiten que hay al menos un 10 por ciento de error cuando se trata de decidir quién debe vivir y quién debe morir. 

Por si sirve de algo, ChatGPT, uno de los más populares, dice que los peligros de los errores en el sistema Lavender son:

  • “Sesgo en los datos:Si Lavender se entrena con datos que provienen desproporcionadamente de ciertas fuentes, podría generar resultados sesgados, como identificar erróneamente el comportamiento de grupos específicos o juzgar erróneamente ciertos tipos de señales.
  • Conjuntos de datos incompletos o sesgados:Si los datos utilizados para el entrenamiento son incompletos o no cubren una amplia gama de amenazas potenciales, la IA puede pasar por alto señales críticas o Malinterpretar actividades inocuas como amenazas.” (Énfasis añadido.)”

IA y armas nucleares

Un proyecto de ley del Senado de Estados Unidos prohibiría la participación de la IA en armas nucleares. (Guardia Nacional del Ejército de EE. UU., Ashley Goodwin, dominio público)

La preocupación de que errores de la Inteligencia Artificial puedan provocar un desastre nuclear se refleja en el proyecto de ley del Senado de Estados Unidos S. 1394, titulada Ley de Lanzamiento Nuclear en Bloque mediante Inteligencia Artificial Autónoma de 2023. El proyecto de ley

“prohíbe el uso de fondos federales para un sistema de armas autónomo que no esté sujeto a un control humano significativo para lanzar un arma nuclear o para seleccionar o atacar objetivos con el propósito de lanzar un arma nuclear.

Con respecto a un sistema de armas autónomo, un control humano significativo significa el control humano de (1) la selección y ataque a los objetivos; y (2) el tiempo, la ubicación y la forma de uso”.

El proyecto de ley no salió del Comité de Servicios Armados del Senado, pero que la OTAN se ría de él. publicado en Revisión de la OTAN El pasado mes de abril se quejaba de que: 

“Parece que estamos en vías de desarrollar rápidamente un marco diplomático y regulatorio que restrinja la IA en los sistemas de armas nucleares. Esto es preocupante por al menos dos razones:

  1. La IA tiene una utilidad que permitirá fortalecer la disuasión nuclear sin necesariamente ampliar el arsenal nuclear.
  2. La prisa por prohibir la IA en las defensas nucleares parece tener su raíz en un malentendido sobre el estado actual de la IA, un malentendido que parece estar más informado por la ficción popular que por la ciencia popular”. […]

El tipo de inteligencia artificial que está disponible hoy en día no es IAG. Puede pasar la prueba prueba de Turing — es decir, puede ser indistinguible de un humano cuando responde a las preguntas planteadas por un usuario — pero no es capaz de pensar de forma independiente y, ciertamente, no es consciente de sí mismo”.

En esencia, la OTAN dice que, como la IA no es capaz de pensar por sí misma, no hay nada de qué preocuparse. Sin embargo, los seres humanos muy inteligentes que son capaces de pensar por sí mismos cometen errores, y más aún una máquina que depende de la intervención humana.   

El documento sostiene que la IA mejorará inevitablemente la precisión de los objetivos nucleares. En ningún lugar del documento se encuentran las palabras “error” o “equivocación” en singular o plural.

Grok combinó dos Laurias en una. Hay 47 centros de población en los Estados Unidos con el nombre de Moscú. Sólo lo digo. (Lo sé, las coordenadas son todas diferentes).

Pero el artículo de la OTAN no quiere una discusión diplomática y se queja de que “la cuestión incluso se planteó en las discusiones entre Estados Unidos y China en el foro de Cooperación Económica Asia-Pacífico, que se reunió en San Francisco en noviembre (de 2023)”.

El documento concluyó: “Teniendo en cuenta los posibles beneficios geopolíticos que se pueden obtener, prohibir la IA en las defensas nucleares es una mala idea”.

En un mundo sensato volveríamos a las interacciones puramente humanas en nuestra vida cotidiana y, si no se puede evitar la guerra, al menos volveríamos a tomar decisiones humanas más minuciosas sobre a quién atacar.

Como nada de esto va a suceder, más vale que esperemos que la IA mejore enormemente para que la comedia no se convierta en tragedia, o peor aún, en una catástrofe total. 

Joe Lauria es editor en jefe de Noticias del Consorcio y ex corresponsal de la ONU para Tel Wall Street Journal, el Boston Globey otros periódicos, incluidos La Gaceta de Montreal, el londres Correo diario y La Estrella de Johannesburgo. Fue reportero de investigación para el Sunday Times de Londres, un reportero financiero de Bloomberg News e inició su labor profesional como corresponsal a los 19 años para The New York Times. Es autor de dos libros, Una odisea política, con el senador Mike Gravel, prólogo de Daniel Ellsberg; y Cómo perdí por Hillary Clinton, prólogo de Julian Assange.

Por favor, Soporte CN's
Invierno Depositar Fondos ¡Conducir!

Haga una donación deducible de impuestos de forma segura mediante tarjeta de crédito o cheque haciendo clic en el botón rojo:

30 comentarios para “La imprudencia de la IA"

  1. Charlotte Rovelstad
    Enero 13, 2025 19 en: 17

    Gran artículo, aunque el título podría haber reflejado mejor la locura que implica todo esto. En cuanto al uso que hace Israel y los EE. UU. de esta tecnología, para ellos no es un problema que haya “errores”. La programarían para que funcione de esa manera, tal como alentaron a los palestinos a ir a “zonas seguras” solo para matarlos cuando llegaron allí. Es intencional.

    También me gustaría recomendar a la gente que lea El laboratorio palestino de Antony Loewenstein, que describe todo el trabajo que han estado haciendo los israelíes para convertirse en el principal exportador de toda esta locura.

  2. Helge Tietz
    Enero 13, 2025 15 en: 57

    No existe la “IA”, esta tecnología que algunos describen como “IA” no es inteligente, no puede hacer nada original, todo lo que contiene está escrito por humanos, nada es artificial. En realidad, no hay nada innovador en ella, es aprendizaje automático avanzado, es efectivamente un software analítico y de agrupamiento con habilidades para escribir informes y eso ha existido desde los años 1990. Todo lo que es es el intento de la industria de TI de darnos la impresión de que está sucediendo algo “revolucionario”, cuando en realidad todo lo que intentan es justificar un intento de golpe de Estado, iniciado y guiado por Silicon Valley. Es en el mejor de los casos una estrategia de marketing barata y en el peor el intento de atraernos a una sociedad de vigilancia con la afirmación de que la “IA” nos dominará tarde o temprano, es inevitable. Roger Penrose, ganador del premio Nobel, ha demostrado hace mucho tiempo que la “IA” no es inteligente con su experimento de ajedrez, no hay nada notable en él, como si no hubiera una cuarta revolución industrial, lo que realmente vemos es estancamiento, no se ha inventado nada significativo desde los años 4, o incluso antes. Si no me cree, revise las listas disponibles de los principales inventos y las filas vacías desde 1980. La "IA" es mucho más una documentación de que la industria de TI ha llegado a sus límites, se está acercando a una meseta, ya no hay nada innovador que venga de allí, todo lo que les queda es tentarnos a entrar en una sociedad de vigilancia para evitar que lo descubramos.

  3. Enero 13, 2025 13 en: 43

    El gran problema de la IA no es tanto la relación entre mentiras y hechos, sino que los humanos tienen tendencia a aceptar la palabra escrita como si fuera la palabra de Dios. Aunque la gente suele cuestionar lo que oye, rara vez cuestiona lo que lee. Si a esto le sumamos problemas de memoria a corto plazo, cuando la gente lee que x es un enemigo y dos años después lee que x es un amigo (por ejemplo, Ahmad Sharaa, ex terrorista, ahora líder de Siria), lo acepta sin cuestionarlo. Entonces, cuando llega el momento de tomar decisiones críticas (por ejemplo, lanzar un ataque nuclear), confiar en cualquier sistema que tenga una relación entre mentiras y hechos mayor que cero equivale a un deseo de muerte.

  4. Beverley
    Enero 13, 2025 12 en: 15

    Las FDI no necesitan inteligencia artificial para matar civiles. Ahora sabemos que los civiles son el objetivo de la limpieza étnica israelí
    Gaza. Infraestructuras como edificios residenciales, universidades, escuelas, hospitales, mezquitas, así como huertos y agricultura, están todas
    La revista médica Lancet ha estimado que el número real de palestinos muertos sería de 186,000. Esto incluye “asesinatos silenciosos” como hambruna inducida, enfermedades no tratadas y heridas, ya que el sistema de atención médica ha sido destruido, así como
    Los miles de habitantes de Gaza desaparecidos, enterrados bajo los escombros. Además, Estados Unidos ha diezmado a muchos millones con sus bombas sin que nadie se dé cuenta.
    Con la ayuda de la inteligencia artificial, tras tres años de bombardeos diarios en Corea del Norte, un tercio de la población fue aniquilada.

  5. Andrés
    Enero 12, 2025 20 en: 28

    Un artículo bien escrito que señala los peligros de lo que comúnmente se llama IA. No se trata de inteligencia artificial, ya que en realidad no piensa y es incapaz de pensar. Los modelos de lenguaje a gran escala simplemente procesan grandes cantidades de datos y nos los reflejan de maneras que se han llamado loros estocásticos. Solo en la mente limitada de un alto mando de la OTAN podría considerarse una buena idea ponerlos a cargo de las armas nucleares. Si bien no se debe subestimar, la llamada IA ​​tiene sus límites y vulnerabilidades (solo pregúntenle a la gente que engañó a alguien para que pensara que una tortuga impresa en 3D era un rifle) y sus necesidades de energía pueden resultar un factor limitante natural.

    Por supuesto, la IA real, que inventamos en el siglo XVII y llamamos corporación, ha demostrado ser muy peligrosa, por lo que definitivamente se requiere precaución y un escepticismo saludable.

  6. Joe Ell el tercero
    Enero 12, 2025 19 en: 09

    Joe,
    Cita del artículo .
    “En otras palabras, ¿qué sucede cuando los errores de la IA pasan de ser algo inofensivo y cómico a ser cuestiones de vida o muerte?”

    Es un error. ¿Seguimos adelante? No podemos volver atrás. Ah, ¿por qué mencionar el día de ayer? Este tren avanza rápido y sin parar.
    Tomamos esta información, invertimos en una granja de servidores y la almacenamos. ¿Será seguro que estará seguro?
    Será tu bitcoin directamente en tu bitchute. Crea un derivado y tíralo al mercado de valores, mira cómo se dispara.
    La IA puede utilizar todas las tonterías guardadas y almacenadas, pero puede requerir una granja de servidores adicional (de al menos 5 pisos de altura), ahorra espacio para almacenar, es tu oro.

    En realidad, todo lo que se escribe se puede recopilar, registrar las teclas y observar en tiempo real, supongo. Rastrea los movimientos del mouse. Agrega tus propias tonterías a la pila, cuando esté completo, vuelca los datos por dinero en efectivo o finge una intrusión, de lo contrario, blanquea y martilla, jajaja.
    Espero que Askinet no vea esto como spam. No quiero pervertir sus datos guardados, pero pueden almacenarlos en su granja de servidores y llevarlos al banco de ventas de datos para intercambiarlos, supongo.
    Es como una especie de prohibición de sombra si escribes una contraseña incorrecta (pero guardada aunque creas que la contraseña desapareció) te rechaza, inténtalo de nuevo. ¿Qué pasa si por error ingresaste tu contraseña de PayPal cuando estabas en un sitio diferente por error? Bueno, pero si el verificador sabe que es incorrecta, tiene que compararla con otro conjunto de datos. Pero no olvidará (almacenará) tu contraseña de PayPal. Esa información se almacenará en otra granja, pero será bastante valiosa en las manos equivocadas para cualquiera que tenga acceso. ¿Se la venden a otra persona? Entonces sé quién eres y la contraseña que usas, el error de entrada no funciona aquí, veamos qué otros sitios usa este usuario que requieren una contraseña, uno de ellos probablemente necesita la contraseña que ingresaste incorrectamente, simplifica el hackeo, ¿no? ¿Quién vigila al vigilante?
    y así sucesivamente.
    mete tu dinero en granjas de datos, rellénalo con bitcoins y obtendrás un sándwich de mierda. Pon un dispensador en cada esquina. Duplica tu diversión, vende basura por basura y gana dinero en efectivo, jajaja. Serás el acaparador que guarda el envoltorio después de un almuerzo tan agradable.
    Tal vez lo hagamos ahora, pero el precio ha subido y el contenido es más pequeño, y si está muy bien empaquetado, se necesitará un experto para abrirlo. Su nombre es AI.

    disfrutar .

  7. Jacob Nube Blanca
    Enero 12, 2025 07 en: 14

    Así que creo que lo que Joe Lauria está tratando de decir es… “¿Se avecina un clima tormentoso, con posibilidad de Armagedón”?

    • Joe Ell el tercero
      Enero 12, 2025 21 en: 41

      Jake,
      Juntas todas las piezas, como si el meteorólogo pudiera equivocarse incluso mirando por la ventana, pero parece más probable que llueva cuando las nubes están grises... jajaja
      Publicas y yo lo leo, ¿quizás sea solo el cambio climático?
      Pregúntele a una IA o un chatbot (nunca lo he usado todavía): ¿cuáles son las similitudes y diferencias entre el cambio climático político y el cambio climático tradicional?
      ¿Los políticos caerán del cielo y causarán estragos?
      Probablemente producirá gemelos del mismo pol con posiciones opuestas en el peor momento.
      ¿Pero confiar en ambos?
      ¿Alguien mencionó la disonancia cognitiva?

  8. TN
    Enero 12, 2025 01 en: 57

    Para hacer de abogado del diablo, permítanme señalar que la IA puede vencer fácilmente a los mejores jugadores humanos de Go o de ajedrez. ¿No consideraría usted que un campeón mundial de Go o de ajedrez es inteligente, en algunos aspectos?

    • Consortiumnews.com
      Enero 12, 2025 11 en: 35

      El artículo no dice que la IA no pueda ser inteligente, sino que es propensa a errores y a inventar información.

    • Joe Ell el tercero
      Enero 12, 2025 13 en: 42

      Tennessee,
      Entonces, el jugador de ajedrez sabe cómo jugar el juego, alguien que sabe matemáticas programó la IA (solo un programa), ¿era el propio jugador de ajedrez? La IA piensa en el siguiente movimiento basándose en los posibles próximos movimientos de los jugadores, calcula un contador basado en ese movimiento realizado, pero ha buscado y realizado cada movimiento potencial de antemano, ¿quizás miles? El humano sabe que este es un juego perfecto que no puede cometer un error porque el intelecto (programa) de la IA tiene la capacidad de percibir todas las posibilidades. Esto le lleva mucho tiempo al humano, lo que sería un desafío aburrido en mi opinión. El hecho de que la IA pueda usar sus "instrucciones programadas" dadas para cada opción en un instante para obtener una respuesta. El humano podría hacer lo mismo con el tiempo eterno y una especie de hoja de trucos, pero no en un instante.
      ¿Es un viaje en el tiempo del que somos testigos pero que no podemos percibir en ese corto período de tiempo, pero que podemos usar las matemáticas, las computadoras y hacer rápidamente lo que el conteo con los dedos no puede?
      Tal vez si 2 IA lucharan hasta el final, se demostraría que el juego se puede ganar de todos modos o que hay formas que aún no se han aprendido que muestran que uno u otro pueden ganar. ¿Es este el caso o con el programa que tiene todas las respuestas no tienes ninguna posibilidad de ganar, a menos que dependa de quién se mueva primero?
      Digo que estoy impresionado en cierto modo, pero tal vez deberíamos usar el Monopoly, ya que parece un juego más cercano al mundo real. Seré el banquero, daré amnistía a mis amigos y construiré hoteles de una milla de altura. Si pasas por la salida, aterrizarás en la cárcel. Gracias por los 200.
      Ah, y si me equivoco, es tu culpa. Lo siento, puede que me haya desviado. La única IA que vale la pena es la que devuelve las respuestas correctas. Si es la regla n.° 1, entonces pasa a la regla n.° 2. Como en la cárcel, ¿estás mirando hacia adentro o hacia afuera y a expensas de quién?
      AL IGUAL que cualquier cosa privada o propiedad de otra persona, no tienes ni idea a menos que alguien capaz pueda ver el código/algoritmo, que es un mecanismo de control de propiedad privada. La no divulgación puede generar más ingresos que las habilidades si es nefasta.
      No publico a menudo, pero me interesa este tema y si lo sueñas, puede aparecer.
      Mi mente dice que son 10 pies, pero la vara de medir sabe más, ya que muestra su valor real en lo visual. La teoría de la vara de medir de la IA necesita ver la escala.
      Escribo como un cañón suelto, pero espero poder expresarme sin que nadie se ofenda. Espero poder hacer algunos comentarios que sirvan para esclarecer y descubrir cosas y compartirlas, pero no estoy dirigido a nadie, solo como respuesta si ayuda a pensar.

    • jose tracy
      Enero 13, 2025 11 en: 15

      Esta aplicación de IA para ajedrez no es “un campeón del mundo”, sino un equipo de todos los campeones del mundo cuyas partidas han sido grabadas, con memoria y análisis lógico de cada movimiento y disposición. Fue programada para responder de manera lógica con la capacidad de proyectar posibles planes del oponente y evadir esos planes. Fue programada por múltiples individuos. No hay ningún ser ahí.

      El ajedrez también es una ficción con sus propias reglas lógicas, y eso es lo que es y hace la IA: ficción. Por eso inventa cosas sin tener en cuenta la verificabilidad histórica y sin rendir cuentas ante la ley o los valores éticos. A menudo refleja los sesgos políticos o sociales del programador o del financiador e inventa mentiras condenatorias basadas en opiniones en lugar de en una verificación rigurosa de los hechos.

      Sea lo que fuere, no es inteligencia tal como la experimentan los seres humanos. No hay información sensorial, ni experiencia emocional, ni valores adquiridos con esfuerzo, ni curiosidad genuina. Es una herramienta que procesa datos abstractos sin acceso a la experiencia humana o biológica.

      • Joe Ell el tercero
        Enero 14, 2025 01 en: 39

        Joe T,
        Gracias por tus comentarios sobre cómo funciona la aplicación con comparables limitados (la cantidad de juegos reales jugados).
        ¿Tal vez tenga alguna ecuación o entrada variable en el programa para agregar un movimiento que aún no existe en el subconjunto? Eso lo ayudaría a crecer. Lo llamaré la "opción invisible".
        Oye, acuñé una palabra, ¿eso me califica como escritor ahora? Creo que sí, soy famoso, jajaja, y puedo decir que eres humano por tu último párrafo, verás las cosas diferentes una vez que recibas tu chip.
        Serías un buen candidato, ¿serían excelentes las habilidades de pensamiento que se deben explotar?
        Espero que haya sido un cumplido.
        Te adjunto un cable muy largo para que lo conectes, en cualquier lugar por encima del cuello estará bien.
        Cuando vea la luz parpadear en verde sabré que te has vuelto completo y un "robot al trote". jajaja..
        Lo siento por esto y no fue mi intención ser nada personal.
        Gracias por publicar .

    • t davis
      Enero 14, 2025 18 en: 10

      Todas las máquinas que se me ocurren están diseñadas para amplificar una o más de las capacidades ultramultivalentes de una persona (o, tal vez, de un animal). John Henry compitió contra un taladro de roca impulsado por vapor. (Según la tradición, ganó, pero las máquinas modernas superan con creces las capacidades de los humanos en las tareas muy específicas para las que están diseñadas). El motor de un automóvil sustituye la capacidad de los caballos para mover un carruaje.

      La cuestión es que, si conduces todo el día, las capacidades casi infinitas de tu cuerpo para realizar movimientos o tareas se canalizan en una pequeña gama de detalles particulares.

      Lo mismo ocurre con el ajedrez o el go. Un jugador de ajedrez utiliza su cerebro como una máquina que realiza un conjunto muy limitado de gestos mentales. Un ordenador puede hacerlo mejor y más rápido, pero no puede realizar el infinito espectro de pensamiento del que es capaz un ser humano.

      Los maestros de ajedrez pueden ser, en general, personas inteligentes, pero su habilidad ajedrecística, por impresionante que parezca, es simplemente un uso muy canalizado y fraccionado del cerebro, por lo que, en realidad, llamarla así distorsiona gravemente la definición de “inteligencia”.

      • Joe Ell el tercero
        Enero 14, 2025 20 en: 29

        T,
        Hace mucho tiempo trabajé en un taller de máquinas que tenía herramientas Brown & Sharpe de 6 husillos con transmisión por correa de cuero, accionadas por levas, con correa giratoria, brocas para taladro a la izquierda... (otras también, Acme, etc.) da da da... difícil de configurar y divertido a largo plazo. Fue divertido, me hubiera gustado poder dominarlas. Trabajé con un tipo mayor que hacía los dibujos en el banco y también cortaba las levas. Yo era más joven entonces y mucho más inteligente.
        Hemos recorrido un largo camino, cariño. Vi algunas máquinas CNC anteriores y me di cuenta de que un hombre podía configurarlas y mantener a varios tontos haciéndolas funcionar.
        Su mantra era “Recojo cosas y dejo cosas” de izquierda a derecha.
        El progreso que se ha logrado es asombroso. Ahora el idiota del pueblo podría conseguir trabajo y supongo que sí, pero a esta altura ya no lo quieren, jajaja. Sí, yo también lo hice, jajaja (la parte del idiota del pueblo).
        Bueno, vamos a decorar esto un poco. ¿Te sentirías mejor si la máquina que recoge el parche tuviera una cabeza que pareciera una calabaza?
        Nunca he tenido un teléfono móvil y aún así estoy en la ruina. Soy rico en muchos otros sentidos, pero todavía tengo que convencerme de eso... mucho apoyo negativo de los que se creen con derecho. Siempre trato de hacer cumplidos, reflexionar sobre mí mismo, ver cuándo hago cumplidos con el revés, asumirlo y darme cuenta de que unas pocas palabras pueden cambiar una vida. Y les digo a las personas que son valiosas. Siempre me ha resultado difícil recibir cumplidos porque era consciente de mí mismo (y también de la abnegación), y ahora apoyo a los demás con cumplidos y una explicación, espero.
        Soy solo un trabajo en progreso, pero ¿se consideró al "Capitán Garfio" una IA? No esperaré esa respuesta, me haría parecer un loco, ¿no?
        Bueno, volvamos a mi cueva ahora.
        Gracias por responder, y sí, la mayoría de mis respuestas son para ofrecer algo, pero la mayoría de las veces hablo conmigo mismo, ¿jeje?

  9. Rafi Simonton
    Enero 11, 2025 20 en: 51

    Rara vez se discute cómo esto se basa en suposiciones incuestionables sobre los procesos de pensamiento humano.

    El dilema de la lógica aristotélica ha sido dominante en Occidente desde la Ilustración. Políticamente, se manifiesta como con nosotros o contra nosotros. Económicamente, como capitalismo o comunismo. Es obvio como el bien o el mal del fanatismo religioso, pero también es la realidad o la fantasía del empirismo científico y la verdad o la falsedad del racionalismo filosófico. Ahora llevado a su extremo máximo como el código binario de la IA. Todos ellos son productos del hemisferio izquierdo del cerebro humano, que procesa secuencialmente a través de abstracciones, descomponiendo los conjuntos en piezas desconectadas. Sobre todo, quiere certeza y control.

    Busque al Dr. Iain McGilchrist, cuya obra maestra es The Matter with Things (Our Brains, Our Delusions, and the Unmaking of the World) y quien ha escrito y hablado sobre este tema con gran detalle.

    En cambio, el hemisferio derecho procesa mediante gestalts, símbolos, metáforas. El reino de las artes, el misticismo, las multiplicidades, las conexiones y el significado. Donde el universo, además del sí y el no, contiene un tal vez. No sólo el mundo de los artistas y chamanes soñadores; es también lo que los físicos cuánticos llevan diciendo desde hace más de 100 años. El mundo oriental y los pueblos indígenas han conservado la forma más antigua del cerebro derecho primero, y luego el izquierdo cuando es necesario. El derecho es consciente del izquierdo, pero no ocurre lo mismo a la inversa. Lo que explica en gran medida por qué estamos estancados donde estamos. McGilchrist también señala que no podemos resolver los problemas utilizando los mismos procesos que nos llevaron a ellos.

    La IA no parece del todo humana porque es el equivalente electrónico de la harina blanca y el azúcar altamente procesados. No contiene nutrientes que den vida y es altamente adictiva. En el mejor de los casos, es sólo medio humana: la parte que no es consciente de las simbiosis de la Tierra natural, de los latidos del corazón, de lo que Paul Ricoeur llamó "un excedente de significado". La parte en la que el genocidio es el cálculo abstracto del número de muertes del enemigo. El medio humano es inhumano, aislado y clínicamente loco.

    • humano
      Enero 13, 2025 09 en: 15

      Gran artículo y comentarios, particularmente este.

      El conocimiento común de la IA y de toda la ciencia empírica siempre pasará por alto este aspecto esencial de la humanidad y del universo.

      Una crítica a ese libro es “una crítica bastante reduccionista del reduccionismo”, lo cual es una cita concisa, casi hecha para Wikipedia. Irónicamente, otro escudo podrido para quienes requieren certeza y control. Thems The Rules.

      La IA está trazando su propio camino a partir de los cimientos del mínimo común denominador, lo cual estaría bien si se le diera el mismo peso al punto de vista de McGilchrist o se tomara una ruta alternativa, pero no es así.

      En lugar de ello, toda la creatividad ha sido arrojada a las fauces abiertas de la IA para enriquecer a las corporaciones y empobrecer aún más a los artistas.

      Se supone que la eficiencia nos da más tiempo, pero si el precio por ello es el significado, ¿qué valor tiene ese tiempo?

      De todos modos, gracias por la recomendación del libro y al Consorcio por su inspiradora Humanidad.

  10. Raquel Winkel
    Enero 11, 2025 13 en: 26

    Excelente pieza!

  11. L garou
    Enero 11, 2025 13 en: 08

    No hay límites cuánticos.
    D-Wave me lo dijo.

  12. david duret
    Enero 11, 2025 12 en: 45

    ¿La elección de llamar aprendizaje automático IA permite un movimiento intencional para crear disonancia cognitiva con respecto a la verdadera definición de inteligencia artificial (proporcionada por Ray McGovern aquí en CN)? “Datos cuidadosamente seleccionados de analistas cuidadosamente seleccionados”.

  13. Vera Gottlieb
    Enero 11, 2025 12 en: 27

    ¿Existe alguna manera de exigir responsabilidades al creador de la IA? Sabía a dónde lo llevaría su invento y, sin embargo, siguió adelante con él. ¿A qué precio se hizo famoso?

    • Jordania
      Enero 11, 2025 15 en: 03

      Hola Vera
      Los fundamentos de la IA son antiguos, y uno de sus componentes centrales es una red neuronal. Si no fuera por la IA como excusa para todas las malas decisiones, seguiría siendo el algoritmo (lo cual es semánticamente incorrecto, pero suena bien). Este artículo de Bernhard me parece una de las mejores explicaciones de lo que realmente es la IA. Así que no hay un inventor, ni siquiera metafórico.
      hxxps://www.moonofalabama.org/2023/06/la-inteligencia-artificial-es-principalmente-reconocimiento-de-patrones.html

      @joe, gran artículo, sin embargo

    • Yo mismo
      Enero 11, 2025 17 en: 15

      ¿Hay alguna manera de responsabilizar a J. Robert Oppenheimer (Oppenheimer fue director del Laboratorio de Los Álamos y responsable de la investigación y el diseño de una bomba atómica)?

      No ayudaría mucho si pudiéramos ¿verdad?

  14. Enero 11, 2025 10 en: 35

    Muy sugerente y escalofriante.

  15. eddie s
    Enero 10, 2025 21 en: 31

    Vi un video interesante y relevante de una persona muy involucrada con la IA que demostró una falla que, según él, está presente en la mayoría de los sistemas de IA. Si le pides al sistema de IA que muestre un reloj analógico con su manecilla de mano 7:30 o 3:15 o varios otros valores, terminará mostrando 10:10. Aparentemente, se debe a la abrumadora cantidad de imágenes de esa configuración de 10:10 que se cargan en sus bases de datos, debido a su vez al "hecho" (¿creencia?) de que la imagen de 10:10 es la más agradable para el cerebro humano.

    • Joe Ell el tercero
      Enero 11, 2025 22 en: 27

      Los dos remolinos,
      Dejaste un espacio entre la e y la S en tu nombre. La IA también puede corregir errores tipográficos.
      Ok, ahora son las 10:10... puede que aquí sea donde intervenga otra IA. El valor devuelto 10:10 está configurado para utilizar una ecuación artificial. Si ans=10:10, crea la siguiente subrutina de declaración para resolverla. ¿Por qué no introducir las fórmulas necesarias para resolver la respuesta? La IA idiota ahora es un experto humano con solo un conocimiento técnico universitario de fórmulas que algún matemático brillante redujo a un uso simplón, pero que ayuda al artesano. El carpintero usa fórmulas para encontrar respuestas a problemas que están más allá de su capacidad.
      Me doy cuenta de que esto se puede solucionar si se desea. La verdad es que a la IA le gusta el carpintero, no hay dos que lo hagan de la misma manera, pero todos tienen razón, solo pregúntales.
      Lo siento, no puedo evitar mi sarcasmo o intento de humor. Puede que encuentres una idea seria, pero seguro que la respuesta se esconde en este fragmento de texto si le preguntas a tu maestro...
      Joe Ell el tercero

  16. Enero 10, 2025 20 en: 19

    Supongo que la IA acabará gobernando los tribunales. Dicen que la justicia es ciega. Consigamos los datos de los nombres y cualquier dato recopilado. Incluso la información que se haya filtrado a través de una violación de datos personales o de cualquier sistema de datos que la almacene. Recopilemos información sobre lugares, nombres, horas y cualquier otro dato de sus teléfonos móviles. Esto nos da la información de los nombres de las personas que están dentro de la casilla elegida, establece la distancia en la que cualquiera de ellos ha sido culpable. Hazlos sospechosos y crea una complicidad si se descubre que son cómplices.
    Como la justicia es ciega, solo necesitamos que la IA Legal Beagle tome decisiones sobre la culpabilidad. No necesitamos rostros ni nociones preconcebidas basadas en la apariencia, el género o el color. Puedo ver esta posibilidad en el futuro. ¿Quizás incluso puedan hacer un borrador usando este conocimiento?
    Mi única pregunta ahora, como podría seguir y seguir con ejemplos, ¿cuyos nombres se omitirán?, ¿quién es este Simon Sinister que lo programa?, ¿este tipo de cosas ya se utilizan?
    Sería bueno saber de un buen programador que tenga o sea capaz de codificar este tipo de juguetes.
    Ahora, un programa que envía una alerta cuando un corazón se detiene. Reúne a todos los que puedan estar dentro del anillo o del perímetro elegido y ahora tenemos datos sobre a quién mirar si llegas al corazón parado y resulta ser una escena de un crimen. Además, podemos encontrar al culpable más rápido y en más casos también. No hay escondite, ¿tal vez ya vivimos en este mundo? Fugas, intrusiones, fallas en la protección de registros médicos y bancarios, supongo que ahora están en la naturaleza.
    ¿Te imaginas la pérdida si estas cosas llegan a buen puerto? ¿Te encerrarán, te arrastrarán, basándose en una fuente anónima?
    Me recuerda al mago de oz.
    Odio decir que la información es poderosa, venimos a este mundo con la esperanza de convertirlo en un lugar mejor, algunos son atropellados en el tráfico antes de darse cuenta de que hay un auto bloqueándolos.
    ¿Ayudarías a desarrollar un sistema como este, o prefieres pensar que lo que estás haciendo al crear este monstruo va en contra de tus mejores instintos?
    Ah, compartimenten, tomen una IA y creen su mejor versión, y todos los que participaron no se dan cuenta. Tal vez la defensa sea este registro si está completo, ya que a los tribunales les gusta omitir "hechos" o rechazar evidencia.
    Podría seguir, gracias por escucharme. Lo siento, no soy un gran escritor y odio editar, tengo un pulgar muy gordo, jajaja.

    • madera
      Enero 15, 2025 04 en: 24

      A menudo, cuando se trata de dejar comentarios que contribuyan a la discusión, menos es más.

  17. Oso Stanley
    Enero 10, 2025 18 en: 32

    Al menos las IA tienen la posibilidad de volverse más inteligentes. Los humanos se están volviendo notablemente más estúpidos. Consideremos el estado de distensión nuclear y la presencia de una línea directa entre las potencias nucleares para evitar errores, desde 1978 hasta 1991 y el mundo actual. Definitivamente, evidencia de la creciente estupidez humana.

    El único peligro de la IA podría ser que los humanos se vuelvan demasiado estúpidos para construir bombas nucleares por sí solos después de unas cuantas generaciones más de las tendencias actuales, pero las IA nunca lo olvidarán. Por otro lado, existe la posibilidad de que las IA se vuelvan lo suficientemente inteligentes como para saber que no deben usar armas nucleares. Ahora sabemos a ciencia cierta que este es un logro que está más allá de la capacidad humana.

    • Joy
      Enero 11, 2025 17 en: 25

      Hay muy pocas bases para afirmar que la IA, independientemente de cómo se defina y de cómo exista actualmente, tenga realmente la capacidad de volverse más inteligente. Ahora no es inteligente, no puede hacer muchas tareas matemáticas ni seguir reglas básicas de física. Inventa citas y fuentes y no tiene concepto de verdad o realidad; por lo tanto, no puede verificar ninguna de las afirmaciones que presenta.

      Esto no es inteligente y no muestra señales de que se esté volviendo más inteligente. Sam Altman puede hacer cualquier afirmación que quiera para reforzar sus perspectivas de recaudación de fondos, pero la realidad no es uno de los factores en los que ni Altman ni la IA parecen basarse. Te recomiendo que consultes Substack de Gary Marcus para obtener más información sobre la "inteligencia" de la llamada IA.

Los comentarios están cerrados.