Bienvenido a AI This Week, el resumen semanal de Gizmodo donde profundizamos en lo que ha estado sucediendo en la inteligencia artificial.
Esta semana Forbes reportado que una empresa rusa de software espía llamada Social Links había comenzado a utilizar ChatGPT para realizar análisis de sentimientos. El espeluznante campo por el cual policías y espías recopilar y analizar datos de redes sociales para comprender cómo se sienten los usuarios de la web acerca de las cosas , análisis de sentimientos Es uno de los casos de uso más incompletos del pequeño chatbot que aún ha surgido.
Enlaces sociales, que anteriormente inició las plataformas de Meta para supuesta vigilancia de usuarios, mostró su uso poco convencional de ChatGPT en una conferencia de seguridad en París esta semana. La empresa fue capaz de convertir en un arma la capacidad del chatbot de resumir y analizar textos para explorar grandes cantidades de datos y digerirlos rápidamente. En una demostración, la empresa alimentó datos recopilados por su propria herramienta en ChatGPT; los datos, que relacionados con publicaciones en línea sobre una controversia reciente en España, fue luego analizada por el chatbot, que las calificó “como positivas, negativas o neutrales, mostrando los resultados en un gráfico interactivo, ”, escribe Forbes.
Obviamente, los defensores de la privacidad han encontrado esto más que un poco inquietante, no sólo por este caso específico, sino por lo que dice sobre cómo la IA podría aumentar los poderes de la industria de la vigilancia en general.
Rory Mir, director asociado de organización comunitaria de la Electronic Frontier Foundation, dijo que la IA podría ayudar a las fuerzas del orden a ampliar sus esfuerzos de vigilancia, permitiendo Equipos más pequeños de policías para vigilar grupos más grandes con facilidad. Ya, las agencias de policía utilizan con frecuencia perfiles falsos para insertarse en comunidades en línea; Este tipo de vigilancia tiene un efecto escalofriante sobre el discurso en línea, afirmó Mir. Y añadió: “Lo que asusta de cosas como ChatGPT es que pueden ampliar ese tipo de operación”. La IA puede hacer que sea “más fácil para los policías realizar análisis más rápido” de los datos recopilan durante estas operaciones encubiertas, lo que significa que las “herramientas de IA están [efectivamente] habilitando” la vigilancia en línea.
Mir también notó un problema evidente con este tipo de uso de la IA: los chatbots tienen un historial bastante malo de cometer errores y cumplir Malos resultados. “La IA es realmente preocupante en escenarios de alto riesgo como este”, dijo Mir. “Una cosa es que ChatGPT lea un borrador de su artículo para que pueda preguntarle: “¿Qué tan aceptable es esto?” Pero cuando se traslade al territorio de, digamos, , determinando si alguien consigue un trabajo, o obtiene vivienda, o, en este caso, determina si alguien recibe atención indebida de la policía o no, es entonces cuando esos sesgos se convierten, no sólo en algo que hay que tener en cuenta, sino en una razón para no usarlo de esa manera [en absoluto]”.
Mir añadió que la “caja negra” de los datos de entrenamiento de IA significa que es difícil estar seguro de si la respuesta del algoritmo será confiable o no. “Quiero decir, esto se entrena con datos de Reddit y 4chan”, se ríe. Entonces, los sesgos que surgen de eso Los datos subyacentes van a reaparecer en el mosaico de sus resultados”.
Pregunta del día: WTF ¿lo hizo Sam Altman?
En lo que tiene que ser uno de los cambios más impactantes en la historia tecnológica reciente, Sam Altman ha sido destituido de su puesto como CEO de OpenAI. El viernes, una declaración fue publicado por la compañía anunciando una transición abrupta de liderazgo. “La salida del Sr. Altman sigue a un proceso de revisión deliberativa por parte de la junta, que concluyó que no fue consistentemente sincero en sus comunicaciones con la junta, lo que obstaculizó su capacidad para ejercer sus responsabilidades. La junta ya no tiene confianza en su capacidad para continuar liderando OpenAl». aparentemente ha seleccionado a Mira Murati, directora de tecnología de la compañía, para que actúe como directora ejecutiva interina, afirma el comunicado de prensa. Hasta ahora, es totalmente No está claro qué podría haber hecho Sam para permitir que se produjera una caída en picada tan catastrófica en su carrera. pasar de ser el príncipe de la ciudad de Silicon Valley a un paria en el transcurso del día. Estoy esperando con alfileres y agujas para escuche qué exactamente sucedió aquí.
Más titulares de esta semana
- La atención sanitaria automatizada parece una pesadilla certificable. Una nueva demanda afirma que UnitedHealthcare está utilizando un algoritmo de IA profundamente defectuoso para “anular” los juicios de los médicos cuando se trata de pacientes, permitiendo así al gigante de los seguros negar cobertura a pacientes ancianos y enfermos. La demanda, que fue presentada en el Tribunal de Distrito de EE. UU. en Minnesota, afirma que NaviHealth, una subsidiaria de UnitedHealth, Utiliza un algoritmo de IA de fuente cerrada, nH Predict, que, además de usarse para negar cobertura a pacientes, tiene un historial de estar equivocado muchas veces. Ars Technica ha la historia completa.
- Microsoft parece haber sido “sorprendido” por la abrupta salida de Sam Altman de OpenAI. Un nuevo informe de Axios afirma que Microsoft, el pilar de OpenAI socio comercial (y financiador) Quedó “sorprendido” por el hecho de que su jefe ejecutivo ahora está siendo expulsado con extremo prejuicio. El informe no dice mucho más. más que eso y sólo cita a una “persona familiarizada con la situación”. Baste decir que todo el mundo todavía está bastante confundido acerca de esto.
- Después de todo, es posible que el Reino Unido no esté regulando la IA. Parece que la encantadora ofensiva de las grandes tecnologías al otro lado del charco ha funcionado. En las últimas semanas, algunas de las figuras más importantes de la IA industria-incluyendo Elon Musk—viajó al Reino Unido para asistir a una cumbre de IA. El tenor general de los ejecutivos que asistieron fue: La IA podría destruir el mundo pero, por favor, no hagamos nada al respecto por ahora. Esta semana, el ministro de IA y propiedad intelectual de la nación, Jonathan Camrose, le dijo a la prensa que, “en el corto plazo”, la nación no quería implementar una “regulación prematura” y quería mantenerse alejada de la “sofocación innovación.”
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.