Close Menu
    VER CIUDAD TV EN VIVO
    Logowebchacodiapordia 05
    ULTIMOS TITULOS

    ¿Chat GPT puede ser tu médico? Cuando el acceso a datos médicos se disfraza de servicio al paciente

    10 enero 2026

    SAMEEP trabaja en la reparación del Acueducto Norte: advierten baja presión de agua en zonas del Área Metropolitana

    10 enero 2026

    Remisero esperaba clientes en Sáenz Peña, se desplomó y murió en el Hospital

    10 enero 2026
    Facebook X (Twitter) Instagram YouTube WhatsApp Twitch
    Facebook X (Twitter) Instagram
    domingo, enero 11
    CHACODIAPORDIA.COMCHACODIAPORDIA.COM
    RADIOCIUDAD
    • INICIO
    • CIUDAD

      Con descuentos de hasta un 20%, se habilitó el pago de la patente automotor en Resistencia

      9 enero 2026

      ATE se pronunció contra el cierre del programa de enfermedades cardiovasculares del InSSSeP: “Cada vez más caro y con menos cobertura”

      9 enero 2026

      Patente automotor: el Municipio de Resistencia ofrece hasta un 20% de descuento por pago anticipado y buen contribuyente

      9 enero 2026

      Secheep recomienda evitar riesgos eléctricos durante las lluvias y tormentas

      9 enero 2026

      La Municipalidad activó el Comité de Emergencias ante la alerta naranja por tormentas

      9 enero 2026
    • INTERIOR

      La Escondida sostiene la temporada de verano con propuestas gratuitas para la comunidad

      9 enero 2026

      Vecinos de Colonia Benítez reclaman obras a la Comuna: “El loteo está emplazado en una cuenca con riesgo hídrico severo”   

      9 enero 2026

      Yaguareté en Villa Río Bermejito: “Ante la aparición deben comunicarlo a las autoridades para que se articulen los protocolos” 

      9 enero 2026

      Cada camión a Rosario con exceso de carga puede pagar multa de hasta $17 millones con retención del vehículo

      9 enero 2026

      Charata: la División Medicina Legal funciona con normalidad y garantiza atención las 24 horas

      9 enero 2026
    • LA REGIÓN

      Otro millonario robo en una estancia rural en el interior correntino

      9 enero 2026

      La fe inquebrantable de un pueblo por el Gauchito Gil desbordó a Mercedes

      9 enero 2026

      Dan de baja más de 30 radares en Rutas Nacionales de Chaco y Corrientes

      8 enero 2026

      Sorpresivo paro de colectivos en Corrientes este jueves

      8 enero 2026

      Corrientes: Mercedes se convierte en el epicentro de la fe al Gauchito Gil

      8 enero 2026
    • NACIONALES

      Situación extrema por los incendios en Chubut: “Es la peor tragedia ambiental en 20 años”

      9 enero 2026

      El BCRA canceló el tramo activado del swap con el Tesoro de los EEUU

      9 enero 2026

      La inflación en la era de Milei se ubica en 270% con el nuevo IPC y supera en 10 puntos al dato actual

      9 enero 2026

      Chubut: más de 200 brigadistas y 7 medios aéreos combaten el fuego

      9 enero 2026

      Más despidos: cierra otra fábrica textil en La Rioja y se profundiza la crisis industrial

      9 enero 2026
    • POLICIALES

      En 2025, la Policía del Chaco secuestró más de 150 vehículos buscados por la Justicia: ya son siete en lo que va de este año

      10 enero 2026

      En Charata, identificaron un camión que tenía pedido de secuestro

      10 enero 2026

      Dos muertos tras choque frontal en una ruta de Corrientes

      9 enero 2026

      Basail: una camioneta despistó en la Ruta Nacional 11

      9 enero 2026

      Cibercrimen detuvo a un hombre que compraba Iphones con transferencias falsas

      9 enero 2026
    • ACTUALIDAD
      • CHACO HOY
      • JUDICIALES
      • LEGISLATIVAS
      • TURISMO
      • SOCIEDAD
      • CULTURA
      • AGENDA UNIVERSITARIA
      • OPINION
      • INFORMACIÓN GENERAL
      • OTRAS NOTICIAS
      • EDICTOS
    CHACODIAPORDIA.COMCHACODIAPORDIA.COM
    Inicio » ¿Chat GPT puede ser tu médico? Cuando el acceso a datos médicos se disfraza de servicio al paciente
    10 enero 2026 OPINION

    ¿Chat GPT puede ser tu médico? Cuando el acceso a datos médicos se disfraza de servicio al paciente

    Facebook Twitter Telegram Email WhatsApp
    ¿Chat GPT puede ser tu médico? Cuando el acceso a datos médicos se disfraza de servicio al paciente
    Facebook Twitter Email Telegram WhatsApp
    Publicidad
    Publicidad
    Publicidad

    OpenAI acaba de dar un paso al frente que muchos anticipaban pero que pocos esperaban tan pronto: el lanzamiento de Chat GPT Health, una nueva experiencia dentro de Chat GPT diseñada para permitir que los usuarios conecten sus historiales médicos y aplicaciones de salud como Apple Health o MyFitnessPal para obtener respuestas más personalizadas a sus preguntas sobre salud y bienestar.

    Por Enrique Dans

    Pubicidad

    La compañía destaca que se trata de una respuesta a una demanda masiva: según sus propios datos, más de doscientos millones de usuarios preguntan sobre salud al chatbot cada semana, y que la herramienta busca ayudar los pacientes a entender resultados de laboratorio, a prepararse para citas médicas o a comparar opciones de seguros.

    Desde una perspectiva superficial, este movimiento puede parecer razonable: un asistente de salud digital que utiliza datos personales para contextualizar y mejorar sus respuestas, respuestas que, de todas formas, los usuarios estaban demandando y obteniendo ya. Pero si uno mira con detenimiento, resulta inevitable plantearse una pregunta incómoda: ¿es esta apuesta realmente para empoderar a los pacientes o, ante todo, para acceder a más datos médicos, uno de los activos más valiosos que aún queda en manos de los usuarios, para alimentar y fortalecer los modelos de inteligencia artificial de una compañía?

    OpenAI afirma que las conversaciones dentro de ChatGPT Health no se usan para entrenar sus modelos de base y que los datos médicos «se aíslan» y protegen con un cifrado especializado. Pero esta promesa, repetida machaconamente como una advertencia legal que afirma que, «no está destinado para diagnóstico ni tratamiento», no altera el hecho de que el producto invita activamente a los usuarios a subir y enlazar sus datos de salud más sensibles. En realidad, esa insistencia en que el sistema «no reemplaza a un médico» funciona más como un escudo legal que como una barrera real que modifique el comportamiento de los usuarios.

    El atractivo de poseer datos médicos estructurados y longitudinales es enorme para cualquier empresa de tecnología que busque mejorar sus modelos de inteligencia artificial. La medicina, con su riqueza de pruebas diagnósticas, historiales clínicos y narrativas de enfermedad, ofrece un terreno de entrenamiento incomparablemente más valioso que los datos de texto genéricos que han dominado el entrenamiento de LLMs hasta ahora.

    Aunque OpenAI no utilice esos datos para entrenamiento directo según sus términos actuales, la simple recolección y procesamiento de información estructurada de salud crea un precedente de acumulación de datos que muchas compañías pagarían millones por obtener a través de alianzas con hospitales o aseguradoras.

    Además, incluso con las advertencias, existe un riesgo real de sobreconfianza por parte de los usuarios. Numerosos estudios han demostrado que los modelos de lenguaje generan respuestas que suenan médicamente plausibles aunque no lo sean, y esto no es una ocurrencia aislada: investigaciones académicas independientes han encontrado tasas no despreciables de respuestas inseguras o incorrectas en chatbots generativos cuando se les formulan preguntas médicas sensibles. Cuando una persona interpreta esto como un «segundo diagnóstico» o como una confirmación alternativa a la opinión de un médico, estamos activando una auténtica bomba de relojería.

    No es una preocupación abstracta: existen evidencias de casos en los que las respuestas automatizadas sobre salud han inducido a decisiones peligrosas o a la mala interpretación de síntomas, desde retrasos en buscar atención hasta malos hábitos terapéuticos.

    Aunque OpenAI lanzó previamente herramientas como HealthBench, concebidas supuestamente para medir la seguridad y precisión de las respuestas de sus modelos en escenarios médicos, estos esfuerzos siguen siendo evaluaciones, no garantías de seguridad clínica.

    Además de los problemas de precisión, emergen tensiones sociales claras. ¿Cuántos médicos verán a pacientes llegar a consulta discutiendo diagnósticos sugeridos por un chatbot? ¿Cuántos profesionales de la salud tendrán que dedicarse a deshacer malentendidos sembrados por una herramienta que muchos creen omnisciente, que combina datos reales con razonamientos generativos que pueden sonar convincentes, pero que no están clínicamente validados? ¿Está para eso el escaso y tasado tiempo de los facultativos? La tecnología no sólo transforma datos: transforma expectativas, narrativas personales e interacciones de confianza entre pacientes y proveedores de salud.

    La propia dinámica de advertir que «esto no es diagnóstico ni tratamiento» no es inocua: muchos usuarios no están preparados para ponderar esa limitación cuando reciben una interpretación de sus análisis de sangre o un resumen aparentemente comprensible de síntomas complejos. El simple hecho de que la herramienta acceda a tu historial completo y lo sintetice puede crear en el usuario la ilusión de autoridad médica, independientemente de lo que diga la pequeña advertencia legal en letra pequeña en un rincón de la pantalla.

    Por último, está la cuestión de la regulación y la responsabilidad. ChatGPT Health se presenta como un producto de consumo, no como un dispositivo médico regulado, lo que significa que no está sujeto a los mismos estándares de evidencia, supervisión ni rendición de cuentas que las herramientas clínicas. Esto abre un vacío normativo peligroso cuando los datos, por sensibles que sean, se integran en un sistema que también es un servicio masivo de inteligencia artificial con fines comerciales.

    ChatGPT Health puede representar un momento definitorio en la relación entre inteligencia artificial y salud: no solo por lo que ofrece, sino por cómo y a quién lo ofrece. La promesa de empoderamiento del paciente puede ser real en algunos aspectos, pero no puede concebirse al margen de los incentivos de la empresa que lo desarrolla.

    En un momento en que los datos son la materia prima de la economía digital, el acceso a historiales médicos completos no es sólo una funcionalidad, sino una jugada estratégica de enorme valor. Y mientras los usuarios celebran la comodidad de respuestas personalizadas y la aparente democratización del conocimiento médico, los límites de responsabilidad, seguridad y ética siguen siendo nebulosos y peligrosamente abiertos.

    Antes de aceptar que una inteligencia artificial te «ayude a navegar tu salud», convendría preguntarse si estamos preparados, como sociedad, para gestionar las consecuencias de poner un doctor digital con acceso a tus datos, pero sin regulación clínica, en el bolsillo de millones de personas.

    Publicado en el blog de Enrique Dans

    Noticias Relacionadas

    OPINION

    Vaca Muerta y Venezuela: cuando la calidad del crudo define el poder energético

    8 enero 2026
    OPINION

    Una modesta mirada local sobre los bombardeos y al futuro

    5 enero 2026
    OPINION

    China y Estados Unidos: la disputa por la hegemonía global ya está en juego

    5 enero 2026


    Últimas Noticias

    ¿Chat GPT puede ser tu médico? Cuando el acceso a datos médicos se disfraza de servicio al paciente

    10 enero 202619 Views

    SAMEEP trabaja en la reparación del Acueducto Norte: advierten baja presión de agua en zonas del Área Metropolitana

    10 enero 202634 Views

    Remisero esperaba clientes en Sáenz Peña, se desplomó y murió en el Hospital

    10 enero 2026130 Views
    Buscar Noticias
    Seguinos en Nuestras Redes Sociales
    • Facebook
    • YouTube
    • WhatsApp
    • Twitter
    • Instagram
    • Twitch


    NO TE OLVIDES DE VER

    ¿Chat GPT puede ser tu médico? Cuando el acceso a datos médicos se disfraza de servicio al paciente

    10 enero 2026

    SAMEEP trabaja en la reparación del Acueducto Norte: advierten baja presión de agua en zonas del Área Metropolitana

    10 enero 2026

    Remisero esperaba clientes en Sáenz Peña, se desplomó y murió en el Hospital

    10 enero 2026
    CHACODIAPORDIA.COM
    LA NOTICIA EN TODA SU DIMENSIÓN

    DIRECTOR: Pedro Cáceres
    JEFE DE REDACCIÓN: Rodolfo Mancuello

    DIRECCIÓN: Av. Avalos 468 Torre B 9° Piso. Resistencia – Chaco (0362) 445 2111

    Contáctanos: produccion@chacodiapordia.com

    © Registro de Marca Nº 2.925.652 / Registro de la Propiedad Intelectual Nº 383.000. Está permitida, la reproducción del contenido de este sitio, bajo la condición de mencionar la fuente.

    CHACODIAPORDIA.COM
    Facebook X (Twitter) Instagram YouTube WhatsApp
    • SOCIEDAD
    • CULTURA
    • TURISMO
    • INFORMACIÓN GENERAL
    • JUDICIALES
    • LEGISLATIVAS
    • AGENDA UNIVERSITARIA
    • OTRAS NOTICIAS
    • EDICTOS
    CHACODIAPORDIA.COM - 2024

    Escriba aqui lo que desea buscar y luego presione la tecla ENTER