OPINIÓN

Autenticidad en peligro: los riesgos de la firma digital con ChatGPT



Dirección copiada

La firma electrónica, más que una mera cuestión de tecnología se fundamenta en la validez legal y la seguridad, definidos por el Reglamento de la UE

Publicado el 22 abr 2024

Michaël Lakhal,

Chief Product Officer de Signaturit Group



chatgpt

En la era digital, la integridad de documentos y comunicaciones se ha convertido en un pilar fundamental para garantizar la seguridad y la confianza en el ámbito profesional. Sin embargo, la creciente popularidad de los generadores de firmas impulsados por Inteligencia Artificial (IA), como ChatGPT, ha encendido las alarmas sobre la legitimidad y la legalidad de este tipo de herramientas. Pese a las ventajas evidentes en cuanto a eficiencia y accesibilidad, es imperativo abordar las importantes desventajas del uso de estas tecnologías para realizar transacciones electrónicas, ya que cambian la percepción de lo que significa consentimiento y contrato.

La firma electrónica, más que una mera cuestión de tecnología se fundamenta en la validez legal y la seguridad, definidos por el Reglamento de la UE. Pilares comprometidos con la solución de firma digital que ofrece ChatGPT. Por ello, hay que adquirir una perspectiva crítica, no solo por la falta de autenticidad, sino también por la carencia de evidencia legal.

ChatGPT, amistad a largo `plazo

Los generadores de firmas basados en IA operan a partir de plantillas y algoritmos, sin considerar la normativa eIDAS, crucial en el contexto europeo para la regulación de la identificación electrónica y los servicios de confianza

Principalmente porque los generadores de firmas basados en IA operan a partir de plantillas y algoritmos, sin considerar la normativa eIDAS, crucial en el contexto europeo para la regulación de la identificación electrónica y los servicios de confianza. Sin dejar de mencionar que la utilización de datos personales para entrenar modelos de IA plantea serios riesgos de privacidad y seguridad, poniendo en peligro la información sensible de los individuos. Además, la IA tiene la capacidad de erosionar aún más la confianza en Internet y contribuir a la propagación de la desinformación.

Por otro lado, si bien la tecnología, como la inteligencia artificial, permite dar pasos de gigante en la transformación digital, también posibilita que se sofistiquen los posibles ciberataques, por lo que, los agentes maliciosos pueden emplearla para suplantar firmas y hacerlas pasar por auténticas y personales. A ello se suma que las firmas generadas por IA, como Chat GPT pueden ir evolucionando con el tiempo y hacerlas más precisas y realistas, lo que dificultaría detectarlas como no autorizada.

No obstante, a pesar de estas consideraciones y los riesgos que puede acarrear el uso de la firma digital con ChatGPT, existe un espacio para la integración de la IA en los sistemas de prestadores de servicios, siempre que se base en pruebas y normativas legales claras y se combine con soluciones de confianza.

Es vital reiterar los riesgos y desventajas asociados al uso de firmas digitales generadas por IA. Sin embargo, esto no debe llevarnos a descartar por completo la integración de esta tecnología en estos procesos. Por ejemplo, la IA puede analizar el contenido de los documentos antes y después de la firma para facilitar su procesamiento y personalizarlos en el futuro.

La clave reside en promover el uso responsable y legal de proveedores de firma electrónica que ofrezcan soluciones profesionales y válidas, potencialmente complementadas con IA para mejorar la experiencia del usuario y facilitar la comprensión de los términos y condiciones de los documentos.

En resumen, mientras que la firma digital impulsada por IA presenta desafíos significativos en términos de autenticidad, legalidad y seguridad, la adopción consciente y regulada de estas tecnologías, en conjunto con soluciones de firma electrónica de confianza, puede llevarnos hacia un futuro en el que la eficiencia y la ciberseguridad coexistan armoniosamente.

Artículos relacionados

Artículo 1 de 5