Goldman Sachs apuesta fuerte por la inteligencia artificial, pero advierte de una dependencia excesiva en el próximo gran salto de las finanzas

Goldman Sachs ha implementado su plataforma de IA generativa, GS AI Assistant , para toda su plantilla de 46.000 empleados, afirmando grandes mejoras en eficiencia, desde la reducción de tareas que duran meses a tan solo minutos. Pero en medio de la expectación, algunos líderes están dando la voz de alarma: ¿Se está volviendo el banco demasiado dependiente de la IA?

Qué está sucediendo

  • Kerry Blum, socia de Goldman, afirma que usa el asistente de IA hasta diez veces al día para tareas como generar ideas, perfeccionar presentaciones, resumir documentos densos y analizar datos. Lo considera un impulsor de la productividad.
  • Pero también advierte: «Es una herramienta, no la fuente de la verdad». El criterio humano, especialmente en el sector bancario, donde hay mucho en juego, sigue siendo esencial. El contexto y los matices no siempre son aspectos que la IA domine.
  • Existe la preocupación, tanto interna como externa, de que los puestos junior y de back-office sean los más vulnerables. Bloomberg Intelligence proyecta que hasta 200.000 empleos bancarios podrían verse afectados en los próximos años debido a la automatización.

Por qué es importante

Esta medida no es simplemente otra actualización tecnológica: representa un cambio en cómo los bancos ven el trabajo, el talento y el riesgo.

La promesa de la IA es innegable: tiempos de respuesta más rápidos, menos tareas tediosas y posiblemente mejores equilibrios entre el trabajo y la vida personal para el personal junior que a menudo se encarga del trabajo pesado.

Pero hay una contrapartida: la dependencia excesiva de la IA puede debilitar el desarrollo de habilidades, dificultar la detección de errores (ya que las personas podrían dejar de analizarlos con atención) y arriesgarse a sufrir daños legales o a la reputación si la IA comete errores en áreas que requieren un juicio riguroso. Goldman está intentando mantener esa prudencia.

Lo que falta, pero es importante

Aquí es donde creo que la conversación podría ser más clara:

  • Regulación y supervisión : A medida que Goldman Sachs se centra en la IA, ¿cómo responden los reguladores? ¿Qué políticas existen para garantizar que los resultados de la IA en la banca sean seguros, precisos y auditables? Existe una creciente presión a nivel mundial (especialmente en Europa y EE. UU.) para que los bancos divulguen el uso de la IA y gestionen los riesgos. El artículo insinúa responsabilidad, pero no profundiza en las barreras legales.
  • Sesgo, ética y equidad : Los sistemas de IA suelen reflejar sesgos en los datos de entrenamiento. En finanzas, esto puede implicar préstamos discriminatorios, análisis de riesgos sesgados o errores en los mercados. ¿Existen controles internos en Goldman para detectar y corregir estos errores?
  • Moral y cultura laboral : A la gente no le gusta sentirse reemplazada, y si los banqueros junior sienten que sus puestos iniciales se están automatizando, esto podría reducir la motivación o la retención. ¿Cómo está gestionando Goldman ese aspecto humano? ¿Existen programas de capacitación continua?
  • Comparaciones con sus pares : Otros bancos (Morgan Stanley, JPMorgan, etc.) también están implementando herramientas de IA. ¿Cómo se compara el enfoque de Goldman en cuanto a cautela, eficacia y mitigación de riesgos?

Mi opinión

Considero que esto representa una combinación de «oportunidad de oro y peligro real». La estrategia de Goldman de usar IA para tareas repetitivas o de redacción y resumen tiene sentido: libera a las personas para realizar un trabajo más estratégico y centrado en el ser humano.

Pero las señales de alarma son legítimas. Si el banco (o toda la industria) se vuelve perezoso y permite que la IA tome el control sin supervisión, rendición de cuentas ni preservación del criterio humano, podríamos pagar las consecuencias con malas decisiones, daño a la reputación o incluso riesgo sistémico.

Si yo estuviera al frente de esto, presionaría mucho para lograr:

  1. Gobernanza transparente: publicar estándares sobre cuándo se puede usar la IA, qué supervisión se requiere y quién aprueba los resultados riesgosos.
  2. Flujos de trabajo híbridos: humanos e IA trabajando juntos, no IA como una caja negra.
  3. Desarrollo de talentos: garantizar que los banqueros junior sigan desarrollando habilidades centrales (modelado, interacción con el cliente, criterio).
  4. Auditoría ética: controles de sesgo, registros de errores, “qué pasaría si” cuando la IA falla.

Goldman Sachs está apostando a largo plazo. El Asistente de IA de GS podría ser una gran ventaja competitiva. Sin embargo, las ventajas se desgastan rápidamente si se las utiliza demasiado sin perfeccionarlas (es decir, manteniendo la supervisión humana). Mientras observamos cómo la IA transforma las finanzas, la pregunta no es solo si será útil, sino cómo nos aseguramos de que no sea perjudicial.

Alma Gonzales
Estaremos encantados de escuchar lo que piensas

      Deje una respuesta

      yopuedoprogramar
      Logo