Paul Vixie (11:10):
Por lo tanto, hay que dejar de lado esa sobreexpectación y pensar “¿en qué quedará cuando se asiente?”. Y en algunos casos, no lo sabemos. Es una tecnología bastante nueva y se está diseñando una gran cantidad de hardware y software para ella. Y nunca se sabe realmente cuál será el impacto de una herramienta hasta que no la utilice alguien que no sea su creador. Si usas una llave inglesa como un martillo, probablemente no sea lo que el fabricante de llaves inglesas pensó que ibas a hacer, pero podría funcionar en algunas situaciones.
No hemos visto indicios sólidos de lo que será capaz de hacer una vez que se acabe esa sobreexpectación y haya otra cosa acaparando los titulares. Dicho esto, en HAQM hemos estado investigando, desarrollando e implementando soluciones basadas en IA durante al menos los últimos doce años. Por lo tanto, esto no fue una sorpresa del todo para nosotros.
Ya tenemos un ejemplo en el sistema CodeWhisperer de algo que utiliza técnicas de IA generativa pero que no se parece en nada a lo que ha acaparado los titulares. Veo que eso ocurre en todo tipo de sistemas. Por ejemplo, cuando detectas anomalías, observas los flujos de telemetría del sistema, estás fijándote en los eventos que indican que quizá haya algo que va mal o en los que te indican que puede que alguien te esté atacando. Va a ser posible correlacionarlos mejor ahora que tenemos esta tecnología. Y de nuevo, siento que apenas hemos visto el 1 % de lo que será posible.
Así que, aunque, por un lado, desprecio ese ciclo de sobreexpectación y me gustaría que pudiéramos hablar en serio desde el principio, también entiendo que hay algo de mérito en este sentido. Estoy trabajando con algunos equipos de seguridad de AWS que están intentando responder exactamente a esa pregunta: “¿qué podemos hacer para ofrecer un mejor servicio a nuestros clientes ahora que esto está disponible de forma generalizada y todo el mundo lo entiende?”.
Clarke Rodgers (13:14):
¿Y luego ayudar a ese profesional de la seguridad humana con gran parte del trabajo duro desde una perspectiva tecnológica con herramientas de IA generativa?
Paul Vixie (13:25):
Sí, y no quiero que esto suene a publicidad, pero el mayor éxito de HAQM con nuestra nube siempre han sido los flujos de trabajo que permitimos a nuestros clientes adoptar y crear. Así que una de las primeras cosas que hicimos en el área de modelos de lenguaje de gran tamaño fue Bedrock. La idea es que si quieres utilizar un modelo de lenguaje de gran tamaño, ¿también quieres pagar el coste de la formación? ¿Quieres tener que construir el modelo?
Porque hacerlo puede llevar miles de horas o decenas de miles de horas de tiempo frente a la computadora, lo que sale muy caro. Y en lugar de eso puedes disponer de varios modelos prediseñados que aparecen en un menú y puedes elegir los que quieres, pero no tienes que pagar para copiarlos a tu propio sistema, simplemente puedes poner lógica en tu VPC o en lo que sea que estés haciendo en nuestro entorno de nube, que tiene acceso directo a las API que saben que tienen acceso a estos modelos de suscripción.
Así que, la premisa original, la cual desconocía y aprendí cuando llegué aquí, la premisa de la nube resultó ser que puedes tener una cantidad elástica de procesamiento, toda lo que realmente necesites, junto a una cantidad elástica de almacenamiento, una vez más, toda la que realmente necesites, sin penalización de acceso: así es cómo crecimos. Y ahora acabamos de replicar eso dentro de la IA generativa para que esas personas que quizás sean muy ambiciosas en su propio segmento del mercado puedan hacer con nuestra nube y nuestros LLM lo que siempre han hecho con nuestra nube sin LLM. Eso nos encanta. Me encanta porque el verdadero poder de esto será lo que nuestros clientes hayan hecho.
Clarke Rodgers (15:13):
Y que los clientes tienen esa confianza acumulada gracias a todas las herramientas de seguridad que han utilizado durante años y a otros aspectos que ahora se pueden aplicar a herramientas como Bedrock y cualquier otra cosa que se presente en el futuro.
Paul, gracias por participar y estar aquí hoy.
Paul Vixie (15:26):
Ha sido genial. Gracias de nuevo por invitarme.