Felipe Cucker
Índice
Si bien el estudio de la estabilidad numérica de los algoritmos numéricos se remonta a Gauss, su ímpetu actual tiene su origen en la llegada de las computadoras y en la obra de A. Turing y J. von Neumann. Estos últimos aíslan los factores propios del algoritmo utilizado de aquellos inherentes al problema (e independientes del algoritmo a usar). En esta categoría, el condicionamiento de los datos es esencial y el estudio del comportamiento estadístico de este condicionamiento es iniciado por von Neumann y abanderado por J. Demmel y S. Smale, entre otros. En conjunción con varios colaboradores, Cucker establece resultados en esta dirección para problemas de álgebra lineal, de álgebra polinómica, y de optimización. En 2013, en colaboración con Peter Bürgisser, publica el libro Buergisser-Cucker-2013, una obra que expone y sistematiza estos resultados.
La teoría de la complejidad que se desarrolla en la década de los 70 tiene como objeto el estudio de problemas discretos, de naturaleza combinatoria. Durante la decada de los 80, Smale se propone elaborar una teoría de la complejidad apropiada para computaciones numéricas y en 1989, junto a L. Blum y M. Shub, publica un artículo con un primer desarrollo de esa teoría. En 1992 Cucker publica un resultado en el que separa clases de complejidad (en particular separa P de NC y NP de EXP) en esta nueva teoría. La version discreta de esos resultados es, hasta el dia de hoy, solamente una conjetura. Poco tiempo después, Cucker se une a Blum, Shub y Smale para escribir Blum-Cucker-Shub-Smale-1998, un libro sobre teoría de la complejidad para problemas numéricos.
En 2011, junto a Bürgisser, publica en Annals of Mathematics una solución en términos de smoothed analysis del problema 17 de Smale (Smale-1998). En 2015, propone una teoría que aúna complejidad, aproximación, y estabilidad numérica vía la noción de condicionamiento. El desarrollo de una tal teoría era uno de los problemas abiertos planteados en el mencionado artículo de Blum, Shub y Smale.