imagina que estás tratando de resolver un problema. elijamos uno al azar: ¡accidentes de coche! ahora, este es un problema difícil de resolver porque son extraordinariamente raros. dentro del contexto del sistema de infraestructura vial de EE. UU. y las reglas culturalmente establecidas de conducción, los humanos son bastante buenos. un accidente cada 700k millas; ¡5 nueves! imagina que para "resolver/entender" un accidente computacionalmente necesitas observar ese tipo particular de accidente unas 100 veces. crea una taxonomía de accidentes, quizás haya 10 tipos de accidentes prototípicos frecuentes que necesitas estudiar y entender, el 10º tipo de accidente más frecuente probablemente ocurre aproximadamente 1/10 de la frecuencia del tipo de accidente más frecuente, el 3-4% de los accidentes podrían caer en esta categoría del 10º tipo más frecuente. Así que solo serás testigo del tipo de accidente más frecuente cada 20 millones de millas más o menos. Pero necesitas 100 incidentes de ese tipo de accidente más frecuente para entenderlo: 2 mil millones de millas. Necesitas acceso a los 2 mil millones de millas de datos para capturar la media hora de datos que informa tu enfoque hacia ese tipo de accidente más frecuente. No es el volumen bruto de datos recopilados lo que importa, es el valor de opción que esos datos ofrecen. (la realidad es mucho más compleja que eso, obv, no menos porque resolver accidentes es más que solo resolver accidentes, es la gramática increíblemente compleja del uso y navegación en la carretera que resulta en una conducción defensiva sólida que resulta en un viaje autónomo seguro. No obstante, creo que las matemáticas son ilustrativas de manera útil; tener la opción de encuestar una flota para un problema específico en el que estás trabajando es un superpoder)