Sobre tu punto acerca de la visión económica frente a la técnica del desplazamiento laboral, @sebkrier, nuevamente creo que los puntos más importantes están en la intersección descuidada: las ambiciones tipo Test de Turing que los benchmarks del discurso habitual sobre IA asignan a la tecnología en la dirección menos productiva posible.
porque una gran cantidad de literatura económica muestra que hay grandes rentas asociadas con el empleo, así que, aunque es una ganancia pura hacer las cosas cada vez mejor, pero un poco por debajo de la capacidad humana, y mejorar masivamente áreas donde ya superas a los humanos (MONTONES de áreas mucho antes de GenAI)
Cuando superas la capacidad humana en una tarea, hay algunos grandes daños redistributivos de alquiler que compensan. Así que deberíamos estar comparando con CUALQUIER OTRA COSA QUE NO SEA intentar pasar la Prueba de Turing en un rango creciente de tareas.
Y en la medida en que lo hagamos, es fundamental que sea un proceso equilibrado entre el trabajo y el capital, ya que de lo contrario será una búsqueda de rentas en lugar de mejorar la productividad.
Por supuesto, esto está simplificado en exceso, porque no hay un nivel real de habilidad humana y lo que realmente importa es algún tipo de comparación ajustada por calidad y costo, pero esta es en realidad una razón por la cual la Prueba de Turing no está tan bien definida como pretende ser.
Pero en un modelo simplificado donde está realmente bien definido (hay algún nivel humano único que se puede medir objetivamente y los costos se pueden hacer perfectamente comparables), sería precisamente lo que se debe evitar... el mínimo local siendo tratado como un máximo local.
@sebkrier Permíteme llamar "objetivos similares a Turing" a aquellos basados en hacer que el modelo supere el nivel humano en un rango creciente de tareas. Los enfoques "anti-Turing" son aquellos que mejoran en cualquier otra parte del espacio: mejorando habilidades por debajo del nivel humano o por encima del nivel humano.
@sebkrier Hay muchos factores que deberían influir en dónde invertir, incluyendo la función de entrada y salida de la inversión en investigación, qué habilidades están en cuánta demanda, etc.
@sebkrier Pero en la medida en que el análisis económico tenga algo que aportar a esto, diría que es: en la medida en que el capital esté dirigiendo la innovación, el lugar con la externalidad negativa más pronunciada para invertir (el que el análisis impulsado por el capital probablemente nos señalará de manera más exagerada)
@sebkrier son los benchmarks de tipo Turing.
@sebkrier Por cierto, sería exactamente lo opuesto para la política/trabajo: esos subinvertirían en pasar la prueba de Turing
@sebkrier Quizás un poco en broma, esta es la razón por la que mi mejor consejo para un líder de política de AGI sería: No hacer (o más bien gravar hacer) AGI debería ser nuestra política.
926