{"id":432,"date":"2026-03-13T09:47:10","date_gmt":"2026-03-13T09:47:10","guid":{"rendered":"https:\/\/chato.cl\/life\/?p=432"},"modified":"2026-03-13T10:06:25","modified_gmt":"2026-03-13T10:06:25","slug":"sesgo-algoritmico","status":"publish","type":"post","link":"https:\/\/chato.cl\/life\/es\/sesgo-algoritmico\/","title":{"rendered":"Sesgo algor\u00edtmico: una perspectiva personal"},"content":{"rendered":"\n<p class=\"\">Charla el 21 de noviembre de 2025 en uno de los encuentros organizados por <a href=\"https:\/\/sciencequeers.com\/\">Science Queers<\/a>.<\/p>\n\n\n\n<figure class=\"wp-embed-aspect-16-9 wp-has-aspect-ratio wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube\"><div class=\"wp-block-embed__wrapper\">\n<iframe loading=\"lazy\" title=\"IA: \u00bfayuda \u00fatil o trampa sesgada? - ChaTo (Carlos Castillo)\" width=\"720\" height=\"405\" src=\"https:\/\/www.youtube.com\/embed\/r_QTksTsY9E?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p class=\"\"><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Transcripci\u00f3n<\/h2>\n\n\n\n<p class=\"\"><em>(La transcripci\u00f3n de la charla no se entiende mucho sin las slides, pero la entrego aqu\u00ed como referencia.)<\/em><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Introducci\u00f3n<\/h3>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-29\" class=\"\">Soy Chato. Nac\u00ed en el a\u00f1o 1977. Fui socializado como hombre. Reci\u00e9n se habl\u00f3 de interseccionalidad, yo tambi\u00e9n tengo mis intersecciones que incluyen el hecho de ser una persona neurot\u00edpica de un pa\u00eds de medios ingresos, ser una persona morena, ser una persona migrada, ser una persona que trabaj\u00f3 en industria en buen\u00edsimos trabajos, bien pagados, ser una p*ta poliamorosa pansexual, ser <em>tenured<\/em> y ser nobinarie.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-30\" class=\"\">Y son bastantes intersecciones. Y quiero decir que&#8230; el d\u00eda que me dieron la ICREA, que es una plaza que entrega el gobierno catal\u00e1n, que son bastante codiciadas, el lunes siguiente llegu\u00e9 con falda al trabajo. De alguna manera mi expresi\u00f3n de g\u00e9nero estaba sujeta a lo que yo ve\u00eda como posibles complicaciones de mi proceso de obtener esa posici\u00f3n. Y cuando se lo he dicho esto a mis compa\u00f1eros, normalmente me dicen: \u00abNo era necesario que esperases hasta tener la ICREA para vestirte as\u00ed\u00bb. Y yo pienso, \u00bfqui\u00e9n sabe?<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-30\" class=\"\">Yo obtuve mi doctorado hace 21 a\u00f1os y mi vida est\u00e1 de alguna manera alterada por mi investigaci\u00f3n y mi investigaci\u00f3n tambi\u00e9n cambia mi vida. Por ejemplo, estuve un mont\u00f3n de tiempo trabajando en gesti\u00f3n de emergencia y trabajaba con gente de la OCHA, la Oficina de Coordinaci\u00f3n de Asuntos Humanitarios de Naciones Unidas, con gente de la Cruz Roja, etc. Y desde que trabajo con ellos no puedo entrar en un lugar sin ver las salidas de emergencia, por ejemplo, ver que aqu\u00ed hay una salida de emergencia a vuestra derecha, pero que eso no es una salida de emergencia. Y desde que trabajo en eso, no puedo estar en un lugar p\u00fablico sin fijarme en las salidas de una exerencia. Cuando voy a un antro de esos asquerosos que baja una escalera y por esa escalera sale toda la gente, yo entro y empiezo a pensar \u00abaqu\u00ed no hay salidas de emergencia, aqu\u00ed el aforo est\u00e1 superado\u00bb y no puedo. Lo \u00fanico que te queda en esas circunstancias es tratar de perder la conciencia un poco m\u00e1s r\u00e1pido para poder disfrutar la fiesta.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-32\" class=\"\">Y de otra forma que me ha alterado mi persona y que mi persona ha cambiado investigaci\u00f3n, yo empec\u00e9 a trabajar en discriminaci\u00f3n algor\u00edtmica cuando tom\u00e9 la direcci\u00f3n de un grupo de investigaci\u00f3n el 2016 donde hab\u00eda una persona, una chica iran\u00ed que se hab\u00eda reci\u00e9n doctorado y su doctorado hab\u00eda sido sobre discriminaci\u00f3n algor\u00edtmica, del cual yo no ten\u00eda ni idea y me pareci\u00f3 tan interesante su tema que termin\u00e9 trabajando en eso. De discriminaci\u00f3n algor\u00edtmica, lo que me ha ense\u00f1ado, entre otras cosas, aparte de ponerme a estudiar temas de g\u00e9nero, y como todas las personas que estudian cosas de g\u00e9nero, terminas viendo que todo tiene que ver con g\u00e9nero. Ya no se puede hablar conmigo de otras cosas.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-33\" class=\"\">Tambi\u00e9n viv\u00ed en Qatar un tiempo y ah\u00ed tambi\u00e9n hay una segregaci\u00f3n de g\u00e9nero bien interesante porque la gente ah\u00ed sigue pensando que es buena idea que la gente est\u00e9 separada pero sea igual<sup><\/sup>. \u00bfHab\u00e9is escuchado esa expresi\u00f3n? Separados pero iguales. Se aplicaba en los a\u00f1os 60 en Estados Unidos para mantener la segregaci\u00f3n entre negros y blancos<sup><\/sup>. Ellos dec\u00edan, los blancos, \u00abnosotros no queremos que los blancos y los negros est\u00e9n en la misma escuela, habr\u00e1 escuelas separadas para los negros, pero van a ser iguales, separadas, pero iguales\u00bb<sup><\/sup>. Y yo estoy completamente convencide de que no. Una vez que separas a las personas ya no pueden ser iguales<sup><\/sup>. Y yo no creo que en temas de g\u00e9nero podamos estar separadas y ser iguales<sup><\/sup>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Investigaci\u00f3n<\/h3>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-34\" class=\"\">Pero yo vine a hablar de investigaci\u00f3n, lo siento. Voy a hablar sobre un sesgo algor\u00edtmico, que es la investigaci\u00f3n que he llevado los \u00faltimos 9-10 a\u00f1os con un par de equipos de trabajo, uno en Eurecat y uno en en la Pompeu, donde estoy ahora<sup><\/sup>. Y nuestra investigaci\u00f3n se centra principalmente en aplicaciones de alto riesgo de la inteligencia artificial<sup><\/sup>. Esa no es una nomenclatura como antojadiza, es una categor\u00eda legal<sup><\/sup>. La regulaci\u00f3n sobre inteligencia artificial introducida en abril del 2024 determina que en la Uni\u00f3n Europea hay una serie de aplicaciones de la IA que est\u00e1n sujetas a un est\u00e1ndar mayor de protecci\u00f3n<sup><\/sup>. Esas incluyen cuando la IA se usa para cosas de infraestructura cr\u00edtica, cosas relacionadas con el trabajo, por ejemplo, con el empleo, la selecci\u00f3n de personas para admisi\u00f3n en la universidad o en una instituci\u00f3n de educaci\u00f3n superior, servicios esenciales, servicios p\u00fablicos y servicios privados esenciales, etc. Y yo he estudiado tres de estas aplicaciones<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-35\" class=\"\">La gente que trabaja con modelos de aprendizaje autom\u00e1tico reconocer\u00e1 AUC, es una medida de precisi\u00f3n que va entre 0 y 1. Yo he hecho auditor\u00edas de tres modelos de IA, entre otros, o sea, al menos tres modelos<sup><\/sup>. Uno fue un modelo para predecir si una persona se iba a quedar sin techo, que tiene una AUC de 0,9<sup><\/sup>. Entre 0 y 1; 0,9 es bastante bueno. Un modelo que se pretend\u00eda introducir para determinar si un menor, ni\u00f1o, ni\u00f1a, ni\u00f1e, iba a ser maltratado por su familia, con una AUC de 0,8<sup><\/sup>. Y un modelo que se usa aqu\u00ed en Catalu\u00f1a, de los pocos lugares del mundo donde se usa un modelo de predicci\u00f3n de la reincidencia criminal<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-36\" class=\"\">Similar a COMPAS, quiz\u00e1s hab\u00e9is o\u00eddo de este caso. COMPAS es un sistema que se usa en EUA para determinar la probabilidad, el riesgo de una persona de cometer un nuevo delito, que se llama riesgo de reincidencia<sup><\/sup>. Y lo que estudi\u00f3 Julia Angwin y colaboradores, y publicaron m\u00e1s o menos el 2016, que es la misma fecha en que me empec\u00e9 a interesar en el tema yo y un mont\u00f3n de otros investigadores, principalmente atra\u00eddes por este caso, que es como una herramienta de IA para determinar el riesgo de reincidencia comete m\u00e1s errores, tiene m\u00e1s falsos positivos en este caso, para personas negras que para personas blancas<sup><\/sup>. Eso no es un asunto de&#8230; Eso indica, entre otras cosas, que esto son terrenos en que los datos est\u00e1n contaminados por una serie de exclusiones, porque terminar en la c\u00e1rcel requiere pasar por una serie de exclusiones de distintos tipos<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-37\" class=\"\">Para m\u00ed uno de los mayores riesgos de la IA es lo que Virginia Eubanks llama la automatizaci\u00f3n de la inequidad. Ella estudia en su libro una serie de algoritmos que se usan para realizar diversas tareas predictivas. Eso incluye algoritmos, por ejemplo, para determinar si alguien est\u00e1 abusando de la prestaci\u00f3n del paro o si alguien est\u00e1 abusando de alguna prestaci\u00f3n social en general. Pero esos algoritmos normalmente no se introducen con el prop\u00f3sito de tener m\u00e1s justicia, sino que normalmente se introducen con el objetivo de ahorrar costos. A la persona que dise\u00f1e esos algoritmos, que es una persona como yo, una persona experta en ciencia de datos, por ejemplo, muchos de vosotros tambi\u00e9n podr\u00edais trabajar en la misma \u00e1rea, que seguramente m\u00e1s de alguna hace cosas de aprendizaje autom\u00e1tico ; lo que se le dice no es \u00abencuentra gente que tenga un 95 % de probabilidad de estar abusando del paro\u00bb. Lo que se le dice es \u00abencu\u00e9ntrame 5000 personas\u00bb, porque yo voy a perseguir a esas 5000 personas, tratar que me demuestren que realmente se merecen la prestaci\u00f3n de paro o que cumplen los requisitos para esta prestaci\u00f3n y algunas de esas personas no van a ser capaces de volver a demostrar que merecen recibir la prestaci\u00f3n o se van a equivocar en alg\u00fan punto del proceso, o ya no van a tener los documentos, o se van a perder la notificaci\u00f3n y les voy a poder quitar la prestaci\u00f3n y as\u00ed ahorrar dinero y pagarte a ti por tu modelo de aprendizaje autom\u00e1tico. <\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-37\" class=\"\">Eso es lo que Rumman Chowdhury, que fue la jefa de \u00e9tica. No s\u00e9 si sab\u00e9is que Twitter contrat\u00f3&#8230; Twitter, Facebook y otras empresas han creado departamentos de \u00e9tica, contratado gente superinteresante y el d\u00eda que esa gente empieza a trabajar cierran el departamento de \u00e9tica. Eso lo le pas\u00f3 a Rumman, le pas\u00f3 a Timnit y a otras investigadoras. Ellos lo llaman &#8216;externalizaci\u00f3n moral&#8217;. Tienes una decisi\u00f3n dif\u00edcil y dices \u00abvoy a introducir un algoritmo para asistirme en esta decisi\u00f3n dif\u00edcil y si todo sale mal, la culpa la tiene el algoritmo, no yo\u00bb. Es como sacar las casta\u00f1as con la mano del gato, no s\u00e9 si lo llam\u00e1is as\u00ed eso.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-39\" class=\"\">Ahora, lo interesante para nosotres es que estos algoritmos normalmente son introducidos en lo que Virginia Eubank llama espacios bajos en derechos<sup><\/sup>. No es que sean espacios bajos en derechos, sino que son circunstancias en las cuales el ejercicio de tus derechos se ve limitado por alguna cosa<sup><\/sup>. Por ejemplo, cuando cruzas una frontera est\u00e1s en un espacio limitado en derechos<sup><\/sup>. \u00bfSe entiende? No es que tengas menos derechos, pero el ejercicio de tus derechos est\u00e1 limitado porque est\u00e1s cruzando una frontera y quiz\u00e1 no conoces los derechos del pa\u00eds al que llegas, est\u00e1s nerviose, ellos tienen un mont\u00f3n de derechos sobre ti, que no est\u00e1s acostumbrado a que tengan otras personas, como el derecho de inspeccionar tus cosas, etc. Y otro lugar es la c\u00e1rcel y cuando pides una prestaci\u00f3n social<sup><\/sup>. Tres ejemplos de situaciones que Virginia Eubanks llama bajas en derechos<sup><\/sup>. Y el caso es que estos algoritmos se prueban primero en \u00e1reas bajas en derechos y luego se introducen en el resto de la sociedad<sup><\/sup>. Esa es la idea. Ese es el riesgo<sup><\/sup>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Investigaci\u00f3n en herramientas de apoyo a la decisi\u00f3n<\/h3>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-40\" class=\"\">Nosotros estudiamos es que si t\u00fa cuando a un experto, una experta, une experte, a una persona le entregas una herramienta de apoyo a la decisi\u00f3n que le permita ver, por ejemplo, cuando recibe un caso, si esta denuncia terminar\u00e1 en maltrato infantil, si esta denuncia de violencia de g\u00e9nero terminar\u00e1 en un feminicidio, si le damos la libertad condicional a esta persona si cometer\u00e1 un nuevo delito<sup><\/sup>. Cuando t\u00fa le das a una persona experta una herramienta de apoyo a la decisi\u00f3n, lo que queremos no es que esa persona conf\u00ede en la herramienta, sino que la persona siga confiando en s\u00ed misma<sup><\/sup>. Y esa persona tiene que navegar una delicada l\u00ednea entre confiar demasiado en esta herramienta de apoyo a la decisi\u00f3n que le dice \u00abesta es una persona de alto riesgo\u00bb o \u00abeste ni\u00f1o va a terminar maltratado\u00bb, entre confiarse demasiado y confiar muy poco tambi\u00e9n, porque algunas de estas herramientas, y os voy a mostrar un caso, son bastante buenas<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-41\" class=\"\">Y son buenas al nivel de una persona experta<sup><\/sup>. Y si es tu primer d\u00eda en el trabajo y te dan una herramienta de predicci\u00f3n de riesgo, es una buena idea escuchar lo que la herramienta te est\u00e1 diciendo, porque esa herramienta se ha alimentado de decenas de miles de casos y ha visto algunos casos similares al que tienes enfrente como t\u00fa no lo has visto<sup><\/sup>. Pero al mismo tiempo t\u00fa y tu cerebro y tu capacidad de procesar informaci\u00f3n y los rasgos que t\u00fa puedes observar y la m\u00e1quina no puede, tambi\u00e9n deber\u00edan complementar eso<sup><\/sup>. Es una l\u00ednea muy delgada. Hemos hecho investigaci\u00f3n en cuatro \u00e1reas. Hemos hecho juegos, por ejemplo<sup><\/sup>. Hemos hecho juegos donde hacemos que la gente busque petr\u00f3leo en un mapa y les decimos \u00abdeber\u00edas hacer clic aqu\u00ed, una IA dice que es el mejor lugar\u00bb<sup><\/sup>. Y lo que hacemos es darles buena ayuda, o sea, un buen consejo, un consejo mediocre y un mal consejo<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-42\" class=\"\">Y lo que vemos es que la gente, cuando t\u00fa le das malos, cuando la IA les da malos consejos, la gente no los sigue<sup><\/sup>. Pero cuando al final les preguntamos si les pareci\u00f3 buena o no la asistencia, dicen que es buena tambi\u00e9n<sup><\/sup>. Dicen que no es tan buena como un sistema que realmente predice cosas, pero aun as\u00ed no es tan mala<sup><\/sup>. O sea, a un nivel inconsciente se dan cuenta de que el apoyo a la decisi\u00f3n es malo, pero a un nivel consciente no<sup><\/sup>. Por eso se puede vender cualquier cosa si dices que tiene IA, la gente se lo cree<sup><\/sup>. Hemos estudiado el reconocimiento de caras, que es algo que nuestro cerebro hace bastante bien<sup><\/sup>. Nosotros le decimos a la gente \u00abestas personas son la misma en distintos momentos, con distinta luminosidad, distinto corte de pelo, distinta \u00e9poca de su vida o distinta orientaci\u00f3n de la cara\u00bb<sup><\/sup>. Luego les mentimos. Les decimos \u00abno, una IA dice que no son la misma persona\u00bb<sup><\/sup>. Yo estoy viendo que son la misma persona, nosotros les decimos que no<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-43\" class=\"\">Y cuando es evidente que son la misma persona, la gente no se deja enga\u00f1ar por la IA<sup><\/sup>. Pero cuando no es tan evidente, es f\u00e1cil llevar a una persona a error<sup><\/sup>. O sea, si un sistema de apoyo a la decisi\u00f3n falla, puede fallar de manera catastr\u00f3fica<sup><\/sup>. A\u00fan cuando t\u00fa est\u00e9s viendo que estas fotos son la misma persona, si una IA te dice que no lo son, puede hacerte cambiar de opini\u00f3n en la direcci\u00f3n equivocada<sup><\/sup>. Trabajamos con reincidencia criminal, trabajamos con simulaciones de contrataci\u00f3n algor\u00edtmica, etc. Os resumo un poco los hallazgos que hemos hecho<sup><\/sup>. Primero es que normalmente las IA tienden a imitar y a exagerar los sesgos humanos<sup><\/sup>. Si hay sesgo de g\u00e9nero, la IA tendr\u00e1 m\u00e1s sesgos de g\u00e9nero<sup><\/sup>. En segundo lugar, hay unas&#8230; incertidumbres irreducibles. T\u00fa no puedes saber a ciencia cierta si alguien va a cometer un delito en 5 a\u00f1os m\u00e1s<sup><\/sup>. No puedes saber seguro que una violencia de g\u00e9nero va a terminar en feminicidio o no<sup><\/sup>. No puedes saberlo. Nadie puede saberlo<sup><\/sup>. Lo que s\u00ed puedes hacer es una inferencia informada sobre ello<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-44\" class=\"\">Y las m\u00e1quinas pueden hacerlo m\u00e1s o menos al mismo nivel que un grupo de expertos, pero no m\u00e1s que eso, no m\u00e1s all\u00e1, y eso plantea un dilema moral<sup><\/sup>. \u00bfDeber\u00edamos usarlas o no? Yo todav\u00eda no tengo una decisi\u00f3n<sup><\/sup>. Segundo, que la gente no se da cuenta de los errores de m\u00e1quina, excepto en casos triviales<sup><\/sup>. Yo creo que la gente, otra cosa que pasa aqu\u00ed es cuando tenemos personas superocupadas tratando de tomar decisiones r\u00e1pidamente, esta persona cumple los requisitos o no, etc. y los ponemos a trabajar a saco tienden a sobreconfiar en m\u00e1quinas<sup><\/sup>. Y especialmente en los departamentos de recursos humanos, porque en todas las empresas grandes los departamentos de recursos humanos usan sistemas de aprendizaje autom\u00e1tico<sup><\/sup>. La pr\u00f3xima vez que postules a un trabajo y probablemente la vez anterior tambi\u00e9n tu CV no ser\u00e1 visto por una persona primero, sino por una m\u00e1quina<sup><\/sup>. Es innegable, la gente recibe rechazos a las 6 de la ma\u00f1ana un lunes, eso no lo vio una persona de RR.HH. tomando demasiado caf\u00e9, eso lo vio una m\u00e1quina<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-45\" class=\"\">Y las burocracias, tanto las p\u00fablicas como las privadas, tienden a sobreconfiar en las m\u00e1quinas y quieren creer. Eso es interesante. Quieren creer. Porque si no creen, tienen que trabajar m\u00e1s, entonces quieren creer.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Investigaci\u00f3n en reincidencia<\/h3>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-45\" class=\"\">Nosotros hemos estudiado, y con un par de diapositivas termino, nosotros hemos estudiado la reincidencia criminal en Catalu\u00f1a. Es quiz\u00e1 el caso que m\u00e1s hemos estudiado, el que ha tenido m\u00e1s prensa. Lo que hemos visto es que la herramienta que se usa ac\u00e1 realmente mejora de alguna manera la capacidad predictiva de la gente. Entonces, voy a hacer una peque\u00f1a pregunta para vosotros. Si una persona sale hoy de una prisi\u00f3n catalana, \u00bfcu\u00e1l cre\u00e9is que es la probabilidad de que vuelva a entrar en prisi\u00f3n en los en los pr\u00f3ximos 5 a\u00f1os?. Y la realidad de las c\u00e1rceles catalanas es 30 %. Esto es universal.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-46\" class=\"\">En general, como vemos un mont\u00f3n de series gringas, nuestra experiencia de la prisi\u00f3n, excepto que alguien haya estado en prisi\u00f3n aqu\u00ed, puede ser que s\u00ed mirando las caras<sup><\/sup>. Nuestra experiencia est\u00e1 modulada por el cine y por eso tendemos a creer<sup><\/sup>. \u00bfY qu\u00e9 pasa con el RisCanvi? \u00bfQu\u00e9 pasa con este sistema?<sup><\/sup>. Este sistema lo que hace&#8230; El sistema sabe, obviamente sabe, que a priori la probabilidad de que una persona vuelva a la c\u00e1rcel es del 30 %<sup><\/sup>. El sistema lo sabe y por lo tanto sus predicciones son arriba<sup><\/sup>. No lo sabe. \u00bfSe me entiende? No es que lo sepa, sino que su predicci\u00f3n base es 30 %<sup><\/sup>. Si t\u00fa le das un caso y no le das ning\u00fan dato, te dir\u00e1 30 %<sup><\/sup>. Y est\u00e1 haciendo lo que debe hacer<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-47\" class=\"\">Tiene un estimador no sesgado, tiene que decirte 30 % y un poco arriba, un poco abajo, pero las personas no dicen 30 %; las personas dicen 80 %, 70 %, 40 %<sup><\/sup>. Lo que hace este sistema es que conforme va aumentando la tarea, va la persona utilizando la herramienta, se da cuenta de que sus estimaciones son muy altas y empieza a bajar sus estimaciones a cosas m\u00e1s reales<sup><\/sup>. La herramienta lo que hace es ayudarle a la persona a darse cuenta de que las prisiones catalanas no son las prisiones gringas y que la gente no tiene la misma probabilidad de reincidir<sup><\/sup>. Es una herramienta que ayuda, que es m\u00e1s de alguna manera pro-reo<sup><\/sup>. Ah\u00ed es donde me viene el dilema moral, porque yo digo esta es una decisi\u00f3n que debe ser tomada eminentemente humana, pero la decisi\u00f3n humana es asignarle a la persona demasiado riesgo<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_e32bc6ef09337bcb-48\" class=\"\">\u00bfQu\u00e9 hago? \u00bfQu\u00e9 se puede hacer? Obviamente esto es un experimento, cuando en la realidad las cosas est\u00e1n moduladas por otras cosas. Quiero decir que a veces estos sistemas son buenos y tienen algunas consecuencias que son positivas, pero a la vez introducen otros riesgos, en particular el riesgo de perder agencia, de estar sujeta de alguna manera a una m\u00e1quina que no tiene rostro y que no te permite desafiar una decisi\u00f3n que consideras errada. Eso es todo y quiero agradecer a toda la gente que trabaja conmigo. Muchas gracias.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Charla en noviembre de 2025 en un encuentro de Science Queers<\/p>\n","protected":false},"author":1,"featured_media":433,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"nf_dc_page":"","_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"_kad_post_classname":"","footnotes":""},"categories":[26],"tags":[],"class_list":["post-432","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-pensar"],"_links":{"self":[{"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/posts\/432","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/comments?post=432"}],"version-history":[{"count":5,"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/posts\/432\/revisions"}],"predecessor-version":[{"id":442,"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/posts\/432\/revisions\/442"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/media\/433"}],"wp:attachment":[{"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/media?parent=432"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/categories?post=432"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/chato.cl\/life\/wp-json\/wp\/v2\/tags?post=432"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}