Desde un punto de vista puramente técnico, hasta que podamos decir con certeza que una plataforma web social ha incrustado la inteligencia artificial, la cuestión de la moralidad no es respondible (y tal vez nunca, considerando la historia humana). Como dice Danny a continuación, las cosas no tienen intención, por lo que las consecuencias no se aplican realmente. En este momento tenemos muchos programas, bots, etc. que pueden “aprender” cómo actuar o qué es correcto o incorrecto en base a un gran y variado depósito de posibilidades, pero eso no significa que sientan nada sobre las consecuencias de hacerlo. hacer lo correcto o hacer lo incorrecto (por ejemplo, puede decirle a un algoritmo que no es deseable que los usuarios tengan un perfil racial, pero no puede hacer que sienta la experiencia).
Sin embargo, las bases de los códigos reales, la sintaxis, la estructura en sí misma, contienen todos los juicios morales y las expectativas transmitidas por las personas que los crean. En otras palabras, las máquinas y los programas escuchan a sus creadores, pero no necesariamente a los usuarios finales. En este momento nos alimentamos constantemente con la idea de que “todo puede pasar en la web” y que las plataformas sociales son simplemente conductos que reflejan de manera neutral lo que los humanos dicen y hacen, con lo que no estoy de acuerdo. Para combatir esto, necesitamos más estructura que sea verdaderamente impulsada por el usuario (piense, la forma en que Github funciona, pero para cosas distintas al código de construcción), donde las personas resuelven sus propios problemas … en lugar de una nueva aplicación o compañía creada para cada cosa.