Hay un dicho que indica que los datos se expandirán hasta llenar toda la capacidad disponible. Tal vez hace diez o veinte años, era común almacenar programas de software, música MP3, películas y otros archivos, que podáin haber sido recopilados durante años. En los días en que las unidades de disco duro ofrecían unas pocas decenas de gigabytes de almacenamiento, la falta de espacio era casi inevitable.
Ahora que tenemos internet de banda ancha rápida y no pensamos en la descarga de un DVD de 4,7 gigabytes, podemos acumular datos aún más rápidamente. Las estimaciones de la cantidad total de datos almacenados en todo el mundo aumentarán de 4,4 billones de gigabytes en 2013 a 44 billones de gigabytes en 2020. Esto significa que estamos generando un promedio de 15 millones de gigabytes al día. A pesar de que las unidades de disco duro ahora se miden en miles de gigabytes en lugar de decenas, todavía tenemos un problema de almacenamiento.
La investigación y el desarrollo se centran en el desarrollo de nuevos medios de almacenamiento de datos que son más densos y por lo que puede almacenar una mayor cantidad de datos, y hacerlo de una manera más eficiente de la energía. A veces esto implica actualizar técnicas establecidas: recientemente IBM anunció una nueva tecnología de cinta magnética que puede almacenar 25 gigabytes por pulgada cuadrada (una pulgada equivale a 2,54 cm), un nuevo récord mundial para la tecnología de 60 años de edad. Mientras que los actuales discos duros magnéticos o de estado sólido son más densos alrededor de 200 gigabytes por pulgada cuadrada, las cintas magnéticas todavía se utilizan con frecuencia para la copia de seguridad de datos.
Sin embargo, la vanguardia de la investigación de almacenamiento de datos está trabajando a nivel de átomos y moléculas individuales, representando el límite máximo de la miniaturización tecnológica.
Búsqueda de los imanes atómicos
Las tecnologías actuales de almacenamiento de datos magnéticos -las utilizadas en los discos duros tradicionales con platos giratorios, estándar hasta hace unos años y que todavía son comunes hoy en día- se basan en métodos «top-down». Esto implica hacer capas delgadas de una gran pieza de material ferromagnético, cada uno conteniendo muchos dominios magnéticos que se utilizan para contener datos. Cada uno de estos dominios magnéticos está hecho de una gran colección de átomos magnetizados, cuya polaridad magnética es establecida por la cabeza de lectura / escritura del disco duro para representar datos como binarios uno o cero.
Un método «ascendente» alternativo implicaría construir dispositivos de almacenamiento colocando átomos o moléculas individuales uno por uno, cada uno capaz de almacenar un solo bit de información. Los dominios magnéticos conservan su memoria magnética debido a la comunicación entre grupos de átomos magnetizados vecinos.
Los imanes de un solo átomo o de una sola molécula por otro lado no requieren esta comunicación con sus vecinos para retener su memoria magnética. En cambio, el efecto de memoria surge de la mecánica cuántica. Por lo tanto, debido a que los átomos o las moléculas son mucho, mucho más pequeños que los dominios magnéticos actualmente utilizados, y pueden usarse individualmente en lugar de en grupos, pueden ser empacados más estrechamente, lo que podría dar lugar a un enorme aumento en la densidad de datos.
Trabajar con átomos y moléculas como éste no es ciencia ficción. Los efectos de la memoria magnética en imanes de una sola molécula (SMMs) se demostró por primera vez en 1993, y efectos similares para los imanes de átomo único se mostraron en 2016.
Aumentar la temperatura
El problema principal que está en el camino de mover estas tecnologías fuera del laboratorio y en la corriente principal es que todavía no trabajan a temperaturas ambiente. Tanto los átomos individuales como los SMM requieren enfriamiento con helio líquido (a una temperatura de -269 ° C), un recurso costoso y limitado. Así, el esfuerzo de investigación durante los últimos 25 años se ha concentrado en elevar la temperatura a la que se puede observar la histéresis magnética, una demostración del efecto de la memoria magnética. Un objetivo importante es -196 ° C, porque esta es la temperatura que se puede lograr con el nitrógeno líquido, que es abundante y barato.
Tomó 18 años para el primer paso sustancial para elevar la temperatura en la que la memoria magnética es posible en SMMs – un aumento de 10 ° C logrado por los investigadores en California. Pero ahora el equipo de investigación en la Escuela de Química de la Universidad de Manchester ha logrado histéresis magnéticas en un SMM a -213 ° C usando una nueva molécula basada en el elemento de tierras raras disprosio, según se informa en una carta a la revista Nature. Con un salto de 56 ° C, esto está a sólo 17 ° C de la temperatura del nitrógeno líquido.
Usos futuros
Sin embargo, hay otros desafíos. Con el fin de almacenar prácticamente bits individuales de datos, las moléculas deben fijarse a las superficies. Esto se ha demostrado con SMMs en el pasado, pero no para esta última generación de SMMs de alta temperatura. Por otra parte, la memoria magnética en átomos individuales ya se ha demostrado en una superficie.
La prueba definitiva es la demostración de la escritura y la lectura no destructiva de datos en átomos o moléculas individuales. Esto ha sido logrado por primera vez en 2017 por un grupo de investigadores de IBM que demostró el dispositivo de almacenamiento de memoria magnética más pequeño del mundo, construido alrededor de un solo átomo.
Sin embargo, independientemente de si los dispositivos de almacenamiento de un solo átomo o de una sola molécula se vuelven verdaderamente prácticos, los avances en la ciencia fundamental que se están realizando a lo largo de este camino son fenomenales. Las técnicas de química sintética desarrolladas por los grupos que trabajan en SMM ahora nos permiten diseñar moléculas con propiedades magnéticas personalizadas, que tendrán aplicaciones en la computación cuántica e incluso la resonancia magnética.
Ampliar en: The Conversation
La compañía de tecnología aeroespacial y de defensa BAE Systems estrena su nueva generación de ordenadores diseñados para el uso espacial. La nueva computadora RAD5545 supera a su predecesora en cuanto a tamaño, velocidad y eficiencia, afirma BAE, con mejoras «exponenciales» en todas las categorías, todo ello en un paquete que se protege por hardware contra la radiación ambiental, lo que significa que puede funcionar de manera fiable en condiciones difíciles en el espacio ultraterrestre durante períodos prolongados.
El RAD5545 está diseñado para ser más simple que los equipos usados en generaciones anteriores de vehículos espaciales y satélites, ya que reemplaza varias tarjetas con una sola. También puede desbloquear nuevas capacidades para futuras naves espaciales, incluyendo cifrado, ejecutar múltiples sistemas operativos a la vez, procesar imágenes de alta resolución, operar de manera autónoma y mucho más.
Cada una de estas tareas estaba más allá de las capacidades de los ordenadores individuales de una sola placa electrónica diseñados para el espacio, según BAE. El historial de BAE Systems en la protección de equipos informáticos está bien probado, ya que ha suministrado procesadores de satélites y naves espaciales y ordenadores durante casi 30 años, con más de 900 instalados en más de 300 satélites lanzados en ese período.
Los ordenadores industriales reforzados son clave para la informática basada en el espacio y serán cruciales para las misiones planificadas a largo plazo hacia Marte, lo que podría aumentar los riesgos de exposición para la electrónica. HPE está ahora realizando una prueba de endurecimiento del software de su propio superordenador, pero los ordenadores de una sola placa como éste seguirán siendo instrumentales en el suministro de capacidad operacional básica para cualquier nave espacial con la esperanza de alcanzar el planeta rojo.
IBM anunció hoy que está trabajando con un consorcio que incluye Dole, Golden State Foods, Kroger, McCormick y Company, Nestlé, Tyson Foods, Unilever y Walmart para llevar el beneficio de las cadenas de bloques (block-chains) a la cadena de suministro de alimentos.
IBM, al igual que la mayoría de sus competidores en el espacio de computación en la nube pública, ha estado trabajando en varios proyectos de cadenas de bloques en los últimos meses.
Dada la complejidad de la cadena de suministro de alimentos de productor a consumidor, block-chains podría encontrar un nicho muy interesante aquí porque permitiría más transparencia y trazabilidad (especialmente cuando las cosas van mal). La idea detrás de este proyecto y la colaboración entre estas diferentes empresas es averiguar dónde exactamente puede beneficiar el ecosistema de alimentos.
«La tecnología de Blockchain permite una nueva era de transparencia de extremo a extremo en el sistema alimentario mundial», escribe Frank Yiannas, vicepresidente de seguridad alimentaria de Walmart. «También permite a todos los participantes compartir información rápidamente y con confianza a través de una sólida red de confianza».
No es de sorprender que la Plataforma Blockchain de IBM constituya la base de gran parte de este trabajo. Soporta las tecnologías Hyperledger Fabric y Hyperledger Composer de Linux Foundation para la creación de aplicaciones basadas en cadenas de bloques.
Es interesante ver cómo una serie de grandes jugadores están trabajando para llevar block-chains a las empresas. A principios de este mes, por ejemplo, Microsoft lanzó un nuevo proyecto para hacer block-chains listos para la empresa, también, por ejemplo. A principios de este año, un estudio de IBM también encontró que un tercio de las empresas están buscando en cómo esta tecnología puede beneficiar a su negocio.
Según dos científicos suecos, la mejor manera de disfrutar un whisky es agregar un poco de agua. La dilución liberaría una pequeña molécula aromática, el guaiacol, particularmente presente en los whiskies escoceses.
La fabricación del whisky comienza con etapas de fermentación y destilación. El whisky, que contiene aproximadamente el 70 % de alcohol por volumen en esta etapa, se envejece con los años. El alcohol se evapora durante esta maduración, resultando en un nivel de alcohol de aproximadamente 55-65 %. Antes del embotellado, el whisky se diluye hasta aproximadamente el 40 % añadiendo agua, lo que altera su sabor. Pero algunos aficionados todavía afirman verter un poco de agua en su copa para probar y mejorar su sabor.
En un artículo en Scientific Reports, Bjorn Karlsson y Ran Friedman querían saber si la adición de agua en el whisky realmente le dio más sabor. Para ello, utilizaron una simulación por ordenador y modelaron la composición del whisky. Hay dos hipótesis para explicar que la adición de agua mejora las cualidades gustativas del whisky, como explicó Bjorn Karlsson en el Washington Post. La primera es que el agua atrapa compuestos desagradables: ésteres de ácidos grasos. Pero según los investigadores, estos ésteres están presentes en concentraciones demasiado bajas para desempeñar un papel.
Guaiacol en la superficie del whisky diluido
La segunda hipótesis es que el agua libera moléculas que mejoran el sabor. El agua y el alcohol no se mezclan bien, los compuestos aromáticos pueden quedar atrapados en etanol y no llegar a la superficie. El whisky contiene muchos compuestos, pero los investigadores se han concentrado en guaiacol (C7H8O2), una pequeña molécula hidrofóbica que da un sabor ahumado, y más común en whisky escocés que whisky americano o irlandés.
Basándose en estas simulaciones, la concentración de etanol tuvo un efecto sobre el guaiacol. A diluciones por debajo del 45 %, es decir, a concentraciones de embotellado, el etanol se acumula en la superficie con guaiacol, donde se puede consumir. Pero por encima del 59 % de etanol, la concentración después de la destilación y antes de la dilución, el guaiacol está más rodeado de moléculas de etanol y menos presente en la superficie, y por lo tanto, en los eflujos liberados
Filtrar información para los motores de búsqueda, actuar como oponente en juegos o reconocer imágenes: La inteligencia artificial ha superado con mucho la inteligencia humana en ciertas tareas. Varios grupos del clúster de excelencia de Friburgo, BrainLinks-BrainTools, dirigidos por el profesor de neurociencias Dr. Tonio Ball, están demostrando cómo las ideas de la informática podrían revolucionar la investigación del cerebro. En la revista científica Human Brain Mapping, ilustran cómo un algoritmo de autoaprendizaje decodifica las señales del cerebro humano que fueron medidas por un electroencefalograma (EEG). Incluye movimientos realizados, pero también movimientos de manos y pies que eran meramente pensamientos o una rotación imaginaria de objetos. A pesar de que al algoritmo no se le dio ninguna característica previamente, funciona de forma tan rápida y precisa como los sistemas tradicionales que han sido creados para resolver ciertas tareas basadas en señales cerebrales predeterminadas, que por lo tanto no son apropiadas para cada situación. La demanda de intersecciones tan diversas entre el hombre y la máquina es enorme: en el Hospital Universitario de Friburgo, por ejemplo, podría utilizarse para la detección temprana de crisis epilépticas. También podría utilizarse para mejorar las posibilidades de comunicación para los pacientes gravemente paralizados o para un diagnóstico neurológico automático.
«Nuestro software se basa en modelos inspirados en el cerebro que han demostrado ser más útiles para descifrar diversas señales naturales como los sonidos fonéticos», dice el científico informático Robin Tibor Schirrmeister. El investigador lo está utilizando para reescribir los métodos que el equipo ha utilizado para decodificar datos de EEG: las denominadas redes neuronales artificiales son el corazón del proyecto actual en BrainLinks-BrainTools. «Lo destacado acerca del programa es que no es necesario predeterminar las características. La información es procesada capa por capa, es decir, en varios pasos con la ayuda de una función no lineal. El sistema aprende a reconocer y diferenciar entre ciertos patrones de comportamiento de varios movimientos a medida que suceden», explica Schirrmeister. El modelo se basa en las conexiones entre las células nerviosas en el cuerpo humano en el que las señales eléctricas de las sinapsis se dirigen desde las protuberancias celulares al núcleo de la célula y viceversa. «Las teorías han estado en circulación durante décadas, pero no fue sino hasta el surgimiento de la potencia de procesamiento de los ordenadores actuales que el modelo se ha hecho factible», comenta Schirrmeister.
Habitualmente, la precisión del modelo mejora con un gran número de capas de procesamiento. Hasta 31 se utilizaron durante el estudio, también conocido como «Aprendizaje Profundo». Hasta ahora, había sido problemático interpretar los circuitos de la red después de completar el proceso de aprendizaje. Todos los procesos algorítmicos tienen lugar en el fondo y son invisibles. Es por eso que los investigadores desarrollaron el software para crear tarjetas a partir de las cuales podían entender las decisiones de decodificación. Los investigadores pueden insertar nuevos conjuntos de datos en el sistema en cualquier momento. «A diferencia del método antiguo, ahora podemos ir directamente a las señales crudas que el EEG registra del cerebro, nuestro sistema es tan preciso, si no mejor, que el antiguo», dice el investigador jefe Tonio Ball, resumiendo el estudio de la investigación. El potencial de la tecnología aún no se ha agotado – junto con su equipo, el investigador desea continuar su desarrollo: «Nuestra visión para el futuro incluye algoritmos de autoaprendizaje que pueden confiable y rápidamente reconocer las diversas intenciones del usuario basadas en sus señales cerebrales Además, estos algoritmos podrían ayudar a los diagnósticos neurológicos «.
Ampliar en: https://arxiv.org/abs/1703.05051
La multiplexación, capacidad de enviar múltiples señales a través de un solo canal, es una característica fundamental de cualquier sistema de comunicación de voz o datos. Un equipo de investigación internacional ha mostrado por primera vez un método para multiplexar datos transmitidos por ondas de terahercios, radiación de alta frecuencia que puede posibilitar una próxima generación de redes inalámbricas de ancho de banda ultra-alto.
En la revista Nature Communications, los investigadores informan de la transmisión de dos señales de vídeo en tiempo real a través de un multiplexor de terahercios a una velocidad de datos agregada de 50 gigabits por segundo, aproximadamente 100 veces la velocidad óptima de datos de la red móvil celular más rápida de las actuales.
«Demostramos que podemos transmitir flujos de datos separados en ondas terahercios a velocidades muy altas y con tasas de errores muy bajas», dijo Daniel Mittleman, profesor de la Escuela de Ingeniería de Brown y coautor del documento. «Esta es la primera vez que alguien ha caracterizado un sistema de multiplexación terahercios utilizando datos reales, y los resultados muestran que nuestro enfoque podría ser viable en futuras redes inalámbricas a frecuencias de terahercios».
Las redes actuales de voz y datos utilizan microondas para llevar señales inalámbricas. Pero la demanda de transmisión de datos se está convirtiendo rápidamente en algo más de lo que las redes de microondas pueden manejar. Las ondas de terahercio tienen frecuencias más altas que las microondas y por lo tanto una capacidad mucho mayor para transportar datos. Sin embargo, los científicos apenas han comenzado a experimentar con estas frecuencias, y muchos de los componentes básicos necesarios para la comunicación teraherciios todavía no existen.
Un sistema para multiplexar y demultiplexar (también conocido como mux/demux) es uno de esos componentes básicos. Es la tecnología que permite a un cable llevar múltiples canales de televisión o a cientos de usuarios acceder a una red wifi inalámbrica.
Enfoque mux/demux
Mittleman y sus colegas desarrollaron dos placas de metal colocadas paralelas entre sí para formar una guía de ondas. Una de las placas tiene un corte. Cuando las ondas viajan a través de la guía de ondas, parte de la radiación se escapa a través de la hendidura. El ángulo en el que los haces de radiación escapan depende de la frecuencia de la onda.
«Podemos poner varias ondas a varias frecuencias diferentes – cada una de las cuales lleva una corriente de datos – en la guía de ondas, y no interferirán entre sí porque son frecuencias diferentes, eso es multiplexar», dijo Mittleman. «Cada una de esas frecuencias se escapa de la hendidura en un ángulo diferente, separando los flujos de datos, eso es demultiplexar».
Debido a la naturaleza de las ondas de terahercios, las señales en estas redes de comunicaciones se propagarán como haces direccionales, no transmisiones omnidireccionales como en los sistemas inalámbricos existentes. Esta relación direccional entre el ángulo de propagación y la frecuencia es la clave para habilitar mux/demux en estos sistemas. Un usuario en una ubicación particular (y por lo tanto en un ángulo particular desde el sistema de multiplexación) se comunicará en una frecuencia particular.
En 2015, el laboratorio de Mittleman publicó por primera vez un artículo describiendo su concepto de guía de ondas. Para ese trabajo inicial, el equipo utilizó una fuente de luz terahercios de banda ancha para confirmar que diferentes frecuencias surgieron del dispositivo en diferentes ángulos. Si bien esa fue una prueba efectiva de concepto, Mittleman dijo, este último trabajo tomó el paso crítico de probar el dispositivo con datos reales.
Trabajando con Guillaume Ducournau en el Instituto de Electrónica, Microelectrónica y Nanotecnología, CNRS / Universidad de Lille, en Francia, los investigadores codificaron dos emisiones de televisión de alta definición en ondas terahertz de dos frecuencias diferentes: 264,7 GHz y 322,5 GHz. Entonces transmitieron ambas frecuencias juntas en el sistema multiplexor, con un receptor de televisión fijado para detectar las señales como emergieron del dispositivo. Cuando los investigadores alinearon su receptor al ángulo desde el cual se emitieron las ondas de 264,7 GHz, vieron el primer canal. Cuando se alinearon con 322,5 GHz, vieron el segundo.
Otros experimentos mostraron que las transmisiones estaban libres de errores hasta 10 gigabits por segundo, lo cual es mucho más rápido que las velocidades wifi estándar actuales. Las tasas de error aumentaron algo cuando la velocidad aumentó a 50 gigabits por segundo (25 gigabits por canal), pero todavía estaban dentro del rango que se puede ajustar mediante la corrección de errores, que se utiliza comúnmente en las redes de comunicaciones actuales.
Además de demostrar que el dispositivo funcionó, Mittleman dice que la investigación reveló algunos detalles sorprendentes sobre la transmisión de datos en las ondas a terahercios. Cuando una onda se modula para codificar datos – es decir, activado y desactivado para hacer ceros y unos – la onda principal está acompañada por frecuencias de banda lateral que también deben ser detectadas por un receptor para transmitir todos los datos. La investigación mostró que el ángulo del detector con respecto a las bandas laterales es importante para mantener la tasa de error baja.
«Si el ángulo está un poco desfasado, podríamos estar detectando toda la potencia de la señal, pero estamos recibiendo una banda lateral un poco mejor que la otra, lo que aumenta la tasa de error». Mittleman explicó. «Así que es importante tener el ángulo correcto.»
Detalles fundamentales como ese serán críticos, dijo Mittleman, cuando llegue el momento de comenzar a diseñar la arquitectura para sistemas completos. «Es algo que no esperábamos, y muestra lo importante que es caracterizar estos sistemas usando datos en lugar de una fuente de radiación no modulada».
Los investigadores planean continuar desarrollando este y otros componentes. Recientemente recibió una licencia de la FCC para realizar pruebas al aire libre en frecuencias de terahercios en el campus de la Universidad Brown «Creemos que tenemos la licencia de mayor frecuencia emitida actualmente por la FCC, y esperamos que sea una señal de que la agencia esté empezando a pensar. Las compañías van a ser renuentes a desarrollar tecnologías de terahercios hasta que haya un serio esfuerzo de los reguladores para asignar las bandas de equencia para usos específicos, por lo que este es un paso en la dirección correcta.»
Ampliar en: EurekaAlert¡
En estos días se ha oído hablar del llamado manifiesto de «anti-diversidad» de Google y cómo James Damore, el ingeniero que lo escribió, ha sido despedido de su trabajo.
Damore dijo que la brecha de género en la diversidad de Google no se debía a la discriminación, sino a diferencias inherentes en lo que los hombres y las mujeres consideran interesante. Danielle Brown, nueva vicepresidenta de Google para la diversidad, integridad y gobernabilidad, acusó al manifiesto de avanzar «suposiciones incorrectas sobre género», y Damore confirmó anoche que fue despedido por «perpetuar los estereotipos de género».
A pesar de cómo se ha valorado, el memorándum era justo y factualmente exacto. Los estudios científicos han confirmado las diferencias sexuales en el cerebro que conducen a diferencias en nuestros intereses y comportamiento.
Como se menciona en el memorándum, los intereses de género se predicen por la exposición a la testosterona prenatal – niveles más altos se asocian con una preferencia por las cosas mecánicamente interesantes y las ocupaciones en la edad adulta. Los niveles más bajos se asocian con una preferencia por las actividades y ocupaciones orientadas a las personas.Esta es la razón por la cual los campos STEM (ciencia, tecnología, ingeniería y matemáticas) tienden a ser mayoritariamente ocupados por los hombres.
Se ven pruebas de esto en las niñas con una condición genética llamada hiperplasia suprarrenal congénita, que están expuestas a niveles inusualmente altos de testosterona en el útero. Cuando nacen, estas niñas prefieren los juguetes con ruedas, como los camiones, incluso si sus padres ofrecen más retroalimentación positiva cuando juegan con juguetes típicos femeninos, como muñecas. Del mismo modo, los hombres que están interesados en las actividades típicas de la mujer, probablemente estuvieron expuestos a niveles más bajos de testosterona.
Además, nuevas investigaciones en el campo de la genética demuestran que la testosterona altera la programación de células madre neurales, lo que lleva a las diferencias sexuales en el cerebro, incluso antes de que termine de desarrollarse en el útero. Esto sugiere además que nuestros intereses están fuertemente influenciados por la biología, en oposición a ser aprendidos o socialmente construidos.
Muchas personas, entre ellas el ex empleado de Google, han intentado refutar los puntos del memorandum, alegando que contradicen las últimas investigaciones.
Me encantaría saber qué «investigación hecha […] durante décadas» se refiere, porque miles de estudios sugieren lo contrario. Un solo estudio, publicado en 2015, afirmó que los cerebros masculinos y femeninos existían a lo largo de un «mosaico» y que no es posible diferenciarlos por sexo, pero esto ha sido refutado por cuatro – sí, cuatro – estudios académicos desde entonces.
Esto incluye un estudio que analizó exactamente los mismos datos del cerebro del estudio original y encontró que el sexo de un cerebro determinado podría ser correctamente identificado con un 69 a 77 por ciento de precisión.
Por supuesto, las diferencias existen a nivel individual, y esto no significa que el medio ambiente no juega ningún papel en nuestra formación. Pero afirmar que no hay diferencias entre los sexos cuando se miran los promedios grupales, o que la cultura tiene mayor influencia que la biología, simplemente no es cierto.
De hecho, la investigación ha demostrado que las culturas con mayor equidad de género tienen mayores diferencias sexuales en lo que respecta a las preferencias de trabajo, porque en estas sociedades, las personas son libres de elegir sus ocupaciones en función de lo que disfrutan.
Como sugiere el memorandum, no es realista tratar de cumplir una cuota de 50 por ciento de mujeres en STEM. A medida que la equidad de género continúa mejorando en las sociedades en desarrollo, debemos esperar que esta brecha de género se amplíe.
Esta tendencia continúa en el área de la personalidad, también. Contrariamente a lo que los detractores le harían creer, las mujeres tienen, en promedio, un nivel más alto en neuroticismo y ser agradables, y menor tolerancia al estrés.
Algunos intencionalmente niegan la ciencia porque temen que se utilice para justificar el mantenimiento de las mujeres de STEM. Pero el sexismo no es el resultado de conocer hechos. Es el resultado de lo que la gente elige hacer con ellos. Esto es exactamente lo que la muchedumbre de indignación debe movilizarse para, en lugar de negar la realidad biológica y estar contento de pasar un fin de semana doxxing un hombre para que él perdería su trabajo. En este punto, como se anunció en el manifiesto de Damore, deberíamos estar más preocupados por la diversidad de puntos de vista que la diversidad que gira alrededor del género.
Ampliar en: The Globe and Mail