miércoles, 22 de noviembre de 2017

Pero, ¿dónde está el impacto?

Facultad de Educación (UNED).
Cátedra UNESCO de Educación a Distancia
Director de RIED. Revista Iberoamericana de Educación a Distancia.
 En una entrada anterior en este blog me refería a la necesidad y obsesión por publicar nuestra producción científica en revistas con factor de impacto. Hacemos esta segunda entrada refiriéndonos a este indicador bibliométrico, el Factor de Impacto (FI). Quizás en una tercera entrada me referiré a los revisores que certifican el impacto. Las tres entradas están básicamente extraídas de un artículo por mí publicado (García Aretio, 2015).
Bien sabemos que el Factor de Impacto (FI), habitual en el Journal Citation Reports (JCR),de una revista científica para un año determinado, se calcula dividiendo las citas que ese año han recibido los artículos publicados durante los dos años anteriores, entre el número total de artículos publicados en esos dos años. Esa se ha convertido en medida estándar para premiar o sancionar a los docentes/investigadores universitarios. Sin embargo, más allá de aceptar el valor de este indicador, no vendrá mal reflexionar sobre las dudas que suscita una métrica que se ha elevado a consideración de relevancia máxima a la hora de valorar méritos investigadores. ¿Saben cuántas corruptelas para aumentar el número de citas de un artículo? Ebrahim y otros (2013) recopilan hasta 33 estrategias diferentes que pueden llegar a aumentar ese número de citas, y así elevar el factor de impacto de determinada revista y, en consecuencia, de los artículos ahí publicados.
Son demasiados los trabajos de excelencia publicados en revistas con revisión por pares (peer review), exigentes y reconocidos, con alto grado de difusión, accesibilidad y visibilidad pero que no cuentan con el OK de las comisiones de valoración de las diferentes agencias. Es decir, no han recibido el placet de una determinada empresa privada internacional que decide cuál revista sí y cuál no es merecedora de “premio”.
Sin gran esfuerzo de exploración, puede detectarse que un determinado artículo que pudiera considerarse por muchos pares, de calidad mediocre, fue evaluado por dos expertos que, o fueron generosos o entendieron, según su respetable criterio, que el artículo era bueno y merecía ser publicado en esa revista de “impacto”. Pues bien, ese artículo se publica, “cuenta” como mérito de relevancia para el autor o autores, pero ese trabajo no lo va a leer casi nadie, ni nadie lo va a citar. Pero ha servido para la promoción de quien lo escribió. Es probable que transcurridos 6-8 años, el artículo en cuestión no haya recibido una sola cita o un número extremadamente escaso de ellas. Esto puede comprobarse fácilmente acudiendo Web of Science (WoS),Scopus o, más sencillo, a Google Scholar. Por contra, cuántos libros que sustentan estudios fruto de mucho esfuerzo, cuántos trabajos de investigación de calidad elevada, publicados en esas otras buenas revistas, aunque sin factor de impacto reconocido pero bien indexadas o, incluso, en reconocidos blogs académicos, impactan realmente, al menos socialmente, en la comunidad universitaria internacional y vienen a ser trabajos de referencia académica, muy leídos y muy citados, pero no sirven para la promoción académica de los docentes universitarios porque, aunque buenos y muy citados, no fueron publicados en donde, según otros, había que publicar.
A los pocos años de funcionamiento de la evaluación de sexenios de investigación (productividad investigadora) en España para el profesorado universitario, por parte de la agencia correspondiente de entonces (CNEAI – Comisión Nacional Evaluadora de la Actividad Investigadora), empezó a calar en la comunidad universitaria, fundamentalmente de los campos de humanidades y de ciencias sociales,  aquello de que los libros “no contaban” o “contaban poco” a la hora de valorar los méritos de investigación de un docente universitario. Lo importante era el artículo en revista con índice o factor de impacto. Fueron muchos los colegas de entonces que actuaron en consecuencia y dedicaron sus esfuerzos a publicar en revistas y empezaron a declinar la elaboración de libros, ensayos, monografías, y también ignoraron otras formas de divulgación científica entonces a través de revistas “no de impacto” aunque pudieran ser de alta difusión. Cierto que esta fue probablemente la causa de que los científicos españoles empezaran a aparecer en revistas de destacado relieve internacional (Galán, 2011) y, sin duda, estos colegas escalaron con rapidez a otras categorías docentes superiores. Es decir, parece que se trata de medir sólo el impacto dentro de la comunidad científica olvidando otros reales impactos que suceden fuera de esos círculos selectos y que, sin duda, ofrecen en muchos casos grandes vías para la innovación y el progreso de la sociedad, objetivo de los avances científicos, ¿impacto social quizás?
Otros no hicieron caso y continuaron actuando de igual modo. Probablemente no consiguieron los sexenios de investigación que poco a poco en España se vinieron convirtiendo en la unidad básica de medida de la productividad investigadora en la Universidad y, en consecuencia, de la promoción académica y de la recepción de complementos retributivos y otros recursos. Y, finalmente, los terceros, entre los que me encuentro, hicieron (hicimos) lo necesario para la consecución de esos sexenios exigidos en esa supuesta universidad de calidad, pero además de eso, continuamos divulgando el conocimiento a través de libros, artículos breves y posteriormente, incluso, a través de blogs, redes sociales, etc. Pero parece que esto no es impacto. Y tienen razón, si se aferran a las definiciones al uso sobre los índices y factores de impacto de la productividad científica ¿quizás impacto social?
Además de lo señalado, con este rasero de medida, los campos más pequeños en el ámbito científico, juegan y jugarán siempre un papel muy limitado. Es decir, por ejemplo, un investigador líder en un campo científico más reducido, juega con desventaja porque los campos de investigación amplios y más tradicionales cuentan con multitud de revistas que forman parte de estas élites y por tanto se autogeneran cuantiosas citas y en consecuencia, más revistas y con mayores factores de impacto. Así un líder de estos campos extensos lucirá unos índices muy superiores al otro, al del campo de las Ciencias Sociales, por ejemplo, pudiendo ser este último un auténtico sabio. Además de los campos de investigación, también la propia lengua en que se publica el artículo limitan la eficacia de estos sistemas (Matsuda y Tardy, 2007).
¿Cómo comparar investigaciones de carácter clínico o biológico publicadas en revistas con elevadísimo factor de impacto y que son citadas en otras, muy numerosas, del mismo campo o de área cercana, con una valiosa investigación realizada, por ejemplo, en el campo de la educación, donde existen muy pocas revistas y las que hay, salvo excepción, con escaso factor de impacto? Quizás esta última fue una investigación o un trabajo original destinado a cierta aplicación de carácter pedagógico, innovadora y muy válida, posiblemente, para amplios colectivos de docentes pero, quizás, no realizada con el objeto de ser citada. ¿Podemos aplicar el factor de impacto (métrica de citas) a este artículo como medida de su calidad?
Podría entenderse que el factor de impacto de las revistas y artículos considerado de forma universal y homogénea, para todos los ámbitos científicos, no resulta ser el instrumento de medida más adecuado, ¿podrían existir otras métricas?
Cuando se investiga es indudable que interesa publicar el fruto de esos trabajos. Y si se publica algo, lo que se desea es que sea leído. Por eso, fuera de los circuitos de los JCR, debería publicarse allí donde se puede entender que podría existir accesibilidad y visibilidad. Cuando se trataba de libros, en editoriales de prestigio que tuviesen buenos servicios de difusión y distribución, cuando se tratase de artículos, en revistas de calidad, igualmente bien accesibles y visibles. Esa ha sido la forma de entender el “impacto”, en este caso parece que social, por parte de muchos colegas. Si aquello que escribes es ignorado por los demás, mala cosa. Pero si es seguido, leído y, probablemente citado, puede pensarse que mereció la pena el trabajo. Más allá de que la excelencia la califiquen otros, igualmente universitarios quizás como aquellos que han citado ese trabajo.
Referencias bibliográficas:
Galán-González, A. y Zych, I. (2011). Análisis de los criterios de la Comisión Nacional Evaluadora de la Actividad Investigadora (CNEAI) para la concesión de los tramos de investigación en educación. Bordón, 63 117-139. Recuperado:http://recyt.fecyt.es/index.php/BORDON/article/view/28978
García Aretio, L. (2015). Publicar (casi exclusivamente) en revistas de impacto. RIED. Revista Iberoamericana de Educación a Distancia, 18(2), 7-22. doi:http://dx.doi.org/10.5944/ried.18.2.14254
Ebrahim, N.A.; Salehi, H.; Embi, M.A.; Habibi, F.; Gholizadeh, H.; Motahar, S.M. y Ordi, A. (2013). Effective Strategies for Increasing Citation Frequency. International Education Studies, 6 (11), 93-99.
Matsuda, P.K., y Tardy, C.M. (2007). Voice in academic writing: The rhetorical construction of author identity in blind manuscript review. English for Specific Purposes, 26, 235–249. doi: 10.1016/j.esp.2006.10.001.
Cómo citar esta entrada:
García Aretio, L. (2017). Pero, ¿dónde está el impacto?. Aula Magna 2.0. [Blog]. Recuperado de: https://cuedespyd.hypotheses.org/3232

Tomado de Aula Magna 2.0 con permiso de sus autores.

martes, 21 de noviembre de 2017

Análisis de una propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación

Director de RELIEVERevista ELectrónica de Investigación y EValuación Educativa. Universidad de Valencia (UV)
Aula Magna 2.0 ha vuelto un año más a su cita con los lectores y con vocación de ser un punto de encuentro sobre investigación educativa y el que probablemente se ha convertido ya en su principal medio de difusión: las revistas científicas.
Desde el principio uno de los principales objetivos de Aula Magna 2.0 fue el de posibilitar el establecimiento de “debates sobre temas y problemas de la educación en nuestro contexto global” (Diestro Fernández, Ruiz-Corbella & Galán, 2015). En efecto, la tecnología ha propiciado la aparición de nuevos instrumentos de comunicación entre los académicos (Mengual & Aliaga, 2017), en este caso un blog, que permiten por su flexibilidad y rapidez, un intercambio de ideas, un debate, con menos corsés y más agilidad que las revistas y, no digamos, los libros. Se trata de un nuevo entorno al que todos tenemos que adaptar nuestros hábitos académicos, incluso nuestro lenguaje, pero que puede ser una excelente herramienta para la mejora de la investigación.
En este contexto, quisiera comentar la propuesta recientemente planteada por Rodríguez-Sabiote (2017) en este mismo medio. Tradicionalmente se han planteado distintos enfoques para evaluar las revistas científicas, básicamente las que tienen que ver con su impacto (generalmente medido mediante contabilización de citas recibidas), con su prestigio en la comunidad científica (encuestas, expertos, etc.) o con el cumplimiento de criterios de calidad editorial (generalmente solo formales). Cercano a este último enfoque, pero con un planteamiento algo diferente, Rodriguez-Sabiote propone unos “indicadores de calidad metodológica” con la intención de que puedan utilizarse “para la valoración y clasificación de revistas de investigación” (Título).
En mi opinión, cualquier aportación que nos oriente para la evaluación y mejora de las revistas científicas siempre es bienvenido. En este caso, la propuesta de Rodríguez-Sabiote puede ser un punto de partida interesante para este propósito, por lo que merece un análisis y debate cuidadoso.
Básicamente la propuesta de Rodríguez Sabiote (2017) plantea analizar la presencia o ausencia de diversas informaciones específicas sobre la metodología de investigación empleada en las investigaciones empíricas. Este planteamiento ya denota algunas limitaciones de este acercamiento: no todas las revistas publican exclusiva o mayoritariamente artículos de investigación empírica. La razón es evidente: la ciencia no es sólo investigación empírica, ya que también requiere de una parte de elaboración teórica y de propuesta de modelos que nos ayuden a entender mejor la realidad. 

No en balde, denominamos al método científicos como hipotético-deductivo, dos términos que hacen referencia a las fases puramente teóricas (a pesar de que el método científico empieza y acaba con hechos). Así pues, la necesidad de teorías (que, obviamente, pueden y suelen plantearse en artículos teóricos) no es algo ajeno, ni mucho menos, a la ciencia ni, por tanto, a las revistas científicas. Recordemos, por ejemplo, lo que significó para la el avance de la ciencia el denominado “Annus mirabilis” (año maravilloso) de Einstein (1905), con la publicación de diversos artículos teóricos (el autor era un desconocido que trabajaba en una oficina de patentes, sin ningún laboratorio en el que experimentar ninguna de sus ideas) en la revista Annalen der Physik (Dávalos, 2005). No hay, por tanto, metodología empírica alguna que analizar en esos artículos, en esa revista, lo cual difícilmente puede argüirse contra la calidad de dicha publicación.
Aceptemos, por tanto, que la propuesta de indicadores de Rodríguez-Sabiote (2017) no es un indicador de la calidad “de las revistas”, con carácter general. De hecho, el objetivo planteado por el autor es más bien el de analizar “los niveles técnico-metodológico y estadístico-analítico de los informes empíricos de investigación” (penúltimo párrafo de la introducción). Sin embargo, tanto en el título de su trabajo como en la valoración final por categorías sí se plantea utilizar las puntuaciones obtenidas para evaluar las “revistas”, en su conjunto, lo que puede resultar algo confuso.
Dada la diversidad metodológica propia de las Ciencias Sociales, encontramos otras limitaciones en el tipo de indicadores propuestos: no son aplicables a todo tipo de enfoque sino que se centra, fundamentalmente, en investigaciones realizadas desde un enfoque empírico cuantitativo, derivado de postulados positivistas (Husén, 1997). El vocabulario empleado, y el nombre de los tópicos objeto de análisis (muestreo, fiabilidad, validez, variables, etc.) denota este sesgo cuantitativo. No quedan, por tanto, bien recogidas las características de investigaciones empíricas propias de otros enfoques (cualitativos, sociocríticos, etc.) o con otras metodologías (histórica, comparada, etc.) en el listado de indicadores propuestos.
También sería deseable encontrar mayor especificación terminológica en algunos de los items que propone Rodríguez-Sabiote. Así, por ejemplo, es discutible que el último de los indicadores, “Los análisis de datos están adecuadamente interpretados”, pueda interpretarse en términos de presencia/ausencia (los análisis pueden ser correctamente interpretados, pero de manera incompleta, o no suficientemente interrelacionados con otros resultados), además de que el término “adecuadamente” remite, necesariamente, a una valoración subjetiva, y por tanto variable, entre los distintos potenciales evaluadores.
Por último, respecto al uso propuesto del conjunto de los indicadores, quisiéramos plantear dos observaciones. La primera, que ya hemos avanzado, es que se pretenda utilizar el cumplimiento de los mismos para evaluar “las revistas” y no los artículos, dado que muchas de las publicaciones periódicas incluyen artículos de distinto tipo, incluyendo artículos teóricos, experiencias de innovación docente, etc. Dependiendo del perfil de las revistas analizadas, podemos encontrarnos que en algunos casos quedan excluidos del análisis propuesto de indicadores de investigación empírica más de la mitad de los artículos publicados, por lo que difícilmente podemos generalizar los resultados a toda la revista.
La segunda objeción se refiere a la denominación de la propuesta de categorías de evaluación para las revistas, en la que se habla de cuartiles. Este término tiene una definición precisa en el ámbito matemático: “Valor que divide un conjunto ordenado de datos estadísticos de forma que un porcentaje de tales datos sea inferior a dicho valor” (definición del diccionario de la Real Academia Española; el subrayado es nuestro). La utilización del término cuartil en este contexto (a priori, y no a posteriori) introduce una confusión entre evaluación referida al criterio y evaluación referida a la norma (Hambleton, 1997). Hablemos de categorías jerárquicas, pero dejemos el término cuartil (que tanto arrastra de por sí) para agrupar porcentajes de casos, no cumplimiento de grupos de criterios.
En definitiva, la propuesta de Rodríguez-Sabiote (2017) nos parece un muy interesante punto de partida para crear una herramienta que nos ayude a los editores a perfilar mejor las exigencias que hemos de plantear a los manuscritos en los casos de artículos de investigación empírica de enfoque cuantitativo. No debería ser difícil ampliarlo un poco más (o adaptarlo, caso de utilizar instrumentos diferentes o con apartados intercambiables) para cubrir también otras investigaciones empíricas planteadas desde otros paradigmas. La opinión y las aportaciones de otros editores, de revistas con perfiles bien diferentes, puede ayudar a ir dando forma a una herramienta con gran potencial. Damos por tanto la bienvenida a la interesante propuesta y animamos los editores (de Aula Magna 2.0, pero también a los demás) a hacer aportaciones al respecto.
Referencias bibliográficas:
Dávalos, A. L. (2005). Una perspectiva histórica del Annus Mirabilis 1905. Revista de Enseñanza de la Física, 18(1), 9-16.
Diestro Fernández, A; Ruiz-Corbella, M. & Galán, A. (2015, octubre, 23). Aula Magna 2.0. Revistas Científicas de Educación en Red. Aula Magna 2.0. [Blog]. Recuperado de:https://cuedespyd.hypotheses.org/665
Hambleton (1997). Criterion-refered Measurement. En J.P. Keeves (ed.) Educational research, methodology, and measurement: an international handbook (pp.719-725), 2nd edition. Oxford: Pergamon.
Husén, T. (1997). Research Paradigms in Education. En J.P. Keeves (ed.) Educational research, methodology, and measurement: an international handbook (pp.16-21), 2nd edition. Oxford: Pergamon.
Mengual, S. & Aliaga, F. (2017). Pre-prints: nuevas oportunidades para autores y publicaciones periódicas. Aula Magna 2.0. [Blog]. Recuperado de:http://cuedespyd.hypotheses.org/2816
Rodríguez-Sabiote, C. (2017). Propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación. Aula Magna 2.0. [Blog]. Recuperado de: https://cuedespyd.hypotheses.org/3090
Cómo citar esta entrada:
Aliaga, F. (2017). Análisis de una propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación. Aula Magna 2.0. [Blog]. Recuperado de: http://cuedespyd.hypotheses.org/3163 

Tomado de Aula Magna 2.0 con permiso de sus autores

lunes, 20 de noviembre de 2017

Análisis de una propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación



Por Francisco M. Aliaga. (Tomado de Aula Magna 2.0)
Director de RELIEVERevista ELectrónica de Investigación y EValuación Educativa. Universidad de Valencia (UV)

Aula Magna 2.0 ha vuelto un año más a su cita con los lectores y con vocación de ser un punto de encuentro sobre investigación educativa y el que probablemente se ha convertido ya en su principal medio de difusión: las revistas científicas.
Desde el principio uno de los principales objetivos de Aula Magna 2.0 fue el de posibilitar el establecimiento de “debates sobre temas y problemas de la educación en nuestro contexto global” (Diestro Fernández, Ruiz-Corbella & Galán, 2015). En efecto, la tecnología ha propiciado la aparición de nuevos instrumentos de comunicación entre los académicos (Mengual & Aliaga, 2017), en este caso un blog, que permiten por su flexibilidad y rapidez, un intercambio de ideas, un debate, con menos corsés y más agilidad que las revistas y, no digamos, los libros. Se trata de un nuevo entorno al que todos tenemos que adaptar nuestros hábitos académicos, incluso nuestro lenguaje, pero que puede ser una excelente herramienta para la mejora de la investigación.
En este contexto, quisiera comentar la propuesta recientemente planteada por Rodríguez-Sabiote (2017) en este mismo medio. Tradicionalmente se han planteado distintos enfoques para evaluar las revistas científicas, básicamente las que tienen que ver con su impacto (generalmente medido mediante contabilización de citas recibidas), con su prestigio en la comunidad científica (encuestas, expertos, etc.) o con el cumplimiento de criterios de calidad editorial (generalmente solo formales). Cercano a este último enfoque, pero con un planteamiento algo diferente, Rodriguez-Sabiote propone unos “indicadores de calidad metodológica” con la intención de que puedan utilizarse “para la valoración y clasificación de revistas de investigación” (Título).
En mi opinión, cualquier aportación que nos oriente para la evaluación y mejora de las revistas científicas siempre es bienvenido. En este caso, la propuesta de Rodríguez-Sabiote puede ser un punto de partida interesante para este propósito, por lo que merece un análisis y debate cuidadoso.
Básicamente la propuesta de Rodríguez Sabiote (2017) plantea analizar la presencia o ausencia de diversas informaciones específicas sobre la metodología de investigación empleada en las investigaciones empíricas. Este planteamiento ya denota algunas limitaciones de este acercamiento: no todas las revistas publican exclusiva o mayoritariamente artículos de investigación empírica. La razón es evidente: la ciencia no es sólo investigación empírica, ya que también requiere de una parte de elaboración teórica y de propuesta de modelos que nos ayuden a entender mejor la realidad. No en balde, denominamos al método científicos como hipotético-deductivo, dos términos que hacen referencia a las fases puramente teóricas (a pesar de que el método científico empieza y acaba con hechos). 

Así pues, la necesidad de teorías (que, obviamente, pueden y suelen plantearse en artículos teóricos) no es algo ajeno, ni mucho menos, a la ciencia ni, por tanto, a las revistas científicas. Recordemos, por ejemplo, lo que significó para la el avance de la ciencia el denominado “Annus mirabilis” (año maravilloso) de Einstein (1905), con la publicación de diversos artículos teóricos (el autor era un desconocido que trabajaba en una oficina de patentes, sin ningún laboratorio en el que experimentar ninguna de sus ideas) en la revista Annalen der Physik (Dávalos, 2005). No hay, por tanto, metodología empírica alguna que analizar en esos artículos, en esa revista, lo cual difícilmente puede argüirse contra la calidad de dicha publicación.
Aceptemos, por tanto, que la propuesta de indicadores de Rodríguez-Sabiote (2017) no es un indicador de la calidad “de las revistas”, con carácter general. De hecho, el objetivo planteado por el autor es más bien el de analizar “los niveles técnico-metodológico y estadístico-analítico de los informes empíricos de investigación” (penúltimo párrafo de la introducción). Sin embargo, tanto en el título de su trabajo como en la valoración final por categorías sí se plantea utilizar las puntuaciones obtenidas para evaluar las “revistas”, en su conjunto, lo que puede resultar algo confuso.
Dada la diversidad metodológica propia de las Ciencias Sociales, encontramos otras limitaciones en el tipo de indicadores propuestos: no son aplicables a todo tipo de enfoque sino que se centra, fundamentalmente, en investigaciones realizadas desde un enfoque empírico cuantitativo, derivado de postulados positivistas (Husén, 1997). El vocabulario empleado, y el nombre de los tópicos objeto de análisis (muestreo, fiabilidad, validez, variables, etc.) denota este sesgo cuantitativo. No quedan, por tanto, bien recogidas las características de investigaciones empíricas propias de otros enfoques (cualitativos, sociocríticos, etc.) o con otras metodologías (histórica, comparada, etc.) en el listado de indicadores propuestos.
También sería deseable encontrar mayor especificación terminológica en algunos de los items que propone Rodríguez-Sabiote. Así, por ejemplo, es discutible que el último de los indicadores, “Los análisis de datos están adecuadamente interpretados”, pueda interpretarse en términos de presencia/ausencia (los análisis pueden ser correctamente interpretados, pero de manera incompleta, o no suficientemente interrelacionados con otros resultados), además de que el término “adecuadamente” remite, necesariamente, a una valoración subjetiva, y por tanto variable, entre los distintos potenciales evaluadores.
Por último, respecto al uso propuesto del conjunto de los indicadores, quisiéramos plantear dos observaciones. La primera, que ya hemos avanzado, es que se pretenda utilizar el cumplimiento de los mismos para evaluar “las revistas” y no los artículos, dado que muchas de las publicaciones periódicas incluyen artículos de distinto tipo, incluyendo artículos teóricos, experiencias de innovación docente, etc. Dependiendo del perfil de las revistas analizadas, podemos encontrarnos que en algunos casos quedan excluidos del análisis propuesto de indicadores de investigación empírica más de la mitad de los artículos publicados, por lo que difícilmente podemos generalizar los resultados a toda la revista.
La segunda objeción se refiere a la denominación de la propuesta de categorías de evaluación para las revistas, en la que se habla de cuartiles. Este término tiene una definición precisa en el ámbito matemático: “Valor que divide un conjunto ordenado de datos estadísticos de forma que un porcentaje de tales datos sea inferior a dicho valor” (definición del diccionario de la Real Academia Española; el subrayado es nuestro). La utilización del término cuartil en este contexto (a priori, y no a posteriori) introduce una confusión entre evaluación referida al criterio y evaluación referida a la norma (Hambleton, 1997). Hablemos de categorías jerárquicas, pero dejemos el término cuartil (que tanto arrastra de por sí) para agrupar porcentajes de casos, no cumplimiento de grupos de criterios.
En definitiva, la propuesta de Rodríguez-Sabiote (2017) nos parece un muy interesante punto de partida para crear una herramienta que nos ayude a los editores a perfilar mejor las exigencias que hemos de plantear a los manuscritos en los casos de artículos de investigación empírica de enfoque cuantitativo. No debería ser difícil ampliarlo un poco más (o adaptarlo, caso de utilizar instrumentos diferentes o con apartados intercambiables) para cubrir también otras investigaciones empíricas planteadas desde otros paradigmas. La opinión y las aportaciones de otros editores, de revistas con perfiles bien diferentes, puede ayudar a ir dando forma a una herramienta con gran potencial. Damos por tanto la bienvenida a la interesante propuesta y animamos los editores (de Aula Magna 2.0, pero también a los demás) a hacer aportaciones al respecto.
Referencias bibliográficas:
Dávalos, A. L. (2005). Una perspectiva histórica del Annus Mirabilis 1905. Revista de Enseñanza de la Física, 18(1), 9-16.Diestro Fernández, A; Ruiz-Corbella, M. & Galán, A. (2015, octubre, 23). Aula Magna 2.0. Revistas Científicas de Educación en Red. Aula Magna 2.0. [Blog]. Recuperado de:https://cuedespyd.hypotheses.org/665
Hambleton (1997). Criterion-refered Measurement. En J.P. Keeves (ed.) Educational research, methodology, and measurement: an international handbook (pp.719-725), 2nd edition. Oxford: Pergamon.Husén, T. (1997). Research Paradigms in Education. En J.P. Keeves (ed.) Educational research, methodology, and measurement: an international handbook (pp.16-21), 2nd edition. Oxford: Pergamon.Mengual, S. & Aliaga, F. (2017). Pre-prints: nuevas oportunidades para autores y publicaciones periódicas. Aula Magna 2.0. [Blog]. Recuperado de:http://cuedespyd.hypotheses.org/2816
Rodríguez-Sabiote, C. (2017). Propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación. Aula Magna 2.0. [Blog]. Recuperado de: https://cuedespyd.hypotheses.org/3090
Cómo citar esta entrada:
Aliaga, F. (2017). Análisis de una propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación. Aula Magna 2.0. [Blog]. Recuperado de: http://cuedespyd.hypotheses.org/3163

Tomado de Aula Magna 2.0 con permiso de sus editores

sábado, 18 de noviembre de 2017

Estar informado (semanal - 18/11/2017)

CUED. El conocimiento en las aulas: dogma de fe

CUED. ¿Algunas razones por las que interesa (o no) la lectura de revistas científicas... | https://t.co/CswRRTUbfZ

CUED ¿Están formados los profesores para atender a los más capaces? | http://sco.lt/59dxi5 

CUED: Recursos para una educación STEAM y un aprendizaje por proyectos  | https://t.co/ZdYiiS5Jvj

Building an Edtech Ecosystem in your Classroom | https://t.co/VdKdOueaD2

35 Psychology-Based Learning Strategies For Deeper Learning | https://t.co/tHxOcytaeY

El conocimiento en las aulas: dogma de fe | https://t.co/fI79Kh0uQS

4 Great Search Extensions for Teachers and Educators | https://t.co/XCXX86YahG

El futuro del “Big Data” en Ciudades Emergentes | https://t.co/5EfXjRr4CB

Nuevo número de Estudios sobre Educación | https://t.co/5zx91MzxqN

#AECT17 Reflections | https://t.co/NhOaPYMGnP

The Real Goal of Open Educational Resources | https://t.co/5MmtEgPo15

Educação e inovação, nossos maiores desafios | https://t.co/szZs1vXCNV

Evento virtual sobre tecnologias aplicadas à educação recebe inscrições de moderadores | https://t.co/9xAlflllzv

3 Tools for Creating Digital Portfolios | https://t.co/XflmmK32LB

oaDOI: El DOI de las versiones en abierto de los artículos | https://t.co/M7HjhgpOSF

Las 9 tareas del Machine Learning según sus algoritmos | https://t.co/fBlqOS1EBT

9 sitios para crear mapas mentales en línea | https://t.co/IvbBtcEinA

Diseño de una secuencia didáctica a partir de una situación-problema. | https://t.co/BG1YK8ilfw

Undergraduate Students and Technology 2013 [INFOGRAPHIC] | https://t.co/hr5YfbxpPS

Authentic Learning in Online Courses | http://sco.lt/7BWmqf 

How To Teach Online - MOOC - Week 1 | http://sco.lt/5UZsYL 

What are you waiting for? Start a MOOC today! | https://t.co/lMqrmy6KaV

Futuro de los sistemas y ambientes educativos mediados por las TIC | https://t.co/YIIeNVogg1

Teorías y modelos sobre el aprendizaje en entornos conectados y ubicuos. Bases para un nuevo modelo teórico a partir de una visión crítica del “conectivismo” | ZAPATA-ROS | https://t.co/f9VO3TvjF2

How to Increase Your Traffic Through Content Translation | https://t.co/0tKxreqzSJ

My Activity ¿cómo borrar lo que Google sabe de ti? | https://t.co/piSF7C8gCo

Mensalidade média de universidade cai 5,6% | https://t.co/2DkID3RnmP

Some of The Best Tools for Creating Video Lessons | https://t.co/mXrGIHsnA3

5 Good Interactive Guides from Apple to Help Teachers Integrate Coding in Their Teaching via Educators Technology | https://t.co/SsKMMrOIIS

Análisis | La economía digital podría aumentar la brecha salarial entre hombres y mujeres | https://t.co/PSonNW0gfd

La Química en Educación | https://t.co/9AiO9da7rO

9 New TED Ed Videos to Use with Students in Class | https://t.co/C72ojpC5wi

Estudio sobre Flipped Learning a nivel mundial | https://t.co/DAyoMBonQv

5 mitos sobre Flip Teaching que debes conocer | https://t.co/gpJVuSuH1D

La Agencia Española de Protección de datos presenta nuevos materiales para ayudar a c... | https://t.co/q61xINR4Sd

Recursos digitales autónomos mediante realidad aumentada | Cubillo Arribas | RIED. Re... | https://t.co/58vQwlmyQs

LA EDUAPP DE LA SEMANA | Agenda Escolar | https://t.co/mFNsezista

Teaching Adult Learners: 5 Things Teachers Need to Know | https://t.co/5VIgLgC0HB

5 tech trends influencing student engagement by Jessica Leigh Brown | https://t.co/qIQMhs7qqU

Different Approaches To Using Student Blogs And Digital Portfolios | https://t.co/c28zjzpaQQ

El uso y la repercusión de la Gamificación en el Trabajo Colaborativo en la Ed... | https://t.co/3lcR2ld98K

Decálogo para la CIVERCONVIVENCIA Positiva | https://t.co/NSRQyvChy8

This is What Powerful Learning Looks Like: Students Share Their Stories - Digital Pro... | https://t.co/jgIDnXX7Pt

There is a global learning crisis. Our young people deserve better skills | https://t.co/d6FR4dWFNX

Myanmar once had one of Asia's best education systems. Here's how it can get back to the top | https://t.co/Vrtbn99pjj

Augmented reality system helps surgeons tackle tumours | https://t.co/qPNzSUMaSy

jueves, 16 de noviembre de 2017

El conocimiento en las aulas: dogma de fe

Escribe Ángel Fiallo
Algunas veces la docencia es similar a la religión. El conocimiento que se transmite es la verdad y se exige al alumnado que usen la fe para creer en ella. El profesorado es al mismo tiempo evangelizador y juez. Predica la verdad y también decide quién la ha asimilado de forma correcta.
Pensándolo bien este método es efectivo, sencillo y cómodo para el alumnado. Nada mejor que suponer que es dogma de fe lo que trasmite el profesorado para tener un juicio positivo (por tanto, es efectivo). Seguir las indicaciones y principios que indica el profesorado es sencillo, basta hacer lo que se le indica y, sobre todo para el cerebro, el método es cómodo, muy cómodo, ya que únicamente hay que desarrollar una capacidad cognitiva, “la memorización”.
En este contexto el mejor evangelizador es el que mejor explica la verdad y el mejor juez… hay disparidad de opiniones (para el alumnado es el que más aprueba y para otros es el que más suspende).
Por el contrario, dudar de la verdad absoluta que trasmite el profesorado es causa de herejía. Es arriesgado (a los herejes se les expulsa), es complicado seguir otros procesos distintos a los que se indican (no hay tiempo para hacerlos) y, sobre todo para el cerebro, es costoso, muy costoso, ya que hay que utilizar capacidades cognitivas como conceptualización, pensamiento crítico, análisis, creación, aplicación, ..
Las verdades suelen ser estáticas y, sin embargo, el conocimiento es dinámico, evolutivo, interpretable, adaptable, reorganizable y sobre todo sinérgico (cuanto más se usa y cuantas más capacidades cognitivas utilizamos, mayor se hace).
Debemos enseñar a nuestro alumnado a dudar, a reflexionar, a replantearse las cosas, a no creerse las verdades que transmite el profesorado e incluso a realizar actividades distintas de las establecidas.
El mejor profesorado es aquél que consigue que el alumnado vuelva a su más tierna infancia, esa edad en la que un niño te pregunta cómo se llama ese gran balón blanco que brilla en la noche y cuando le contestas que es la luna, el te pregunta ¿por qué?.
Tomado de Innovación educativa con permiso de su autor