опрос

Будет ли Вам интересно помогать в развитии этого сайта на безвозмездной основе?

(1596 votes)

Please wait...

Авторизация
счетчики

Яндекс цитирования
наши гости
Главная новости Ученые показали ненадежность системы экспертной оценки научных работ

PostHeaderIcon Ученые показали ненадежность системы экспертной оценки научных работ

09.09.2010:16.54
Обложка журнала Science - одного из самых престижных научных журналов Обложка журнала Science - одного из самых престижных научных журналов

Ученые показали, что процесс экспертной оценки научных работ - основной инструмент их "пропуска" в журналы - является крайне ненадежным в силу человеческого фактора. исследователи выложили в архив электронных препринтов Корнельского университета. Коротко работа описана на сайте Physics World.
В современной научной практике критерием для публикации статьи в научном журнале является ее оценка несколькими экспертами в соответствующей области - они читают присланные в редакцию работы и выносят решение, опубликовать их, отвергнуть или отправить на доработку. Эта система не считается идеальной (например, есть мнение, что ей не хватает открытости), однако большинство ученых полагают, что она является достаточно объективной и в целом работает удовлетворительно.
Авторы новой работы решили проверить, насколько система экспертной оценки устойчива к такому фактору как недобросовестные эксперты. Ученые разработали модель, в которую включили пять типов экспертов: правильные (отклоняют плохие работы и принимают хорошие), альтруисты и мизантропы (соответственно принимают или отклоняют все работы), рационалисты (отклоняют работы, которые могут отвести внимание от их собственных исследований) и случайные (принимают решения случайным образом из-за нехватки квалификации или времени).
Исследователи рассматривали схему, когда каждая новая работа направляется на рассмотрение двум экспертам, случайно выбранным из общего пула (внутри экспертного сообщества все типы экспертов представлены согласно ). Работа считалась опубликованной, если оба эксперта давали ей положительную оценку. Если один был против, вероятность публикации принималась за 0,5.
После того как ученые "прогнали" модель для 1000 публикаций, они выяснили, что даже небольшой процент рационалистов и/или случайных экспертов способен существенно ухудшить качество отбираемых работ. Когда соотношение правильных, случайных и случайных экспертов в пуле составляло 1:1:1, статьи к публикации принимались фактически по случайному принципу.
Полученные результаты указывают, что адекватность экспертной оценки чрезвычайно сильно зависит от состава экспертов. Один из издателей физического журнала New Journal of Physics, ознакомившийся с результатами новой работы, заявил, что авторы недооценивают роль редакции журнала в процесс отбора публикаций. Именно редакция решает, кому из экспертов направить ту или иную работу, и старается избежать ситуаций конфликта интересов (хотя иногда - например, в случае узкой тематики - полностью исключить такой вариант нельзя).
Это не первая работа, в которой подвергаются сомнению существующие методы оценки значимости научных работ. Ранее ученые неоднократно высказывали претензии к системе, ранжирующей работы по их цитируемости (ссылки на статьи в статьях других авторов). Впрочем, на сегодняшний день более удобного и объективного способа оценки не существует.

ссылка на источник
Комментарии (0)
Только зарегистрированные пользователи могут оставлять комментарии!
 
Виды космоса
северное сияние природное явление
северное сияние природное явление
Галактика М110 (01)
Галактика М110 (01)
Бриллиант в космосе
Бриллиант в космосе