Рейтинги наступают на университеты

20.09.11
Эксклюзив

Рейтинги наступают на университеты

Эксперты МГИМО: Большова Наталья Николаевна, к.полит.н., доцент, Харкевич Максим Владимирович, к.полит.н.

Рейтинги прочно вошли в жизнь всех современных университетов, а, следовательно, и в нашу жизнь. Они являются важным инструментом маркетинга образовательных и исследовательских услуг вузов. От места в рейтингах зависит «рыночная стоимость» высшего учебного заведения: возможности не только привлекать абитуриентов, но и выигрывать различные гранты и заключать контракты.

В последнее время под влиянием постоянного роста количества и многообразия рейтингов часто происходит подмена их истинного смысла и цели: стремление университета попасть в тот или иной список все больше определяется фразой: «если ты в рейтинговой таблице — значит ты существуешь», и, соответственно, наоборот: «если ты не в рейтинге — значит тебя нет». Эта фраза стала сегодня актуальной и для России. В то же время, в нашей стране международные рейтинги пока не получили такого широкого применения как на Западе, и это во многом связано с низкими оценками российских университетов на фоне зарубежных.

Почему международные рейтинги — проблема для нас

Важной проблемой является то, что зарубежные рейтинговые методики нацелены преимущественно на оценку исследовательской деятельности и научных достижений, в то время как для российских университетов, в отличие от западных, долгое время важнейшей задачей являлась, и в большинстве случаев продолжает оставаться, не научно-исследовательская работа, а качественное образование, соответствующее государственным стандартам и потребностям рынка труда.

Кроме этого, составители рейтингов оценивают исследования и публикации в международных журналах с индексом научной цитируемости, в то время как российский профессорско-преподавательский состав традиционно более ориентированы на публикации на русском языке. Получается, что российские ученые «варятся» в собственном соку, публикуются в журналах, которые за рубежом никто не читает, что отрицательно сказывается на интеграции российской науки в мировую.

Между тем, успешный опыт западных «предпринимательских университетов» показывает: развитие наиболее перспективных направлений научных исследований стимулирует способность профессорско-преподавательского состава и аспирантов зарабатывать деньги на собственных исследованиях (через гранты и специальные программы частных и государственных фондов и компаний).

Зачем нужны рейтинги

Долгое время университетские рейтинги существовали исключительно на национальном уровне. Они были важны в своих государствах, но малоинтересны соседним и дальним странам. Сегодня же наиболее резонансным является «Академический рейтинг университетов мира», составляемый и Шанхайским университетом Цзяотун, который публикуется с 2003 г. По признанию его авторов, их задачей изначально была оценка научно-исследовательского потенциала университетов, поэтому учебным возможностям вузов особого внимания не уделяется. Характерно, что, как и в западных рейтингах, верхние строчки занимают англоязычные, преимущественно американские вузы.

Рейтинги всегда вызывали споры и дискуссии. Их авторы неизменно отстаивают их беспристрастность и объективность. Критики справедливо указывают, что измерить качество университета, с точки зрения и научной работы, которая в нем ведется, и образования, которое получают студенты, задача крайне сложная. Можно сказать, что это вечный вопрос оценки качества с помощью количественных показателей. Несмотря на всеобщее признание одного из законов диалектики, выведенных Гегелем, — о переходе количества в качество, продемонстрировать данный переход с помощью рейтинговых оценок достаточно сложно. Распределение в рейтинге полностью зависит от относительно субъективного выбора показателей и определения их значимости. Как правило, составители рейтингов используют косвенные показатели качественных достижений. Подобные попытки всегда будут оставлять много вопросов. Поэтому следует признать, что все рейтинги отражают лишь часть действительности, не свободны от искажения и выполняют поставленные перед ними задачи.

Наиболее сильное искажение практически во всех международных рейтингов связано с непропорционально высоким вниманием естественнонаучным и медицинским исследованиям, с недостатком внимания к общественным наукам и инженерным дисциплинам, а также с недооценкой гуманитарных наук. Также можно отметить привилегированное положение англоязычных изданий.

С другой стороны, соревнование между университетами играет важную роль. Представители государства, принимающие решения относительно распределения бюджетных средств между университетами начинают все чаще обращать внимание на рейтинги. Данное обстоятельство служит яркой иллюстрацией развития академического капитализма, который характеризуется обострением конкуренции между университетами за государственное финансирование, а также за привлечение частных средств. Улучшение своей позиции в авторитетном международном рейтинге является, в этой связи, одним из ключевых инструментов фандрайзинга.

Берлинские принципы

С целью повышения объективности рейтингов Международной экспертной группой (IREG-2, Берлин, 18–20 мая 2006 г.) по вопросу рейтингов в 2006 году были составлены так называемые Берлинские принципы ранжирования высших учебных заведений. Поскольку методологии проведения рейтингов весьма разнородные, данные принципы призывают составителей рейтингов руководствоваться хотя бы общими ценностными установками. Перечислим лишь основные берлинские принципы, с точки зрения целей и задач ранжирования, индикаторов и их весов, сбора и обработки данных.

С точки зрения целей и задач ранжирования, рейтинги должны ясно представлять задачи и целевую аудиторию, признавать разнообразие учебных заведений и принимать во внимание различие их миссий и задач, обеспечивать ясность спектра источников, которые представляют информацию для ранжирования, и индикаторов, полученных на основе каждого из ресурсов. Рейтинги должны учитывать лингвистический, культурный, экономический и исторический контекст системы высшего образования, проходящей ранжирование.С точки зрения индикаторов и их весов, рейтинги должны обеспечивать прозрачность используемой методологии составления рейтинга, отдавать предпочтение по возможности показателям достигнутых результатов, а не исходным ресурсам, четко определять методы оценки различных индикаторов.

С точки зрения сбора и обработки данных, рейтинги должны использовать проверенные и уточненные данные, обеспечить потребителей ясным пониманием всех факторов, задействованных при составлении рейтинга, и предложить им выбор формы презентации результатов рейтингов.

Классификация университетских рейтингов

В мире существует множество различных рейтингов. Одна из возможных классификаций — по назначению (цели). Так, можно выделить:
  • академические рейтинги, основное назначение которых состоит в создании табеля о рангах среди университетов мира;
  • рейтинги, которые учитывают исключительно показатели научной деятельности университетов;
  • мультирейтинги, оценивающие множество показателей деятельности университетов и не имеющие задачи составления табеля о рангах;
  • рейтинги университетских веб-сайтов — «Вебометрикс» (Webometrics);
  • оценка результатов обучения в высшем образовании — AHELO (Assessment of Higher Education Learning Outcomes).

Интересно рассмотреть методологии, используемые наиболее авторитетными мировыми рейтингами, в том числе:

1. Shanghai Academic Ranking of World Universities (ARWU) — Shanghai Ranking Consultancy, China

2. Times Higher Education World University Ranking, Times Higher Education:

a. in cooperation with Quacquarelli Symonds until 2009
b. in cooperation with Thomson Reuters as of 2010

3. World’s Best Universities Ranking — US News & World Report in cooperation with Quacquarelli Symonds, US

4. Global Universities Ranking — Reitor (Рейтор), Russia

5. EU University-Based Research Assessment — AUBR Working Group, European Commission

6. Leiden Ranking — Leiden University, The Netherlands

7. Performance Rankings of Scientific Papers for World Universities — Higher Education Accreditation and Evaluation Council, Taiwan

8. CHE University Ranking — Centre for Higher Education Development/die Zeit, Germany

9. CHE Excellence Ranking — Centre for Higher Education Development/die Zeit, Germany

10. U-Map classification — CHEPS

11. U-Multirank ranking — EU funded project

12. Assessment of Higher Education Learning Outcomes (AHELO) — Organisation for Economic Cooperation and Development (OECD)

13. Webometrics Ranking of World Universities — Cybermetrics lab, Centro de Ciencias Humanas y Sociales, Spain.

Начнем наш обзор с Шанхайского рейтинга (ARWU) и Лейденского библиометрического рейтинга.

Шанхайский рейтинг (ARWU)

Шанхайский рейтинг университетов стал результатом стремления китайцев вырастить на территории своей страны университеты мирового уровня. Появилась задача выработать критерии, с помощью которых можно было определить университеты мирового уровня. На базе Шанхайского университета Джиао Тонг с 1998 по 2001 год было проведено сравнительное исследование китайских и американских вузов. Оценив получившиеся результаты, правительство Китая рекомендовало этой же команде исследователей разработать методологию и провести действительно международное ранжирование вузов. Так возник Шанхайский рейтинг университетов.

Шанхайский рейтинг университетов измеряет деятельность университетов по четырем направлениям: качество образования, качество преподавателей, результат исследовательских работ и результативность университета в пересчете на одного студента. Для измерения качества образования используется такой критерий как количество нобелевских лауреатов и получателей медали Филдса по математике, а также индекс цитирования авторов в крупнейших мировых агентствах. Таким критериям в разной степени соответствуют только 1000 университетов из 17000.

Лейденский библиометрический рейтинг — (Leiden Ranking)

Центр науки и технологических исследований Лейденского университета (Centre for Science and Technology Studies) разработал новую систему ранжирования университетов, основанную исключительно на библиометрических показателях. Лейденская система оценки учитывает только научно-публикационную деятельность и только тех университетов, которые публикуют ежегодно более 700 публикаций, индексируемых в базе Web of Science (WoS). Данная система ранжирует университеты по конкретным индикаторам (4 индикатора — в 2008 г., 5 индикаторов — в 2010 г.). Каждый индикатор представляет собой отдельное ранжирование.

В 2008 г. CWTS впервые опубликовал свои результаты ранжирования для 100 европейских университетов с наибольшим числом научных публикаций. Этот рейтинг был основан на четырех различных индикаторах, каждый из которых имеет свой цвет:

  • Общее количество публикаций (Р) (индикатор желтого цвета)
  • Число цитирования в расчете на одну публикацию (CPP) (индикатор голубого цвета)
  • Общее количество публикаций, умноженное на относительное влияние в данной области (P*CPP/FCSm) (индикатор оранжевого цвета)
  • Число ссылок на статью, нормированное (деленное) на число ссылок на статью в данной области для данного года публикации (CPP/FCSm) (индикатор светло зеленого цвета)

В 2010 г. CWTS опубликовал обновленный рейтинг, который включал уже пять индикаторов. Был добавлен новый индикатор светло зеленого цвета — Средняя нормированная оценка цитирования (Mean normalized citation score(MNCS2).

Что нужно делать, чтобы повысить индекс цитируемости?

Вот несколько уже разработанных, простых и полезных рекомендаций[1]:

1. Писать статьи высокого научного и методического уровня, на которые охотно могли бы ссылаться другие авторы.

2. Представлять научные статьи в журналы с высоким импакт-фактором.

3. Публиковаться в соавторстве с коллегой, имеющим высокие наукометрические показатели.

4. При направлении публикации в англоязычные издания следует давать ссылки на собственные статьи, опубликованные в переводной версии журнала.

5. Публиковать в изданиях, которые являются научными и рецензируемыми, т.е. все публикуемые материалы должны проходить тщательную научную экспертизу.

6. Издания должны быть поддержаны экспертными советами ВАК Министерства образования и науки РФ.

7. Издания должны быть широко известными и доступными, входить в каталоги ОАО «Роспечать» или «Пресса России», иметь существенный тираж и рассылку по библиотекам страны.

8. Обмениваться ссылками с коллегами.

9. Увеличить самоцитируемость (делать ссылки на свои статьи, опубликованные ранее с указанием издания).

10. Составлять качественные abstracts с употреблением общепринятой в мировой практике терминологией.

11. В последнее время широкое распространение получают электронные научные издания. Высшей аттестационной комиссией и ФГУП НТЦ «Информрегистр» согласован порядок регистрации электронных научных изданий. Публикации в электронных научных изданиях зарегистрированных в «Информрегистре», в соответствии с п. 11 Положения о порядке присуждения ученых степеней могут учитываться как опубликованные работы, отражающие основные научные результаты диссертации.

12. Публикации в международных изданиях дают шанс на приличное цитирование. Если же автор хочет способствовать повышению импакт-фактора «своего» журнала, он должен не забывать давать ссылки на «свой» журнал, особенно на статьи самого последнего времени и также активно информировать коллег соответствующей области знаний о статьях данного авторского коллектива, опубликованных в «своем» журнале.

Продолжение следует…


[1]Индекс цитирования для оценки результативности научной работы. Методические рекомендации. — Волгоград. Издательство ВолГМУ 2011

Точка зрения авторов, комментарии которых публикуются в рубрике
«Говорят эксперты МГИМО», может не совпадать с мнением редакции портала.

Источник: Портал МГИМО
Коммерческое использование данной информации запрещено.
При перепечатке ссылка на Портал МГИМО обязательна.
Распечатать страницу