Оценка научной продуктивности в зарубежном библиотековедении как составная часть измерения эффективности библиотеки

Тип работы:
Реферат
Предмет:
Народное образование. Педагогика


Узнать стоимость

Детальная информация о работе

Выдержка из работы

Методология НИР
УДК 021: 001. 89:005. 216.1 ББК 78. 349. 5:78. 002
ОЦЕНКА НАУЧНОЙ ПРОДУКТИВНОСТИ В ЗАРУБЕЖНОМ БИБЛИОТЕКОВЕДЕНИИ КАК СОСТАВНАЯ ЧАСТЬ ИЗМЕРЕНИЯ ЭФФЕКТИВНОСТИ БИБЛИОТЕКИ
© П. С. Романов, 2015
Федеральное государственное бюджетное научное учреждение «Центральная научная сельскохозяйственная библиотека» 107 137, г. Москва, Орликов переулок, 3
Представлены результаты исследования по оценке баз данных и других источников информации, а также различных методов их исследования, применяемых в библиотековедении с целью ранжирования научной продуктивности библиотековедов США, а также преподавателей факультетов библиотековедения и информационных технологий. Идентифицированы методы и подходы к высокоточному ранжированию научной продуктивности или публикационной активности библиотековедов и преподавателей библиотечных вузов.
Ключевые слова: база данных, научная продуктивность, ранжирование, цитируемость, публикационная активность профессорско-преподавательского состава, эффективность деятельности библиотековедов и библиотечных учреждений.
The article evaluates data bases and other sources of information, as well as research methods used to rank the research productivity of library scientists and lecturers of library and information technology faculties in the USA. Tools and methods are identified to study high accurate ranking of research productivity or publication activity of library scientists and teachers of library higher schools.
Keywords: data base, research productivity, research productivity, publication ranking, citation, publication activity of the teaching staff, the efficiency of library scientists and library institutions.
Библиометрическая оценка отдельных исследуемых объектов в зарубежном библиотековедении (ученых, публикаций, журналов, институтов, стран и пр.) в настоящее время активно используется для определении эффективности работы библиотек, их персонала, а также преподавателей библиотечных школ, факультетов и вузов. В отечественном библиотековедении эта тема всегда привлекала своих исследователей независимо от моды, которую устанавливали в науке распоряжения руководящих органов. Отметим также, что библиометрический метод настолько универсален по своим возможностям и целям проведения, что его можно и следует использовать во многих аспектах библиотечной деятельности [1, 4].
В зарубежном библиотековедении исследования научной продуктивности проводились на протяжении последних 100 лет, но особенно популярен данный метод стал в середине прошлого века. Анализ периодической зарубежной литературы в области библиотековедения, а также базы данных по англоязычным диссертациям иМ1 PROQUEST позволил выявить рост таких исследований в конце
90-х гг. прошлого столетия в библиотечном сообществе Северной Америки [3].
Возросший интерес во многом был обусловлен публикациями в следующих периодических научных изданиях и журналах: U.S. News and World Report'-s, America'-s Best College, Money magazine'-s, Money Guide: Your Best College Buys Now, Time/ The Princeton Review, and Kaplan/Newsweek'-s How to Get Into College. Перечисленные издания продают ежегодно приблизительно 7 млн копий информационных листков с данными о ранжировании научной активности журналов и других изданий, принадлежащих университетам и колледжам США и Канады [28, 29].
Рост в академических библиотечных изданиях числа публикаций по теме научного цитирования представляет особый интерес для зарубежных высших и средних специальных учебных заведений. Дело в том, что статус учебного заведения, определенный в таком исследовании, влияет на возможности этого заведения, во-первых, привлекать высококвалифицированных преподавателей, талантливых и перспективных студентов, менеджеров-
во-вторых, укреплять связи с выпускниками учебного заведения и спонсорами- в-третьих, обеспечивать лучшие рабочие места для выпускников [27, 37, 39].
Кроме того, значение научного ранжирования позволяет укреплять или, наоборот, — ослаблять базовую систему организации и управления учебным заведением, эффективно управлять политикой приема новых студентов [17, 27, 30]. В североамериканских университетах ректоры и деканы хорошо знакомы с правилами научного цитирования и часто применяют результаты ранжирования в своей деятельности.
Процесс ранжирования включает оценочные подходы и констатацию качества деятельности библиотеки или учебного заведения, часто базируется на результатах научно-исследовательских работ преподавателей библиотечных вузов и крупных научно-преподавательских коллективов. В этих подходах качество часто рассматривается как мера степени прироста нового знания, полученного исследовательским коллективом и оформленная в публикации [41]. На сегодняшний день практика оценки и ранжирования результатов научных исследований во многих библиотечных вузах Северной Америки базируется на трех взаимосвязанных критериях: экспертной оценке, количестве публикаций и подсчете цитируемости.
Ранжирование, основанное на мнении ученых, преподавателей вузов и администраторов, рассматривается в зарубежном библиотековедении как универсальный подход в рамках сбора данных и анкетирования. Логика этого процесса заключается в том, что поскольку ранжирование имеет непосредственное отношение к профессиональному положению, которое занимает преподаватель или менеджер в определенном коллективе (факультете, университете, библиотеке) по мнению других членов коллектива, то наиболее рациональный подход к такому ранжированию будет состоять в выявлении такого мнения [31, 32, 45].
Ранжирование основано на обработке и анализе перечня публикаций с помощью и простых оценочных систем, например, подсчета публикаций- и специальных систем, позволяющих применять специальную оценочную шкалу для различных типов публикаций, таких как монографии, отдельные главы в монографиях, статьи в рецензируемых и не рецензируемых журналах, доклады на конференциях. В ряде случаев принимаются во внимание объем публикации, научная репутация того издания, в котором эта публикация появилась. Логическое объяснение применению перечня публикаций для ранжирования в библиотечно-инфор-мационной науке заключается в том, что научная публикация должна привносить новое знание, факт которого должен быть признан научным сооб-
ществом, повышать престиж библиотечного вуза и самого автора публикации, способствовать образовательному процессу, поскольку новое знание всегда влияет на качество обучения студентов, повышает интеллектуальный уровень профессорско-преподавательского состава, его профессиональный уровень, а также престиж учебного заведения или библиотеки, способствует привлечению финансовых средств на научно-исследовательскую работу [5, 7, 20, 46].
Применение анализа цитируемости для оценки продуктивности ученого или ранжирования базируется на предположении, что цитаты являются формой своеобразного доверия в научном мире, признанием качества, значимости данной работы в научной среде [12, 13]. Более подробное обоснование этой точки зрения мы находим и в других работах зарубежных библиотековедов [21, 38, 41, 44]. Сторонники анализа цитируемости утверждают, что их метод более деликатный и щепетильный, нежели метод экспертных оценок. Анализ перечисленных работ позволяет сделать вывод, что метод подсчета цитируемости менее зависим от поведенческих характеристик рассматриваемых авторов, чем метод подсчета публикаций. Кроме того, метод цитирования всесторонне оценивает творчество библиотековеда и, поскольку он применяется незаинтересованными лицами, дает наиболее надежные и достоверные результаты [15, 19].
Исследования метода ранжирования в области библиотековедения и информационных наук имеют долгую историю. Почетный профессор Калифорнийского университета Дж. Дантон (J. Periam Danton) дает обзор подобных работ в библиотековедении за период с 1956 по 1981 г. [16]. Попутно отметим, что североамериканские библиотековеды обошли своим вниманием такой источник информации по вопросу научного цитирования, как неопубликованные научные труды — диссертации докторские и магистерские в области библиотековедения, библиографоведения и книговедения, основной массив которых сосредоточен в известной базе данных UMI PROQUEST. Частично анализ этих работ был выполнен в отечественном библиотековедении автором этих строк в своей кандидатской диссертации [2]. Нами рассмотрен массив англоязычных диссертаций в области библиотековедения за столетний период по научным школам США и Канады и по тематике диссертационных исследований.
Североамериканские библиотековеды сформулировали в своих работах несколько критических замечаний по содержанию публикаций, посвященных индексу научного цитирования, расчету научной публикационной активности. Участники исследований, результаты которых изложены в упомянутых источниках, зачастую выносили суждение
о научных и учебных программах США и Канады в области библиотековедения, базируясь на недостаточно глубоком знании этих программ.
В современной библиотековедческой литературе США и Канады нет единого мнения о категории качества работы библиотеки. Часто суждения выносились по критериям, менявшим свои значения от исследователя к исследователю. Рассуждения о качестве учебных программ в библиотечных школах и факультетах велись с позиций преподавателей и административных работников библиотек и учебных заведений, а не с позиции учащихся (взгляд изнутри). Разные наблюдатели в разных социальных слоях могут по-разному оценивать публикационную активность одних и тех же лиц. По имеющимся исследованиям невозможно кван-тифицировать критерии качества так, чтобы получить четкое и ясное представление о разнице между наиболее продуктивной в области научного цитирования научной школе и ее научных соперниках.
С учетом критических замечаний в дальнейших исследованиях стали применяться методы ранжирования научных школ в североамериканском библиотековедении. Так, в 1983 г. Роберт Хейз (Robert Hayes), ставший вскоре после этого деканом школы библиотековедения и информационных технологий в университете города Сан-Франциско (штат Калифорния), провел ранжирование научной активности аккредитованных в Американской Библиотечной Ассоциации библиотечных школ и вузов путем подсчета научных публикаций и цитирования [24].
Начиная с этого момента были опубликованы результаты еще восьми крупных библиотечных исследований: три — раскрывающие тему публикаций и научного цитирования [6, 9, 10]- одна -только тему подсчета научного цитирования [8]- четыре — только научных публикаций [7, 34, 42]. Дискуссионным в отмеченных работах стало использование научного цитирования для оценки эффективности и качества научной деятельности. Сторонники данного метода утверждали, что он представляет собой важный исследовательский инструмент, дополняющий традиционные оценочные подходы. Их научные оппоненты указывали ряд серьезных ограничений в применении метода, что, безусловно, влияет на его достоверность, а именно:
• подсчет цитат не дает понимания, почему выбрана именно данная научная публикация-
• цитирование — это категория, зависимая от многих других факторов, на нее могут влиять временной фактор, количество публикаций, наличие доступа к информации-
• профессиональная позиция автора цитаты-
• многие англоязычные периодические библиотечные издания и журналы, изданные в США и Канаде, не охватывают целиком профессиональ-
ный библиотечный дискурс, в них бытует множество чисто технических проблем, например, синонимы, омонимы, технические опечатки и ошибки, неполный обзор профессиональной литературы.
Во многих публикациях зарубежных библиотековедов обсуждались результаты исследований по вопросам надежности подсчета научных цитирований для оценки научной деятельности, а также по вопросам позитивной взаимозависимости количества научных цитирований и эвалюативных исследований и количества публикаций в библиотечной отрасли.
Как и в случае ранжирования на основе экспертной оценки и подсчета цитирований, ранжирование на основе подсчета публикаций встречает множество возражений и критических замечаний со стороны специалистов. Например, результаты исследования профессора колледжа информации университета штата Алабама Д. Уоллеса (D. P. Wallace) [43] подверглись в свое время острой критике именно потому, что была использована схема прямого простого подсчета публикаций.
Оппоненты утверждали, что для получения максимально точного ранжирования в исследованиях подобного рода следует проводить четкое разграничение между второстепенными, малозначимыми публикациями (к их числу зарубежные библиотековеды относят рецензии на книги и статьи объемом в одну колонку) и знаковыми, крупными с научной точки зрения публикациями (статьи в реферируемых профильных журналах и монографии).
В частности профессор Калифорнийского университета Марсия Дж. Бейтс (M. J. Bates) утверждает, что журналы, наиболее часто используемые в современных исследованиях источники публикаций, — это несовершенный способ выражения межчеловеческой коммуникации, в которой книги играют едва ли не главенствующую роль по сравнению с журнальными статьями [6].
Преподаватели университета штата Пенсильвания Карен Петтигру и Пол Николс (Karen E. Pet-tigrew и Paul T. Nicholls) и уже упоминавшийся выше Уоллес (Wallace) подверглись критике за то, что в случае рассмотрения коллективной публикации они каждому из соавторов в равной мере приписывали честь авторства. Кроме того, они не проводили границы между книгами, в которых были указаны либо авторы, либо редакторы, либо составители [29].
Подводя краткие итоги вышесказанному, можно утверждать, что ранжирование, как на основе подсчета цитат, так и на основе подсчета публикаций, имеет свои сильные и слабые стороны. Кроме того, оба подхода служат качественными характеристиками научной продуктивности. Выбор конкретного подхода в ранжировании факультетских
учебных программ обусловлен тем, какую цель ставят перед собой исследователи в начале проекта, какие группы респондентов выбраны в качестве объекта исследования, какие именно учебные программы следует оценить. В каждом случае библиотековеды должны применить вполне определенные базы данных и выбрать соответствующие методы. Если источники цитат изучались библиотековедами весьма интенсивно, то исследования правомерности использования баз данных для ранжирования публикационной активности практически не проводились североамериканскими библиотековедами. Большие усилия по устранению этого недостатка приложили североамериканские библиотековеды из университета штата Индина -Кристина Спурджин и Локман Мехо (Kristina M. Spurgin и Lokman I. Meho) [29].
Библиотековеды США и Канады обсуждали, как правило, отдельные аспекты проблемных вопросов ранжирования по публикационной активности, при этом обходя ряд других, весьма злободневных проблем ранжирования. Как показывает статистика проведенных в библиотечно-информа-ционном дискурсе исследований, при ранжировании с применением баз данных, содержащих библиотековедческие публикации, в большинстве случаев применялась только одна база.
Между тем, как отмечают Кристина Спурджин и Локман Мехо, особенно важно в ходе библио-метрических исследований учитывать рамки анализа и полноту охвата баз данных по авторам и библиотечным научным школам. Существенные разрывы между широтой охвата баз данных, использование ненадежных или нерепрезентативных источников, смещение акцентов в ряду предмета исследования, ограничения по типам документов, проиндексированных в базах данных, могут сильно исказить полученные результаты и привести к некорректным выводам.
Лишь немногие заинтересовались этими вопросами и проанализировали в этом аспекте надежность базы данных ALISE (Association of Library and Information Science Education) [43]. Исследование, проведенное Локман Мехо и Кристиной Спурджин, было призвано определить валидность и надежность результатов перечисленных в списке литературы исследований по вопросам научного ранжирования и разработать стандартные процедуры и приемы анализа подобного рода.
Определение баз данных с высоким уровнем содержания библиотековедческих изданий США поможет библиотекам сформировать оптимальную политику комплектования фондов, что позволит студентам и аспирантам подбирать более эффективные базы для проведения исследований. Подсчет публикаций, особенно научных, представляет собой весьма эффективное средство для глубоких
исследований по подсчету цитирования и определению позиции библиотеки или вуза в профессиональном сообществе [41].
Чаще всего в своих работах библиотековеды США и Канады рассматривали базы данных с высоким уровнем публикаций в области библиотечно-информационной науки. В некоторых исследованиях проделан качественный анализ массива публикаций по данной тематике в зарубежном библиотековедении за период с середины 60-х гг. прошлого века по 2000 г. [11, 18, 22, 23, 26, 35, 47].
Все библиотековеды США и Канады в своих исследованиях по данной теме единодушны, что пересечение баз данных — это величина непостоянная, меняющаяся от года к году, поэтому для повышения качества библиотечного исследования необходимо рассматривать несколько баз данных. Несмотря на кажущуюся очевидность этого вывода, многие авторы исследований ранжирования по числу публикаций продолжают использовать только одну базу данных для подсчета числа публикаций.
Тщательное рассмотрение баз данных по степени охвата библиотечными публикациями помогло выявить три основные проблемы. Во-первых, в ранних исследованиях этой темы рассматривалось очень небольшое количество баз данных вследствие высокой трудоемкости процесса выборки [25]- доступность к резюме в режиме онлайн и индексирование услуг с индивидуальных компьютеров позволило сделать этот процесс менее утомительным.
Во-вторых, хотя поиск объекта и ключевых слов являются наиболее часто используемыми методами поиска информации, тем не менее библиотековеды постоянно сталкиваются с системной проблемой вариаций в индексировании языка, глубины, полноты, изменяющихся от базы к базе.
В-третьих, исследование охвата только библиотечных журналов более не является эффективным подходом в изучении темы измерения полноты охвата баз данных, что происходит вследствие растущей степени междисциплинарности в библиотековедческом поле. Было установлено, что многие североамериканские библиотековеды предоставляют свои статьи для публикации не только в библиотечные журналы, индексированные в базах данных, но и в периодические издания смежных дисциплин [29]. Поэтому для более точного отбора баз данных, содержащих сведения о библиотековедческих публикациях, следует проводить поиск по заданной теме, пользуясь подробными и точными библиографическими ссылками или же точными авторскими списками опубликованных работ по теме библиотековедения.
Для оценки надежности и достоверности исследований ранжирования на основе подсчета числа библиотечных публикаций Локман Мехо и Кри-
стина Спурджин протестировали массив баз данных применительно к творчеству ряда ведущих библиотековедов Северной Америки, которые, согласно информации профессора университета Миссури-Колумбия Джона Бадда (John M. Budd) [9], имели наибольшее число своих публикаций в форме журнальных статей.
Поскольку поиск публикаций известных авторов обеспечивает более точные результаты в охвате баз данных, чем другие методы, Локман Мехо и Кристина Спурджин идентифицировали и применили полные текущие перечни публикаций преподавателей библиотечных факультетов и вузов из 10 лучших библиотечный учебных заведений, выбранных U.S. News and World Report [40]. Из числа рассматриваемых публикаций были исключены: инструкции по обучению, технические отчеты, презентации на конференциях, аннотации, семинары. В целом Локман Мехо и Кристина Спурджин рассмотрели 2625 работ за период с 1982 по 2002 г. Все найденные публикации помещены в базу данных Microsoft Access и кодированы по школам, году публикации, научной области, типу документа (журнальная статья, книга и т. д.), наличию реферирования и факту индексирования в одной из девяти баз данных.
Главный вывод, к которому пришли ученые: выбор базы данных для проведения ранжирования методом подсчета публикаций в области библиотековедения существенно влияет на точность и надежность ранжирования. Аналогичный вывод сделан относительно источников, используемых для идентификации участников исследования.
Данная работа также подтвердила гипотезу о том, что библиотечные публикации разбросаны по различным базам данных, их наличие не ограничивается признанными библиотечными базами данных. Новой информацией для библиотековедов Северной Америки, установленной в ходе данного исследования, явилось то, что значительное количество библиотечных публикаций сосредоточено также в междисциплинарных или мультидисцип-линарных базах данных, например, Inside Conferences и INSPEC.
Установлено также, что полнота охвата библиотечной тематикой баз данных в значительной степени зависит от темы, что для восполнения числа публикаций в поле библиотековедения необходимо помимо обращения к известным базам данных осуществлять поиск в Интернете по статьям с библиографическими сносками и списками, а также по цитируемым в книгах и статьях источникам.
Кроме того, каталог ALISE не является единственным источником идентификации преподавателей-членов Американской Библиотечной Ассоциации. С течением времени широта охвата баз данных библиотечной тематикой меняется, поэтому
исследование, аналогичное тому, которое провели Мехо и Спурджин, следует повторять через несколько лет с целью получения наиболее точных результатов.
Вопрос, следует ли применять технологию подсчета публикаций отдельно от других как единственную в том или ином исследовании ранжирования авторов и академических программ, приходится решать в каждом конкретном случае.
Часто исследование ранжирования возможно и следует дополнять различными оценочными и сравнительными анализами. Ранжирование на основе точного подсчета поможет библиотековедам оценить научную продуктивность члена библиотечного сообщества, будь то индивидуальный автор или целая библиотечная школа.
Идентификация баз данных, содержащих большое количество публикаций в области библиотековедения, также поможет библиотекам и информационным центрам комплектовать свои фонды качественным материалом, делать полноценную подписку на периодические издания, что, безусловно, поможет студентам и преподавателям в их научно-исследовательской работе и учебе. В случае применения подсчета цитат следует рассматривать не только базу данных ISI, как это рекомендуют ряд зарубежных библиотековедов [14, 33, 36].
Автору статьи не удалось установить по рассмотренным ниже источникам, применяются ли базы данных Web of Science и Scopus в научном библиотековедческом сообществе Северной Америки. Таким образом, на вопрос об определении индекса цитируемости в автоматическом режиме нельзя ответить однозначно до проведения дополнительных исследований.
Литература
1. Нохрина В. А. Оценочные исследования в библиотеках и измерение качества библиотечных услуг // Библиотечное дело-2013: материалы XVIII между-нар. науч. конф. (24−25 апр. 2013 г.). — М., 2013. -Ч. 1. — С. 76.
2. Романов П. С. Аналитическая характеристика документного потока англоязычных диссертаций в области библиотековедения (по материалам США и Канады): дис. … канд. пед. наук / Моск. гос. ун-т культуры и искусств. — М., 2006. — 220 с.
3. Романов П. С. Библиотековедение зарубежных стран во второй половине XX — начале XXI века. — М.: Хлебпродинформ, 2012. — 122 с.
4. Столяров Ю. Н. Анализ научной книги на основе закона Брэдфорда (на примере библиотечного фон-доведения) // Научная книга на постсоветском пространстве: материалы II междунар. науч. конф. (Москва, 19−21 сент. 2007 г.). — М., 2007. — Ч. 1. -С. 223−226.
5. Blake V. L. P., Tjoumas R. Research as a factor in faculty evaluation: the rules are a-changin'- // Journal of Education for Library and Information Science. — 1988. -Vol. 31, № 1. — P. 3−24.
6. Bates M. J. The role of publication type in the evaluation of LIS programs // Library & amp- Information Science Research. — 1998. — Vol. 20, № 2. — P. 187−198.
7. Boyce B. R., Hendren C. Authorship as a measure of the productivity of schools of library and information science // Journal of Education for Library and Information Science. — 1996. — Vol. 37, № 3. — P. 250−271.
8. Brace W. Quality assessment of library and information science school faculties // Education for Information. -1992. — Vol. 10, № 2. — P. 115−123.
9. Budd J. M. Scholarly productivity of U.S. LIS faculty: an update // The Library Quarterly. — 2000. — Vol. 70, № 2. — P. 230−245.
10. Budd J. M., Seavey C. A. Productivity of U.S. library and information science faculty: the Hayes study revisited // The Library Quarterly. — 1996. — Vol. 66, № 1. -P. 1−20.
11. Coblans H. The literature of librarianship and documentation: the periodicals and their bibliographical control // Journal of Documentation. — 1972. — Vol. 28, № 1. -P. 56−66.
12. Cole S., Cole J. R. Scientific output and recognition // American Sociological Review. — 1967. — Vol. 32, № 3. -P. 377−390.
13. Cole S., Cole J. R. Visibility and the structural bases of awareness of scientific research // American Sociological Review. — 1968. — Vol. 33, № 3. — P. 397−413.
14. Cronin B. Bibliometrics and beyond: Some thoughts on Web-based citation analysis // Journal of Information Science. — 2001. — Vol. 27, № 1. — P. 1−7.
15. Cronin B., Overfelt K. Citation-based auditing of academic performance // Journal of the American Society for Information Science. — 1994. — Vol. 45, № 2. -P. 61−72.
16. Danton J. P. Notes on the evaluation of library schools // Journal of Education for Librarianship. — 1983. -Vol. 24, № 2. — P. 106−116.
17. Elsbach K. D., Kramer R. M. Members'- responses to organizational identities: Encountering and countering the Business Week rankings // Administrative Science Quarterly. — 1997. — Vol. 41, № 3. — P. 442−476.
18. Ernest D. J., Lange H. R., Herring D. An online comparison of three library science databases // RQ. — 1988. -Vol. 28, № 2. — P. 185−194.
19. Fogarty T. J., Saftner D. V. Academic department prestige: A new measure based on the doctoral student labor market // Research in Higher Education. — 1993. -Vol. 34, № 4. — P. 427−449.
20. Garland K. The nature of publications authored by library and information science faculty // Library and Information Science Research. — 1991. — Vol. 13, № 1. -P. 49−60.
21. Gilbert G. N. Measuring the growth of science: a review of indicators of scientific growth // Scientometrics. -1978. — Vol. 1, № 1. — P. 9−34.
22. Gluck M. A review of journal coverage overlap with an extension to the definition of overlap // Journal of the American Society for Information Science. — 1990. -Vol. 41, № 1. — P. 43−60.
23. Hawkins D. T., Miller B. On-line data base coverage of the online information-retrieval literature // Online Review. — 1977. — Vol. 1, № 1. — P. 59−64.
24. Hayes R. M. Citation statistics as a measure of faculty research productivity // Journal of Education for Libra-rianship. — 1983. — Vol. 23, № 3. — P. 151−172.
25. LaBorie T., HalperinM. The ERIC and LISA databases: How the sources of library science literature compare // Database. — 1981. — Vol. 4, № 3. — P. 32−37.
26. LaBorie T., Halperin M., White H. D. Library and information science abstracting and indexing services: coverage, overlap, and context // Library & amp- Information Science Research. — 1985. — Vol. 7, № 2. — P. 183−195.
27. Machung A. Playing the rankings game // Change. -
1998. — Vol. 30, № 4. — P. 12−16.
28. College rankings: democratized college knowledge for whom? / P. M. McDonough [et al.] // Research in Higher Education. — 1998. — Vol. 39, № 5. — P. 513−537.
29. Meho L. I., Spurgin K. M. Ranking the research productivity of library and information science faculty and schools: an evaluation of data sources and research methods // Journal of the American Society for information science and Technology. — 2005. — Vol. 56, № 12. -P. 1314−1331.
30. Monks J., Ehrenberg R. G. U.S. News and World Report'-s college rankings: why do they matter? // Change. -
1999. — Vol. 31, № 6. — P. 42−52.
31. Mulvaney J. P. The characteristics associated with perceived quality in schools of library and information science // The Library Quarterly. — 1992. — Vol. 62, № 1. -P. 1−27.
32. Mulvaney J. P. The characteristics associated with perceived quality in schools of library and information science: an update and prediction // The Library Quarterly. -
1993. — Vol. 63, № 2. — P. 189−191.
33. Nisonger T. E. Citation autobiography: an investigation of ISI database coverage in determining author citedness // College and Research Libraries. — 2004. — Vol. 65, № 2. — P. 152−163.
34. Pettigrew K. E., Nicholls P. T. Publication patterns of LIS faculty from 1982−1992: effects of doctoral programs // Library & amp- Information Science Research. -
1994. — Vol. 16, № 2. — P. 139−156.
35. Read E. J., Smith R. C. Searching for library and information science literature: a comparison of coverage in three databases // Library Computing. — 2000. — Vol. 19, № ½. — P. 118−126.
36. Reed K. L. Citation analysis of faculty publication: Beyond Science Citation Index and Social Science Citation Index // Bulletin of the Medical Library Association. -
1995. — Vol. 83, № 4. — P. 503−508.
37. Roush W. Grad schools ratings rankle // Science. — 1995. -Vol. 269, № 5231. — P. 1660−1662.
38. Smith L. C. Citation analysis // Library Trends. — 1981. -Vol. 30, № 1. — P. 83−106.
39. Stock W. A., Alston R. M. Effect of graduate-program rank on success in the job market // Journal of Economic Education. — 2000. — Vol. 31, № 4. — P. 389−401.
40. U.S. News and World Report. Library science: top schools. Retrieved 1999. — URL: http: //www. usnews. com/usnews/edu/beyond/bcinfos. htm.
41. Van Raan A. F. J. Advanced bibliometric methods as quantitative core of peer-review based evaluation and foresight exercises // Scientometrics. — 1996. — Vol. 36, № 3. — P. 397−420.
42. Varlejs J., Dalrymple P. Publication output of library and information science faculty // Journal of Education for Library and Information Science. — 1986. — Vol. 27, № 1. — P. 71−89.
43. Wallace D. P. The most productive faculty // Library Journal. — 1990. — Vol. 115, № 8. — P. 61−63.
44. White H. D. Author co-citation analysis: overview and defense // Scholarly communication and bibliometrics. -Newbury Park, CA, 1990. — P. 84−106.
45. White H. S. Rankings of library and information science faculty and programs: The third in a series of studies undertaken at six-year intervals // The Library Quarterly. -1993. — Vol. 63, № 2. — P. 166−188.
46. Wilson P. Factors affecting research productivity // Journal of Education for Library and Information Science. — 1979. — Vol. 20, № 1. — P. 3−24.
47. Yerkey A. A cluster analysis of several patterns among bibliographic databases // Journal of the American Society for Information Science. — 1983. — Vol. 34, № 5. -P. 350−355.
Материал поступил в редакцию 21. 10. 2014 г.
Сведения об авторе: Романов Петр Сергеевич — доктор педагогических наук, доцент, старший научный сотрудник, тел.: (985) 201−48−58, e-mail: rom-peter@yandex. ru

ПоказатьСвернуть
Заполнить форму текущей работой