Niesocjologiczna socjologia

Mam wrażenie,  że dyskusje wokół wykazu czasopism koncentrują się wokół punktacji polskich periodyków. A mnie zainteresowały topowe socjologiczne czasopisma, które wyceniono na 200 punktów (poniżej ich lista). Przyznam, że o niektórych słyszę pierwszy raz, a wielu innych nigdy nie kojarzyłem z socjologią. Tak na moje oko około połowa czasopism w kategorii 200-punktowców uznanych za socjologiczne ma z tą dyscypliną nauki mało lub bardzo niewiele wspólnego.

Jedna z wad tej reformy to zmuszenie badaczy do myślenia w kategoriach dyscyplin – ale jeżeli już to musimy robić to róbmy to z głową. Co mają na przykład takie pisma jak Agronomy for Sustainable Development czy  Land Degradation & Development wspólnego z socjologią? Albo dlaczego w gronie socjologicznych znalazły się periodyki politologiczne takie jak np. American Journal of Political Science? A jeżeli pisma politologiczne zostały uznane za socjologiczne, to dlaczego pisma socjologiczne nie zostały sklasyfikowane jako politologiczne, skoro problematyka obu dyscyplin się częściowo pokrywa? Widać tutaj brak koordynacji pracy poszczególnych zespołów.

Inkluzywna lista czasopism przypisanych do socjologii (czy każdej innej dyscypliny) miałaby sens, jeżeli zostałby utrzymany przepis o limicie dopuszczającym zgłoszenie do ewaluacji w danej dyscyplinie maksymalnie 20% artykułów naukowych opublikowanych w czasopismach, którym w wykazie czasopism przypisano inną dyscyplinę niż ewaluowana. Jednak tego przepisu nie ma w ostatecznej wersji rozporządzenia. Można zgłosić artykuł opublikowany w czasopiśmie z jakiejkolwiek innej dyscypliny, pod warunkiem, że ma związek z badaniami prowadzonymi w ewaluowanej dyscyplinie (choć trzeba przyznać, że nie jest to zbyt precyzyjne sformułowanie).

Rzecz jasna w wielu niesocjologicznych czasopismach, które znalazły się wśród topowych 200-punktowych socjologicznych czasopism można spotkać socjologiczne artykuły. W wielu przypadkach zresztą trudno wytyczyć granicę między dyscyplinami. Ale jak pisałem, to stanowi problemu, ponieważ jeżeli artykuł ma związek z badaniami socjologicznymi można go zgłosić do ewaluacji w socjologii bez względu na przynależność dyscyplinarną czasopisma. Natomiast włączenie wielu (socjolodzy okazali się tutaj wyjątkowo inkluzywni) pism spoza dyscypliny „zaburzyło” punktację i hierarchię pism stricte socjologicznych. Na przykład czymś dziwacznym wydaje mi się, że na liście czasopism socjologicznych British Journal of Political Science ma 200 punktów, natomiast British Journal of Sociology – 140 czy że Tesol Quaterly ma 200 punktów, a European Sociological Review – 140 punktów itd. Te dwa ostatnie mają przecież dla socjologii znacznie większe znaczenie. Takich przykładów jest znacznie więcej. Słowem, mam wrażenie, że lista topowych socjologicznych czasopism to jakiś mało strawny groch z kapustą.

Czasopima przypisane do socjologii, którym przyznano 200 punktów:

  1. ADMINISTRATIVE SCIENCE QUARTERLY
  2. Agronomy for Sustainable Development
  3. AMERICAN JOURNAL OF POLITICAL SCIENCE
  4. AMERICAN JOURNAL OF SOCIOLOGY
  5. AMERICAN POLITICAL SCIENCE REVIEW
  6. AMERICAN SOCIOLOGICAL REVIEW
  7. ANNALS OF STATISTICS
  8. Anthropocene Review
  9. ANTIPODE
  10. BRITISH JOURNAL OF POLITICAL SCIENCE
  11. COMPARATIVE POLITICAL STUDIES
  12. CRIMINOLOGY
  13. CULTURAL GEOGRAPHIES
  14. Differences-A Journal of Feminist Cultural Studies
  15. GENDER & SOCIETY
  16. GOVERNANCE-AN INTERNATIONAL JOURNAL OF POLICY ADMINISTRATION AND INSTITUTIONS
  17. HAU-Journal of Ethnographic Theory
  18. History and Anthropology
  19. JOURNAL OF CONFLICT RESOLUTION
  20. JOURNAL OF CONSUMER RESEARCH
  21. JOURNAL OF ORGANIZATIONAL BEHAVIOR
  22. JOURNAL OF PEACE RESEARCH
  23. JOURNAL OF PEASANT STUDIES
  24. JOURNAL OF PERSONALITY AND SOCIAL PSYCHOLOGY
  25. JOURNAL OF PUBLIC ADMINISTRATION RESEARCH AND THEORY
  26. JOURNAL OF QUANTITATIVE CRIMINOLOGY
  27. JOURNAL OF RESEARCH IN CRIME AND DELINQUENCY
  28. JOURNAL OF SERVICE RESEARCH
  29. JOURNAL OF SOCIOLINGUISTICS
  30. Journal of Statistical Software
  31. JOURNAL OF THE AMERICAN STATISTICAL ASSOCIATION
  32. JOURNAL OF THE ROYAL STATISTICAL SOCIETY SERIES B-STATISTICAL METHODOLOGY
  33. Journal of Travel Research
  34. LAND DEGRADATION & DEVELOPMENT
  35. LANDSCAPE AND URBAN PLANNING
  36. LANGUAGE IN SOCIETY
  37. Law & Policy
  38. NATURE
  39. NEW MEDIA & SOCIETY
  40. PARTY POLITICS
  41. PHILOSOPHY & PUBLIC AFFAIRS
  42. POETICS
  43. POLITICAL BEHAVIOR
  44. POST-SOVIET AFFAIRS
  45. Probability Surveys
  46. PUBLIC ADMINISTRATION REVIEW
  47. PUBLIC OPINION QUARTERLY
  48. Regulation & Governance
  49. Research in Social Stratification and Mobility
  50. SCIENCE
  51. SCIENCE EDUCATION
  52. Signs and Society
  53. SOCIAL FORCES
  54. Social Issues and Policy Review
  55. SOCIAL NETWORKS
  56. SOCIOLOGICAL METHODS & RESEARCH
  57. SOCIOLOGICAL THEORY
  58. SOCIOLOGY OF EDUCATION
  59. SOCIOLOGY OF RELIGION
  60. Studies in Science Education
  61. Survey Methodology
  62. SYNTHESE
  63. TESOL QUARTERLY
  64. THEORY AND SOCIETY
  65. WORLD POLITICS
  66. Annales
  67. Annual Review of Sociology
  68. Annual Review of Statistics and Its Application
  69. Crime and Justice

Produktywność, efektywność i produktywizacja badaczy

Ukazał się nowy numer Niezbędnika Akademickiego z moim krótkim komentarzem na temat raportu prof. Emanuela Kulczyckiego. W zasadzie raport to tylko pretekst, żeby zastanowić się nad językiem używanym coraz częściej do opisu akademickiej rzeczywistości, czy raczej konstruowania redukcjonistycznego i wąskiego obrazu tej rzeczywistości. Inaczej mówiąc, nie chodzi mi o ten konkretny raport tylko o bardziej rozpowszechnioną tendencję przedstawiana działalności naukowej za pomocą metaforyki produkcji. Rzecz jasna nie chodzi tylko o sam sposób mówienia o nauce, lecz o fakt, że on kształtuje i odzwierciedla instytucjonalne praktyki zarządzania nauką.

Jednym z przejawów tego redukcjonizmu jest koncentrowanie się na ostatnim i najbardziej wymiernym elemencie procesu badawczego, mianowicie na publikacjach w dodatku na ogół rozumianych dość tradycyjnie: artykuł lub monografia, a najlepiej artykuł w czasopiśmie ujętym w odpowiedniej bazie danych. Jednak zauważmy niektórych subdyscyplinach (np. antropologia wizualna) wyniki badań prezentuje się również w innej formie niż tekst pisany – np. w postaci filmu etnograficznego. W Polsce nie jest to zbyt rozpowszechniona praktyka, ale warto o niej wspomnieć i zastanowić się jak uwzględniać tego typu działalność badawczą w ankietach dorobku.

Trzeba również podkreślić, że badania to nie tylko analiza danych i przedstawienie swoich analiz w postaci publikacji. Upraszczając i nie wchodząc w szczegóły, praca naukowa to także konceptualizacja problematyki badań, opracowanie metodologii, dotarcie do badanych i zbieranie danych. Wyrwane z tego kontekstu badawczego skupianie się na publikacjach niewiele mówi o produktywności, ponieważ pomija te inne etapy procesu badawczego. Takie mechaniczne zestawienia ignorują nie tylko odmienności między dziedzinami i dyscyplinami, ile zróżnicowanie między poszczególnymi typami badań nawet w tej samej dyscyplinie. Dyscypliny społeczne i humanistyczne są bowiem wieloparadygmatyczne, czy raczej jak sugerował Thomas Kuhn przed-paradygmatyczne i cechują się dużym wewnętrznym zróżnicowaniem przejawiającym się w sporach dotyczących tak fundamentalnych kwestii jak natura rzeczywistości społecznej czy szeroko rozumiana metoda badań, by wspomnieć różne wcielenia dyskusji wokół problemu verstehen versus erklären. Nawet w tej samej dyscyplinie proces badawczy rozumiany jako całość może cechować się, w zależności od subdyscypliny czy problematyki, bardzo różną intensywnością na różnych etapach badań, czego nie oddaje skupianie się na samych publikacjach. Można w tym kontekście wspomnieć chociażby o socjologii, w której prowadzi się zarówno intensywne etnograficzne badania terenowe, niekiedy trwające wiele lat (np. szeroko dyskutowana książka Alice Goffman pt „On the Run. Fugitive Life in an American City, Chicago University Press, 2014 to efekt sześciu lat obserwacji uczetniczącej), jak i ilościowe analizy łatwo dostępnych danych zastanych.

Co jednak ważniejsze, sama metafora produkcji w odniesieniu do działalności badawczej budzi wątpliwości. Jak uczył George Lakoff i Mark Johnson metafory to tyle językowe ozdobniki, ile konceptualne ramy, które organizują nasze widzenie rzeczywistości i przetwarzanie informacji. Metaforyka produkcji utrwala i upowszechnia specyficzny sposób mówienia i pisania o nauce, którego początki mają swoje źródło poza światem akademickim. Często mowa w tym kontekście o kulturze audytu, która kolonizuje świat akademicki wciskając go w konceptualne ramy charakterystyczne dla biznesowych korporacji z ich nastawieniem na mierzalne i kwantyfikowalne wyniki. Z tej perspektywy badacz to nie tyle ciekawy świata i bezinteresowny poszukiwacz, ile „producent”, którego rozlicza się z konkretnego i mierzalnego „research output”.

To redukowanie działalność badawczej tylko do jednego jej etapu i to dość specyficznie rozumianego ma szereg negatywnych konsekwencji, o których moim zdaniem za mało się mówi. Wspomijmy chociażby o tendencji do myślenia w kategoriach publikowalności i przewidywalności, co może skłaniać do podejmowania mało ryzykownych badań. Inaczej mówiąc, skoro naukowiec ma być produktywny i efektywny, musi się wykazać w określonym czasie określoną liczbą publikacji o określonej wadze punktowej, to po co podejmować trudne przełomowe badania, które mogą zakończyć się niepowodzeniem i są obarczone ryzykiem, że nie przyniosą publikacji? Podobnie jest z grantami, których formularze są niekiedy tak szczegółowe, że trzeba wpisywać cała masę informacji, których przed przystąpieniem do badań często nie sposób jeszcze wiedzieć. W zasadzie, żeby zaprojektować tak szczegółowo badania grantowe… trzeba by już je wcześniej przeprowadzić. Wspomiana wcześniej Goffman w trakcie swoich sześcioletnich badań kilka razy zmieniała tematykę i problemy badawcze – jednak obawiam się, że taka elastyczność, nie wspominając o długości badań, stanie się luksusem dostęnym bardzo nielicznym. Większość poddana presji „produktywizacji” zmuszona będzie „produkować” niewiele wnoszące przyczynki. Słowem, metafora produkcji i produkcyjności wciska w naukę w bardzo sztywny gorset, w którym pozostaje niewiele miejsca na nieprzewidywalność, niepowodzenie, „nieproduktywne” myślenie, „niewydajne” czytanie prac spoza swojej specjalizacji, podejmowanie trudnych i ryzykownych tematów, eksperymentowanie i wyobraźnię. Słowem…. na twórcze myślenie, któremu z reżimem produktywności i efektywności nie zawsze po drodze.

Moje uwagi mogą się wydać zbyt jednostronne, ale też nie jest to artykuł naukowy więc pozwalam sobie na pewną retoryczną przesadę, żeby zwrócić uwagę na konieczność głębszej i krytycznej refleksji nad znaczeniem takich kategorii jako „produktywność”, „efektywność” czy „jakość” w kontekście działalności naukowej. Zdaje sobie sprawę z z potrzeby jakiejś formy „mierzenia” czy oceny działalności badaczy choćby ze względu na wymogi polityki naukowej i dystrybucji środków finansowych. Ale nie można poświęcać wolności i bezinteresowności naukowych dociekań na rzecz urzędniczej logiki i potrzeb ministerstwa.

Konstytucja dla Nauki: reforma inna niż wszystkie?

Moim skromnym zdaniem ogłoszona 18 stycznia 2019 roku lista wydawnictw to groch z kapustą, przypomina puzzle układane z zamkniętymi oczami. Wbrew zapowiedziom ministerstwa wykaz wydawnictw ma niewiele wspólnego z promowaniem jakości, nie wspominając o umiędzynarodowieniu. I nie przekonują mnie argumenty, że każda lista będzie miała braki i nigdy nie zadowoli wszystkich. W ten sposób można usprawiedliwić każdą fuszerkę. Chirurg mógłby przeprowadzać na przykład operację wycięcia wyrostka robaczkowego w kanale ściekowym, bo przecież – broniłby się – nie mamy możliwości zapewnienia stuprocentowej sterylności, więc co za różnica czy będzie to ściek czy szpital. Inaczej mówiąc, to że każda lista będzie niedoskonała, nie znaczy, że ta konkretna lista nie jest zbyt niedoskonała i że nie może być lepsza. A lista, na której obok solidnych międzynarodowych i polskich wydawnictw znajdują się sklepy z dewocjonaliami, całkowicie lokalne wydawnictwa czy wydawnictwa publikujące pseudonaukowe prace nie jest dobra: przeczy deklaracjom ministerstwa, założeniom reformy i generalnie ma anty-jakościowy charakter.

Ale mniejsza o wykaz wydawnictw. Trudno, jest jaki jest. Jednak ministerstwo ad nauseam podkreślało, że Konstytucja dla Nauki to reforma inna niż wszystkie inne: szeroko konsultowana ze środowiskiem, procedowana w duchu otwartości, przejrzystości i dialogu z przedstawicielami świata nauki. To może przynajmniej lista odwołuje się do jasnych i przejrzystych kryteriów oraz została sporządzona w transparentny sposób? Jako że oficjalne dokumenty były dość enigmatyczne i ogólnikowe, wystąpiłem do Ministerstwa Nauki i Szkolnictwa Wyższego z kilkoma wnioskami o udostępnienie informacji publicznej. Niestety wyjaśnienia niewiele wyjaśniały, ale dowiedziałem się m.in. dwóch rzeczy.

Po pierwsze, że na poziomie 2 (monografie za 200 punktów lub za 300 punktów w zależności od dziedziny) mogły znaleźć się tylko takie wydawnictwa, które na Publication Forum (tzw. lista fińska) były klasyfikowane na Poziomie 2 lub 3 lub były klasyfikowane w Norwegian Register for Scientific Journals, Series and Publishers (tzw. lista norweska) na Poziomie 2.  Łatwo sprawdzić, że znalezienie się na poziomie 2 lub 3 na liście fińskiej lub na poziomie 2 na liście norweskiej nie było warunkiem wystarczającym, aby wydawnictwo zostało umieszczone na poziome 2 na liście polskiej, np. Polity Press: lista fińska – 3, lista norweska – 2, polska lista – 1, Berghahn Books: lista fińska – 2, lista norweska – 2, polska lista – 1, Hart Publishing: lista fińska – 2, lista norweska – 2, polska lista – 1. Ale już na przykład Taylor and Francis: lista fińska – 2, lista norweska – 1, polska lista – 2. Podobnych przykładów można podać więcej: nie widzę w tym umieszczaniu wydawnictw na poziomie 2 listy polskiej większej logiki. Jakie jeszcze zatem kryteria zdecydowały o umieszczeniu wydawnictwa na poziome 2 polskiej listy?

Po drugie, z przesłanej odpowiedzi na mój wniosek o udzielenie informacji publicznej wynikało, że minister nauki dopisał bliżej nieokreśloną liczbę wydawnictw po konsultacjach z jakimiś niezidentyfikowanymi przedstawicielami środowiska naukowego do listy przygotowanej przez Zespół ds. wydawnictw. Jakie wydawnictwa zatem dopisał minister, jakimi kryteriami się kierował i z jakimi przedstawicielami środowiska naukowego się konsultował? W środowisku akademickim krążą różne plotki z trzeciej i czwartej ręki o jakie wydawnictwa chodzi i o jakich przedstawicieli, ale nie ma sensu powtarzać niesprawdzonych informacji.

Wyjaśnienia ministerstwa generowały więc tylko nowe pytania. Wystąpiłem zatem z trzema kolejnymi wnioskami o udzielenie informacji publicznej, aby uzyskać dane, na postawie których mógłbym sobie wyrobić zdanie jak tworzono wykaz wydawnictw. Poprosiłem o informacje dotyczące: 1) protokołów posiedzeń Zespołu ds. wydawnictw, 2) pierwszego projektu listy wydawnictw przygotowanej przez Zespół ds. wydawnictw, 3) przedstawicieli środowiska naukowego, z którymi konsultował się minister uzupełniając początkowy wykaz wydawnictw. We wszystkich trzech przypadkach odpowiedź ministra brzmiała tak samo: dane, o które wnioskuję nie stanowią informacji publicznej w rozumieniu ustawy z dnia 6 września 2001 r. o dostępie do informacji publicznej. Nie jestem prawnikiem, więc mogę się mylić, ale pytania, zwłaszcza 1) i 2) jak najbardziej dotyczą informacji o charakterze publicznym (zresztą inne ministerstwa tego rządu udostępniają protokoły z posiedzeń zespołów doradczych – a taki charakter miał Zespół ds. wydawnictw).

I tak w praktyce wyglądają ministerialne deklaracje o transparentności prac nad Konstytucją dla Nauki: konsultacje tylko z wybranymi, niejasne zasady, arbitralność i niechęć do udzielania informacji. W zasadzie, przyglądając się sposobowi przygotowywania i wdrażania tej tzw. reformy, nie powinno mnie to dziwić.