Zmowa wielu autorów, propagowanie swoich, podbijanie cytatów. Tak działają kartele naukowe

To jest zmowa licznych autorów, bo cytaty z owych wywindowanych na piedestał artykułów naukowych często pochodziły od badaczy z tej samej instytucji naukowej, co ich autorzy, i tak w kółeczko, a potem w drugą stronę i jeszcze raz.

Publikacja: 05.04.2024 10:00

Piąty Kongres Solvaya, 1927 rok

Piąty Kongres Solvaya, 1927 rok

Foto: Science History Images / Alamy Stock Photo

Z czym się kojarzy słowo kartel? Mnie osobiście z narkotykowym kartelem z Medellín, czyli założoną przez Pabla Escobara na początku lat 70. XX wieku zmową producentów i handlarzy zaopatrującą 90 proc. światowego rynku kokainy, wypracowującą przy tym zysk 60–100 mln dolarów dziennie. A już poza narkotykami tworzenie zmów o charakterze karteli jest ściśle zakazane przez prawo, które chroni konsumentów i konkurencję na rynku. Czy nauka jest rynkiem? Pytanie nie bez kozery, bo udowodnioną właśnie matematycznie korupcję systemu stawania się wielkim, sławnym (i ewentualnie bogatym) w świecie współczesnej nauki nazwano – i to nie jest groteska – „kartelem cytowań”.

Prestiżowy magazyn „Science” opisał całą rzecz pod koniec stycznia. Pewien hiszpański matematyk wykrył (nie detektywistycznie, a matematycznie), że inni matematycy stworzyli kartel, który wywindował (podobnie jak kartel Escobara sprzymierzonych z nim drobnych producentów kokainy) „instytuciki” zatrudniające nieznanych nikomu matematyków na potentatów większych od uniwersytetów Princeton i Stanford. Czy tylko dla czystej sławy? Niekoniecznie, w nauce bowiem wyliczony parametrycznie prestiż przekłada się chociażby na dostęp do funduszy na badania, czyli tzw. grantów.

Czytaj więcej

Biom: Czyli sto bilionów mikroorganizmów, które mieszkają w naszym brzuchu i nami rządzą

Uczeni troszczą się przede wszystkim o parametry i punkty

Aby jednak pojąć ten przedstawiony w „Science” świat na opak, gdzie „kliki matematyków z niszowych chińskich (w istocie tajwańskich – red.), saudyjskich i egipskich instytucji naukowych sztucznie zwiększają liczbę cytowań swoich kolegów, publikując artykuły niskiej jakości, w których wielokrotnie odwołują się do ich prac”, jak to opisał autor materiału w „Science” Michele Catanzaro. Jednak tytułem wstępu potrzebne jest pewne wyjaśnienie. A mianowicie: skąd dziś w ogóle wiadomo, że konkretny uczony jest wielki, a co za tym idzie – instytucja naukowa, którą reprezentuje, jest niemała? Służą ku temu rozliczne i nieco odmiennie wyliczane indeksy. Ich ewentualna dalsza parametryzacja czy tworzone podobne systemy o zasięgu krajowym (słynne już „listy ministerialne czasopism”), pozwalają rządowi czy przemysłowi prywatnemu oraz innym darczyńcom ustalić, komu dać, a komu nie. Indeksy owe nie biorą się z powietrza, są bowiem najczęściej budowane na podstawie ilości (i, dałby Bóg, jakości) wytwarzanych przez uczonych sprawozdań z własnej pracy, nazwanych publikacjami naukowymi. Maszynka ta działa dziś (i od całkiem dawna) według zasady ewangelicznej z przypowieści o sługach i talentach: „kto ma, będzie mu dodane, a kto nie ma, zabiorą mu nawet to niewiele, co ma”. Nie brzmi to jak sprawiedliwość społeczna ani tym bardziej miłosierdzie, ale działa. W tym sensie, że jeśli zrobisz jakieś przełomowe badania, powinieneś mieć szansę opublikować je „bardzo wysoko”, to znaczy chociażby (jeśli chodzi o nauki przyrodnicze i pokrewne) we wspomnianym już „Science”, „Nature”, „Cell” czy „PNAS”.

Każda dziedzina ma takie listy czasopism od najlepszych po najsłabsze. Tylko dochodzi tu często do porównywania jabłek z pomarańczami, bowiem w dziedzinach, takich jak matematyka – o czym poinformował mnie dziekan Wydziału Matematyki, Informatyki i Mechaniki UW prof. dr hab. Paweł Strzelecki – te czasopisma z natury rzeczy mają niższy tzw. impact factor (IF), bo nie dość, że nie są szczególnie liczne i wychodzą rzadziej, to jeszcze każdy artykuł ma tam jednego czy kilku autorów, a nie kilkudziesięciu. Natomiast algorytmy liczące te wszystkie indeksy opierają się na liczbie cytowań konkretnego tekstu w kilka lat po opublikowaniu – dając za pomocą jednej zacytowanej publikacji punkty albo 20 czy 50 autorom trzy razy w roku, albo trzem raz na rok. W matematyce zatem IF większy od dwóch jest rzadki, a w naukach przyrodniczych czy medycynie – to podstawa i lepsze czasopisma mają znacznie wyższe IF.

Teoretycznie dobre jest to czasopismo, z którego się często cytuje, a złe to, z którego rzadko. W archeologii czy matematyce królują kwartalniki, miesięczniki i doniesienia na konferencjach naukowych, a w naukach biomedycznych – tygodniki i miesięczniki, w humanistycznych – monografie i rozdziały w książkach. Wspomniane zaś listy ministerialne… też powstają (lub powinny) na zasadzie prestiżu danych publikatorów w środowisku naukowym. „Automatyczne przykładanie algorytmów prowadzi jednak do stosowania tych samych kryteriów ewaluacji działalności naukowej humanisty i przedstawiciela nauk ścisłych czy przyrodniczych, co z samego założenia jest absurdalne, zresztą równie absurdalne, jak w ogóle ocenianie za pomocą indeksów cytowań jakiegokolwiek badacza indywidualnie” – podsumowuje prof. Strzelecki.

Problem: polski nie jest językiem międzynarodowym, rodzime czasopisma naukowe albo upadły, albo wegetują, zaś dostępność czasopism realnie międzynarodowych (czyli anglojęzycznych) dla problemów poruszanych w polskiej medycynie czy biologii jest wyższa niż poruszanych w filologii polskiej, historii Polski, polskiej politologii etc. Wszyscy natomiast, niezależnie od dziedziny, są przystawiani do jednej linijki, góra kilku niespecjalnie różnych linijek.

Powstaje też problem wysokich i wyciąganych niejednokrotnie z nędznego budżetu na badania naukowe opłat za publikacje. Pieniądze biorą wszyscy, tak wielkie i sławne wydawnictwa, jak i domy wydawnicze publikujące tzw. predatory journals, czyli pisma drapieżniki. W tych ostatnich jednak ta opłata jest jak łapówka – nie ma tam bowiem żadnego realnego procesu recenzyjnego czy redakcyjnego, a informacje: „recenzja w 24 godziny, w następnym numerze będzie pan/pani redaktorem (to się liczy w CV)” i podobne są co najmniej moralnie wątpliwe i przypominają promocje niskiej jakości towarów w supermarkecie – niejeden niestety daje się skusić. „Bo musi wyrabiać punkty”.

„W dawnych dobrych czasach” prestiż czasopism naukowych brał się stąd, że – dajmy na to – ktoś odkrył jakąś supermetodę badawczą (np. sekwencjonowanie DNA). Jeśli opublikował to w konkretnym artykule w jednym z czasopism naukowych, to wszyscy kolejni ludzie, którzy chcieli z tej metody skorzystać w swoich badaniach, byli zobligowani w odpowiednim miejscu swoich publikacji zacytować, kto owo sekwencjonowanie pierwszy opublikował i gdzie. Tak rósł prestiż autora metody i czasopisma, którego redaktorzy i recenzenci byli na tyle światli, by ową metodę opublikować. Oczywiście taki kredyt powodował, że wszelkie kolejne „wsady” pochodzące z laboratorium prowadzonego przez owych pierwszych autorów były znacznie skuteczniejsze.

Jak każdy system, system wskaźników, parametryzacji tychże i „punktozy”, prowadził do mniej lub bardziej akceptowalnych „błędów i wypaczeń”. Jak np. dobieranie do publikacji autora zewnętrznego, który niewiele miał wspólnego z badaniami, ale za to jest na tyle już utytułowany (ma na tyle wysokie indeksy własne), że zwiększy zaufanie tak do samej nowej publikacji, jak i jej faktycznych autorów, co przełoży się potem na to, że i oni z czasem zrobią się utytułowani i… tak można ciągnąć.

Recenzenci decydują o tym, kto zyska najlepsze finansowanie

Innym częstym pomysłem na przechytrzenie sytemu było proponowanie recenzentów. Wysyłający publikację do ewentualnego druku w większości czasopism mogą edytorowi zaproponować najlepszą ich zdaniem parę recenzentów. Tylko obrany z rozumu wysunie swego najgroźniejszego konkurenta. Istnieją bowiem na danym polu nauki, jak wszędzie w świecie, sympatie i antypatie. Niektóre redakcje pozwalają także podać nazwisko potencjalnego recenzenta, którego absolutnie byśmy sobie nie życzyli. Oczywiście redaktorzy nie muszą się tym wyborem kierować, ale najczęściej biorą co najmniej jednego recenzenta z naszej listy. Czy to tworzy sytuację „ręka rękę myje”? Raczej niewątpliwie, ale to jest „mała szkodliwość społeczna czynu”, jak by to ujęła policja naukowa, gdyby istniała. Z innej strony patrząc – czy losowanie recenzentów zapewniłoby tu całkowitą przejrzystość? Nie, gdyż nie niweluje ono samo w sobie owych istniejących sympatii i antypatii, współprac i konkurencji.

Gdyby dziś Newton recenzował prace Leibnitzowi czy Cuvier Darwinowi (i na odwrót), niekoniecznie do publicznego naukowego obiegu trafiłyby największe osiągnięcia ludzkiej myśli. A tak przecież bywało. Nikomu nieznany prowincjonalny Mendel publikuje genialne odkrycia praw natury w swoim języku w jakimś niszowym pisemku lokalnego towarzystwa naukowego – i trzeba je było ponownie odkrywać po niemal pół wieku. I tu jeden z „ponownych odkrywców” Hugo de Vries nie chce cytować Mendla, zaś konkurujący z nim Carl Correns wymusza to na nim groźbą skandalu. I dlatego dziś dzieci w szkole (jeszcze) uczą się o groszku, o kwiatach białych i czerwonych oraz nasionach gładkich i pomarszczonych, jako o prawach i regułach Mendla.

Jak w każdej dziedzinie ludzkiej aktywności, dziś w nauce śrubuje się konkurencyjność. Jak to zgrabnie podsumował w rozmowie ze mną prof. dr hab. Paweł Golik, szef Instytutu Genetyki i Biotechnologii Wydziału Biologii UW, „fundamentalny problem polega na tym, że to, co było w nauce środkiem, czyli publikowanie, stało się celem samym w sobie. I to jest chyba ogólny problem znany w teorii zarządzania – tworzy się wskaźniki, które mają w czymś pomagać, i one zaczynają żyć własnym życiem, w oderwaniu od tego, czemu miały służyć”.

Czytaj więcej

Czepiński: W Miedarach odkryliśmy szczątki gada nieznanego nauce

Nauka przeobraziła się w fast food. Nie liczy się jakość, lecz cyferki w Excelu

Jedną z konsekwencji tego jest zauważone przez prof. Golika zjawisko, iż dziś „preferuje się naukę przewidywalną (tzw. fast food science), kosztem bardziej ryzykownej”. Można powiedzieć, że znaleźliśmy się znów, nie tylko z przyczyn ideologicznych, ale wręcz filozoficznych i ekonomicznych, w świecie nauki późnoscholastycznej. Umysły na miarę Archimedesa by się może jeszcze i znalazły, ale nikt się nie będzie narażał na brak uznania i ciepłego kąta do spania.

Politolog, dr hab. Aleksander Głogowski, profesor UJ, zauważa z kolei, że w jego dziedzinie punktoza doprowadziła do absurdu, gdzie rozbudowane analizy wydarzeń i procesów w polityce zagranicznej, wymagające monografii, zaniknęły, gdyż „dają za mało punktów”, z kolei krótkie i pisane w momencie zdarzeń teksty analityczne „nie nadają się do publikacji w czasopismach, których proces wydawniczy trwa miesiące, a niekiedy nawet lata. Stawiane tezy mogą zostać sfalsyfikowane, wydarzenia tracą na znaczeniu, a adresaci tekstów (czyli decydenci polityczni i opinia publiczna) nie otrzymają ich na czas. Jako przedmiot publikacji w punktowanych czasopismach w dziedzinach nauk społecznych przeważa zatem metodologia i teorie, bo te się nie dezaktualizują”. Realnie czytane przez decydentów biuletyny informacyjne w tej dziedzinie nie mają IF… „Szczególnie analizy polityki krajowej, czy międzynarodowej łatwiej przebijają się do szerszej świadomości, jeśli są publikowane w ambitniejszych tytułach prasowych, wygłaszane w telewizji, a ostatnio – w mediach społecznościowych. Tego wszystkiego jednak system zupełnie nie zauważa, ani nie docenia, choć tyle się mówi o »aplikowalności badań« i »współpracy ze środowiskiem zewnętrznym«” – podsumowuje prof. Głogowski.

Jednak kartele cytowań to już jest znacznie głębsza patologia i jest jasne, że działają one nie tylko w matematyce, choć to w niej właśnie niedawno udowodniono ich funkcjonowanie. Wskaźniki publikacji naukowych daje się pompować niczym ceny akcji, z podobnymi konsekwencjami dla ich rynku. Bańka spekulacyjna w pewnym momencie pęka, a zepsuty „parkiet” i jego renomę ciężko naprawić.

Jak informuje „Science”, obecna analiza tych praktyk jest dziełem hiszpańskiego matematyka Dominga Docampa z Uniwersytetu w Vigo, od dawna zainteresowanego systemami rankingowymi uniwersytetów. Zauważył on, że lista najczęściej cytowanych badaczy firmy Clarivate (to w nauce coś jak agencja ratingowa) była stopniowo, przez kilka ostatnich lat, przejmowana przez mniej znanych matematyków. „Pojawili się ludzie, którzy publikowali w czasopismach, których nie czyta żaden poważny matematyk, a których prace cytowano w artykułach, których nie czytał żaden poważny matematyk” – podsumował rzecz Docampo.

Zanalizowane przez niego dane „wykazały, że w latach 2008–2010 instytucje takie jak Uniwersytet Kalifornijski w Los Angeles i Princeton opublikowały największą liczbę najczęściej cytowanych prac matematycznych. Jednak w latach 2021–2023 wyparły je instytucje o niewielkiej tradycji matematycznej, z których wiele ma siedzibę w Chinach czy na Tajwanie, Arabii Saudyjskiej i Egipcie. W tym okresie na szczycie listy znalazł się Chiński Uniwersytet Medyczny na Tajwanie z 95 najczęściej cytowanymi pracami z matematyki, gdy tymczasem na Uniwersytecie Kalifornijskim ukazał się tylko jeden często cytowany artykuł”.

System oceniania artykułów naukowych zaczyna przypominać działania karteli narkotykowych

Jak działają kartele cytowań? Jak to w skeczu „Pożar” ujmował Andrzej Grabowski: „on wonemu, on wonemu, i wonemu on podaje wiaderecko, a chałupa sie pali jak jasny pierun”. To jest zmowa licznych autorów, bo cytaty z owych wywindowanych na piedestał artykułów naukowych często pochodziły od badaczy z tej samej instytucji naukowej, co ich autorzy, i tak w kółeczko, a potem w drugą stronę, i koszyczek, i jeszcze raz – prowadził nieznany wodzirej. Nieważne, czy zaindeksowane cytowania miały sens – kto to sprawdzi?

Recenzenci, będąc specjalistami w jakiejś dziedzinie, jeśli już, to zwracają uwagę, czy zacytowano stosownie ich własne istotne prace. To pozwala czasem domyślać się, kto był recenzentem, sam bowiem proces jest w normalnych czasopismach naukowych zanonimizowany. Musi być jednak jasne, że opublikowanie wyników, do których badacze miewają czasem podejście jak do własnych dzieci, jest drogą przez mękę. Od wykonania badań do ich opublikowania w porządnym naukowym czasopiśmie mija niejednokrotnie rok i więcej. Autorzy są odsyłani od Annasza do Kajfasza, czasem dosłownie, latami. Jak chociażby dr Jerzy Dyczkowski, który ponad dekadę temu opuścił środowisko akademickie, by jako bioinformatyk i biostatystyk pracować dla firm farmaceutycznych. Jak na ironię, jego publikacja, będąca efektem kilkuletnich samodzielnych badań, opisuje właśnie to, jak mierzyć wartość badań naukowych niezależnie od ludzkich opinii. Doktor Dyczkowski zajął się medycyną i proponuje, by liczyć nie cytowania publikacji, a raczej powszechność i poważność choroby oraz procent badań kończących się sukcesem w tej samej dziedzinie. Tak uzyskane liczby pozostawiają mało możliwości do manipulacji przez kartele. Praca zatytułowana „Objective and Numerical Method of Finding Importance of Medical Research and Prioritizing Grants and Publications” nie doczekała się druku w żadnym z wiodących czasopism, gdyż redaktorzy uznali ją za „nie znajdującą się w spektrum ich zainteresowań”. Wisi sobie ona zatem od października 2020 r. w wolnym dostępie dla każdego, kto wie, że bardzo ciekawe prace naukowe można przeczytać również w tzw. serwisach pre-printowych.

Nie upieram się, że można to wszystko jeszcze lepiej czy akuratniej policzyć i zadekretować, w co zdaje się wierzyć dr Dyczkowski. Poza tym niespecjalnie widzę pogłębiającą się z czasem celowość takich wysiłków, skoro, jak czytamy na łamach wspomnianego artykułu z „Science”, „w odpowiedzi na takie praktyki (kartele cytowań) firma Clarivate wykluczyła całkowicie matematykę z najnowszego wydania swojej prestiżowej listy autorów najczęściej cytowanych artykułów, opublikowanej w listopadzie 2023 r.”, zaś konkluzja owego tekstu brzmi: „cytowania nie są dobrą miarą jakości naukowej”.

Zewnętrzne ustalenie, kto jest ile w nauce wart, jest trudniejsze, gdy wziąć pod uwagę, że system powinien objąć uczonych wszystkich typów (akademickich, z instytutów niezobowiązanych do kształcenia studentów oraz tych, którzy pracują wprost dla medycyny, przemysłu czy rolnictwa). Poza publikacjami trzeba by uwzględniać liczbę kształconych studentów, promowanych doktorów, prowadzoną działalność popularyzatorską etc. To ostatecznie prowadzi do groteski typu: czterech magistrantów na celujący jest wartych tyle, co jedna monografia albo publikacja w piśmie o IF 2, na liście ministerialnej ocenianym jednak na 200 punktów, czyli na tyle co „Science”, którego IF od lat oscyluje wokół 55.

Czytaj więcej

Dr hab. Kinga Paraskiewicz: Bazar, arbuz i papucie, czyli polskie ślady perskiego

Badania muszą zyskać popularność. Wielkie odkrycia naukowe schodzą na dalszy plan

Gdy na to nałożyć mniejsze lub większe zdolności PR-owe samych uczonych i ich instytutów oraz niejednokrotne lenistwo popularyzatorów nauki, pytanie, kto jest wielki w nauce, może zostać zastąpione przez: „kto jest popularnym naukowcem” – i tak geniuszy niejednokrotnie zastępują celebryci. Profesor Strzelecki w rozmowie ze mną podkreślał, że „IF ani sama liczba cytowań nie są miarą jakości publikowanych prac naukowych ani doniosłości osiągnięć naukowych; są miarą ich popularności, która może – ale nie musi! – mieć związek z klasą odkrycia”.

Żeby zobaczyć to szczególne kino rozciągnięte od Hollywood do Bollywood i jego gwiazdy, gwiazdki i gwiazdeczki, to mamy dziś na świecie, według skromnych szacunków, ok. 30 tys. czasopism naukowych, w których pojawia się rokrocznie ok. 2 milionów artykułów. Klasy A, B, a nawet C (i D by się znalazła), ponownie korzystając z filmowej analogii.

Wydawać by się mogło, że chodzi o to, co matematycy lubią (a my musimy się nauczyć już we wczesnej podstawówce), czyli o sprowadzanie do wspólnego mianownika. Gdy potem trzeba podzielić jakiś „tort” (fundusze grantowe, pieniądze na działalność statutową, na remonty, na pensje etc.), każdy by chciał, aby było „sprawiedliwie”. Jakiś sprytny algorytm, który pozwoli określić, ile się komu należy, byłby bardzo pożądany, ale czy jest wykonalny i czy nikt go nie będzie kontestował, a z drugiej strony niecnie wykorzystywał? „Może jestem idealistą – podsumowuje prof. Golik – ale dla mnie w nauce publikacja nie jest celem. Celem jest poznanie świata, a wymiana myśli przez publikacje jest środkiem do osiągnięcia tego celu. A punktoza sprawiła, że środek stał się celem”.

Cała ta zabawa we współczynniki cytowań nie istnieje poza światem akademickim i jego sponsorami, tak publicznymi, jak prywatnymi. Uczeni w danej specjalności wiedzą między sobą, kto jest większy, a kto mniejszy, bez tych punktów. W przypadku licznych polskich humanistów pracowite i zasadniczo naukowo nonsensowne składanie ofiar na ołtarzu punktozy jest jedynie rodzajem niezbędnego odrabiania pańszczyzny na rzecz wydziału czy instytutu, który „inaczej nie dostanie pieniędzy”. Na naszym polskim podwórku kolejne „listy czasopism punktowanych” kompromitowały nie tylko podpisanych pod nimi ministrów nauki, ale przede wszystkim system punktozy jako taki. Być może ta cała historia nie jest o jakichś przestępcach, tylko o sprytnych naukowcach z Azji i Afryki, którzy po prostu pokonali utytułowanych amerykańskich kolegów ich własną, stosowaną od co najmniej ćwierć wieku bronią? Ktoś po prostu wreszcie policzył i głośno powiedział na łamach naukowego czasopisma, że król jest nagi. Skoro tak, to być może jest szansa na reformę systemu?

Zapominamy, co dla uczonych, jak prof. Strzelecki, jest oczywistością, że „rolą badaczy piszących teksty naukowe nie jest dokładanie jak największej liczby nowych cegiełek do niewzruszalnego gmachu nauki. To w znacznej mierze fałszywy obraz. Rolą autora jest zmienianie sposobu, w jaki ludzie myślą – jak postrzegają jakiś problem czy odkrycie, jego wagę i znaczenie, związki z innymi częściami nauki, perspektywy dalszych badań itp.”. Rozmawiając zatem o parametryzacji nauki, w istocie dyskutujemy o zjawiskach naskórkowych, gdy powszechnie mało i chyba coraz mniej wiemy o głębi samej nauki.

Żeby nie zakończyć tej historii na zbyt wysokim c, badacze, zwłaszcza młodzi, próbujący ogarnąć zastany system, prowadzą poważne dyskusje i analizy na blogach typu „Retraction Watch” albo znów śmieją się przez łzy, ratując przed depresją pod postami na grupach w mediach społecznościowych, takich jak „Reviewer 2 Must Be Stopped!”. Mój ulubiony żart z tych łamów: „Posiadanie doktoratu daje Ci przewagę w randkowaniu online. Pomaga dobrze znieść odmowę”. Istnieje także nauka, która może się wybić na analizach wszelkich praktyk, nad którymi pracują uczeni starający się nie zostać oblanymi keczupem przez realizatorów w naukowym thrillerze na podstawie wydarzeń autentycznych zatytułowanym „Publish or perish!” („Publikuj lub przepadnij!”). Nazywa się ją bibliometrią. Dalsza punktoza spowoduje zupełnie naturalny i niezmanipulowany znikąd wzrost znaczenia tej dziedziny wiedzy i jej specjalistów.

Z czym się kojarzy słowo kartel? Mnie osobiście z narkotykowym kartelem z Medellín, czyli założoną przez Pabla Escobara na początku lat 70. XX wieku zmową producentów i handlarzy zaopatrującą 90 proc. światowego rynku kokainy, wypracowującą przy tym zysk 60–100 mln dolarów dziennie. A już poza narkotykami tworzenie zmów o charakterze karteli jest ściśle zakazane przez prawo, które chroni konsumentów i konkurencję na rynku. Czy nauka jest rynkiem? Pytanie nie bez kozery, bo udowodnioną właśnie matematycznie korupcję systemu stawania się wielkim, sławnym (i ewentualnie bogatym) w świecie współczesnej nauki nazwano – i to nie jest groteska – „kartelem cytowań”.

Pozostało 97% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi