gender studies a zmiana praktyk wiedzy w świecie nowych mediów
Post on 24-Jun-2015
632 Views
Preview:
DESCRIPTION
TRANSCRIPT
ANNA NACHER
GENDER STUDIES A ZMIANA PRAKTYK WIEDZY W ŚWIECIE NOWYCH MEDIÓW
Tekst poświęcony jest relacji między zmieniającymi się praktykami produkcji wiedzy
w świecie mediów elektronicznych a formułami wypracowanymi na gruncie z konieczności
interdyscyplinarnych studiów gender. Artykuł zrywa jednak z paradygmatem rewolucji
cyfrowej kładącej nacisk przede wszystkim na logikę diametralnej zmiany wprowadzającej
radykalnie nową sytuację epistemologiczną. W zamian autorka proponuje – za badaczami
amerykańskimi, J. D. Bolterem i R. Grusinem - narrację remediacji czerpiącą z
Foucaultowskiej metody genealogicznej, kładącej nacisk na specyficzną (nie pozbawiona
uskoków i nieregularności) wersję ciągłości kulturowej, ujmującej media przede wszystkim
jako interfejsy kulturowe, a więc zestawy konkretnych praktyk kulturowych i społecznych
związanych z użytkowaniem mediów. Najlepiej zatem przemiany, o których mowa, opisuje
metafora rekonfiguracji, w które to co „stare” odnajduje się z „nowym” układzie odniesienia.
Nowość wspomnianego układu odniesienia polega zaś w świecie nowych mediów na
wzroście znaczenia zbiorowych form produkcji wiedzy opartych o interaktywne narzędzia
internetowe, przemianach w obrębie autorstwa i podmiotowości, dekonstrukcji dyskursu o
autonomii praktyk wytwarzania wiedzy. Te wszystkie procesy dały się zaobserwować właśnie
na gruncie teorii gender, z jej nieustannym przekraczaniem granic między academią a
dyskursami życia społecznego. Choć takie radykalne otwarcie epistemologiczne często
zachęca oponentów do artykulacji szeregu wątpliwości co do naukowego statusu badań nad
kulturową tożsamością płci, to dla autorki niniejszego taki właśnie charakter genderów
oznacza wierność wobec zachodniego projektu naukowego, u swoich źródeł zdolnego także
do krytycznej weryfikacji własnych założeń.
ANNA NACHER
GENDER STUDIES A ZMIANA PRAKTYK WIEDZY W ŚWIECIE NOWYCH MEDIÓW
W niniejszym artykule chciałabym poddać analizie relację między sposobem uprawiania
studiów nad kulturową tożsamością płci a przemianami, jakie dotykają współczesnych nam
praktyk wytwarzania wiedzy będących owocem nowych technologii komunikacji. Muszę
zastrzec, że jestem zainteresowana perspektywą przede wszystkim kulturoznawczą, która
zrywa zarówno z determinizmem technologicznym ortodoksyjnej wersji McLuhanizmu, jak i
z niewystarczającym modelem analizy proponowanym przez badania socjologiczne czy
medioznawcze ulokowane wyłącznie w orbicie teorii komunikacji. Jedna z popularnych
narracji medioznawstwa często posługuje się bowiem metaforą „wpływu” mediów na kulturę,
życie społeczne czy tożsamości konstytuujących je aktorów. Z jednej strony zakłada ona
radykalną rozdzielność technologii oraz procesów społeczno-kulturowych, z drugiej zaś jej
źródłem jest przekonanie o przezroczystości i „niewinności” przekaźników. Z perspektywy
kulturoznawczej media są natomiast, jak to określił Lev Manovich, interfejsami kulturowymi,
co zdaniem autora oznacza, że kino, druk, interfejs człowiek-komputer – każda z tych tradycji
wypracowała swój własny system organizowania informacji, prezentowania ich
użytkownikowi, korelowania czasu i przestrzeni i strukturowania ludzkiego doświadczenia w
procesie dostępu do informacji (Manovich 2006, s. 148). Media stanowią zatem w tym ujęciu
przede wszystkim zestawy praktyk kulturowych związanych z użytkowaniem i cyrkulacją
znaczeń, a technologia jest postrzegana jako społecznie wytworzony dyskurs, nieobojętny
wobec zagadnień dystrybucji władzy. Tego typu podejście oznacza jednocześnie, że trudno
mówić o „wpływie” mediów, są one bowiem nieodłączną częścią kultury oraz procesów
społecznych. Co jednak ważniejsze, tożsamości ich użytkowników są każdorazowo
aktywowane i rekonfigurowane w procesie komunikacji, nie zaś uprzednio uformowane i
niezmienne. Stąd praktyki użytkowania oraz dyskursy medialne stają się istotnym locus
zmiany reżimów produkcji wiedzy. Innymi słowy, media stają się szczególnie ważnym
elementem tego, co Foucault określił mianem kompleksu wiedzy/władzy.
Tego typu zastrzeżenie jest konieczne, aby dobrze zrozumieć, co przydarza się owym
porządkom wytwarzania wiedzy w świecie tzw. nowych mediów, splecionych w nadzwyczaj
rozbudowane i wielowarstwowe sieci trans- i intermedialne. Warto zatrzymać się przez chwilę
przy owym mogącym budzić zdziwienie zastrzeżeniu: tak zwane nowe media. Wiąże się ono
właśnie z pojęciem interfejsu kulturowego – korzystanie z nowych mediów nigdy bowiem nie
odbywa się w próżni. Jak pisze Lev Manovich, język kulturowych interfejsów w dużym
stopniu zbudowany jest z elementów innych, znanych już form kultury (Manovich 2006, s.
149). Jay David Bolter i Richard Grusin piszą w tym kontekście o logice remediacji, czyli nie
tylko swoistego pasożytowania nowych form medialnych na tym, co odbiorcy dobrze już
znają, ale także cytowania i przemieszczania w nowy kontekst dobrze już ugruntowanych
praktyk medialnych (Bolter, Grusin 2000). Weźmy postrzeganie i doświadczenie przestrzeni –
choć w komputerowych symulacjach zdaje się być czymś radykalnie nowym, to jednak nie
byłoby możliwe bez uprzedniego treningu, jaki był udziałem ludzkiego sensorium w epoce
jednej z naczelnych technologii obrazowej reprezentacji, czyli kina. I tylko pozornie
przywodzą te ujęcia teoretyczne na myśl słynną McLuhanowską formułę o tym, że każde
nowe medium cytuje poprzednie. Proces remediacji oraz zastosowanie pojęcia interfejsu
kulturowego każą bowiem mówić raczej o rekonfiguracji, przebiegającej zresztą nie bez
konfliktów i nieregularności, szczególnie w sytuacji, kiedy – nader często – stare medium
równolegle towarzyszy nowemu. Wystarczy przywołać przykład książki – tekst elektroniczny
nie tylko nie przyniósł ze sobą końca galaktyki Gutenberga, ale przyczynił się wręcz do jego
specyficznego renesansu, który można określić właśnie mianem rekonfiguracji. Poprzestając
na najbardziej podstawowym poziomie refleksji możemy zwrócić uwagę choćby na fakt, że
strona książki zaczyna coraz częściej przypominać układ wielu okien ekranu komputerowego.
Za jedną z naczelnych cech owego świata nowych mediów (pamiętajmy jednak o
wyartykułowanym już zastrzeżeniu) uznaje się przede wszystkim aktywność odbiorców.
Niektórzy teoretycy przeciwstawiają wręcz model masowej komunikacji (zazwyczaj
jednokierunkowej) związanej z telewizją (i określanej mianem broadcast) rozmaitym
praktykom uczestnictwa charakterystycznym dla Internetu. Sprawa nie jest jednak tak prosta
za sprawą dwóch czynników. Po pierwsze, praktycznie na naszych oczach rozegrała się
istotna zmiana (czasem określana wręcz mianem rewolucji): Internet, który niegdyś niewiele
różnił się od telewizji w tym sensie, że główna aktywność użytkowników sprowadzała się do
„oglądania” stron, na przestrzeni ostatnich lat stał się domeną rozmaicie stymulowanej i
kanalizowanej aktywności. Powszechnie przyjęło się to swoiste nowe wcielenie Internetu
nazywać mianem Web 2.0 (czyli swoisty upgrade Internetu, jaki znaliśmy do tej pory).
Pojęcie oznacza przede wszystkim proliferację wszelakich form oddolnej produkcji znaczeń,
a także zawiązywanie się formalnych i nieformalnych wspólnot połączonych zarówno
zainteresowaniami, jak i charakterystycznymi praktykami medialnymi (vide: społeczności
bloggerów, które materializują się w formie portali typu Blogger.com czy w Polsce Blox.pl).
W popularnej świadomości Web 2.0 oznacza przede wszystkim świat portali
społecznościowych typu MySpace. Znakomita większość z nich jest jednak zorganizowana
wokół rozmaitych form produkcji wiedzy – od popularnej Wikipedii poczynając, a na
serwisach typu Digg, VirtualTourist czy Last.fm kończąc. Co jakiś czas pojawiają się zresztą
kolejne tego typu portale, zazwyczaj w nimbie „miejsc” alternatywnych wobec dominujących
modeli biznesowych (ostatnim przykładem – po przejęciu popularnego MySpace przez
niesławną korporację Ruperta Murdocha, News Corporation – staje się Facebook, choć do
jego przejęcia poważnie przymierza się Microsoft).
Drugim czynnikiem, który sprawia, że traci sens wyraźne, ostre rozróżnienie między
„starymi” i „nowymi” modelami komunikacji ucieleśnionymi odpowiednio w telewizji i w
Internecie są procesy konwergencji, czyli coraz silniejszego przenikania się mediów. O
konwergencji zazwyczaj pisze się i mówi głównie w kontekście przemian technologicznych,
nie one jednak są tutaj najważniejsze. Manuel Castells, twórca nośnej formuły społeczeństwa
sieciowego, następująco nakreślił pejzaż, o którym mowa: Media są niezwykle zróżnicowane,
przesyłają sprecyzowane przekazy do konkretnych segmentów odbiorców i są nakierowane na
konkretne nastroje odbiorcze. Coraz ściślejsza staje się sieć ich wzajemnych powiązań: od
sieci telewizyjnych do telewizji kablowej czy satelitarnej, radia, magnetowidów, urządzeń
przenośnych i internetu. Łączą się w system wielomedialny, zarządzany komputerowo, co
otwiera setki kanałów interaktywnej komunikacji o zasięgu lokalnym i jednocześnie
globalnym. Mamy do czynienia z oligopolami grup medialnych, ale jednocześnie towarzyszy
im segmentacja rynku i wzrost znaczenia interaktywnej publiczności, zastępującej jednolitość
odbiorcy masowego. (Castells 2000) Nietrudno więc się domyślić, że procesy konwergencji
wnoszą ze sobą wiele zmian na planie praktyk kulturowych. Szerzej analizuje je Henry
Jenkins w książce o znamiennym tytule, Kultura konwergencji (Jenkins 2007). Jenkins
jeszcze raz podkreśla (pisząc o zmianie paradygmatów pisania o mediach), że O ile w
paradygmacie rewolucji cyfrowej przyjmowano założenie, że nowe media mogą zastąpić
stare, o tyle w rodzącym się paradygmacie konwergencji zakłada się, że stare i nowe media
będą wchodzić w bardziej złożone interakcje. (Jenkins 2007, s. 12). Jeśli jednak nie
technologia jest najważniejsza, to co właściwie kryje się pod pojęciem konwergencji? Jenkins
rozumie przez to przepływ treści między różnymi platformami medialnymi, współpracę
różnych przemysłów medialnych oraz migracyjne zachowania odbiorców mediów, którzy
dotrą niemal wszędzie, poszukując takiej rozrywki, na jaką mają ochotę. (Jenkins 2007, s.9)
Takie procesy sprawiają, że telewizja, która nie jest interaktywna, przestaje być atrakcyjna dla
swoich odbiorców. W coraz większym stopniu zachęca ich także do własnej aktywności w
sieci (np. strony popularnych reality shows) lub za pomocą telefonów komórkowych i
tradycyjnych. Zaczynamy mieć zatem do czynienia z przestrzenią, gdzie granice między
mediami ulegają znacznemu zatarciu. Nie bez znaczenia jest dla tych procesów zmiana
związana z ugruntowanym w kulturze zachodniej pojęciem autorstwa.
Zanim jednak dojdziemy do autora (którego śmierć ogłosił już wszak w latach
siedemdziesiątych Roland Barthes), wypada przyjrzeć się dynamice owej odbiorczej
aktywności. Jenkins – oraz inni badacze – często posługują się w odniesieniu do kultury
konwergencji (oraz świata Web 2.0) pojęciem kultury uczestnictwa, której naczelnym rysem
jest zatarcie granicy między producentami i odbiorcami znaczeń. Być może zresztą nigdy nie
była ona tak stabilna, jak chcieliby tego zwolennicy teorii komunikacji, przywiązani do
klasycznych modeli analizy. Badacze z kręgu brytyjskich studiów kulturowych na czele z
Raymondem Williamsem, Stuartem Hallem, Davidem Morleyem, Ien Ang czy Janice Radway
pokazali w swoich pracach wyraźnie, że nie ma mowy o biernym odbiorze ze strony
jakiejkolwiek publiczności. W przypadku Web 2.0 sprawa kryje się jednak gdzie indziej:
cyfrowe techniki obróbki umożliwiają odbiorcom tworzenie własnych komunikatów i
zamieszczanie ich w przestrzeni Internetu, co często oznacza aktywny dialog np. z telewizją.
Najlepiej zobaczyć to na przykładzie. Dobrym egzemplum jest Szkło kontaktowe – hit
TVN24, który w pełni (i z sukcesem) wykorzystuje kulturę konwergencji. Na portalu You
Tube można zobaczyć, co z programem robią odbiorcy (jeden z nich umieszcza nawet własne
logo: „Grzesioo TV”); na ekranie telewizora zaś widzimy efekty ich pracy, a także materiały
nadesłane przez internautów.
1. Przykład aktywności odbiorczej widzów telewizji w dobie konwergencji
W ten sposób na przełomie roku 2006 i 2007 zaistniała seria filmików Muppet Sejm, sama w
sobie będąca znakomitym przykładem przejmowania znaczeń kultury popularnej. Ów swoisty
kulturowy recycling stanowi platformę porozumienia między odbiorcami oraz twórcami
programu. Należałoby właściwie powiedzieć inaczej – zgodnie z naszą logiką - między
twórcami w studiu telewizyjnym oraz twórcami przed monitorami komputerów. Równie
ważne, jak wypowiedzi prowadzących program (dziennikarzy stacji: Grzegorza Miecugowa i
Tomasza Sianeckiego oraz zaproszonych do studia satyryków) są SMSy i telefony od widzów,
bez nich Szkło kontaktowe nie miałoby sensu. W ten sposób wokół programu telewizyjnego
powstaje specyficzna społeczność, a linia między odbiorcami i nadawcami – jak się rzekło -
wyraźnie ulega zatarciu. Cała ta dynamika prowadzi do bardzo ważnego wniosku: owe
społeczności funkcjonują jak zbiorowa inteligencja lub wspólnota wiedzy – oba terminy są
autorstwa Pierre’a Levy (Levy 1997). Chętnie posługuje się nimi Jenkins w swojej analizie
kultury doby konwergencji. Dla Jenkinsa zbiorowa inteligencja to zdolność wirtualnych
społeczności do wykorzystania połączonych uzdolnień wszystkich ich członków (Jenkins 2007,
s. 31). Nazywa sytuację, w której zaczynamy funkcjonować, nową kulturą wiedzy, dla której
charakterystyczna jest przygodność, płynność, otwarcie na rekonfigurację. Wspólnoty, o
których mowa, zawiązują się bowiem na potrzeby konkretnych zadań, a ich członkowie
uczestniczą jednocześnie w kilku tego typu układach. Spoiwem jest zaś proces produkcji
wiedzy. Jak pisze: Mądrość wspólnoty myślącej nie jest już mądrością wspólną dla całej
grupy, gdyż obecnie nie można sprawić, aby jedna osoba lub nawet grupa osób posiadała
całą wiedzę, wszystkie umiejętności. To wiedza kolektywna, niemożliwa do zebrania w jednej
tylko istocie. (Levy 1997, s. 214 -215, za: Jenkins 2006, s. 32). Typowym przykładem są
wszelkie wiki, czyli popularne wspólnotowe zasoby wiedzy (z najpopularniejszą Wikipedią
na czele). I choć często przytacza się dowody na jej rzekomą niesolidność i rozmaite
nadużycia, to w rzeczywistości jakość proponowanej informacji nie odbiega od standardów
słynnych encyklopedii; tam natomiast, gdzie można mieć zastrzeżenie do artykułu, zawsze
znajdziemy stosowny komentarz oraz zachętę do własnej aktywności. Obawy przed
Wikipedią można natomiast odczytać jako nieufność wobec świata, w którym zabrakło
tradycyjnych procedur legitymizujących produkcję wiedzy. Jedną z naczelnych stanowi zaś
gwarancja autora (wśród wysuwanych wobec Wikipedii zarzutów można znaleźć i takie, że
nie wiadomo, kto jest autorem haseł).
Kwestia autorstwa to zaś w świecie nowych mediów temat nadzwyczaj drażliwy. Jednym
z powodów takiego stanu rzeczy jest fakt, że operacje na tekstach kulturowych dokonywane
w środowisku cyfrowym ujawniły dyskurs władzy, w jakie uwikłana jest kwestia praw
autorskich. To temat na oddzielną opowieść, domagający się jednak choćby kilku słów
wyjaśnienia, zwłaszcza w sytuacji rodzimego dyskursu, który padł ofiarą propagandy
korporacyjnej. Popularne serwisy umożliwiające wspólnotowe korzystanie z rozmaitych dóbr
kultury pokazują, że kwestia autorstwa jest związana przede wszystkim z dyskursem
ekonomicznym i jest wynikiem przeprowadzenia prawnych operacji. Sytuację komplikuje
dodatkowo rozszczepienie na prawa autorskie (niezbywalne) i prawa producenckie. W
przypadku wspólnot wiedzy mamy zaś do czynienia z sytuacją jeszcze innego rodzaju: autor
jest także rozumiany jako zbiorowość. Najłatwiej prześledzić tę zmianę przywołując kilka
popularnych praktyk twórczych w obrębie nowych mediów: remix (czyli specyficzna
rekonfiguracja już istniejącego materiału), sampling (czyli próbkowanie) oraz
oprogramowanie typu open source. Każda z nich ma rzecz jasna swoja specyfikę, a autor
zbiorowy – jak przypomina Manovich (Manovich 2003) przywołując praktyki autorskie doby
średniowiecza - nie jest oczywiście wynalazkiem nowych mediów. Praktyki, o których mowa,
podważają zaś pewien szczególny model autorstwa proweniencji romantycznej (choć
właściwiej byłoby rzec: nowoczesnej): autonomicznej jednostki (najczęściej płci męskiej)
posiadającej prawa do swojego wytworu, w tym również w sytuacji jego cyrkulacji rynkowej.
To właśnie taką koncepcję autora stabilizuje imienna sygnatura. Wyprzedzając nieco tok
rozumowania, trzeba wspomnieć, że wiele praktyk sztuki feministycznej stanowi krytykę tego
modelu: od grupy Guerilla Girls po cyberfeministyczne kolektywy w rodzaju VNS Matrix czy
subRosa (Witkowska 2004). Współpraca w przypadku interaktywnych środowisk cyfrowych
ma jednak bardzo szeroki zakres: dotyczy nie tylko wymiany między zorganizowaną w sieć /
poprzez sieć grupą ludzi skoncentrowanych wokół konkretnych zadań, ale oznacza również
współpracę z oprogramowaniem. Jak zaznacza Manovich, także i w tym przypadku dalecy
jesteśmy od determinizmu technologicznego: Oczywiście narzędzia zostały zaprojektowane
przez ludzi, więc bardziej precyzyjne byłoby stwierdzenie, że autor wykorzystujący narzędzia
elektroniczne/programistyczne, nawiązuje dialog z twórcami oprogramowania. (Manovich
2003). Stąd takiej wagi nabierają konflikty kulturowe wokół oprogramowania typu open
source, czyli programów, których kod źródłowy jest dostępny nieodpłatnie dla wszystkich,
którzy chcą z nim pracować. Programy – co za tym idzie – są freewarami lub sharewarami,
czyli udostępniane są użytkownikom nieodpłatnie lub za niewielką opłatą. Tylko pozornie jest
to opis praktyk czysto ekonomicznej. Pokazują to debaty wokół systemu Linux czy darmowej
przeglądarki Mozilla Firefox, stanowiącej kulturową alternatywę dla produktów korporacji
Microsoft. Nie jest też przypadkiem, że wiele organizacji pozarządowych, alternatywnych
ośrodków kultury czy instytucji samorządowych korzysta z tego typu oprogramowania, co
zdarzyło mi się obserwować m.in. w centrum kultury współczesnej Stanica w Żilinie na
Słowacji (www.stanica.sk) czy w hostelach w Słowenii (na czele ze słynną Celicą w
Ljubljanie). W przypadku programu komputerowego, który zawsze jest wytworem grupy
ludzi, zabezpieczenie kodu komerycjnie rozumianym prawem autorskim w szczególny sposób
ujawnia działanie władzy oraz nadużycia nowoczesnego dyskursu praw autorskich,
nieodmiennie uwikłanego w ekonomiczne nierówności współczesnego świata.
Warto zastanowić się na poważniejszymi konsekwencjami owych – rodzących się –
nowych porządków. Zaliczyłabym do nich między innymi spacjalizację produkcji wiedzy.
Edward Soja pisze o epistemologiach przestrzeni, które określa mianem Pierwszej i Drugiej
(Soja 2000). Inspirację stanowi rozróżnienie dokonane przez Henri Lefebvre’a, na przestrzeń
przeżywaną (nazywana przez B. Kitę także przestrzenią konkretną i przestrzenią
zamieszkiwania) (Kita 2003) oraz przestrzeń skonstruowaną, abstrakcyjną (za Soją
odpowiednio: perceived i conceived). Pierwsza (Firstspace, przestrzeń postrzegana, perceived
space) to według Soi bezpośrednio doświadczany świat fenomenów mierzalnych i
mapowalnych (Soja 2000, s. 17). Stanowi niejako prymarny przedmiot badań geografii,
rozumianej jako nauka formalna. Tego rodzaju podejście najczęściej bywa postrzegane jako
bardziej „obiektywne”, choć możliwe są w jego ramach ujęcia krytyczne, wskazujące na
społeczny aspekt przestrzeni. Epistemologia Drugiej przestrzeni (Secondspace,
skonstruowanej, conceived) ma charakter zdecydowanie bardziej subiektywny. Interesują ją
bardziej wyobrażenia i przedstawienia przestrzeni oraz procesy myślowe, dzięki którym
możliwy jest rozwój zarówno wyobraźni przestrzennej, jak i przestrzeni ludzkiej w jej
materialnym aspekcie. Przedmiotem badań jest tutaj nie tyle materialnie postrzegana
przestrzeń geograficzna, ile świat symboli, znaków, reprezentacji. Jak jednak podkreśla Soja,
obie epistemologie stanowią coś na wzór krańcowych biegunów refleksji, między którymi
porusza się większość geografów. Myślenie o przestrzeni i myślenie w kategoriach
przestrzennych ulega zatem polaryzacji oraz odtwarza tradycyjną strukturę opozycji
binarnych: obiektywne / subiektywne, materialne / mentalne, realne / wyobrażone, obiekty w
przestrzeni / myśli o przestrzeni. Stąd bierze się – według Soi – trudność tradycyjnego
myślenia o przestrzeni w uchwyceniu zmian, jakie zachodzą w związku ze swoistym
„zwrotem przestrzennym” (spatial turn), z jakim mamy do czynienia w kulturze
współczesnej. Epistemologia Trzeciej przestrzeni – którą Soja łączy z propozycjami Michela
Foucault oraz Henri Lefebvre’a – jest zatem próbą dekonstrukcji, a więc wyjścia poza ów
tradycyjny binaryzm myślenia. Jednocześnie rzecz rozgrywa się na poziomie metarefleksji –
Lefebvre, a za nim Soja – próbują zarazem wyjść poza myślenie dialektyczne dokonując jego
spacjalizacji. Soja nazywa tę metodę złożonym pojęciem, które w wolnym przekładzie można
by oddać jako krytyczne potrajanie przez Innego (critical thirding-as-othering). Chodzi o
wyjście poza rygorystyczną logikę „albo / albo” w kierunku odmiennej, bardziej elastycznej,
płynnej i mniej stabilnej logiki opartej na „to i to oraz również”, zgodnie z dewizą Henri
Lefebvre’a Il y a toujours l’Autre, którą Soja przekłada jako: Istnieje zawsze trzecia
możliwość (trzecie pojęcie). Ważnym punktem odniesienia jest dla Soi także Foucaultowskie
pojęcie heterotopii, gdzie łączy się to, co nieporównywalne: wyobrażeniowe i rzeczywiste.
Trzecia przestrzeń (przestrzeń przeżywana) jest zatem projektem otwartym, którego składniki
Soja określa w taki oto sposób:
1. odmienny sposób określania, interpretacji i działania na rzecz zmiany przestrzenności
życia ludzkiego (lub, jeśli ktoś woli, geografia humanistyczna)
2. integralna, choć często zapominana, część trialektyki (trialectics) przestrzenności,
sama w sobie ani gorsza, ani lepsza od pierwszo- bądź drugoprzestrzennych podejść
wobec wiedzy geograficznej;
3. najbardziej inkluzywna perspektywa przestrzenna, porównywalna do najbogatszych
form wyobraźni historycznej i socjologicznej;
4. strategiczne miejsce spotkań umożliwiające wsparcie zbiorowych działań politycznych
przeciwko wszelkim formom opresji;
5. punkt inicjalny dla nowych, odmiennych eksploracji, które pozwolą wyjść poza
„trzecie pojęcie” w konsekwentnym poszukiwaniu innych przestrzeni; i daleko więcej.
(Soja 2000, s. 22)
Autor zauważa, że w największym stopniu do wypracowania tego rodzaju epistemologii
przestrzeni przyczyniło się krytyczne kulturoznawstwo, teoria feministyczna i postkolonialna.
Powołuje się m.in. na bell hooks oraz Teresę de Lauretis, jako na teoretyczki zainteresowane
m.in. uprzestrzennianiem polityk tworzenia wiedzy, podobnie jak Homi Bhabha, autor książki
o znamiennym tytule, Location of Culture (Bhabha 1994). Ten ostatni także zresztą posługuje
się określeniem Trzeciej Przestrzeni, które wszelako oznacza coś innego: hybrydowość, w
której zanikają ślady oddzielności, co pozwala jej stać się matrycą czegoś nowego i
nierozpoznawalnego (w stosunku do genealogii, które ją kształtują umożliwiając w ten sposób
nowe polityki oraz nowe sposoby reprezentacji).
Zatrzymajmy się przez chwilę przy owym „potrojeniu”. Z jednej strony tego typu
strategia – związana przede wszystkim ze spacjalizacją myślenia - stanowi wyzwanie wobec
linearnej (i głównie temporalnej) logiki postępowania dialektycznego. „Potrojenie” oznacza
jednak także zawsze poszerzający się proces formowania wiedzy. Nie ma tutaj zamknięć, nie
ma stałych struktur wiedzy ani uprzywilejowanych epistemologii. Trzeba zawsze być w
ruchu, w nomadycznym poszukiwaniu źródeł praktycznej wiedzy, lepszych przybliżeń, niosąc
ze sobą tylko to, czego w najbardziej użyteczny sposób nauczyliśmy się podczas poprzednich
podróży. Aby uniknąć niebezpieczeństwa relatywizmu oraz filozofii „wszystko uchodzi”,
które często są łączone z tego typu radykalnym otwarciem epistemologicznym, trzeba być
zaangażowanym w pełen wyzwań projekt intelektualny lub naukowy. „Potrojenie” nie
kończy się zatem na ustanowieniu trzeciego pojęcia czy konstrukcji czegoś, co można by
uznać za swoistą świętą trójcę. Nadawanie światu praktycznego i teoretycznego sensu
wymaga ciągłej ekspansji formacji wiedzy, radykalnej otwartości, która pozwala nam patrzeć
na to, co znajduje się poza obecnie poznanym i badać „inne przestrzenie” (patrz
Foucaultowskie heterotopie), które są bardzo podobne i jednocześnie radykalnie odmienne od
realnych-i-wyobrażonych przestrzeni, które już znamy. Nietrudno zauważyć, że jest to projekt
oparty na sieci przygodnych związków, tak charakterystycznych dla przestrzeni Web 2.0. O
tym, że w jego zakres wchodzą także narzędzia naukowe, wystarczy przekonać się sięgając po
dostępne formy korzystania z tekstów akademickich – czy to za pośrednictwem biblioteki on-
line (www.questia.com), za pomocą serwisów Google (Google Books czy Google Scholar)
czy on-linowej kolekcji publikacji wydawnictwa Sage Publications (Journals On-Line).
Eksploracja tekstu nie ogranicza się już jedynie do czytania czy przeszukiwania według
wybranych pojęć – narzędzia pozwalają nam nawiązywać łączność ze wspólnotą
podpowiadając, gdzie tekst, z którym pracujemy był wykorzystany i śledząc cytaty oraz
zachęcając do recenzowania i cytowania. Rzecz jasna są to praktyki, które od zawsze
stanowiły samo centrum działalności naukowej, dzisiaj zaś zyskują pewną materializację
(choć to określenie w odniesieniu do sieci WWW i środowisk cyfrowych z pewnością jest
ryzykowne). Jest to zgodne z wielokrotnie przywoływaną już logiką rekonfiguracji: tego-co-
nowe-lecz-nie-zupełnie – jednej z najbardziej typowych operacji dokonywanych w obszarze
cyfrowym. Pisząc tekst do niniejszej publikacji wielokrotnie korzystałam z tego typu narzędzi
(czego ślad nosi bibliografia), pracując w kliku naraz „oknach” na ekranie komputera: jedno z
nich to był popularny edytor tekstu, inne – przeglądarka internetowa z szeregiem własnych
funkcji, np. prognozą pogody w prawym dolnym rogu - obejmowało tekst w postaci cyfrowej
z biblioteki Questia, jeszcze inne to program pocztowy oraz okienko komunikatora, za
pomocą którego dyskutowałam nad moim tekstem z koleżanką, autorką doktoratu
poświęconego zagadnieniom cyberdyskursu.
2. Przykład „wspólnotowej” pracy nad tekstem
Każde z tych okien uruchamiało – w myśl poprzednio sformułowanych wniosków –
specyficzny rodzaj wspólnoty oraz relacji, które tworzyły się przygodnie, nie na stałe. Nie
mogłam oprzeć się wrażeniu, że dopiero tego typu doświadczenie pozwala zrozumieć
koncepcję tożsamości stanowiących warunek projektu radykalnej demokracji, którą
zarysowała Chantal Mouffe: Tylko wtedy, kiedy odrzucimy wizję podmiotu jako sprawcy
[agent] zarówno racjonalnego, jak i przezroczystego dla samego siebie oraz pozbędziemy się
także zakładanej jedności i homogeniczności wielu jego pozycji, będziemy w stanie
zoperacjonalizować wielość relacji podporządkowania. Będzie można wówczas ujmować
podmioty sprawcze jako wytwarzane przez zespół “pozycji podmiotowych”, które nigdy nie są
zupełnie zakotwiczone [fixed] w zamkniętym systemie róźnic i które są konstruowane przez
różnorodne dyskursy. Brak pomiędzy nimi oczywistych relacji, jest za to stały ruch
przemieszczania. “Tożsamość” takiego zwielokrotnionego i wewnetrznie sprzecznego
podmiotu jest zatem zawsze przygodna [contingent] i prowizoryczna, przejściowo
zakotwiczona na przecięciu owych pozycji podmiotowych i zależna od konkretnych form
identyfikacji. (Mouffe 1992, s. 271-272)
Pora jednak wyraźniej podkreślić, że model uprawiania studiów genderowych w co
najmniej kilku aspektach wpisuje się w przemiany produkcji wiedzy, o jakich mowa. Jeden z
owych aspektów dotyczy kwestii dosyć oczywistej: „potrajanie”, o którym pisze Soja, w
przypadku teorii gender dotyczy zarówno poziomu organizacji produkcji wiedzy
(wychodzenie poza myślenie dialektyczne), jak i poziomu odniesienia (dekonstrukcja
dyskursów dualizujących zagadnienie płci). Szczególne zasługi na tym polu ma teoria queer,
którą można byłoby uznać za swoiste „studia gender 2.0”. Warto także podkreślić stałą
praktykę studiów genderowych, z której często – szczególnie w polskich warunkach – czyni
się zarzut. Mowa mianowicie o szczególne otwarcie genderów na inne, pozakademickie typy
dyskursu: organizacje pozarządowe, środowiska artystyczne, niezależnych badaczy i badaczki
funkcjonujących poza obiegiem akademickim. W polskich warunkach nader często pojawia
się zarzut „zanieczyszczenia” projektu naukowego sprawami społecznymi. Gendery w dość
niewygodny dla zwolenników owej modernistycznej czystości kategorialnej sposób
podważają narrację o rzekomej autonomii postępowania naukowego, o rozłączności academii
i ulicy oraz o wykluczaniu się rzekomego naukowego obiektywizmu oraz aktywistycznego i
emancypacyjnego zaangażowania. Tego typu debaty pokazują, że często postulat owej
autonomii oraz czystości gatunkowej stanowi specyficzną strategię dyskursywną,
egzekwującą rodzaj władzy symbolicznej, który zmierza do zamknięcia dyskursu naukowego
w wygodnych ramach „niezaangażowania”. Nie dość zresztą przypominać, że u swoich źródeł
nowoczesny dyskurs akademicki wytworzył się poprzez płciowe wykluczenie. Genderową
konstrukcję zachodniej nauki analizuje na przykład Linda Schiebinger: m.in. wykluczanie
kobiet z instytucji nauki na podstawie „naturalnych” różnic biologicznych w okresie rodzącej
się nowoczesności (XVII i XVIII w.) i jednocześnie zrębów europejskiego projektu
naukowego ufundowanego na myśli arystotelesowskiej, kartezjańskiej i kantowskiej
(Schiebinger 1989). Istotniejsze jest jednak – jak sądzę – zjawisko nieco szersze: radykalne
otwarcie zachodniego projektu naukowego na inne typy produkcji wiedzy oraz cały szereg
pozostających poza jego granicami dyskursów społecznych i ekonomicznych. Jest to, trzeba
przyznać, proces pełen ambiwalencji, który trudno – wbrew ortodoksom radykalizmu o
proweniencji marksowskiej czy, wręcz przeciwnie, konserwatywnej (zaskakujące, te dyskursy
często schodzą się ze sobą w tym względzie, co jest jednak logiczne zważywszy na fakt, że
oba są dziećmi zachodniej nowoczesności) - opisać w jednoznacznych kategoriach
zawłaszczenia academii przez ekonomię. A przecież owa implozja (czy fuzja) nauk,
ekonomii, polityki jest rzeczywistością, w której funkcjonujemy na co dzień, w świecie
organizowanym przez kolejne programy badawcze powstające na styku instytucji
politycznych, biznesu i uniwersytetów. Jak się rzekło, nie chodzi o „zawłaszczanie” nauki, a
raczej o to, że zachodni projekt naukowy (spleciony z projektem nowoczesności) nigdy nie
był „niewinny”. Taka niewinność być może nigdy nie istniała i jest jednym z gwarantów
określonego porządku społecznego, który z wolna, nieregularnie i w konwulsjach odchodzi w
przeszłość. Owa fuzja dyskursów nie może być odczytywana wyłącznie w kategoriach
degeneracji naukowego obiektywizmu czy skażenia politycznymi strategiami realizowania
władzy także i z tego powodu, że - przypomnijmy - taki rzekomo naukowy obiektywizm,
nieusytuowany i pozbawiony punktu widzenia może być uznany za jedną z dyskursywnych
strategii maskującą wykluczenie innych typów racjonalności, innych miejsc społecznej
produkcji znaczeń, innych aktorów owego procesu (zlokalizowanych na osiach
wyznaczanych przez płeć, rasę, posiadanie). Jeśli więc studia genderowe uprawiane na
polskich uniwersytetach czerpią z dorobku organizacji pozarządowych oraz grup
nieformalnych, nawiązując alianse – ale wykraczając jednocześnie poza ortodoksję i budując
platformę dialogu społecznego, co rzadko bywa przez oponentów doceniane - z ruchem
feministycznym czy wspólnotami LGBT, to należy uznać to za symptom opisanych tutaj
przemian reżimu wiedzy, ale jednocześnie za wierność wobec krytycznych motywacji
zachodniego projektu naukowego. Również to, co postrzegalibyśmy jako poddawanie nauk
(zwłaszcza biologicznych) dyktatowi korporacji i dyskursu rynku, oznacza także (i
jednocześnie) problematyzację owej granicy między politycznym a naukowym i
wprowadzenie nauki w obszar przestrzeni publicznej. A więc otwarcie na nieuchronną
różnorodność dyskursywną i kulturową, wraz z nieregularnościami, hybrydycznością i
krzyżowaniem się wielu głosów we współczesnej sferze publicznej, coraz częściej
wyznaczanej w dodatku przez ową wspólnotową działalność semiotyczną, której miejscem
jest świat Web 2.0. Projekt, który realizują studia genderowe Taki projekt nie jest jakąś „inną”
nauką, wręcz przeciwnie, oznacza wierność postępowaniu naukowemu w jego najbardziej
źródłowym dla kultury zachodniej sensie: można postrzegać postmodernizm jako inną postać
tego samego zjawiska, jakie towarzyszy kulturze europejskiej od jej samych początków:
zjawiska autokrytyki i wewnętrznej korekcji, niezgody na dominację „jednego słusznego
punktu widzenia”, mnożenia trudnych pytań i wprawiania w kłopot przez wyzwalanie z
„dogmatycznej drzemki” (Szahaj 2004, s. 72). Jak do tej pory, wyzwalanie polskiej
humanistyki z dogmatycznej drzemki udawało się studiom genderowym znakomicie.
Bibliografia:
Bhabha H. 1994, Location of Culture, Londyn, Nowy Jork
Bolter J.D., Grusin R. 2000, Remediation. Understanding New Media, Boston
Castells M 2000, Materials for an Explanatory Theory of the Network Society, “British
Journal of Sociology”, styczeń 2000
Jenkins H. 2007, Kultura konwergencji, Warszawa
Kita B. 2003, Między przestrzeniami. O kulturze nowych mediów, Kraków
Levy P. 1997, Collective Intelligence: Mankind’s Emerging World in Cyberspace, Cambrigde
Manovich L. 2003, Kim jest autor? Modele autorstwa w nowych mediach, tłum. M. Filiciak,
“Kultura Popularna” 1/2003
Manovich L. 2006, Język nowych mediów, Warszawa
Mouffe Ch. 1992, Feminizm, Citizenship, and Radical Democratic Politics [w:] red. Butler J.
i Scott J.W.: Feminists Theorize The Political, Nowy Jork i Londyn
Schiebinger L. 1989, The Mind Has No Sex? Women in the Origins of Modern Science,
Cambridge.
Soja E.W. 2000, Chapter 2 Thirdspace: Expanding the Scope of the Geographical
Imagination, [w:] ed. Read A. 2000, Architecturally Speaking: Practices of Art, Architecture,
and the Everyday, London, wersja on-line 13, Questia, 27 Mar. 2007
<http://www.questia.com/PM.qst?a=o&d=108105756>.
Szahaj A. 2004, Zniewalająca moc kultury, Toruń
Witkowska E. 2004, Gender a rzeczywistość wirtualna: cyberfeminizm – wirus w starym
systemie [w:] red. M. Radkiewicz 2004, Gender - konteksty, Kraków
top related