DZWON

Są tacy, którzy czytali tę wiadomość przed tobą.
Zapisz się, aby otrzymywać świeże artykuły.
E-mail
Nazwa
Nazwisko
Jak chcesz przeczytać „Dzwon”?
Bez spamu

Ideologiczna i formacyjna istota przedmiotu ich badań - wszechświat jako taki we wszystkich jego przejawach, w tym obejmujących sferę intelektualną, duchową i społeczną. Z punktu widzenia epistemologii (teorii wiedzy) nauki podstawowe dowodzą poznawalności świata, uzasadniają praktyczną celowość w współdziałaniu nauk, różnych naukowych metod badań w naukach przyrodniczych i humanistycznych.

Zadania i funkcje

Zadania nauk podstawowych nie obejmują natychmiastowej i niezbędnej realizacji praktycznej (mimo wszystko obiecującej - epistemologicznie celowej), co stanowi jej zasadniczą różnicę w stosunku do nauk utylitarnych teoretycznych czy stosowanych, które są z nią takie związane. Jednak wyniki badań podstawowych znajdują również rzeczywiste zastosowanie, stale korygują rozwój jakiejkolwiek dyscypliny, co w zasadzie jest nie do pomyślenia bez rozwoju jej podstawowych działów - wszelkie odkrycia i technologie z pewnością z definicji opierają się na przepisach nauk podstawowych, a w w przypadku sprzeczności z konwencjonalnymi ideami, nie tylko stymulują ich modyfikacje, - wymagają badań podstawowych w celu pełnego zrozumienia procesów i mechanizmów leżących u podstaw tego czy innego zjawiska, - dalszego doskonalenia metody lub zasady. Tradycyjnie badania podstawowe łączono z naukami przyrodniczymi, jednocześnie wszelkie formy wiedzy naukowej opierają się na systemach uogólnień stanowiących ich podstawę; Zatem cała humanistyka posiada lub stara się posiadać aparat zdolny do ujęcia i sformułowania ogólnych, podstawowych zasad badań i metod ich interpretacji.

Państwo posiadające wystarczający potencjał naukowy i zabiegające o jego rozwój z pewnością przyczyni się do wsparcia i rozwoju badań podstawowych, choć często jest to nieopłacalne.

Zatem drugi artykuł prawo federalne Rosja z dnia 23 sierpnia 1996 r. Nr 127-FZ „O nauce i państwowej polityce naukowo-technicznej” podaje następującą definicję badań podstawowych:

Działalność doświadczalna lub teoretyczna mająca na celu zdobycie nowej wiedzy o podstawowych prawach budowy, funkcjonowania i rozwoju człowieka, społeczeństwa i środowiska naturalnego.

Historia i ewolucja

Najbardziej uderzający przykład ilustrujący cechy Naukom podstawowym może służyć oczywiście historia badań związanych ze strukturą materii, w szczególności z budową atomu, których praktyczne wdrożenie stwierdzono bez przesady dopiero setki lat po pojawieniu się pierwszych idei atomizmu i dziesiątki po sformułowaniu teorii budowy atomu.

W każdej dziedzinie wiedzy podobny proces obserwuje się, gdy od pierwotnego podłoża empirycznego, poprzez hipotezę, eksperyment i jego teoretyczne rozumienie, wraz z odpowiadającym im rozwojem i poszerzaniem, doskonaleniem metodologii, nauka dochodzi do pewnych postulatów, które przyczyniają się np. do poszukiwania i tworzenia wyrażonych ilościowo zapisów, które stanowią teoretyczną podstawę do dalszych badań teoretycznych i do kształtowania problemów nauk stosowanych.

Doskonalenie bazy instrumentalnej, zarówno teoretycznej, jak i eksperymentalno-praktycznej, służy (w prawidłowych warunkach realizacji) doskonaleniu metody. Oznacza to, że każda dyscyplina podstawowa i każdy obszar stosowany są w stanie w pewnym stopniu wzajemnie uczestniczyć w rozwoju zrozumienia i rozwiązywania ich niezależnych, ale także wspólnych problemów: nauki stosowane poszerzają możliwości narzędzi badawczych, zarówno praktycznych, jak i teoretycznych, nauk podstawowych, które z kolei wyniki jego badań stanowią narzędzie teoretyczne i podstawę do rozwoju badań stosowanych w odpowiednich tematach. Jest to jeden z głównych powodów konieczności wspierania nauk podstawowych, które z reguły nie mają możliwości samodzielnego finansowania.

_________________________________

Rola, ale także złożoność kształtowania się podstawowych pojęć i idei, czyli takich, na których opierają się dalsze badania teoretyczne i praktyczne wszystkich nauk; a także potrzebę ich interakcji można zaobserwować w historii rozwoju termodynamiki („nauki „kompletnej”), której prawa od dawna są integralną częścią wielu dziedzin nauk przyrodniczych.

Ale jedno z kluczowych pojęć termodynamiki, czyli entropia, ma kontakt z teoria informacji, który jest ogólnym narzędziem badań naukowych. Jeśli jednak inne wielkości fizyczne (ciśnienie, temperatura, prędkość) są na tyle proste, że można je bezpośrednio dostrzec, wówczas wartość entropii (lub według Ludwiga Boltzmanna „miar nieporządku w układzie”) określa się wyłącznie matematycznie. A jeśli entropii i informacji nie można sprowadzić do bezpośredniej analogii, to ich matematyczne obliczenia pozwalają w pewnym sensie zidentyfikować te abstrakcyjne wielkości. Aby zilustrować ewolucję idei, możemy przypomnieć, że dawno temu człowiek nie znał tego pojęcia prędkość ...

Jednak dalsze próby „uniwersalizacji” entropii, gdy filozofia stara się zastosować prawa związane z jej kalkulacją do innych obszarów działalności człowieka – intelektualnej, twórczej, wreszcie – do jej interpretacji, filozofii, jej własnych problemów (różne modele fenomenologiczne, itp.) ), nie przyniosło pozytywnych rezultatów.

Wszystko sprowadza się do wniosków metafizycznych, nic więcej, łącznie z wyjaśnieniem nauce, co i dlaczego powinna robić, czyli do początkowej fazy epistemologii (w przeciwnym razie formuły będą kilometrowe, ale i do metafizyki będą prowadzić). ..; i Jak tu nie pamiętać „rozsądku fizyka”, o którym mówi Josiah Gibbs). Ta ścieżka wydaje się bezproduktywna. Ale nawet ten, na pierwszy rzut oka, wynik negatywny sugeruje, że powinniśmy szukać innych dróg syntezy.

Celowość i pierwotna wartość badań podstawowych została udowodniona przez wielowiekowe (i niekończące się!) doświadczenia nauki, a także potrzebę szkolenia tych, którzy największy sukces, choć cyklicznie, będzie podążać ścieżką poznania przyrody i swojego bytu, ― samodoskonalenia...; ― rozwój i poszerzanie możliwości wykorzystania tego doświadczenia.

Paul Chambadal, na którego opinii częściowo opiera się powyższe, parafrazując tezę Sadi Carnota, sugeruje „mało mówić o tym, co wydaje nam się znane, a w ogóle nie mówić o tym, czego nie wiemy z całą pewnością”.

Błędy interpretacyjne

O niebezpieczeństwach, jakie niosą ze sobą nieporozumienia, a tym bardziej publiczne poruszanie zagadnień związanych z dość złożonymi kwestiami problemy naukowe, ostrzegał także M. W. Łomonosow w swoim „Rozmowie o obowiązkach dziennikarzy przy prezentowaniu dzieł mających na celu zachowanie wolności filozofii” (1754); Obawy te pozostają aktualne do dziś. Są one także słuszne w stosunku do dotychczasowej interpretacji roli i znaczenia nauk podstawowych – przypisywania do ich kompetencji badań innego „gatunku”.

Typową sytuacją jest niezrozumienie samych terminów. podstawowa nauka I podstawowe badania, - ich nieprawidłowe użycie i kiedy fundamentalność w kontekście takiego użycia warto dokładność jakiś projekt naukowy. Takie badania w większości przypadków są związane na dużą skalę badania w ramach nauk stosowanych, po prace na dużą skalę podporządkowane interesom określonych gałęzi przemysłu itp. Tutaj fundamentalność tylko atrybut jest wart znaczenie co więcej, w żaden sposób nie można ich przypisać fundamentalny- w znaczeniu opisanym powyżej. To właśnie to nieporozumienie powoduje deformację wyobrażeń o prawdziwym znaczeniu nauki prawdziwie fundamentalnej (w ujęciu nauki nowożytnej), którą zaczyna się uważać wyłącznie za „naukę czystą” w najbardziej mylącej interpretacji, tj. nauka oderwana od rzeczywistych potrzeb praktycznych, służąca na przykład korporacyjnym problemom jajogłowych.

Dość szybki rozwój technologii i metod systemowych (w stosunku do realizacji tego, co już dawno zostało uzyskane i „przewidziane” przez nauki podstawowe) stwarza warunki do innego rodzaju nieprawidłowej klasyfikacji badań naukowych, gdy nowy kierunek, należący do w dziedzinie badań interdyscyplinarnych, traktowany jest jako sukces opanowania bazy technologicznej lub odwrotnie, ukazany jest jedynie w postaci linii rozwoju – fundamentalnej. Choć te badania naukowe rzeczywiście zawdzięczają swoje pochodzenie temu drugiemu, to jednak są one bardziej powiązane z badaniami stosowanymi i jedynie pośrednio służą rozwojowi nauk podstawowych.

Przykładem tego jest nanotechnologia, której fundamenty stosunkowo niedawno, jeśli chodzi o rozwój nauki, położyła, obok wielu innych dziedzin badań podstawowych, chemia koloidów, badanie układów rozproszonych i zjawisk powierzchniowych. Nie oznacza to jednak, że badania podstawowe leżące u podstaw tej czy innej nowej technologii powinny być jej całkowicie podporządkowane, absorbując wsparcie z innych obszarów; gdy istnieje niebezpieczeństwo zmiany przeznaczenia na przemysłowe instytucje badawcze przeznaczone do prowadzenia badań podstawowych o dość szerokim zakresie. I co najważniejsze i niestety, może to wiązać się z koniecznością „kupowania technologii” i specjalistów, ale jak wiadomo, nie wszystko da się kupić i sprzedać… .

Zobacz też

Notatki

  1. M. M. Shultz„...Nie będzie nowych technologii bez badań podstawowych” - „Przemysłowy Petersburg”. 2000, nr 2. s. 71
  2. Grant Rosyjskiej Fundacji Badań Podstawowych (RFBR): wnioski, konkursy, problemy, perspektywy.
  3. W bardzo przybliżonym przybliżeniu termin entropia można interpretować jako „stopień chaosu”
  4. Trudno sobie wyobrazić, jak można w równoważny sposób zredukować składniki obliczeń termodynamicznych do trybów filozoficznych, nawet aparat matematyczny w tym nie pomoże - potrzebny jest nowy tezaurus (przynajmniej pod względem formy) i, ogólnie rzecz biorąc, nowa, dojrzała koncepcja... Ale tylko wtedy, gdy jest to spójna, niezależna teoria, która nie będzie wymagała mechanicznego użycia języka obcego (choć implikującego ten sam fenomenalny świat).
  5. Szambadal P. Rozwój i zastosowanie pojęcia entropii. - M.: Nauka, 1967
  6. Filozoficzny słownik encyklopedyczny. - M .: Encyklopedia radziecka. 1989 ISBN 5-85270-030-4
  7. Nowoczesna filozofia Zachodu. - M.: Literatura polityczna ISBN 5-250-00734-1
  8. Michaił Wasiljewicz Łomonosow. Wybrane prace w 2 tomach. M.: Nauka. 1986. s. 217-218, 225
  9. Igor Iwanow. Anatomia jednego newsa, czyli jak fizycy faktycznie badają cząstki elementarne. - elementy.ru (Elementy wielkiej nauki)
  10. Istniejąca i aktualna definicja nauk podstawowych; Istnieje coś takiego jak „puryzm naukowy”, który zwykle oznacza izolacjonistyczną, skrajną interpretację roli podstawowych badań naukowych.
  11. (nieokreślony) (niedostępny link). Pobrano 25 stycznia 2011 r. Zarchiwizowano 3 marca 2012 r.

Literatura

  • Nauka / Alekseev I. S. // Morshin - Nikish. - M.: Encyklopedia Radziecka, 1974. - (Wielka Encyklopedia Radziecka: [w 30 tomach] / wyd. A. M. Prochorow; 1969-1978, t. 17).
  • Aleksiejew I. S. Nauka // Filozoficzny słownik encyklopedyczny / Ch. redaktor: L. F. Ilyichev, P. N. Fedoseev, S. M. Kovalev, V. G. Panov. - M .: Encyklopedia radziecka, 1983. - s. 403-406. - 840 s. - 150 000 egzemplarzy.
  • Ludwika de Broglie’a. Na ścieżkach nauki. - M.: Wydawnictwo Literatury Zagranicznej, 1962
  • Volkova V.N. Koncepcje współczesnych nauk przyrodniczych: Instruktaż. - Petersburg:

Nauki fundamentalne to dziedzina wiedzy zajmująca się teoretycznymi i eksperymentalnymi badaniami naukowymi nad podstawowymi zjawiskami przyrody - zjawiskami, które jest w stanie ogarnąć jedynie ludzki umysł. Jego celem jest poszukiwanie wzorców odpowiedzialnych za formę, strukturę, skład, strukturę i właściwości zjawisk przyrodniczych, przebieg i rozwój procesów przez nie wywołanych. Nauki fundamentalne dotykają podstawowych zasad filozoficznego światopoglądu i rozumienia świata, który obejmuje zarówno nauki humanistyczne, jak i przyrodnicze, i służą poszerzaniu teoretycznych, pojęciowych wyobrażeń o otaczającym świecie, o wszechświecie jako takim we wszystkich jego przejawach, w tym także tych obejmujący sferę intelektualną, duchową i społeczną.

Do zadań nauk podstawowych nie należy szybkie praktyczne wdrażanie jej osiągnięć. Zajmuje się obiecującymi badaniami, których wpływ nie pojawia się natychmiast, co stanowi zasadniczą różnicę w stosunku do nauk stosowanych. Jednak wyniki badań podstawowych zawsze znajdują odpowiednie zastosowanie i stale dostosowują rozwój każdej dziedziny i dyscypliny naukowo-technicznej, co jest na ogół nie do pomyślenia bez rozwoju podstawowych działów - wszelkie odkrycia i technologie z pewnością opierają się na postanowieniach nauk podstawowych zgodnie z definicją.

W przypadku sprzeczności pomiędzy nowymi odkryciami naukowymi a przyjętymi ten moment Idee „klasyczne” nie tylko stymulują modyfikację nauk podstawowych, ale także wymagają nowych, pogłębionych badań w celu pełnego zrozumienia procesów i mechanizmów leżących u podstaw danego zjawiska, w celu dalszego udoskonalenia metod lub zasad ich badania.

Tradycyjnie badania podstawowe są bliższe naukom przyrodniczym, jednocześnie wszelkie formy wiedzy naukowej opierają się na systemach uogólnień, które stanowią ich podstawę; Zatem cała humanistyka posiada lub stara się posiadać aparat zdolny do ujęcia i sformułowania ogólnych, podstawowych zasad badań i metod ich interpretacji.

UNESCO nadaje status badań podstawowych takim pracom, które przyczyniają się do odkrycia praw natury i zrozumienia mechanizmów interakcji zjawisk i obiektów rzeczywistości.

Do głównych funkcji badań podstawowych należy aktywność poznawcza; Bezpośrednim zadaniem jest uzyskanie konkretnych pomysłów na temat praw natury, które charakteryzują się ogólnością i stabilnością.

Do głównych cech fundamentalności należą:

a) uniwersalność pojęciowa;

b) wspólnota czasoprzestrzenna.

Nie pozwala to jednak na wyciągnięcie wniosku, że charakterystyczną cechą fundamentalności jest brak praktycznej orientacji i zastosowania, ponieważ w procesie rozwiązywania podstawowych problemów w naturalny sposób otwierają się nowe perspektywy, możliwości i metody rozwiązywania problemów praktycznych.

Państwo, które posiada wystarczający potencjał naukowy i zabiega o jego rozwój, z pewnością musi przyczyniać się do wspierania i rozwoju badań podstawowych, mimo że często nie jest to od razu opłacalne.

Zatem art. 2 ustawy federalnej Federacji Rosyjskiej z dnia 23 sierpnia 1996 r. nr 127-FZ „O nauce i państwowej polityce naukowo-technicznej” podaje następującą definicję badań podstawowych: „Działalność eksperymentalna lub teoretyczna mająca na celu zdobycie nowej wiedzy o podstawowych prawach budowy, funkcjonowania i rozwoju człowieka, społeczeństwa i środowiska naturalnego.”

Najbardziej uderzającym przykładem ilustrującym charakterystyczne cechy nauk podstawowych jest historia badań związanych ze strukturą materii, w szczególności budową atomu. Badania te znalazły praktyczne zastosowanie dopiero setki lat po pojawieniu się pierwszych idei atomizmu i dziesiątki po sformułowaniu teorii budowy atomu.

Podobny proces obserwuje się w każdej dziedzinie wiedzy, gdzie od pierwotnego podłoża empirycznego, poprzez hipotezę, eksperyment i jego teoretyczne rozumienie, wraz z odpowiadającym im rozwojem, poszerzaniem i doskonaleniem metodologii, nauka dochodzi do pewnych postulatów.

Zapisy te przyczyniają się do poszukiwania i kształtowania nowych, wyrażonych ilościowo postulatów, które stanowią teoretyczną podstawę do dalszych badań, co pozwala na formułowanie zadań nauk stosowanych.

Doskonalenie bazy instrumentalnej, zarówno teoretycznej, jak i doświadczalno-praktycznej, służy doskonaleniu metody. Każda dyscyplina podstawowa i każdy obszar stosowany są w stanie wzajemnie uczestniczyć w rozwoju zrozumienia i rozwiązywania niezależnych i ogólnych problemów: nauki stosowane poszerzają możliwości narzędzi badawczych, zarówno praktycznych, jak i teoretycznych, nauk podstawowych, co z kolei zapewnia teoretyczną narzędzie z wynikami swoich badań i podstawą do opracowania aplikacji na odpowiednie tematy. Jest to jeden z głównych powodów konieczności wspierania nauk podstawowych, które z reguły nie posiadają wystarczających możliwości samofinansowania.

Szybki rozwój inżynierii i technologii (w związku z wdrażaniem wyników uzyskanych i dawno „przewidywanych” przez nauki podstawowe) stwarza warunki do takiej klasyfikacji badań naukowych, gdy pojawia się nowy kierunek, należący do obszaru badań interdyscyplinarnych. traktowane jako sukces w opanowaniu bazy technologicznej, lub odwrotnie, jawi się jedynie w postaci linii rozwoju - nauk podstawowych. Jednocześnie te badania naukowe zawdzięczają swój początek naukom podstawowym, obecnie jednak są już bardziej powiązane z badaniami stosowanymi i jedynie pośrednio służą rozwojowi nauk podstawowych.

Przykładem tego jest nanotechnologia, której podstawy stosunkowo niedawno, jeśli chodzi o rozwój nauki, położyły m.in. badania podstawowe z zakresu nauk przyrodniczych – wielu działów fizyki, chemii, biologii, matematyka, informatyka, elektronika, synergetyka, teoria systemów złożonych, analiza systemów. Na szczególną uwagę zasługuje chemia koloidalna, układy rozproszone i struktury rozpraszające.

Nie oznacza to jednak, że badania podstawowe leżące u podstaw danej nowej technologii powinny być jej całkowicie podporządkowane, absorbując wsparcie innych obszarów, które mają na celu prowadzenie badań podstawowych o dość szerokim zakresie.

Tworzy sposoby poznania korelujące między naukami przyrodniczymi i humanistycznymi, co pozwala na istnienie sposobów działania zgodnych z warunkami różnych sfer życia i produkcji.

Zadania i funkcje

Do zadań nauk podstawowych należy ustalanie tożsamości w relacjach epistemologii, aksjologii i bytu w celu stworzenia systemu wiedzy naukowej, w którym zostaje zachowana stara wiedza, akumulowana jest nowa wiedza i zorganizowane wykorzystanie (przekazywanie) zgodnie z potrzebami nauki. rozwój samych nauk i potrzeby praktyki. Tworzy warunki do akumulacji kapitału intelektualnego, w których nauka objawia się jako siła produkcyjna w społeczeństwie.

Tworzy metodologię rozwoju nauki, uwzględniając związek z metodologią i technologią. W przeciwnym razie nauki znikają w gołym teoretyzowaniu, we wzajemnym stosowaniu metod w naukach i dyscyplinach z pogranicza, a rodzą się standardowe technologie, takie jak Lego w robotyce.

Metodologia, techniki i technologie odpowiadają strategii, taktyce, technologii w każdej działalności i grach, na przykład w szachach. Metodologia, jako nauka podstawowa, wyznacza ogólną strategię rozwoju wiedzy w ogóle i w poszczególnych naukach, wyznaczając granice wiedzy, obejmujące różne nauki, biorąc pod uwagę ich przekrojowe powiązania, utworzone przez słowa kategorii. Metodologia kształtuje taktyczne badania i działania, biorąc pod uwagę cel, znaczenie i zrozumienie. Technologie tworzą bazę możliwości w zakresie sposobów poznania i działania. W szachach są to różne figury z zasadami działania.

Obecność tożsamości epistemologii, aksjologii i ontologii w każdej nauce podstawowej tworzy w niej relacje podobieństwa – na tym poziomie nie ma różnic między naukami przyrodniczymi i humanistycznymi.

Nauki podstawowe tworzą system zachowania, akumulacji i transferu kapitału intelektualnego, który wpływa na wydajność pracy we wszystkich sferach społeczeństwa. Dochodowość nauk podstawowych znacznie przewyższa indywidualne osiągnięcia naukowe.

Zatem drugi artykuł rosyjskiej ustawy federalnej z dnia 23 sierpnia 1996 r. nr 127-FZ „O nauce i państwowej polityce naukowo-technicznej” podaje następującą definicję badań podstawowych:

Działalność doświadczalna lub teoretyczna mająca na celu zdobycie nowej wiedzy o podstawowych prawach budowy, funkcjonowania i rozwoju człowieka, społeczeństwa i środowiska naturalnego.

Historia i ewolucja

Chęć odkrycia przekrojowych powiązań pomiędzy różnymi typami działań poprzez formalizm i przedstawienie figuratywne zapewniła fundamentalizm wiedzy, obecność powiązań pomiędzy światem fizycznym i duchowym. Tak więc w VIII wieku p.n.e. mi. Szkoła filozoficzna yin yang jia (Księga Przemian) formułuje idee dotyczące kompleksowych połączeń między górami, rzekami, morzami, zwierzętami i ludźmi. Nadal określają cechy medycyny wschodniej, w przeciwieństwie do medycyny europejskiej i rosyjskiej, gdzie dominują zasady objawowe i nozologiczne.

Absolutyzacja wiedzy eksperymentalnej doprowadziła do dominacji pluralizmu poglądów i oddalenia nauk od zarządzania procesami społecznymi. W ciągu ostatnich 50 lat w krajach Europy, USA i Rosji metodologia zanikła w wiedzy naukowej, humanizm w naukach stał się nie immanentną cechą, ale właściwą postawą. W tych latach Rosyjska Akademia Nauk, a następnie FANO, co roku opracowywały plany poszukiwania nauk podstawowych i prowadzenia badań podstawowych. Ale nie ma wyników nie tylko w Rosji, ale na całym świecie.

Zniknęło także podejście fundamentalne w organizacji edukacji. Zgodnie z Porozumieniem Bolońskim Rosja zrezygnowała z organizacji relacji „wiedza (A) – umiejętności (B) – umiejętność (C) oraz organizacji szkolenia z uwzględnieniem możliwości dzieci, studentów i potrzeb społeczeństwa. W Rosji zaczęli także sprzedawać osobno wiedza, osobno umiejętności, osobno umiejętności, nazywając je kompetencjami – niszcząc w ten sposób system edukacji, zamieniając go w odrębne i wolne od społeczeństwa przedsiębiorstwo sprzedaży powietrza. Wszędzie ustało tworzenie rozumu praktycznego.

Błędy interpretacyjne

M. W. Łomonosow przestrzegł przed niebezpieczeństwami, jakie niosą ze sobą nieporozumienia, a tym bardziej publiczne poruszanie kwestii związanych z dość złożonymi problemami naukowymi w swojej „Dyskusji na temat obowiązków dziennikarzy podczas prezentacji swoich dzieł, mających na celu zachowanie wolności filozofii” ( 1754); Obawy te pozostają aktualne do dziś. Są one także słuszne w stosunku do dotychczasowej interpretacji roli i znaczenia nauk podstawowych – przypisywania do ich kompetencji badań innego „gatunku”.

Typową sytuacją jest niezrozumienie samych terminów. podstawowa nauka I podstawowe badania, - ich nieprawidłowe użycie i kiedy fundamentalność w kontekście takiego użycia warto dokładność jakiś projekt naukowy. Takie badania w większości przypadków są związane na dużą skalę badania w ramach nauk stosowanych, po prace na dużą skalę podporządkowane interesom określonych gałęzi przemysłu itp. Tutaj fundamentalność tylko atrybut jest wart znaczenie co więcej, w żaden sposób nie można ich przypisać fundamentalny- w znaczeniu opisanym powyżej. To właśnie to nieporozumienie powoduje deformację wyobrażeń o prawdziwym znaczeniu nauki prawdziwie fundamentalnej (w ujęciu nauki nowożytnej), którą zaczyna się uważać wyłącznie za „naukę czystą” w najbardziej mylącej interpretacji, tj. nauka oderwana od rzeczywistych potrzeb praktycznych, służąca na przykład korporacyjnym problemom jajogłowych.

Dość szybki rozwój technologii i metod systemowych (w stosunku do realizacji tego, co już dawno zostało uzyskane i „przewidziane” przez nauki podstawowe) stwarza warunki do innego rodzaju nieprawidłowej klasyfikacji badań naukowych, gdy nowy kierunek, należący do w dziedzinie badań interdyscyplinarnych, traktowany jest jako sukces opanowania bazy technologicznej lub odwrotnie, ukazany jest jedynie w postaci linii rozwoju – fundamentalnej. Choć te badania naukowe rzeczywiście zawdzięczają swoje pochodzenie temu drugiemu, to jednak są one bardziej powiązane z badaniami stosowanymi i jedynie pośrednio służą rozwojowi nauk podstawowych.

Przykładem tego jest nanotechnologia, której fundamenty stosunkowo niedawno, jeśli chodzi o rozwój nauki, położyła, obok wielu innych dziedzin badań podstawowych, chemia koloidów, badanie układów rozproszonych i zjawisk powierzchniowych. Nie oznacza to jednak, że badania podstawowe leżące u podstaw tej czy innej nowej technologii powinny być jej całkowicie podporządkowane, absorbując wsparcie z innych obszarów; gdy istnieje niebezpieczeństwo zmiany przeznaczenia na przemysłowe instytucje badawcze przeznaczone do prowadzenia badań podstawowych o dość szerokim zakresie.

Zobacz też

  • Komisja ds. Terminologii Naukowej w Dziedzinie Nauk Podstawowych

Notatki

Literatura

  • Nauka / Alekseev I. S. // Morshin - Nikish. - M.: Encyklopedia Radziecka, 1974. - (Wielka Encyklopedia Radziecka: [w 30 tomach] / wyd. A. M. Prochorow; 1969-1978, t. 17).
  • Aleksiejew I. S. Nauka // Filozoficzny słownik encyklopedyczny / Ch. redaktor: L. F. Ilyichev, P. N. Fedoseev, S. M. Kovalev, V. G. Panov. - M .: Encyklopedia radziecka, 1983. - s. 403-406. - 840 s. - 150 000 egzemplarzy.
  • Ludwika de Broglie’a. Na ścieżkach nauki. - M.: Wydawnictwo Literatury Zagranicznej, 1962
  • Volkova V.N. Koncepcje współczesnych nauk przyrodniczych: Podręcznik. - St. Petersburg: Wydawnictwo Państwowego Uniwersytetu Technicznego w Petersburgu, 2006
  • Gadamer H.-G. Prawda i metoda. Wydanie ogólne i artykuł wprowadzający B. N. Bessonova. - M.:

Nauki podstawowe to system wiedzy o głębokich właściwościach obiektywnej rzeczywistości. Nauki te tworzą teorie wyjaśniające wszystkie procesy zachodzące na tym świecie. Do nauk podstawowych zalicza się nauki: matematyczne, przyrodnicze (astronomia, fizyka, chemia, biologia, antropologia i in.), społeczne (ekonomia, socjologia, politologia, prawo itp.) i humanistyczne (filologia, psychologia, filozofia, kulturoznawstwo itp.) . ).

Nauka stosowana jest systemem wiedzy o wyraźnym ukierunkowaniu praktycznym. Do nauk stosowanych zalicza się nauki techniczne, agronomię, medycynę, pedagogikę itp. Wszystkie nauki dzielą się na cztery główne grupy: przyrodnicze, techniczne, publiczne (społeczne) i humanitarne.

Różnicowanie i integracja nauk

Ludzkość przeszła przez trzy etapy rozwoju naukowego: filozofia przyrody, nauki analityczne i różnicowanie nauk, a obecnie wchodzi w czwarty etap - integracja nauki. Kształtowanie się filozofii naturalnej trwało do XV wieku. Od XV wieku pojawiły się nauki analityczne. Począwszy od XIX wieku, w miarę gromadzenia się informacji, rozwijały się nauki prywatne różnicowanie nauk. Proces ten trwa do dziś. W wyniku zróżnicowania nauk powstała najpierw astronomia i mechanika nieba, następnie mechanika procesów ziemskich, a następnie nauka o cieple. Współcześnie nauki przyrodnicze rozwijają się w związku z pojawieniem się nauk interdyscyplinarnych, takich jak biochemia, chemia fizyczna, fizyka chemiczna, biofizyka, geofizyka itp. Wszelkie badania w przyrodzie można przedstawić jako ogromną sieć łączącą liczne gałęzie nauk fizycznych, chemicznych i biologicznych.

Biorąc pod uwagę wynik wkładu poszczególnych nauk w rozwój wiedzy naukowej, wszystkie nauki dzieli się na nauki podstawowe i stosowane. Te pierwsze mają ogromny wpływ na nasz sposób myślenia, te drugie – na nasz styl życia.

Nauki podstawowe badają najgłębsze elementy, struktury i prawa wszechświata. W 19-stym wieku Zwyczajowo nazywano takie nauki „badaniami czysto naukowymi”, podkreślając ich skupienie wyłącznie na rozumieniu świata i zmianie sposobu myślenia. Mówiliśmy o takich naukach jak fizyka, chemia i inne nauki przyrodnicze. Niektórzy naukowcy XIX w. argumentował, że „fizyka to sól, a wszystko inne to zero”. Dziś takie przekonanie jest złudzeniem: nie można twierdzić, że nauki przyrodnicze są fundamentalne, a humanistyczne i techniczne pośrednie, w zależności od poziomu rozwoju tych pierwszych. Dlatego celowe jest zastąpienie terminu „nauki podstawowe” terminem „podstawowe badania naukowe”, który rozwija się we wszystkich naukach. Przykładowo w dziedzinie prawa badania podstawowe obejmują teorię państwa i prawa, w ramach której rozwijane są podstawowe pojęcia prawa.

Nauki stosowane, czyli stosowane badania naukowe, mają na celu wykorzystanie wiedzy z zakresu badań podstawowych do rozwiązywania konkretnych problemów w praktycznym życiu człowieka, czyli wpływają na nasz sposób życia. Na przykład matematyka stosowana rozwija matematyczne metody rozwiązywania problemów w projektowaniu i budowie określonych obiektów technicznych. Należy podkreślić, że współczesna klasyfikacja nauk uwzględnia także funkcję celu danej nauki. Mając to na uwadze, mówimy o eksploracyjnych badaniach naukowych mających na celu rozwiązanie konkretnego problemu i zadania. Eksploracyjne badania naukowe łączą badania podstawowe i stosowane w rozwiązywaniu konkretnego zadania i problemu. Pojęcie fundamentalności obejmuje następujące cechy: głębokość badań, skalę zastosowania wyników badań w innych naukach oraz funkcje tych wyników w rozwoju wiedzy naukowej jako całości.



Jedną z pierwszych klasyfikacji nauk przyrodniczych jest klasyfikacja opracowana przez francuskiego naukowca A. M. Ampere (1775-1836). Niemiecki chemik F. Kekule (1829-1896) opracował także klasyfikację nauk przyrodniczych, nad którą dyskutowano w XIX wieku. W jego klasyfikacji główną, podstawową nauką była mechanika, czyli nauka o najprostszych rodzajach ruchu - mechaniczna.

17.REWOLUCJA W NAUKACH PRZYRODNICZYCH KONIEC XIX I POCZĄTEK XX WIEKU. FORMOWANIE Idei i metod nauki nieklasycznej

Epoka przełomu XIX i XX wieku. otwiera się globalna rewolucja naukowa, związane z powstaniem nowej nauki nieklasycznej.

W tej epoce zachodzi swoista reakcja łańcuchowa zmian w różnych dziedzinach wiedzy. Impulsem do tych zmian było cała linia oszałamiające odkrycia w fizyce, które zburzyły cały dotychczasowy obraz świata. Obejmuje to odkrycie podzielności atomu, fal elektromagnetycznych, radioaktywności, ciśnienia świetlnego, wprowadzenie idei kwantu, stworzenie teorii względności i opis procesu rozpadu promieniotwórczego. Pod wpływem tych odkryć zniszczone zostały dotychczasowe wyobrażenia o materii i jej budowie, właściwościach, formach ruchu i typach wzorców, przestrzeni i czasie. Doprowadziło to do kryzysu w fizyce i wszelkich naukach przyrodniczych, który był przejawem głębszego kryzysu metafizycznych podstaw nauki klasycznej.

Drugi etap rewolucji rozpoczął się w połowie lat 20. XX wiek i wiązał się z powstaniem mechaniki kwantowej i jej połączeniem z teorią względności w nowym kwantowo-relatywistycznym fizycznym obrazie świata.

Początkiem trzeciego etapu rewolucji było opanowanie energii atomowej i późniejsze badania, co wiązało się z narodzinami komputerów elektronicznych i cybernetyki. Również w tym okresie, wraz z fizyką, chemią, biologią i cyklem nauk o Ziemi zaczął przewodzić. Warto dodać, że od połowy XX w. Nauka ostatecznie połączyła się z technologią, co doprowadziło do współczesnej rewolucji naukowo-technologicznej.

W procesie wszystkich tych rewolucyjnych przemian ukształtowały się ideały i normy nowej, nieklasycznej nauki.

Charakteryzowało je odrzucenie prostego rozumowania i zrozumienie względnej prawdziwości teorii i obrazu natury. Zrozumieno interakcje pomiędzy podstawowymi postulatami nauki a charakterystyką sposobu opanowywania przedmiotu.

Zmieniają się ideały i uzasadnienia wiedzy. Wprowadzane przy przedstawianiu teorii nowy system koncepcje. Nowe ideały i normy poznawcze zapewniły poszerzenie obszaru badanych obiektów, otwierając drogę do rozwoju złożonych systemów samoorganizujących się.

W nowym obrazie świata przyroda i społeczeństwo wydawały się złożone systemy dynamiczne. Ułatwiło to odkrycie specyfiki praw mikro-, makro- i mega-świata, intensywne badania nad mechanizmami dziedziczności wraz z badaniem poziomów organizacji życia oraz odkrycie przez cybernetykę ogólnych praw kontroli i informacji zwrotnej. Nowe podejście do fenomen życia.Życie przestało wydawać się przypadkowym zjawiskiem we Wszechświecie, ale zaczęło być postrzegane jako naturalny wynik samorozwoju materii, co także w naturalny sposób doprowadziło do powstania umysłu.

Obrazy rzeczywistości wytworzone na tym etapie w poszczególnych naukach zachowały jeszcze swą niezależność, jednak każdy z nich uczestniczył w kształtowaniu się idei wchodzących w skład ogólnonaukowego obrazu świata.

Filozoficzne podstawy nauki zmieniły się radykalnie.

Rozwój nowych idei w fizyce, biologii, cybernetyce zmodyfikował znaczenia kategorii części i całości, przyczynowości, przypadku i konieczności, przedmiotu, procesu, stanu itp.

18. Nowoczesna nauka postnieklasyczna

Nauka postnieklasyczna ukształtowała się w latach 70. XX wieku. Sprzyja temu rewolucja w przechowywaniu i pozyskiwaniu wiedzy (komputeryzacja nauki), niemożność rozwiązania szeregu problemów naukowych bez zintegrowanego wykorzystania wiedzy z różnych dyscyplin naukowych, bez uwzględnienia miejsca i roli człowieka w systemach w trakcie studiów. Dlatego obecnie opracowywane są technologie genowe, oparte na metodach biologii molekularnej i genetyki, które mają na celu konstruowanie nowych genów, które wcześniej nie istniały w naturze. Na ich podstawie już w pierwszych etapach badań sztucznie otrzymywano insulinę, interferon (białko ochronne) itp. Głównym celem technologii genetycznej jest modyfikacja DNA. Prace w tym kierunku doprowadziły do ​​opracowania metod analizy genów i genomów (zestawu genów zawartych w jednym zestawie chromosomów), a także ich syntezy, tj. konstrukcji nowych organizmów genetycznie zmodyfikowanych. Opracowano całkowicie nową metodę, która doprowadziła do szybkiego rozwoju mikrobiologii - klonowania.
Wprowadzenie idei ewolucyjnych do dziedziny badań chemicznych doprowadziło do powstania nowego kierunku naukowego - chemii ewolucyjnej. Tym samym na podstawie jej odkryć, a w szczególności opracowania koncepcji samorozwoju otwartych układów katalitycznych, możliwe stało się wyjaśnienie spontanicznego (bez ingerencji człowieka) przechodzenia z niższych układów chemicznych do wyższych.
Nastąpił jeszcze większy wzrost matematyzacji nauk przyrodniczych, co doprowadziło do wzrostu poziomu jej abstrakcji i złożoności. Na przykład rozwój abstrakcyjnych metod badania rzeczywistości fizycznej prowadzi z jednej strony do powstania wysoce efektywnych teorii, takich jak teoria elektrosłabości Salama-Weinberga, chromodynamika kwantowa, „Wielka Teoria Unifikacji”, teorie supersymetryczne , a z drugiej strony do tzw. „kryzysu” fizyki cząstek elementarnych. I tak amerykański fizyk M. Gutzwiller napisał w 1994 roku: „Mimo wszystkich obietnic fizyka cząstek elementarnych zamieniła się w koszmar, pomimo szeregu głębokich intuicyjnych spostrzeżeń, z których korzystamy od jakiegoś czasu. Pola nieabelowe znane są z tego, że 40 lat temu obserwowano kwarki 25 lat temu, a harmonie odkryto 20 lat temu.Ale wszystkie wspaniałe pomysły doprowadziły do ​​modeli zależnych od 16 otwartych parametrów... Nie możemy nawet ustalić bezpośredniej zgodności z masami cząstek elementarnych, ponieważ wymagana do tego matematyka jest zbyt skomplikowana nawet dla współczesnych komputerów. Ale nawet gdy próbuję przeczytać jakieś współczesne prace naukowe lub wysłuchać raportów niektórych moich kolegów, pozostaje mi pytanie: Czy mają one kontakt z rzeczywistością? Wezmę jako przykład antyferromagnetyzm, który znów stał się popularny po odkryciu nadprzewodzących tlenków miedzi.Super wyrafinowane modele antyferromagnetyzmu zostały zaproponowane i opracowane niezwykle starannie przez ludzi, którzy nigdy nie słyszeli i nie chcą słyszeć o hematycie (czerwonym ruda żelaza, minerał należący do podklasy prostych tlenków), czyli to, co wszyscy wiedzą, nazywa się zardzewiałym gwoździem.
Rozwój technologii komputerowej wiąże się z powstaniem mikroprocesorów, które były także podstawą do tworzenia obrabiarek sterowanych komputerowo, robotów przemysłowych, do tworzenia zautomatyzowanych stanowisk pracy, systemy automatyczne kierownictwo.
Postęp w latach 80-tych - 90-tych. XX wiek Rozwój technologii komputerowej spowodowany został powstaniem sztucznych sieci neuronowych, w oparciu o które opracowywane i tworzone są neurokomputery posiadające zdolność samouczenia się przy rozwiązywaniu najbardziej złożonych problemów. Duży krok naprzód został zrobiony w dziedzinie rozwiązywania problemów jakościowych. Zatem w oparciu o teorię zbiorów rozmytych tworzone są komputery rozmyte, które są w stanie rozwiązywać tego typu problemy. Natomiast wprowadzenie czynnika ludzkiego do tworzenia baz danych doprowadziło do powstania wysoce efektywnych systemów ekspertowych, które stały się podstawą systemów sztucznej inteligencji.

Ponieważ przedmiotem badań coraz częściej stają się układy, z którymi nie można eksperymentować, modelowanie matematyczne jest najważniejszym narzędziem badań naukowych. Jego istotą jest zastąpienie pierwotnego przedmiotu badań jego modelem matematycznym, z którym eksperymentowanie jest możliwe przy użyciu programów opracowanych dla komputerów. W modelowaniu matematycznym dostrzegane są duże możliwości heurystyczne, gdyż „matematyka, a dokładniej matematyczne modelowanie układów nieliniowych, zaczyna od zewnątrz poszukiwać tej klasy obiektów, dla których istnieją pomosty pomiędzy naturą martwą a żywą, pomiędzy samokonstrukcją nieliniowo ewoluujących struktur i najwyższych przejawów ludzkiej intuicji twórczej.”
Mikroelektronika i nanoelektronika, powstałe w głębi fizyki, szybko rozwijają się w oparciu o wiedzę fundamentalną. Elektronika to nauka o oddziaływaniu elektronów z polami elektromagnetycznymi oraz o sposobach tworzenia instrumentów i urządzeń elektronicznych służących do przesyłania informacji. A jeśli na początku XX w. na jego bazie można było tworzyć lampy elektroniczne, wówczas już od lat 50-tych. Rozwija się elektronika półprzewodnikowa (głównie półprzewodnikowa), a od lat 60. XX wieku. - mikroelektronika oparta na układach scalonych. Rozwój tego ostatniego zmierza w kierunku zmniejszenia wymiarów zawartych w układzie scalonym elementów do jednej miliardowej metra – nanometra (nm), w celu wykorzystania go w tworzeniu statek kosmiczny i sprzęt komputerowy.
Powtórzmy jeszcze raz, że coraz częściej przedmiotem badań są złożone, unikalne, historycznie rozwijające się systemy, które charakteryzują się otwartością i samorozwojem. Wśród nich są takie naturalne kompleksy, w które wchodzi sam człowiek - tak zwane „kompleksy wielkości człowieka”; obiekty medyczno-biologiczne, środowiskowe, biotechnologiczne, systemy człowiek-maszyna, do których zaliczają się systemy informacyjne i systemy sztucznej inteligencji itp. Eksperymentowanie z takimi systemami jest skomplikowane, a czasem wręcz niemożliwe. Badanie ich jest nie do pomyślenia bez określenia granic możliwej ingerencji człowieka w obiekt, co wiąże się z rozwiązaniem szeregu problemów etycznych.

Nieprzypadkowo więc na etapie nauki postnieklasycznej dominuje idea syntezy wiedzy naukowej – chęć budowania ogólnego naukowego obrazu świata w oparciu o zasadę uniwersalnego ewolucjonizmu, łączącego idee podejścia systemowego i ewolucyjnego w jedną całość. Koncepcja uniwersalnego ewolucjonizmu opiera się na pewnym zasobie wiedzy zdobywanej w ramach określonych dyscyplin naukowych (biologia, geologia itp.), a jednocześnie zawiera szereg zasad filozoficznych i światopoglądowych. Często uniwersalny lub globalny ewolucjonizm rozumiany jest jako zasada zapewniająca ekstrapolację idei ewolucyjnych na wszystkie sfery rzeczywistości i traktowanie materii nieożywionej, żywej i społecznej jako jednego uniwersalnego procesu ewolucyjnego.
Podejście systemowe wprowadziło nową treść do koncepcji ewolucjonizmu, stwarzając możliwość uznania systemów za samoorganizujące się i mające charakter otwarty. Jak zauważył akademik Nikita Nikołajewicz Moiseev, wszystko, co dzieje się na świecie, można przedstawić jako selekcję i istnieją dwa rodzaje mechanizmów, które ją regulują:
1) adaptacyjny, pod wpływem którego system nie nabywa zasadniczo nowych właściwości;
2) rozwidlenie, związane z radykalną restrukturyzacją systemu.
Moiseev zaproponował zasadę oszczędzania entropii, która daje „przewagę” złożonym systemom nad prostymi. Ewolucję można przedstawić jako przejście od jednego typu samoorganizującego się systemu do innego, bardziej złożonego. Idea zasady uniwersalnego ewolucjonizmu opiera się na trzech najważniejszych nurtach pojęciowych w nauce końca XX wieku:

1) teorie Wszechświata niestacjonarnego;
2) synergia;
3) teoria ewolucji biologicznej i rozwinięta na jej podstawie koncepcja biosfery i noosfery.

Model rozszerzającego się Wszechświata znacząco zmienił wyobrażenia o świecie, w tym ideę ewolucji kosmicznej w naukowym obrazie świata. Teoria rozszerzającego się wszechświata napotykała trudności przy próbach wyjaśnienia etapów ewolucji kosmosu od pierwszej eksplozji do drugiego po niej świata. Odpowiedzi na te pytania daje teoria nadmuchującego się Wszechświata, która powstała na styku kosmologii i fizyki cząstek elementarnych.
Teoria opiera się na idei „fazy inflacyjnej” – etapu przyspieszonej ekspansji. Po kolosalnej ekspansji w niewiarygodnie krótkim czasie powstała faza o złamanej symetrii, co doprowadziło do zmiany stanu próżni i narodzin ogromnej liczby cząstek. Asymetria Wszechświata wyraża się w przewadze materii nad antymaterią i jest uzasadniona „wielkim unifikacją” teorii cząstek elementarnych z modelem nadmuchującego Wszechświata. Na tej podstawie możliwe było opisanie oddziaływań słabych, silnych i elektromagnetycznych przy wysokich energiach, a także osiągnięcie postępu w teorii materii supergęstej. Według tego ostatniego możliwe stało się odkrycie faktu, że gdy zmienia się temperatura w substancji supergęstej, następuje szereg przejść fazowych, podczas których zmieniają się właściwości substancji i właściwości cząstek elementarnych tworzących tę substancję. Tego rodzaju przejścia fazowe powinny nastąpić podczas chłodzenia rozszerzającego się Wszechświata wkrótce po Wielkim Wybuchu. W ten sposób ustala się związek pomiędzy ewolucją Wszechświata a procesem powstawania cząstek elementarnych, co pozwala stwierdzić, że Wszechświat może stanowić unikalną podstawę do weryfikacji współczesne teorie cząstki elementarne i ich oddziaływania.
Konsekwencją teorii nadmuchującego Wszechświata jest twierdzenie, że istnieje wiele ewolucyjnie rozwijających się wszechświatów, spośród których być może tylko nasz był w stanie wygenerować tak różnorodne formy organizacji materii. A pojawienie się życia na Ziemi jest uzasadnione zasadą antropiczną, która ustanawia związek między istnieniem człowieka (jako obserwatora) z parametrami fizycznymi Wszechświata i Układu Słonecznego, a także z uniwersalnym oddziaływaniem stałe i masy cząstek elementarnych. Uzyskane ostatnio dane kosmologiczne pozwalają przypuszczać, że potencjał powstania życia i umysłu ludzkiego został założony już w początkowych stadiach rozwoju metagalaktyki, kiedy ukształtowały się wartości liczbowe stałych światowych, które determinowały charakter dalszych zmian ewolucyjnych.
Drugim stanowiskiem koncepcyjnym leżącym u podstaw zasady uniwersalnego ewolucjonizmu jest teoria samoorganizacji – synergetyki. Scharakteryzowano ją za pomocą następujących słów kluczowych: samoorganizacja, spontaniczna strukturogeneza, nieliniowość, systemy otwarte. Studia synergiczne otwarte, tj. systemy wymiany materii, energii i informacji ze światem zewnętrznym. W synergicznym obrazie świata króluje formacja, obarczona wielowariantowością i nieodwracalnością. Bycie i stawanie się łączą się w jedno pojęciowe gniazdo. Czas tworzy, czyli pełni funkcję konstruktywną.
Nieliniowość zakłada odrzucenie orientacji na jednoznaczność i unifikację, uznanie metodologii poszukiwań rozgałęzionych i wiedzy zmiennej.
Pojęcie synergetyki stało się powszechne we współczesnych dyskusjach naukowych i badaniach ostatnich dziesięcioleci z zakresu filozofii nauki i metodologii. Samo to określenie ma starożytne greckie pochodzenie i oznacza pomoc, współudział lub asystowanie, pomaganie. Ślady jego stosowania można odnaleźć w hezychazmie – mistycznym ruchu Bizancjum. Najczęściej używane w kontekście badań naukowych oznacza: skoordynowane działanie, ciągłą współpracę, dzielenie się.

1973 - rok wystąpienia niemieckiego naukowca Hermanna Hakena (ur. 1927) na pierwszej konferencji poświęconej problematyce samoorganizacji, zapoczątkował nową dyscyplinę i jest uważany za rok narodzin synergetyki. Haken zwrócił uwagę na fakt, że zjawiska korporacyjne obserwuje się w wielu różnych układach, czy to zjawiska astrofizyczne, przejścia fazowe, niestabilności hydrodynamiczne, powstawanie cyklonów w atmosferze itp. W jego klasyczna praca„Synergetyka” zauważył, że w wielu dyscyplinach, od astrofizyki po socjologię, często obserwujemy, jak współpraca poszczególnych części układu prowadzi do makroskopowych struktur lub funkcji. Synergetyka w swoim obecnym stanie koncentruje się na sytuacjach, w których struktury lub funkcje systemów ulegają dramatycznym zmianom na poziomie makroskali. W szczególności interesuje ją kwestia, w jaki sposób dokładnie podsystemy lub części powodują zmiany, które są całkowicie zdeterminowane procesami samoorganizacji. Paradoksalne wydawało się to, że podczas przejścia ze stanu nieuporządkowanego do stanu porządku wszystkie te systemy zachowują się w podobny sposób.
Haken wyjaśnia, dlaczego nazwał nową dyscyplinę synergetyką w następujący sposób. Po pierwsze, „bada wspólne działanie wielu podsystemów… w wyniku czego powstaje struktura i odpowiadające jej funkcjonowanie na poziomie makroskopowym”. Po drugie, współdziała w odnalezieniu wysiłków różnych dyscyplin naukowych ogólne zasady samoorganizacja systemów. G. Haken podkreślił, że w związku z kryzysem wysoce wyspecjalizowanych dziedzin wiedzy, informacja musi zostać skompresowana w niewielką liczbę praw, koncepcji czy idei, a za jedną z takich prób można uznać synergię. Według naukowca istnieją te same zasady samoorganizacji systemów o różnym charakterze, od elektronów po ludzi, co oznacza, że ​​należy mówić o wspólnych determinantach procesów naturalnych i społecznych, do których poszukiwania dąży synergetyka.
Wkład w rozwój tej nauki Ilyi Romanovich Prigogine (1917-2003), rosyjsko-belgijskiego (z rodziny rosyjskich emigrantów) naukowca, laureata Nagrody Nobla, jest nieoceniony (należy pamiętać, że Prigogine z reguły nie korzystał z termin „synergetyka”). Prigogine na podstawie swoich odkryć z zakresu termodynamiki nierównowagowej wykazał, że w nierównowagowych układach otwartych możliwe są efekty, które prowadzą nie do wzrostu entropii i tendencji układów termodynamicznych do stanu chaosu równowagowego, ale do „spontanicznego” pojawienia się uporządkowanych struktur, aż do narodzin porządku z chaosu. Synergetyka bada spójny, skoordynowany stan procesów samoorganizacji w złożonych systemach o różnym charakterze. Aby możliwe było zastosowanie synergetyki, badany układ musi być otwarty i nieliniowy (nieliniowość wyraża się w tym, że te same zmiany powodują różne zmiany – np. jeśli weźmiemy pod uwagę nasze samopoczucie, to zmiana temperatura w klasie z 18 do 23 stopni nie będzie miała tak dużego wpływu jak, powiedzmy, zmiana z 30 stopni na 35). System musi także składać się z wielu elementów i podukładów (elektronów, atomów, cząsteczek, komórek, neuronów, narządów, złożonych organizmów, grup społecznych itp.), których wzajemne oddziaływanie może podlegać jedynie niewielkim wahaniom, drobnym zmianom losowym i znajdować się w stanie niestabilności, tj. - w stanie nierównowagi.

Synergetyka wykorzystuje modele matematyczne do opisu nieliniowych procesów samoorganizacji. Synergetyka ustala, jakie procesy samoorganizacji zachodzą w przyrodzie i społeczeństwie, jakiego rodzaju nieliniowe prawa rządzą tymi procesami i w jakich warunkach, dowiaduje się, na jakich etapach ewolucji chaos może odgrywać pozytywną rolę, a kiedy jest niepożądany i destrukcyjny.

Jednak zastosowanie synergetyki w badaniu procesów społecznych jest pod pewnymi względami ograniczone:
1. Z punktu widzenia synergetyki można w zadowalający sposób zrozumieć jedynie procesy masowe. Za jego pomocą trudno wyjaśnić zachowanie jednostki, motywy jej działania i preferencje, ponieważ dotyczy ona procesów makrospołecznych i ogólnych trendów rozwoju społeczeństwa. Daje obraz makroskopowych wydarzeń społeczno-gospodarczych, w którym podsumowane są osobiste decyzje i akty wyboru jednostek. Jednostka jako taka nie jest badana za pomocą synergetyki.

2. Synergetyka nie uwzględnia roli czynnika świadomego w sferze duchowej, ponieważ nie uwzględnia zdolności człowieka do bezpośredniego i świadomego przeciwdziałania makrotrendom samoorganizacji, które są nieodłączne we wspólnotach społecznych.

3. Kiedy przechodzisz na więcej wysoki poziom organizacji wzrasta liczba czynników biorących udział w determinacji badanego zdarzenia społecznego, natomiast synergetyka ma zastosowanie do badania procesów, które są zdeterminowane małą liczbą faktów.

ofia 19. . Nauka jako instytucja społeczna.

Nauka jako instytucja społeczna powstała w Europie Zachodniej w XVI-XVII wieku. z konieczności obsługi powstającej produkcji kapitalistycznej i domagał się pewnej autonomii. Samo istnienie nauki jako instytucji społecznej wskazywało, że w systemie społecznego podziału pracy musi ona spełniać określone funkcje, a mianowicie odpowiadać za wytwarzanie wiedzy teoretycznej. Nauka jako instytucja społeczna obejmowała nie tylko system wiedzy i działalności naukowej, ale także system relacji w nauce, instytucjach i organizacjach naukowych.

Pojęcie „instytucji społecznej” odzwierciedla stopień konsolidacji danego typu ludzka aktywność. Instytucjonalizacja zakłada sformalizowanie wszelkiego rodzaju relacji i przejście od niezorganizowanych działań i relacji nieformalnych, takich jak porozumienia i negocjacje, do tworzenia zorganizowanych struktur obejmujących hierarchię, regulację władzy i regulacje. W związku z tym mówią o instytucjach politycznych, społecznych, religijnych, a także o instytucji rodziny, szkoły i instytucji.

Jednak przez długi czas w rosyjskiej filozofii nauki podejście instytucjonalne nie było rozwinięte. Proces instytucjonalizacji nauki świadczy o jej niezależności, oficjalnym uznaniu roli nauki w systemie społecznego podziału pracy i jej roszczeniach do udziału w podziale zasobów materialnych i ludzkich.

Nauka jako instytucja społeczna ma swoją rozgałęzioną strukturę i wykorzystuje zarówno zasoby poznawcze, organizacyjne, jak i moralne. W związku z tym zawiera następujące elementy:

1. zasób wiedzy i jej nośniki;

2. obecność określonych celów poznawczych i zadań;

3. pełnienie określonych funkcji;

4. obecność określonych środków wiedzy i instytucji;

5. rozwój form kontroli, badania i oceny dorobku naukowego;

6. istnienie określonych sankcji.

Rozwój instytucjonalnych form działalności naukowej zakładał doprecyzowanie przesłanek procesu instytucjonalizacji, ujawnienie jego treści i wyników.

Instytucjonalizacja nauki polega na spojrzeniu na proces jej rozwoju z trzech stron:

1) tworzenie różnych form organizacyjnych nauki, jej wewnętrzne zróżnicowanie i specjalizacja, dzięki czemu spełnia ona swoje funkcje w społeczeństwie;

2) kształtowanie systemu wartości i norm regulujących działalność naukowców, zapewniających ich integrację i współpracę;

3) integracja nauki z systemami kulturowymi i społecznymi społeczeństwa przemysłowego, pozostawiając jednocześnie możliwość względnej autonomii nauki w stosunku do społeczeństwa i państwa.

W starożytności wiedza naukowa została rozpuszczona w systemach filozofów przyrody, w średniowieczu – w praktyce alchemików i zmieszana z poglądami religijnymi lub filozoficznymi. Istotnym warunkiem rozwoju nauki jako instytucji społecznej jest systematyczne kształcenie młodszego pokolenia.

Sama historia nauki jest ściśle związana z historią szkolnictwa wyższego, którego bezpośrednim zadaniem jest nie tylko przekazywanie systemu wiedzy, ale także przygotowanie ludzi zdolnych do pracy intelektualnej i profesjonalnej działalności naukowej. Powstanie uniwersytetów datuje się na XII wiek, jednak w pierwszych uniwersytetach dominował religijny paradygmat światopoglądu. Wpływy świeckie docierają do uniwersytetów dopiero 400 lat później.

Nauka jako instytucja społeczna lub forma świadomości społecznej związana z wytwarzaniem wiedzy naukowej i teoretycznej to pewien system relacji pomiędzy organizacjami naukowymi, członkami społeczności naukowej, system norm i wartości. Jednak fakt, że jest to instytucja, w której swój zawód odnalazły dziesiątki, a nawet setki tysięcy ludzi, jest efektem najnowszego rozwoju. Dopiero w XX wieku. zawód naukowca staje się porównywalny pod względem znaczenia z zawodem duchownego i prawnika.

Według socjologów nie więcej niż 6-8% populacji jest w stanie zajmować się nauką. Czasami za główną i empirycznie oczywistą cechę nauki uważa się połączenie działalności badawczej i wyższa edukacja. Jest to bardzo rozsądne w warunkach, gdy nauka staje się działalnością zawodową. Działalność naukowo-badawcza uznawana jest za konieczną i trwałą tradycję społeczno-kulturową, bez której normalne istnienie i rozwój społeczeństwa nie są możliwe. Nauka jest jednym z priorytetowych obszarów działalności każdego cywilizowanego państwa

Nauka jako instytucja społeczna to przede wszystkim naukowcy wraz z ich wiedzą, kwalifikacjami i doświadczeniem; podział i współpraca pracy naukowej; ugruntowany i skutecznie działający system informacji naukowej; organizacje i instytucje naukowe, szkoły i środowiska naukowe; sprzęt doświadczalny i laboratoryjny itp.

We współczesnych warunkach proces optymalnej organizacji zarządzania nauką i jej rozwojem ma ogromne znaczenie.

Czołowymi postaciami nauki są genialni, utalentowani, utalentowani, twórczo myślący naukowcy i innowatorzy. Wybitni badacze, mający obsesję na punkcie poszukiwania czegoś nowego, są u podstaw rewolucyjnych zwrotów w rozwoju nauki. Interakcja jednostki, osoby i tego, co uniwersalne, zbiorowe w nauce, jest rzeczywistą, żywą sprzecznością w jej rozwoju.

DZWON

Są tacy, którzy czytali tę wiadomość przed tobą.
Zapisz się, aby otrzymywać świeże artykuły.
E-mail
Nazwa
Nazwisko
Jak chcesz przeczytać „Dzwon”?
Bez spamu