{"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 678, "subject": "Budowa materii", "paragraphs": ["Chemia, to nauka o substancjach, o ich właściwościach, wzajemnych oddziaływaniach i reakcjach chemicznych, a także o efektach, jakie towarzyszą tym oddziaływaniom bądź reakcjom."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 679, "subject": "Atomowa i cząsteczkowa struktura materii", "paragraphs": ["Atom, według pierwotnej koncepcji Daltona, miał stanowić cząstkę niepodzielną. Dopiero w latach 90. XIX wieku stwierdzono, iż atom, to twór o skomplikowanej strukturze. Wiek XX, jako wiek przełomowy w nauce, rzucił nowe światło na nasze rozumienie budowy materii. Ewoluowało ono od struktury atomowej po kwarkową:", "Elementarne składniki materii to te, które – na podstawie aktualnego stanu wiedzy – nie posiadają struktury wewnętrznej. Dokładne badania nad budową jądra atomu stanowi domenę fizyki. Dogłębną analizę tego tematu można znaleźć w podręczniku Elementy współczesnej fizyki.", "Do wyjaśnienia podstawowych właściwości chemicznych pierwiastków wystarczy charakterystyka protonów, neutronów oraz elektronów, tj. cząstek, jakie wchodzą w skład atomu.", "W obojętnych atomach pierwiastków liczba protonów i elektronów jest sobie równa. Co istotne, liczba ta jest charakterystyczna dla danego pierwiastka. Współczesna definicja pierwiastka określa go, jako rodzaj materii, tj. zbiór atomów o takiej samej ilości protonów. Atomy różnych pierwiastków różnią się od siebie pod wieloma względami, przede wszystkim masą i rozmiarami a także \"ułożeniem\" elektronów w przestrzeni otaczającej jądro (tzw. konfiguracja elektronowa ).", "Otaczająca nas materia dąży do minimum energii, stąd atomy dążąc do takiego stanu tworzą cząsteczki - w chemii najmniejsze części prostych substancji chemicznych lub związków chemicznych. Cząsteczki mogą niezależnie istnieć i utrzymać właściwości chemiczne danej substancji lub związku. W rzeczywistości cząsteczka zawiera co najmniej dwa atomy. Nie ma znaczenia, czy atomy są takie same jak w przypadku czasteczek gazów ( \\( \\ce{H_2} \\), \\( \\ce{O_2} \\), \\( \\ce{Cl_2} \\)) czy różnią się od siebie ( \\( \\ce{H_2O} \\))."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 498, "subject": "Budowa atomu", "paragraphs": ["Historyczny rozwój koncepcji budowy atomu zawierał kilka modeli. Leukippos i jego uczeń Demokryt w IV w. p.n.e byli pierwszymi, którzy przedstawili materię jako zbiór atomów - niepodzielnych cząstek, sztywnych kul, pozbawionych wewnętrznej struktury i otoczonych próżnią. Jednak do chemii teorię atomistyczną wprowadził dopiero w pierwszych latach XIX w. John Dalton, który wykazał, że opierając się na odpowiednio sprecyzowanym pojęciu atomu można w sposób konsekwentny wyjaśnić podstawowe prawa chemii (prawa zachowania masy, prawa stosunków stałych, prawa stosunków wielokrotnych, prawo objętościowe Gay-Lussaca itp.). Koncepcja Daltona, która utrzymywała się do końca XIX w. opisywała atom jako jednostkę niepodzielną. Dopiero ostatnia dekada tego wieku podważyła tę teorię przedstawiając atom jako twór o skomplikowanej strukturze. Joseph J. Thomson odkrywając w 1894 roku elektron zmienił ten pogląd i od tej pory atom staje się kulą elektryczności dodatniej (ładunków dodatnich), w której mieszczą się mniejsze kulki – składowe atomu (elektrony). Model ten nazywany jest modelem „ciasta z rodzynkami” ( Rys. 1 ).", "Po odkryciu w 1896 r. przez Henri’ego Becquerel’a zjawiska promieniotwórczości okazało się, że w przyrodzie występują atomy nietrwałe. Jednym z prawdopodobnych produktów rozpadu są cząstki \\( \\alpha \\). Podczas badania ich przenikania przez folie metalowe w 1911 r. Ernest Rutherford stwierdził, iż większość masy atomu i całkowity dodatni ładunek skupiony jest w małej objętości w stosunku do objętości całego atomu. Tak powstał planetarny (analogia do ruchu planet wokół Słońca) model atomu, zwany także jądrowym, w którym w centrum atomu mieści się dodatnio naładowane jądro skupiające znaczącą część masy, zaś wokół niego krążą elektrony przyciągane działaniem sił elektrostatycznych ( Rys. 2 )", "W 1913 roku Niels Bohr proponuje swój model atomu ( Rys. 3 ), w którym elektrony poruszają się wokół jądra tylko po określonych orbitach, jednak nie podaje przyczyny tego zjawiska. Dopiero Mechanika kwantowa i kwantowy model ruchu elektronów wokół jądra wyjaśnia dlaczego elektrony przyjmują określone energie."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 499, "subject": "Podstawowe cząstki elementarne", "paragraphs": ["Najwcześniej poznaną cząstką był elektron, czyli trwała cząstka elementarna charakteryzująca się jednostkowym ładunkiem ujemnym i prawie 2000 razy mniejsza od atomu wodoru.", "Protony to cząstki znajdujące się w jądrze każdego pierwiastka o masie bliskiej jedności (wyrażonej w jednostkach mas atomowych \\( [u] \\) – unit) i jednostkowym ładunku dodatnim. Do drugiej połowy XX w. proton uważano za cząstkę elementarną, jednak rozwój nauki (fizyki jądrowej) pozwolił odkryć, że posiada on wewnętrzną strukturę. Zbudowany jest z cząstek elementarnych zwanych kwarkami w układzie (uud) tzn. dwa kwarki górne i jeden kwark dolny.", "Z kolei neutron - charakteryzuje się masą podobną do masy protonu oraz brakiem ładunku elektrycznego. Neutron jest stabilną cząstką, jeśli występuje w jądrze atomu; poza nim jest nietrwały i ulega rozpadowi z powstaniem protonu. Podobnie jak proton, neutron jeszcze w ubiegłym wieku zaliczany był do cząstek elementarnych. Struktura neutronu również zawiera kwarki (w układzie udd tj. jeden kwark górny i dwa kwarki dolne).", "Więcej na temat struktury atomów można znaleźć w podręczniku Elementy fizyki współczesnej."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 500, "subject": "Opis atomu pierwiastka", "paragraphs": ["Atom zbudowany jest z jądra (stanowiącego \\( 99\\% \\) masy atomu) składającego się z protonów i neutronów. Wokół jądra krążą elektrony.", "Atomy różnych pierwiastków zawierają różną liczbę protonów w jądrze. Celem określenia podstawowych składników atomu pierwiastka E wykorzystuje się zapis:", "w którym literą Z oznaczamy liczbę protonów i nazywamy liczbą atomową, natomiast litera A to liczba masowa - liczba nukleonów (suma protonów i neutronów).", "Schematyczną prezentację modeli przykładowych atomów pierwiastka ilustruje rysunek poniżej:", "Odmiany pierwiastków, które można opisać taką samą liczbą protonów, różną zaś liczbą neutronów w jądrze nazywa się izotopami. Rozpatrzmy ten wątek na przykładzie atomów żelaza \\( \\ce{_{26}^{56}Fe} \\) i \\( \\ce{_{26}^{58}Fe} \\). Kolejno, w skład pierwszego atomu żelaza wchodzi 26 protonów, 26 elektronów i 30 neutronów (A – Z = 56 – 26 = 30), natomiast drugi atom żelaza zawiera w swojej strukturze 26 protonów, 26 elektronów oraz 32 neutrony (A – Z = 58 – 26 = 32), tzn. że atomy te różnią się liczbą neutronów – są względem siebie izotopami."], "definitions": [{"name": "Definicja 1: Atom", "content": "Atom to najmniejsza część pierwiastka zachowująca jego własności. "}, {"name": "Definicja 2: Pierwiastek", "content": "to zbiór atomów o tej samej liczbie protonów."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 501, "subject": "Jądro atomowe", "paragraphs": ["Jądro atomowe – stanowi układ złożony z dwóch rodzajów cząstek, tj. protonów i neuronów (ogólnie nazywane neuklonami). Jądro atomowe, jako odrębny twór zwane jest także nuklidem. Nukleony jądra atomowego mają bardzo małą objętość – jak wspomniano w podrozdziale Atomowa i cząsteczkowa struktura materii rozmiary jądra są rzędu \\( 10^{-14} \\) m. Oprócz znacznych sił odpychania między protonami w jądrze występują jeszcze tzw. siły jądrowe. Siły te są siłami małego zasięgu – w obrębie odległości nie przekraczających granic jądra cechują się bardzo dużymi wartościami, natomiast bardzo szybko zanikają w miarę wzrostu tejże odległości. Masa jądra jest jedną z najważniejszych wielkości charakteryzujących jądro. Prawie całkowita masa atomu zawarta jest w jądrze atomowym (gęstość materii jądrowej jest rzędu \\( 10^{15} \\frac{kg}{m^3} \\)) na którą składa się suma mas protonów i neutronów (liczba masowa A). Przy czym okazuje się, że masa jądra atomowego wcale nie jest równa sumie mas nukleonów wchodzących w jego skład. Różnica pomiędzy masą wynikającą z liczby protonów i neutronów w jądrze a faktyczną masą jądra nosi nazwę defektu masy i jest związany z tym, że jeśli udałoby się przeprowadzić proces łączenia protonów i neutronów w jądro atomowe, to musiałby on być połączony z wydzielaniem pewnej ilości energii odpowiadającej co do ilości ubytkowi masy. Defekt ten, przeliczony zgodnie z równaniem Einsteina:", "gdzie:", "\\( E \\) - energia \\( m \\) - masa \\( c \\) - prędkość światła w próżni", "i odniesiony do jednego nukleonu nosi nazwę energii wiązania, czyli energii potrzebnej do utrzymywania nukleonów w jądrze. Rozważmy fakt występowania defektu masy dla jądra helu, gdzie masa składników atomu tzn. 4 nukleonów (2 protonów, 2 neutronów) i 2 elektronów wynosi 4,033602 u, zaś masa atomowa jest równa 4,002602 u. Różnica więc wynosi ok. 0,031 u. Taka sama sytuacja występuje w przypadku innych jąder, np. dla jądra berylu różnica mas wynosi 0,0624 u, dla jądra tlenu 0,137 u. Wartości te są miarą trwałości jądra. Zależność energii wiązania nukleonów w jądrze od liczby masowej jądra (A) przedstawia Rys. 1 poniżej:", "Na podstawie rysunku widać, że maksymalną wartość energii wiązania osiągają jądra atomowe o liczbie masowej 56 u (główny izotop żelaza) i opada gwałtownie w kierunku metali lekkich i łagodnie w stronę jąder pierwiastków ciężkich. Na podstawie tego diagramu można wysunąć bardzo interesujący wniosek, mianowicie, że zarówno synteza nuklearna cięższych pierwiastków z lżejszych, jak i rozpad najcięższych jąder są procesami egzoenergetycznymi prowadzącymi do powstania dużych ilości energii, a nowopowstałe jądra będą trudniejsze do rozbicia niż wyjściowe."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 502, "subject": "Reakcje jądrowe", "paragraphs": ["Jądro atomowe składa się z protonów ( \\( \\ce{p^+} \\)) oraz neutronów ( \\( \\ce{n^0} \\)). Neutrony, które ograniczają elektrostatyczne odpychanie się protonów posiadających ładunki jednoimienne, zapewniają stabilność jądra atomowego. Dzięki tzw. siłom jądrowym oddziaływującym między neutronami i protonami, jądro jest utrzymywane w całości (nie rozpada się). Jednakże jądra atomów niektórych izotopów są nietrwałe i wykazują zdolność ulegania samorzutnemu rozpadowi. Mówimy wówczas o przemianach jądrowych. Podczas przemiany jądrowej powstają zupełnie nowe pierwiastki - inne niż wyjściowe. Rozpad ten połączony jest z emisją różnego rodzaju promieniowania:", "Zatem możemy zapisać:", "Podczas \"wychwytu elektronu\" następuje emisja promieniowania \\( X \\) spowodowana przeskokiem elektronu z powłoki zewnętrznej w miejsce elektronu zaabsorbowanego:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 503, "subject": "Elektronowa struktura atomów", "paragraphs": ["Już pierwsze modele struktury atomu zawierały informacje dotyczące ilości elektronów w obojętnym atomie. Dopiero E. Rutherford na podstawie eksperymentu przeprowadzonego na przełomie XIX i XX w. ustalił, że jądro zawiera praktycznie całą masę atomu, a także ocenił jego średnicę.", "Rutherford badał przenikanie cząstek \\( \\alpha \\) (jąder helu) przez bardzo cienką folię złota. Eksperyment pozwolił ustalić, że odległość pomiędzy dodatnio naładowanym jądrem atomu a otaczającymi go elektronami jest na tyle duża, że stosunkowo duże cząstki \\( \\alpha \\) są w stanie w znacznej większości przejść przez strukturę, a tylko niewielka ich część zostaje odbita.", "Współczesna nauka prezentuje szereg analogii pomiędzy zachowaniem się strumienia świetlnego i strumienia rozpędzonych elektronów. Na ich podstawie rozpatruje się zachowanie elektronów w atomie, których naturę przedstawił w swojej hipotezie Louis de Broglie opisując elektron jako twór, który w niektórych przypadkach należy rozpatrywać jako cząstkę materii, a w innych, jako falę powstającą na skutek poruszania się tej cząstki."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 504, "subject": "Kwantowy model atomu Bohra", "paragraphs": ["Niedoskonałością teorii E. Rutherforda był fakt, iż elektron, który krąży wokół jądra nieustannie emituje promieniowanie elektromagnetyczne, przez co traci swoją energię, a co za tym idzie jego prędkość w ruchu po orbicie maleje, a odległość dzieląca elektron od jądra spada. Prowadzi to do zderzenia cząstek i zniszczenia atomu ( Rys. 1 ). Doświadczenie Nielsa Bohra przekonuje, że nic takiego nie ma miejsca, a opisany przez Rutherforda model – choć zgodny z prawami Maxwella (fundamentem elektrodynamiki klasycznej) – jest sprzeczny ze stanem faktycznym.", "Bohr w swoich badaniach, poprzez bodźce fizyczne wzbudzał atomy, po czym analizował promieniowanie, które można było zobaczyć przy użyciu metod analizy spektralnej. Okazało się wówczas, że dany atom wykazuje charakterystyczne dla siebie promieniowanie, czyli linie widmowe układające się w zespoły (tzw. serie) o określonej długości fali (w świetle widzialnym będą to pasma o różnej barwie) charakteryzujące indywidualne atomy. Dla wodoru ( Rys. 2 ) wyróżnia się jedną serię w nadfiolecie (Lymana), jedną w świetle widzialnym (seria Balmera) i cztery serie z zakresu podczerwieni (Paschena, Bracketta, Pfunda i Humphreysa).", "Na widmie wodoru rozróżnienie poszczególnych serii nie budzi wątpliwości. Co więcej, można stwierdzić, iż nie jest ono ciągłym pasmem barw, a jest widmem dyskretnym, tj. przyjmuje tylko niektóre wartości długości fal. W celu wyjaśnienia tego zjawiska odniesiono się do hipotezy Plancka dotyczącej kwantów promieniowania, dzięki czemu powstał model atomu Bohra.", "Główne założenia modelu atomu Bohra:", "gdzie: \\( \\ce{h = 6,625 * 10^{-34} Js} \\) – stała Plancka \\( \\ce{\\nu} \\) – częstotliwość promieniowania", "Najistotniejsze w modelu atomu Bohra jest to, że moment pędu n-tego stanu jest wielkością skwantowaną, co można zapisać przy pomocy równania:", "gdzie: \\( \\ce{m} \\) – masa elektronu, \\( \\ce{v} \\) – prędkość elektronu na orbicie, \\( \\ce{r} \\) – promień orbity, \\( \\ce{n} \\) – główna liczna kwantowa \\( \\ce{h} \\) – stała Plancka", "Niewątpliwym sukcesem teorii Bohra było wyjaśnienie i ilościowa interpretacja widm atomu wodoru. Niestety nie można było go przenieść na atomy posiadające więcej niż dwa elektrony. Model atomu Bohra nie tłumaczy zarówno różnicy w intensywności prążków, jak i faktu ich rozdzielenia na wiele prążków w obecności pola magnetycznego – efekt Zeemana. Teoria ta nie pozwoliła także stworzyć teorii powstawania wiązań chemicznych. Wyjaśnienie tych problemów podała następna teoria mechaniki kwantowej."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 505, "subject": "Mechanika kwantowa", "paragraphs": ["Fundamentalna teoria traktująca na temat wszelkich zjawisk, jakie zachodzą w skali atomowej nazywana jest Mechaniką kwantową. Jest to jedna z dwóch teorii (obok teorii względności) najbardziej zgodnych z doświadczeniem teorii fizycznych. Pomimo, że współczesny model mechaniki kwantowej zdaje się zupełnie różnić od modelu Bohra, to idea pozostaje ta sama. Bohr jako pierwszy użył kwantyzacji do opisu struktury elektronowej atomu wodoru i dzięki temu był w stanie wyjaśnić spektra emisyjne wodoru i innych jednoelektronowych układów."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 506, "subject": "Falowy charakter cząstek", "paragraphs": ["Francuski fizyk Louis de Brogile wykazał, że ruch fotonów (oraz cząstek elementarnych ) w pewnych warunkach powinien być opisywany, jako ruch korpuskuły (cząstki o określonej masie), w innych zaś jako ruch fali podając zależność:", "Zależność ta przypisuje cząstce o masie \\( m \\), poruszającej się z prędkością \\( v \\) falę o długości \\( \\lambda \\).", "Jest to tak zwany dualizm korpuskularno-falowy, wskazujący na dualistyczną naturę cząstek elementarnych oraz fotonów. Swiatło - jako strumień fotonów i jednocześnie fala elektromagnetyczna również zachowuje dualistyczną naturę (korpuskularno-falową)."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 507, "subject": "Zasada Heisenberga", "paragraphs": ["Ponieważ fala jest zaburzeniem, które wędruje w przestrzeni, nie można ustalić jej pozycji (położenia). Można zatem oczekiwać, że równie trudno będzie określić dokładną pozycję cząstki wykazującej zachowanie falowe. Problem został opisany matematycznie przez niemieckiego fizyka Wernera Heisenberga, który podał relację odnoszącą się do położenia cząstki i jej pędu:", "A zatem, z fizycznej natury mikro świata, tj. jego dualistycznego (korpuskularno-falowego) charakteru wynika niemożność równoczesnego dokładnego określenia położenia i pędu cząstki lub energii i czasu (równanie poniżej):", "Powyższe nierówności noszą nazwę zasady nieoznaczoności Heisenberga (relacji Heisenberga).", "LEGENDA:", "\\( E \\) - energia \\( t \\) - czas \\( h \\) - stała Plancka \\( p_x \\) - moment pędu \\( x \\) - położenie cząstki"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 508, "subject": "Równanie Schrödingera", "paragraphs": ["Teoria Schrödingera zakłada, że ruch elektronu wokół jądra można opisać matematycznie, jako równanie, którego rozwiązanie nosi nazwę funkcji falowej lub orbitalu. Funkcja ta jest amplitudą prawdopodobieństwa w punkcie przestrzeni określonym współrzędnymi x, y, z:", "gdzie: \\( \\Psi \\) – funkcja falowa \\( m \\) – masa \\( h \\) – stała Plancka \\( E \\) – całkowita energia elektronu \\( V \\) – energia potencjalna elektronu", "W przypadku elektronu funkcja falowa będąca rozwiązaniem równania Schrödingera określa prawdopodobieństwo napotkania tej cząstki w określonym miejscu przestrzeni wokół jądra atomu."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 509, "subject": "Liczby kwantowe", "paragraphs": ["Rozwiązaniem równania Schrödingera są pewne funkcje własne, które można scharakteryzować przy pomocy zestawu trzech liczb kwantowych n, l, m. Jako konsekwencja warunku, by funkcje falowe spełniające równanie Schrödingera były funkcjami porządanymi (tj. prawdopodobieństwo napotkania elektronu powinno przyjmować wartości skończone, jednoznaczne oraz może się zmieniać w sposób ciągły) liczby kwantowe nie mogą być dowolne – muszą przyjmować pewne wartości, co dokładnie przedstawiono w tabeli poniżej:", "Zestaw trzech liczb kwantowych (głównej n, pobocznej l oraz magnetycznej m) nosi nazwę orbitalu. Poszczególne orbitale opisane są symbolami przedstawionymi w tabeli poniżej. Należy zauważyć, iż poboczną liczbę kwantową określa się przy pomocy następujących liter s dla l = 0 (ang. sharp), p dla l = 1 (ang. principle), d dla l = 2 (ang. diffuse) oraz f dla l = 3 (ang. fundamental). Wyrażenia te nawiązują do określeń stosowanych dla przedstawienia widm w analizie spektralnej."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 510, "subject": "Graficzny zapis orbitalu", "paragraphs": ["Orbital jako funkcja falowa opisuje fragment przestrzeni, w którym istnieje największe prawdopodobieństwo „znalezienia” elektronu. Istnieją różne orbitale atomowe (oznaczone jako s, p, d, f), którym można przypisać różne kształty i orientację w przestrzeni.", "natomiast pozostałe orbitale cechuje kierunkowy rozkład ładunku ( Rys. 2 i Rys. 3 ):", "Orbitale znajdują się na poszczególnych powłokach elektronowych. Na każdej z powłok można pomieścić pewną ilość elektronów, natomiast na każdym orbitalu mogą znajdować się maksymalnie dwa elektrony, przy czym – zgodnie z zakazem Pauliego – w atomie nie mogą znajdować się dwa elektrony o takim samym zestawie wszystkich czterech liczb kwantowych. Stąd, jeśli dwa elektrony obsadzają ten sam orbital (mają takie same wartości głównej \\( n \\), pobocznej \\( l \\) i magnetycznej \\( m \\) liczby kwantowej) muszą się różnić magnetyczną spinową liczbą kwantową \\( m_s \\). Magnetyczna spinowa liczba kwantowa może przyjąć tylko dwie wartości, tj. \\( +\\frac{1}{2} \\) lub \\( -\\frac{1}{2} \\).", "Prawdopodobieństwo zajęcia orbitalu \\( p_x \\), \\( p_y \\) lub \\( p_z \\) przez elektron jest takie samo, co wynika z faktu, iż każdy orbital ma jednakową względem siebie energię, są jedynie odmiennie zorientowane w przestrzeni. Takie orbitale nazywa się zdegenerowanymi, a orbital p jest trójkrotnie zdegenerowany (może pomieścić sześć elektronów). Analogicznie, orbital d jest pięciokrotnie zdegenerowany (dziesięć elektronów), zaś f – siedmiokrotnie (maksymalnie czternaście elektronów)."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 511, "subject": "Konfiguracje elektronowe pierwiastków", "paragraphs": ["Wraz ze wzrostem liczby atomowej (Z) (zob. Opis atomu pierwiastka ) wzrasta liczba elektronów pierwiastka w stanie podstawowym. Konfigurację elektronową takiego atomu przedstawia się przy pomocy opisu orbitali zajętych przez elektrony rozpoczynając od najniższych poziomów energetycznych. W tym celu stosuje się pewne reguły:", "1s → 2s → 2p → 3s → 3p → 4s → 3d → 4p → 5s → 4d → 5p → 6s → 4f → itd (zgodnie z Rys. 1 ):", "W atomie nie mogą istnieć dwa elektrony posiadające taki sam zestaw czterech liczb kwantowych: \\( n \\), \\( l \\), \\( m \\) i \\( m_s \\).", "Analizując kolejność zapełniania orbitali przez elektrony, nasuwa się pytanie: z czym związana jest przedstawiona powyżej kolejność zajmowania orbitali przez elektrony? Otóż ze wzrostem energii elektronów. Pomimo różnic w energii orbitali s, p oraz d obserwowany jest jej wzrost wraz ze wzrostem głównej liczby kwantowej \\( n \\). Zasada ta jednak zachowana jest tylko dla trzech pierwszych poziomów energetycznych. Na wyższych – energia elektronów zależy już nie tylko od głównej liczby kwantowej \\( n \\), ale i w istotny sposób od pobocznej liczby kwantowej \\( l \\). W związku z powyższym, niektóre z poziomów energetycznych d czy f o niższej głównej liczbie kwantowej będą charakteryzowały się wyższą energią od poziomów o wyższej głównej liczbie kwantowej. Co więcej, w przypadku jonów dodatnich (kationów), najpierw odrywane są elektrony znajdujące się na ostatniej zapełnionej powłoce (nie ostatniej zapisanej według kolejności energetycznej). Przykłady osadzania dla niektórych atomów i jonów przedstawiono poniżej:", "\\( \\begin{align*} \\ce{_7N}:&\\ \\ce{1s^2 2s^2 2p^3}\\\\ \\ce{_{11}Na}:&\\ \\ce{1s^2 2s^2 2p^6 3s^1}\\\\ \\ce{_{25}Mn}:&\\ \\ce{1s^2 2s^2 2p^6 3s^2 3p^6 4s^2 3d^5}\\\\ \\ce{_{26}Fe}:&\\ \\ce{1s^2 2s^2 2p^6 3s^2 3p^6 4s^2 3d^6}\\\\ \\ce{_{32}Ge}:&\\ \\ce{1s^2 2s^2 2p^6 3s^2 3p^6 4s^2 3d^{10} 4p^2} \\end{align*} \\)", "\\( \\begin{align*}\\ce{_{11}Na^+}:&\\ \\ce{1s^2 2s^2 2p^6} \\\\ \\ce{_{26}Fe^{2+}}:&\\ \\ce{1s^2 2s^2 2p^6 3s^2 3p^6 3d^6} \\end{align*} \\)", "Rozpatrzmy tzw. zapis klatkowy powyżej omówionych atomów:", "\\( \\ce{_7N} \\): \\( \\begin{matrix}[\\,\\uparrow\\downarrow] & [\\uparrow\\downarrow] & [\\uparrow\\enspace][\\uparrow\\enspace][\\uparrow\\enspace] \\\\ \\ce{1s & 2s & 2p} \\end{matrix} \\)", "\\( \\ce{_{11}Na} \\): \\( \\begin{matrix}[\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow] & [\\,\\uparrow\\enspace] \\\\ \\ce{1s & 2s & 2p & 3s} \\end{matrix} \\)", "\\( \\ce{_{25}Mn} \\): \\( \\begin{matrix}[\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\enspace][\\,\\uparrow\\enspace][\\,\\uparrow\\enspace][\\,\\uparrow\\enspace][\\,\\uparrow\\enspace] \\\\ \\ce{1s & 2s & 2p & 3s & 3p & 4s & 3d} \\end{matrix} \\)", "\\( \\ce{_{26}Fe} \\): \\( \\begin{matrix}[\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow][\\,\\uparrow\\enspace][\\,\\uparrow\\enspace][\\,\\uparrow\\enspace][\\,\\uparrow\\enspace] \\\\ \\ce{1s & 2s & 2p & 3s & 3p & 4s & 3d} \\end{matrix} \\)", "\\( \\ce{_{32}Ge} \\): \\( \\begin{matrix}[\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow] & [\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow][\\,\\uparrow\\downarrow] & [\\,\\uparrow\\enspace][\\,\\uparrow\\enspace][\\,\\uparrow\\enspace] \\\\ \\ce{1s & 2s & 2p & 3s & 3p & 4s & 3d & 4p} \\end{matrix} \\)", "Możliwy jest także tzw. skrócony zapis konfiguracji elektronowej, tj zapis, w którym przedstawia się rdzeń atomowy w postaci poprzedzającego dany atom gaz szlachetny oraz pozostałe elektrony:", "\\( \\ce{_{11}Na} \\): \\( \\ce{ [\\,Ne] 3s^1} \\) \\( \\ce{_{25}Mn} \\): \\( \\ce{ [\\,Ar] 4s^2 3d^5} \\) \\( \\ce{_{26}Fe} \\): \\( \\ce{[\\,Ar] 4s^2 3d^6} \\) \\( \\ce{_{32}Ge} \\): \\( \\ce{[\\,Ar] 4s^2 3d^{10} 4p^2} \\)", "W przypadku niektórych atomów, można zaobserwować wyjątki od „regularnego” zapełniania orbitali przez elektrony, jak np. w przypadku atomów chromu, miedzi. Różnica poziomów energetycznych 4s i 3d jest niewielka. Układ pięciu niesparowanych elektronów jest korzystniejszy energetycznie od układu czterech niesparowanych elektronów 3d i dwóch sparowanych 4s.", "\\( \\ce{_{24}Cr} \\):\t\t \\( \\ce{1s^2 2s^2 2p^6 3s^2 3p^6 3d^5 4s^1} \\) \\( \\ce{_{29}Cu} \\):\t\t \\( \\ce{1s^2 2s^2 2p^6 3s^2 3p^6 3d^{10} 4s^1} \\)", "Podobna sytuacja (promocja elektronowa) dotyczy także innych pierwiastków, np. srebra, czy palladu. W przypadku tego drugiego mówimy o podwójnej promocji. Konfiguracja elektronowa przedstawia się wówczas następująco:", "\\( \\ce{_{47}Ag} \\):\t\t \\( \\ce{1s^2 2s^2 2p^6 3s^2 3p^6 4s^2 3d^{10} 4p^6 5s^1 4d^{10}} \\) \\( \\ce{_{46}Pd} \\):\t\t \\( \\ce{1s^2 2s^2 2p^6 3s^2 3p^6 4s^2 3d^{10} 4p^6 4d^{10}} \\)"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 680, "subject": "Układ okresowy pierwiastków a konfiguracja elektronowa", "paragraphs": ["Rosyjski chemik Dmitrij Mendelejew w roku 1869 opublikował pierwszą formę układu okresowego. Układ ten porządkował wszystkie znane ówcześnie pierwiastki wykorzystując okresowo pojawiające się podobieństwo w ich właściwościach chemicznych i fizycznych. W tzw. tablicy Mendelejewa chemik pozostawiał puste miejsca, bowiem jego geniusz już wówczas przewidział istnienie innych pierwiastków, a także ich dokładnego położenia w układzie. Współczesny układ okresowy różni się od tego, zaproponowanego w XIX w. przez Menelejewa. Przedstawia on ułożone wraz z wrastającą liczbą atomową (Z) pierwiastki. Obok wzoru pierwiastka i jego liczby atomowej w układzie okresowym widnieje także jego masa (masa atomowa (A)), która podaje masę atomu w atomowych jednostkach masy u (ang. unit) Jednostka ta jest równa \\( 1,660 *10^{-24} g \\). Należy pamiętać, o czym wspomniano w podrozdziale Jądro atomowe, że liczba masowa pierwiastka nie jest równa masie atomowej.", "Pierwiastki te uporządkowane i przedstawione są w postaci 18 grup (kolumny pionowe) 7 okresów (wierszy) pierwiastków. Grupę stanowi zbiór pierwiastków o takiej samej (lub podobnej) konfiguracji elektronowej. Nazwę grupy tworzy się od jej pierwszego przedstawiciela (z wyjątkiem wodoru), przez co w układzie znajdujemy grupę litowców, berylowców, borowców itd. Liczba wskazująca na okres, w którym mieści się dany pierwiastek określa wartość głównej liczby kwantowej, natomiast przynależność pierwiastka do grupy określana jest liczbą elektronów na ostatniej powłoce (tzw. walencyjnej).", "Układ okresowy pierwiastków dzielimy na tzw. bloki energetyczne. Liczba grup pierwiastków mieszcząca się w obrębie danego bloku jest ściśle zależna od maksymalnej liczby elektronów, jaką może zmieścić dana podpowłoka. Rodzaj poziomów orbitalnych zapełnianych jako ostatnie przez atomy tego pierwiastka jest podstawowym kryterium jego przynależności do danego bloku.", "Elektrony walencyjne determinują wartościowość danego pierwiastka w związkach chemicznych. Przede wszystkim zależność tę obserwujemy dla pierwiastków grup głównych (blok s oraz p). Maksymalna wartościowość jest równa sumie elektronów na powłoce walencyjnej (elektronów s i p). W przypadku pierwiastków grup przejściowych (blok d) i wewnątrzprzejściowych (blok f) elektronami walencyjnymi mogą być elektrony rozmieszczone na podpowłokach elektrony ns i (n-1)d (dla bloku d), oraz ns, (n-1)d i (n-2)f – dla bloku f. Efektem bardzo zbliżonej konfiguracji elektronów walencyjnych pierwiastków ostatniego z omawianych bloków energetycznych (tzw. lantanowce i aktynowce), wykazują bardzo podobne właściwości chemiczne.", "Rozłożenie pierwiastków w układzie okresowym wykazuje pewne tendencje (trendy).", "Także wartość promienia atomowego ulega zmianie w ramach poruszania się po układzie okresowym. W danym okresie największy promień atomowy wykazują pierwiastki grupy litowców. Jego wartość generalnie maleje wraz ze wzrostem liczby atomowej w okresie. Ma to związek z coraz silniejszym przyciąganiem elektronów do rosnącego ładunku jądra atomowego. W grupach natomiast promień atomowy rośnie ze względu na to, że wzrasta liczba powłok elektronowych."], "definitions": [{"name": "Definicja 1: Energia jonizacji", "content": "Pierwsza energia jonizacji, to energia, jaką należy dostarczyć, aby usunąć elektron z obojętnego atomu z utworzeniem kationu (jonu dodatniego). Jej wartość ulega zmianie wraz z przemieszczaniem się w układzie okresowym i najniższe wartości prezentuje dla pierwiastków alkalicznych (grupa 1), których konfiguracja elektronowa powłoki walencyjnej przedstawia się jako \\( ns^1 \\), zaś najwyższe dla helowców ze względu na ich bardzo trwałe zamknięte powłoki elektronowe.\nWyższe wartości w stosunku do pierwszej energii jonizacji odpowiadają oderwaniu kolejnego elektronu (tzw. druga, trzecia energia jonizacji).\n\n \\( \\ce{Cu}_{(g)} \\rightarrow \\ce{Cu}^+_{(g)} + \\ce{e}^- \\hspace{1in} \\ce{E}_j^1=785\\frac{kJ}{mol} \\)\n\n \\( \\ce{Cu}^+_{(g)} \\rightarrow \\ce{Cu}^{+2}_{(g)} + \\ce{e}^- \\hspace{1in} \\ce{E}_j^2=1955\\frac{kJ}{mol} \\)"}, {"name": "Definicja 2: Powinowactwo elektronowe", "content": "Kolejną wielkością, której trend można wyznaczyć na podstawie analizy położenia pierwiastka w układzie okresowym jest powinowactwo elektronowe, czyli energia, jaka wydziela się w procesie przyłączenia do atomu (lub cząsteczki) w stanie gazowym elektronu z utworzeniem anionu (jonu ujemnego). W przypadku pierwszego powinowactwa elektronowego następuje wydzielenie energii, natomiast przyłączenie drugiego elektronu wymaga dostarczenia dodatkowej jej porcji ze względu na odpychanie cząstek jednoimiennych.\n\n \\( \\ce{O}_{(g)} + \\ce{e}^- \\rightarrow \\ce{O}^{-}_{(g)} \\hspace{1in} \\ce{E}_{pe}^1= -141\\frac{kJ}{mol} \\)\n\n \\( \\ce{O}^{-}_{(g)} + \\ce{e}^- \\rightarrow \\ce{O}^{-2}_{(g)} \\hspace{1in} \\ce{E}_{pe}^2= +844\\frac{kJ}{mol} \\)"}, {"name": "Definicja 3: Elektroujemność", "content": "Elektroujemność to indywidualna cecha każdego pierwiastka, która uwidacznia się dopiero w kontakcie z drugim pierwiastkiem i określa jego skłonność do przyciągania elektronów. Powinowactwo elektronowe, o którym wspominaliśmy, jest pośrednią miarą elektroujemności, bowiem wraz ze wzrostem powinowactwa elektronowego danego pierwiastka wzrasta również jego elektroujemność. Największą wartość (w skali Paulinga) prezentuje fluor (4,0) najniższą zaś frans (0,7)."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 513, "subject": "Dublet i oktet elektronowy", "paragraphs": ["Bierność chemiczna, jaką wykazują gazy szlachetne (helowce) wynika ze szczególnie trwałej konfiguracji elektronowej. Konfiguracja dwuelektronowa (dublet elektronowy \\( \\ce{1s^{2}} \\) w przypadku atomu helu) lub ośmioelektronowa (oktet elektronowy \\( \\ce{ns^{2}np^{6}} \\)) najbardziej zewnętrznej powłoki elektronowej (tzw. walencyjnej) skutkuje najniższym stanem energetycznym pośród wszystkich pierwiastków.", "Atomy pozostałych pierwiastków nie posiadają takiej konfiguracji i, co za tym idzie, łącząc się z atomami innych pierwiastków (tworząc struktury bardziej stabilne od wolnych atomów) przyjmują konfigurację elektronową analogiczną do konfiguracji gazów szlachetnych. Obserwacja ta stała się podstawą elektronowej teorii wiązań opracowanej przez G. Lewisa i W. Kossela."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 514, "subject": "Teoria wiązań G. Lewisa i W. Kossela", "paragraphs": ["Teoria wiązań Gilberta N. Lewisa i Walthera Kossela wprowadza pojęcie wiązania chemicznego, a uściślając wiązania kowalencyjnego i jonowego, jako głównych typów wiązań chemicznych powstających na drodze bądź to uwspólnienia (utworzenia wspólnych) par elektronowych dla dwóch atomów (wiązanie kowalencyjne), bądź to poprzez przekazanie elektronu/elektronów w kierunku od atomu bardziej „elektrododatniego” do bardziej „elektroujemnego” (wiązanie jonowe). Podążając tą ścieżką atomy mogą uzyskać stabilną konfigurację elektronową ( dubletową lub oktetową ).", "Aby wyjaśnić od czego zależy charakter wiązania, należy zapoznać się z kilkoma pojęciami. A zatem charakter wiązania w związku chemicznym będzie zależał od właściwości pierwiastków tworzących dany związek. Właściwości te charakteryzuje elektroujemność.", "Na przykład najbardziej elektroujemnym pierwiastkiem jest fluor ( grupa 17; okres 2 UOP ), który ma mały promień atomowy w stosunku do ilości posiadanych elektronów. Oznacza to, że elektrony są silnie przyciągane przez jądro. Konfiguracja elektronowa atomu fluoru to: \\( _9F: [He]\\ 2s^22p^5 \\). Widać, że atom fluoru posiada na swojej powłoce walencyjnej 7 elektronów, więc potrzeba tylko jednego elektronu do uzyskania konfiguracji gazu szlachetnego. Stąd, aby odłączyć elektrony od atomu fluoru, konieczne jest dodanie dużej ilości energii. Ta energia to tzw. energia jonizacji. Zatem, silnie elektroujemne pierwiastki to te, które mają wysoką energię jonizacji Ej.", "Z drugiej strony najniższą energię jonizacji posiadają pierwiastki najmniej elektroujemne takie jak frans Fr ( grupa 1; okres 7 UOP ). Konfiguracja elektronowa tego pierwiastka to \\( _{87}Fr: [Rn]\\ 7s^1 \\). Atom Fr posiada na powłoce walencyjnej tylko 1 elektron, w dodatku daleko od jądra (atom o dużym promieniu) więc łatwo jest go zjonizować.", "Wartości elektroujemności wszystkich pierwiastków zawarte są w tym układzie okresowym.", "Znając wartości elektroujemności poszczególnych pierwiastków wchodzących w skład danego związku chemicznego można scharakteryzować rodzaj wiązania chemicznego. Powyższy rysunek wskazuje, że jeżeli różnica wartości elektroujemności zawiera się w przedziale od 0 - 0,4 to wiązanie ma charakter kowalencyjny (atomowy). Wraz ze wzrostem różnicy elektroujemności pierwiastków, wiązanie pomiędzy nimi coraz bardziej nabiera charakteru jonowego. Przy różnicy około 1,7 mówimy o wiązaniu atomowym - spolaryzowanym. Gdy różnica jest większa od 1,7 to wówczas mówimy o wiązaniu jonowym."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 681, "subject": "Teoria wiązań chemicznych", "paragraphs": ["Atomy tworzą wiązania chemiczne, gdy przyciągające oddziaływania elektrostatyczne między nimi są silniejsze niż oddziaływania odpychające. Zatem, wiązanie chemiczne (związek chemiczny) powstaje na drodze odziaływań elektrostatycznych pomiędzy elektronami i jądrami łączących się ze sobą atomów. Utworzona cząsteczka charakteryzuje się niższą energią od energii łączących się atomów ( Rys. 1 ):", "Charakter wiązania chemicznego i jego właściwości są zależne od wielu czynników takich jak ładunek jąder atomowych, konfiguracja elektronowa, czy rozmiar łączących się atomów."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 515, "subject": "Typy wiązań chemicznych", "paragraphs": ["Kiedy dwa atomy wykazują taką samą bądź podobną tendencję do przekazywania (oddawania i przyjmowania) elektronów, to wówczas – według teorii Lewisa – w celu uzyskania konfiguracji najbliższego gazu szlachetnego następuje utworzenie jednej lub więcej wspólnych par elektronowych, które równocześnie wchodzą w skład obu łączących się ze sobą atomów. W takim przypadku mówimy o wiązaniu kowalencyjnym (homeopolarnym, atomowym).", "Przykładem cząsteczki, w której występuje wiązanie kowalencyjne może być \\( \\ce{Cl_2} \\). Aby wytworzyło się wiązanie atomowe różnica elektroujemności w skali Paulinga musi mieścić się w zakresie 0 – 0,4. W wiązaniu tego typu każdy z atomów budujących cząsteczkę dostarcza jednakowej liczby elektronów do „wspólnego użytku”. W przypadku chloru będzie to po jednym elektronie (kropki oznaczają elektrony walencyjne):", "Jeśli jedna para elektronów jest niewystarczająca (na przykład w przypadku tlenu lub azotu, gdzie atomy tych pierwiastków mają odpowiednio sześć i pięć elektronów walencyjnych), możliwe jest tworzenie wiązań wielokrotnych (podwójne dla tlenu, potrójne dla azotu):", "Należy zwrócić uwagę, że wiązania tego typu występują zwykle w przypadku pierwiastków niemetalicznych.", "Wiązanie atomowo-spolaryzowane powstaje, gdy wartość różnicy elektroujemności mieści się w przedziale od 0,4 do 1,7. Oznacza to, że para elektronów, która wiąże cząsteczkę, zostaje przesunięta w kierunku bardziej elektroujemnego atomu (atomu, który silniej przyciąga elektrony). Wówczas ten atom zyskuje częściowy ładunek ujemny. Natomiast atom, który słabo przyciąga elektrony, zyskuje częściowy ładunek dodatni. A zatem następuje przesunięcie ładunku, co powoduje polaryzację tak utworzonej cząsteczki zwanej wtedy dipolem. Dzieje się tak, np. w cząsteczce wody:", "O wiązaniu jonowym (heteropolarnym) mówimy, kiedy atomy dwóch łączących się ze sobą pierwiastków chemicznych zyskują konfiguracje elektronowe gazów szlachetnych w taki sposób, że atomy jednych pierwiastków tracą swoje elektrony na rzecz innych pierwiastków. Powstałe w ten sposób jony przyciągają się dzięki działaniu sił elektrostatycznych. Siły te mają charakter sferyczny (nie są ukierunkowane w przestrzeni), przez co związki chemiczne powstające z udziałem wiązania jonowego tworzą kryształy jonowe. Aby powstało wiązanie jonowe, różnica elektroujemności łączących się pierwiastków musi być większa niż 1,7 w skali Paulinga.", "Tworzenie wiązań jonowych ma miejsce, kiedy wiążą się pierwiastki o dużej różnicy w skali elektroujemności Paulinga. Przykładem cząsteczki, w którym mamy do czynienia z wiązaniem jonowym jest cząsteczka chlorku sodu (NaCl). Atom sodu posiada konfigurację elektronową \\( _{11}Na: 1s^2 2s^2 2p^6 3s^1 \\). Usunięcie jednego elektronu znajdującego się na ostatniej (walencyjnej) powłoce przeprowadza go w jon (kation) \\( \\ce{Na^+} \\) o konfiguracji elektronowej \\( _{11}Na^+: 1s^2 2s^2 2p^6 \\) – takiej samej, jak konfiguracja atomu neonu. Oddawane przez atomy sodu elektrony przyłączane są do atomu chloru o strukturze elektronowej \\( _{17}Cl: 1s^2 2s^2 2p^6 3s^2 3p^5 \\), które przechodząc w aniony chlorkowe zyskują konfigurację elektronową argonu: \\( _{17}Cl^-: 1s^2 2s^2 2p^6 3s^2 3p^6 \\).", "W sieci przestrzennej chlorku sodu jony ułożone są w taki sposób, że każdy kation sodowy otoczony jest sześcioma anionami chlorkowymi i odwrotnie, tj. każdy anion \\( \\ce{Cl^-} \\) otacza sześć kationów \\( \\ce{Na^+} \\).", "Wiązanie donorowo-akceptorowe (koordynacyjne, semipolarne) to odmiana wiązania atomowego, w którym wiążącą parę elektronów dostarcza jeden z atomów. Kiedy mamy do czynienia z takim wiązaniem? Zdarzenie takie może mieć miejsce, kiedy dochodzi do nałożenia obsadzonego już dwoma elektronami orbitalu jednego pierwiastka z nieobsadzonym (pustym) orbitalem drugiego (niemetalu lub metalu grup tzw. „przejściowych”). Powstające na drodze „obsadzenia” wolnego orbitalu przez parę elektronową wiązanie jest wiązaniem słabszym od typowego wiązania kowalencyjnego. Rozpatrzmy opisaną sytuację na przykładach:", "Wiązanie metaliczne, to specyficzny rodzaj wiązań chemicznych. Większość metali posiada poza orbitalami s i p, również orbitale d. Orbitale p i d mogą nakładać się częściowo na siebie w skutek czego, w kryształach metali powstają pasma „luźno” związanych elektronów. Elektrony te mogą się łatwo przemieszczać pod wpływem przyłożonego napięcia elektrycznego. „Swobodnym” elektronom metale zawdzięczają dobre przewodnictwo elektryczne. Skutkiem ubocznym delokalizacji elektronów w metalach jest także obecność trójwymiarowej sieci silnych wiązań, co warunkuje szereg cech charakterystycznych, jak dobre przewodnictwo cieplne, kowalność, wysokie temperatury topnienia i inne."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 512, "subject": "Wiązania chemiczne w świetle mechaniki kwantowej", "paragraphs": ["Mechanika kwantowa podział wiązań, jaki przedstawiony został w podrozdziale Typy wiązań chemicznych przedstawia, jako umowne granice, bowiem w jej świetle oddziaływania między elektronami i jądrami w cząsteczce, tj. wytworzenie wiązania chemicznego przedstawia jako deformację powłoki elektronowej atomów, zmianę gęstości elektronowej w pobliżu jąder atomowych, a przez to wyróżnienie uprzywilejowanych kierunków w przestrzeni. Funkcje falowe będące rozwiązaniem równania Schrödingera prezentują ten efekt dla elektronów poruszających się w polu jąder atomowych tworzących cząsteczkę. Metoda orbitali molekularnych jest jedną metod stosowanych w celu rozwiązywania wspomnianego równania."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 516, "subject": "Teoria orbitali molekularnych", "paragraphs": ["Teoria wiązań G. Lewisa i W. Kossela była teorią jakościową; nie opierała się o żadne postulaty (zasady). Dopiero sformułowanie postulatów mechaniki kwantowej pozwoliło na sprecyzowanie pojęcia wiązania chemicznego. Teoria orbitali molekularnych (cząsteczkowych) zakłada, że zachowanie elektronów w cząsteczce opisane jest poprzez orbitale molekularne (cząsteczkowe).", "Orbitale te odnoszą się do układów zawierających więcej niż jedno jądro (orbital wielocentrowy). Jest to bardzo podobna sytuacja, z jaką spotykamy się w przypadku atomu, gdzie zachowanie elektronów opisywane jest przez orbitale atomowe, które opisują zachowanie elektronów w polu pojedynczego atomu (orbital jednocentrowy).", "Rozpatrzmy przykład cząsteczki AB - zawierającej dwa jądra atomowe: A oraz B. Należy zauważyć, że orbital cząsteczkowy \\( \\Psi_{AB} \\) powstaje w wyniku nakładania się orbitali atomowych atomów tworzących wiązanie, dzięki czemu funkcje falowe elektronu w cząsteczce można traktować jako liniową kombinację funkcji falowych opisujących orbitale atomowe:", "W powyższych równaniach wartości współczynników \\( C_A \\) i \\( C_B \\) dobrane są tak, by energia danego orbitalu była jak najmniejsza. Na podstawie analizy rozważań mechaniki kwantowej, można wysnuć wniosek, że zachowanie elektronów w cząsteczce AB mogą opisać dwa różne orbitale molekularne (dwie różne funkcje falowe), przy czym, zgodnie z obliczeniami, orbitalowi \\( \\Psi^+_{AB} \\)odpowiada energia niższa niż orbitalom \\( \\Psi_A \\) i \\( \\Psi_B \\), zaś \\( \\Psi^-_{AB} \\) - wyższa. Orbital \\( \\Psi^+_{AB} \\) nazywany jest orbitalem wiążącym, co wynika faktu, iż przejście elektronów z orbitali atomowych \\( \\Psi_A \\) i \\( \\Psi_B \\) na cząsteczkowy \\( \\Psi^+_{AB} \\) prowadzi do układu o większej trwałości (niższej energii). Analogicznie do powyższych rozważań, orbital \\( \\Psi^-_{AB} \\) nazywany jest orbitalem antywiążącym (o niższej trwałości), bowiem jest układem bogatszym energetycznie od dwóch atomów A i B. Trwałość wiązania chemicznego zależy od ilości elektronów na obu typach orbitali. Jeżeli na orbitalach wiążących ilość elektronów jest większa od ilości na orbitalach antywiążących, wówczas wiązanie jest trwałe. Kiedy utworzenie wiązania następuje poprzez nałożenie dwóch orbitali atomowych s ( Rys. 1a), orbitalu s z orbitalem p ( Rys. 1b) lub dwóch współliniowych orbitali p, np. \\( p_y - p_y \\) ( Rys. 1c) powstaje wiążący i antywiążący orbital cząsteczkowy \\( \\sigma \\). Orbitale cząsteczkowe \\( \\sigma \\) nie wykazują płaszczyzny węzłowej, na której leży oś cząsteczki. Zgodnie z powszechnie przyjętą symboliką orbital wiążący stanowiący kombinacje liniową orbitali 1s oznacza się symbolem \\( \\sigma \\)1s, zaś antywiążący \\( \\sigma \\)*1s. Orbitale wykazujące płaszczyznę węzłową, na której leżałaby oś cząsteczki łącząca obydwa jądra nazywamy orbitalami cząsteczkowymi typu \\( \\pi \\). Orbital wiążący i antywiążący stanowiący kombinację liniową orbitali \\( 2p_z \\) oznaczamy kolejno symbolami \\( \\pi 2p_z \\) i \\( \\pi* 2p_z \\) ( Rys. 1d).", "Jak wspomniano powyżej, energia elektronu, którego stan opisuje orbital wiążący jest niższa w porównaniu z energią odpowiadającą wyjściowym orbitalom atomowym, zaś orbital antywiążący wykazuje wyższą.", "Kolejność zapełniania orbitali molekularnych można uszeregować według wzrastającej energii:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 517, "subject": "Teoria wiązań walencyjnych", "paragraphs": ["Teoria wiązań walencyjnych to druga – obok teorii orbitali molekularnych – koncepcja w chemii kwantowej pozwalająca na rozwiązanie zagadnień związanych z energią i strukturą cząsteczki. Opisuje ona wiązanie chemiczne jako efekt nałożenia się na siebie dwóch orbitali atomowych zawierających niesparowane elektrony o spinach przeciwnych (każdy orbital pochodzi od innego atomu). Sparowane elektrony pochodzące z nakładających się na siebie orbitali są przyciągane do jąder obu atomów. Rozważmy przykład powstawania wiązania chemicznego w cząsteczce wodoru. Dwa atomy wodoru, początkowo w nieskończonej odległości od siebie (brak oddziaływań), zbliżają się, przez co zaczynają działać między nimi coraz większe siły, przez co w sposób ciągły dokonują się zmiany w stanie atomów – od atomów izolowanych, przez stan pobudzony wciąż odrębnych atomów, aż do momentu, w którym, przy pewnej odległości, nastąpi w układzie skokowa, jakościowa zmiana chemiczna, w wyniku której powstaje cząsteczka wodoru ( Rys. 1 ).", "Odseparowane do tej pory orbitale s \\( [\\uparrow\\enspace] \\) oraz \\( [\\enspace \\downarrow] \\) łączą się tworząc \"strefę\" \\( [\\uparrow\\downarrow] \\) o wiekszej gęstości elektronowej niż miało to miejsce przed utworzeniem wiązania. Co istotne, cząsteczka wodoru – nowopowstałe indywiduum chemiczne, to struktura składająca się z dwóch jąder i dwóch elektronów, a nie z dwóch atomów wodoru, z których powstaje. Siła wiązania kowalencyjnego (atomowego) zależy od stopnia nałożenia się orbitali i jest tym większa, im bardziej orbitale zachodzą na siebie."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 1. Budowa materii", "subject_id": 677, "subject": "Hybrydyzacja orbitali atomowych", "paragraphs": ["Jeszcze jedno, istotne, założenie kwantowej teorii wiązań tłumaczy tworzenie wiązań chemicznych przy udziale elektronów w stanie wzbudzonym. Teoria ta pozwala zrozumieć istotę wiązań w cząsteczkach wieloatomowych. Rozpatrzmy przykład cząsteczek fluorku berylu \\( (\\ce{BeF_2}) \\), fluorku boru \\( (\\ce{BF_3}) \\) i metanu \\( (\\ce{CH_4}) \\). Konfiguracja elektronowa atomów berylu \\( (\\ce{_4Be}: 1s^22s^2) \\), boru \\( (\\ce{_5B}: 1s^22s^22p^1) \\) i węgla ( \\( \\ce{_6C}: 1s^22s^22p^2 \\)) w stanie podstawowym sugeruje, że beryl nie jest zdolny do tworzenia wiązań chemicznych (nie posiada niesparowanych elektronów), bor może utworzyć tylko jedno wiązanie (posiada jeden niesparowany elektron), natomiast atom węgla dwa (dwa niesparowane elektrony). Z drugiej strony zaś wiemy, że w cząsteczce \\( \\ce{BeF_2} \\) występują dwa, w \\( \\ce{BF_3} \\) aż trzy, natomiast w metanie cztery równocenne wiązania. Zwróćmy uwagę na fakt, że oba opisywane atomy: berylu, boru i węgla mają pusty (w przypadku atomu Be) lub niecałkowicie zapełniony orbital 2p (orbital ten jest trójkrotnie zdegenerowany). Istnieje więc możliwość jego uzupełnienia na drodze dostarczenia odpowiedniej energii, która pozwoli na przeniesienie elektronu (wzbudzenie) na wyższy poziom energetyczny (promocja elektronowa). Powstający stan nazywamy stanem wzbudzonym. Wspomniana teoria tłumaczy nam dwuwartościowość atomu berylu \\( (\\ce{_4Be^*}: 1s^22s^12p^1 \\) – dwa niesparowane elektrony w stanie wzbudzonym) trójwartościowość atomu boru \\( \\ce{_5B^*}: 1s^22s^12p^2 \\) – trzy niesparowane elektrony w stanie wzbudzonym) i czterowartościowość atomu węgla \\( \\ce{_6C^*}: 1s^22s^12p^3 \\)), natomiast nie tłumaczy równocenności tych wiązań.", "Okazuje się, że gdy w zasięgu oddziaływań elektronów walencyjnych atomu niewzbudzonego (w naszym przypadku boru lub węgla) pojawią się atomy zdolne do utworzenia wiązania z atomem \\( \\ce{Be, B} \\) lub \\( \\ce{C} \\) orbitale s i p tych atomów ulegają całkowitemu lub częściowemu wymieszaniu. Z fizycznego punktu widzenia hybrydyzacja to kombinacja liniowa orbitali atomowych określonego atomu, a nowopowstałe funkcje, opisują zupełnie inne orbitale atomowe, które nazywamy orbitalami zhybrydyzowanymi (łac. hybrida – mieszaniec). Suma orbitali przed i po hybrydyzacji nie ulega zmianie. Elektrony obsadzające orbitale zhybrydyzowane mają identyczną energię, zaś orbitale te mają taki sam kształt. I tak w przypadku atomu berylu wchodzącego w skład \\( (\\ce{BeF_2}) \\) wymieszaniu ulegają po jednym orbitalu s i p w wyniku czego powstają dwa równocenne orbitale sp (kąt pomiędzy orbitalami wynosi 180°), atomu boru wchodzącego w skład cząsteczki \\( (\\ce{BeF_3}) \\) wymieszaniu ulega orbital s z dwoma orbitalami p w wyniku czego powstają trzy równocenne orbitale zhybrydyzowane ( \\( sp^2 \\)) (kąt pomiędzy orbitalami wynosi 120°), natomiast po hybrydyzacji atomu węgla (wchodzącego w skład cząsteczki metanu) wymieszany zostaje orbital s z trzema orbitalami p dając cztery równocenne hybrydy ( \\( sp^3 \\)) (kąt pomiędzy orbitalami wynosi 109,28°) Hybrydyzacja, pozwala więc na zrozumienie tetraedrycznego kształtu cząsteczki \\( (\\ce{CH_4}) \\), trygonalnego \\( (\\ce{BF_3}) \\) i liniowego \\( (\\ce{BeF_2}) \\).", "W przypadku hybrydyzacji ( \\( sp^3 \\)) niektóre nie obsadzone atomami wodoru naroża tetraedru (jak to ma miejsce w cząsteczce metanu) zajmują wolne pary elektronowe. Obecność wolnych par elektronowych zaburza nieco symetrię cząsteczki wskutek odpychania się elektronów, co powoduje, że w amoniaku (jedna wolna para elektronowa) kąt między wiązaniami \\( \\ce{H-N-H} \\) wynosi 107,3°, zaś w cząsteczce wody (dwie wolne pary elektronowe) kąt wiązania \\( \\ce{H-O-H} \\) jest równy 104,5°. Schemat struktur tetraedrycznych dla przedstawionych przykładów ilustruje rysunek poniżej. Obecność wolnych par elektronowych wpływa w istotny sposób na właściwości związków chemicznych, bowiem niezrównoważona struktura elektronowa cząsteczki powoduje powstanie momentu dipolowego.", "Poprzez analogię do opisanych powyżej przykładów, pierwiastki grup głównych począwszy od trzeciego okresu do hybrydyzacji wykorzystują wolne orbitale do tej samej głównej liczbie kwantowej co orbitale s oraz p na skutek czego otrzymywane są warunki zdolne do wymieszania więcej niż czterech par elektronowych. Efekt takiej hybrydyzacji przedstawia tabela poniżej."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 636, "subject": "Stany skupienia materii", "paragraphs": ["Różnice między trzema stanami skupienia uwarunkowane są przez odległości między cząsteczkami i wzajemne ich oddziaływanie. Przy dużych odległościach (małe gęstości ciał) siły oddziaływania między cząsteczkami nie są dostatecznie duże, aby pozbawić te cząsteczki samodzielnego ruchu postępowego. Umożliwia to istnienie stanu gazowego, w którym objętość ciała może przybierać dowolne rozmiary.", "Przy zwiększeniu gęstości siły przyciągania wzrastają do tego stopnia, że cząsteczki tracą zdolność przesuwania się niezależnie jedna od drugiej i nie mogą się jedna od drugiej zbytnio oddalać. Ciało łatwo zmienia swoją postać, lecz silnie przeciwstawia się zmianom objętości. Odpowiada to stanowi ciekłemu.", "Przy bardzo małych odległościach między cząsteczkami bardzo wzrastają siły odpychania, uzyskując wartości zbliżone do wartości sił przyciągania. W wyniku działania tych obu rodzajów sił cząsteczki w dostatecznie niskiej temperaturze zajmują stałe położenia jedna względem drugiej, tworząc sieć krystaliczną charakterystyczną dla ciała stałego.", "Moduł opracowano na podstawie [1], [2]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 637, "subject": "Siły międzycząsteczkowe", "paragraphs": ["Siły międzycząsteczkowe, których działaniu przypisujemy odstępstwa gazów rzeczywistych od praw gazów doskonałych, są siłami słabymi w porównaniu z siłami powodującymi wytworzenie wiązań chemicznych wewnątrz cząsteczki. Energia oddziaływań międzycząsteczkowych jest rzędu \\( 1-10 \\ kcal/mol \\), podczas gdy np. energia wiązań kowalencyjnych sięga \\( 100 \\ kcal/mol \\). Występowanie oddziaływań międzycząsteczkowych jest jednak bardzo powszechne, odgrywają one dominującą rolę w procesie skraplania większości gazów. Cechą charakterystyczna tych sił jest ich bardzo szybki zanik następujący w miarę jak rośnie odległość pomiędzy oddziałującymi na siebie cząsteczkami. Kiedy po raz pierwszy Van der Waals zajął się siłami międzycząsteczkowymi, natura ich była całkowicie nieznana. Według obecnych poglądów rozpatrując zagadnienie sił międzycząsteczkowych należy uwzględnić co najmniej trzy różne rodzaje oddziaływań.", "Po pierwsze, w przypadku gdy mamy do czynienia z substancjami polarnymi, wchodzi w grę wzajemne przyciąganie się różnoimiennych biegunów dipoli sąsiadujących ze sobą cząsteczek. Działania te będą oczywiście zmierzać do ustawienia cząsteczek w stosunku do siebie w określony sposób. Tego rodzaju orientację dipoli przedstawia schematycznie Rys.1a. Energię opisanych oddziaływań (energię uwalnianą wskutek wzajemnego przyciągania się dipoli) nazywamy energią orientacji.", "Drugi możliwy rodzaj oddziaływania międzycząsteczkowego to oddziaływanie pomiędzy cząsteczką obdarzoną trwałym momentem dipolowym a cząsteczką czy atomem, który nie wykazuje trwałego momentu dipolowego. Obecność dipola trwałego w bliskim sąsiedztwie cząsteczki niepolarnej lub chwilowe fluktuacje chmury elektronowej w cząsteczce niepolarnej mogą skutkować przesunięciem ładunków elektrycznych wewnątrz cząsteczki i w efekcie powstaniem momentu dipolowego wzbudzonego (indukowanego). Energię oddziaływania pomiędzy dipolem trwałym a dipolem indukowanym nazywamy energią indukcji. Schemat takich oddziaływań przedstawiono na Rys. 1b.", "Trzeci rodzaj oddziaływań nosi nazwę sił dyspersyjnych. Oddziaływania dyspersyjne pojawiają się zawsze, niezależnie od tego czy cząsteczki o trwałych momentach dipolowych są obecne czy też nie. W bardzo dużym uproszczeniu powstanie efektu dyspersyjnego możemy przedstawić następująco. Jeżeli rozpatrujemy jakiś atom, np. atom helu, to przeciętnie rzecz biorąc chmura elektronowa zachowuje w nim symetrię kulistą, Można jednak oczekiwać, że gdyby się udało w jakiejś chwili zatrzymać obydwa elektrony, rozkład ładunku w przestrzeni nie zawsze okazałby się symetryczny w stosunku do jądra. W takim przypadku atom helu wykazywałby moment dipolowy.", "Oczywiście moment taki ma charakter momentu chwilowego. Teoria sił dyspersyjnych przyjmuje jednak, że tego rodzaju chwilowe momenty mogą indukować podobne momenty w sąsiednich atomach. Źródłem sił dyspersyjnych jest właśnie przyciąganie pomiędzy takimi chwilowymi dipolami. Energię oddziaływań pomiędzy dipolami chwilowymi, czyli energię dyspersji, można obliczyć metodami mechaniki kwantowej.", "W Tabela 1 zebrano dla kilku substancji wyniki obliczeń energii orientacyjnej, energii indukcyjnej oraz energii dyspersyjnej.", "Zarówno energia orientacyjna, jak i indukcyjna, wzrastają dość wyraźnie ze wzrostem momentu dipolowego, Obydwie przyjmują znikome wartości w przypadku cząsteczki \\( \\ce{CO} \\), wykazującej bardzo mały moment dipolowy. Poza przypadkiem amoniaku, o całości oddziaływań międzycząsteczkowych decyduje jednak energia dyspersyjna.", "Moduł został opracowany na podstawie [1] oraz [2]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 638, "subject": "Wiązanie wodorowe", "paragraphs": ["W przypadku substancji, w których obecne są atomy wodoru związane z silnie elektroujemnymi atomami takich pierwiastków jak fluor, tlen lub azot, może się wytworzyć pomiędzy cząsteczkami specyficzne wiązanie, zwane wiązaniem wodorowym. Obecność takich wiązań powoduje np. częściową asocjację (łączenie się) cząsteczek w ciekłym fluorowodorze i wodzie. Można to przedstawić następującym schematem:", "Atom wodoru zajmuje zatem pozycję pomiędzy dwoma elektroujemnymi atomami należącymi do dwóch różnych cząsteczek. Oddziaływanie pomiędzy tymi cząsteczkami, powodujące powstanie wiązania wodorowego, polega głównie na elektrostatystycznym przyciąganiu się dipoli, których dodatnim biegunem jest atom wodoru, a ujemnym związany z nim atom fluoru, tlenu czy azotu. Oddziaływanie pomiędzy dipolami jest w tym przypadku szczególnie mocne ze względu na małe rozmiary atomu wodoru, co powoduje, że wokół bieguna dodatniego dipolowej cząsteczki wytwarza się silne pole elektryczne. Energia wiązań wodorowych przyjmująca wartość od \\( 2 \\ kcal/mol \\) do \\( 10 \\ kcal/mol \\) jest na ogół większa od energii zwykłych oddziaływań międzycząsteczkowych (siły Van der Waalsa). Jest ona jednak zarazem znacznie mniejsza niż energia wiązań kowalencyjnych lub jonowych. Wiązania wodorowe wytwarzają się zarówno pomiędzy cząsteczkami nieorganicznymi, jak i organicznymi oraz odgrywają dużą rolę w układach biologicznych.", "Moduł opracowano na podstawie [1]."], "definitions": [{"name": "Definicja 1: Wiązanie wodorowe", "content": "Wiązanie wodorowe jest to słabe oddziaływanie typu elektrostatycznego między hydronem (jądrem wodoru), związanym kowalencyjnie z atomem o dużej elektroujemności, i wolną parą elektronową atomu silnie elektroujemnego, m.in.: tlenu, chloru, fluoru, azotu."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 639, "subject": "Stan gazowy", "paragraphs": ["Gazy nie wykazują własnego kształtu ani objętości, nie mają swobodnej powierzchni, w związku z tym wypełniają zawsze w sposób jednolity naczynie, w którym się znajdują. W stanie gazowym energia kinetyczna cząsteczek znacznie przewyższa siły ich wzajemnego oddziaływania. Cząsteczki lub atomy substancji w stanie gazowym są tak znacznie oddalone od siebie, że siły wzajemnego oddziaływania w pierwszym przybliżeniu można zaniedbać. Stan gazowy odznacza się więc wieloma specyficznymi cechami wynikającymi z dużej swobody poruszających się cząsteczek. W celu wyjaśnienia, jednakowego (w przybliżeniu) zachowania się wszystkich gazów, teoria kinetyczna Maxwella i Boltzmana posłużyła się pojęciem gazu doskonałego. Jest to wyidealizowany stan materii spełniający kilka warunków:", "Jest oczywiste, że żaden z gazów rzeczywistych nie spełnia w sposób absolutny wszystkich tych warunków. Niemniej, w dostatecznie wysokich temperaturach i przy niskich ciśnieniach (w stanie mocnego rozrzedzenia) właściwości gazów rzeczywistych są bardzo bliskie takiego wyidealizowanego modelu. Stan gazu, jak każdy stan materii, określają wartości trzech parametrów: temperatury, objętości i ciśnienia. Jednym z zadań teorii kinetycznej gazów jest znalezienie współzależności między tymi parametrami, czyli znalezienie równania stanu dla gazu doskonałego i rozszerzenie ważności tego równania na układy rzeczywiste przez wprowadzenie odpowiednich poprawek.", "Moduł został opracowany na podsatwie [1], [2] oraz [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 640, "subject": "Parametry stanu gazowego", "paragraphs": ["Stan fizyczny pewnej porcji gazu określają parametry stanu gazu, którymi są: ciśnienie - \\( p \\ [Pa] \\), temperatura - \\( T \\ [K] \\) oraz objętość - \\( V \\ [m^3] \\).", "Objętość ( \\( V \\))", "Objętość dowolnej substancji jest to przestrzeń zajęta przez tę substancję. Jeżeli substancją jest gaz, to jego objętość jest taka sama jak objętość zbiornika, w którym się znajduje. Zgodnie z obowiązującym układem SI objętość jest wyrażona w \\( m^3 \\), \\( 1 \\ cm^3 = 10^{-6} \\ m^3 \\), (jest to objętość sześcianu o boku \\( 1 \\ cm \\)). Dawniej stosowana jednostka objętości, \\( 1 \\ litr \\), odpowiada \\( 1 \\ dm^3 \\) – objętości sześcianu o krawędzi \\( 1 \\ dm \\). \\( 1 \\ litr = 1 \\ dm^3 = 1000 \\ cm^3 = 10^{-3} \\ m^3 \\) \\( 1 \\ ml = 1 \\ cm^3 \\)", "Temperatura ( \\( T \\))", "Temperatura określa kierunek przepływu ciepła (ciepło, jak wiadomo, płynie zawsze z obszaru o wyższej temperaturze do obszaru o temperaturze niższej). Międzynarodową skalą, do pomiaru temperatur, jest skala bezwzględna zaczynająca się od zera bezwzględnego. Zero bezwzględne jest najniższą granicą temperatury i uzyskanie niższych temperatur od zera bezwzględnego jest nieosiągalne ( zero bezwzględne \\( 0 K = -273,15^oC \\)). Skala ta nazywana jest skalą Kelvina (od nazwiska uczonego Kelvina).", "Na Rys. 1 porównano skalę Kelvina ze skalą Celsjusza.", "Normalna temperatura krzepnięcia wody (temperatura, w której woda zamarza pod normalnym ciśnieniem \\( 101325 \\ Pa \\) tj. \\( 1 \\ atm. \\)), w skali Celsjusza oznaczana jest przez \\( 0^oC \\), w skali Kelvina \\( 273,15 \\ K \\). Temperaturę w skali Celsjusza przelicza się na temperaturę w skali Kelvina dodając \\( 273,15 \\):", "\\( K = \\ ^oC + 273,15 \\)", "Ciśnienie ( \\( p \\))", "Ciśnienie z kolei określa kierunek przepływu masy. Substancje starają się przesuwać z miejsca, w którym znajdują się pod wyższym ciśnieniem, do miejsca o niższym ciśnieniu. Ilościowo ciśnienie definiuje się jako siłę wywieraną prostopadle na jednostkę powierzchni. Podstawową jednostką ciśnienia, w układzie SI, jest \\( \\frac{N}{m^2} \\), dla której przyjęto nazwę Pascal \\( [Pa] \\). (Niuton jest to siła nadająca masie jednego kilograma przyspieszenie \\( \\frac{m}{s} \\) w ciągu \\( 1 \\ s \\), \\( [\\frac{m}{s^2}] \\))", "Do niedawna powszechnie stosowaną jednostką ciśnienia był \\( bar \\), który równał się \\( 106 \\frac{dyn}{cm^2} \\) i jest zbliżony do \\( 1 \\ atm. \\)", "\\( 1 \\ atm. = 101325 \\ Pa \\)", "W cieczach i gazach ciśnienie w danym punkcie jest jednakowe we wszystkich kierunkach. Ziemia otoczona jest warstwą powietrza o grubości ok. \\( \\ 800 \\ km \\). W wyniku tego żyjemy na dnie atmosfery, która wywiera ciśnienie atmosferyczne.", "Moduł został opracowany na podstawie [1] oraz [2]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 641, "subject": "Gaz doskonały", "paragraphs": ["W praktyce zawsze obserwuje się odchylenia od stanu doskonałego, które są tym większe, im większa jest gęstość gazu, tj. im cząsteczki znajdują się jedna bliżej drugiej i im silniej wzajemnie na siebie oddziałują ( gazy rzeczywiste ). Stan fizyczny danej ilości jakiegoś gazu charakteryzują trzy wielkości: temperatura \\( T \\), prężność (ciśnienie) \\( V \\) i objętość \\( p \\). Wielkości te związane są zależnością \\( f \\) ( \\( p,V, T \\)) = 0, którą nazywamy równaniem stanu gazu. Równanie stanu gazu doskonałego wynika z trzech praw: Prawo Boyle'a-Mariotte'a, Prawo Gay-Lussaca i Prawo Avogadra.", "Moduł został opracowany na podstawie [1] oraz [2]."], "definitions": [{"name": "Definicja 1: Gaz doskonały", "content": "Gaz doskonały nazywany także gazem idealnym to abstrakcyjny model gazu stosowany do opisu jego podstawowych właściwości. \nDo podstawowych założeń modelu gazu doskonałego należą następujące postulaty:\n1. objętość cząsteczek gazu jest zaniedbywalnie mała w porównaniu z objętością naczynia, w którym się znajdują – cząsteczki gazu traktowane są jako punkty materialne, czyli obiekty obdarzone masą, posiadające nieskończenie małe rozmiary,\n2. cząsteczki gazu znajdują się w ciągłym, chaotycznym ruchu,\n3. cząsteczki gazu ulegają wybitnie sprężystym zderzeniom (całkowita energia cząsteczek nie ulega zmianie podczas zderzeń), \n4. brak wyróżnionego kierunku ruchu w przestrzeni zderzających się cząsteczek gazu,\n5. brak międzycząsteczkowego oddziaływania pomiędzy cząsteczkami gazu.\n\n"}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 642, "subject": "Prawo Avogadra", "paragraphs": ["Jednym z zasadniczych praw w teorii gazów jest Prawo Avogadra (1811):", "Zatem jednakowa liczba moli różnych gazów w tych samych warunkach ciśnienia i temperatury powinna zajmować jednakową objętość. Objętość jednego mola gazu doskonałego tzw. objętość molowa, w warunkach normalnych ( \\( 0^o C \\) i ciśnienie atm. \\( = 1013 hPa) \\) wynosi:", "Liczba cząstek (cząsteczek, atomów, itp.) zawartych w \\( 1 \\ molu \\) wyznaczona różnymi metodami nosi nazwę liczby Avogadra i wynosi:", "Prawo Avogadra spełniają ściśle tylko gazy doskonałe. Znajomość prawa Avogadra pozwala objętość gazu zastąpić ilością moli i odwrotnie.", "Moduł został opracowany na podstawie [1], [2], [3] oraz [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 643, "subject": "Prawo Boyle'a-Mariotte'a", "paragraphs": ["Jednym z pierwszych praw odkrytych dla gazów o własnościach bliskich gazom doskonałym jest Prawo Boyle’a - Mariotte’a (1662):", "jeżeli, \\( T=const, V_{1}, V_{2} \\) - są objętościami tej samej masy gazu pod odpowiednimi ciśnieniami \\( p_{1},p_{2} \\) to:", "czyli:", "lub:", "innymi słowy: Iloczyn ciśnienia i objętości gazu, jest wielkością stałą, w stałej temperaturze. Zależności te można przedstawić na wykresie odkładając na osi odciętych objętość gazu \\( V \\), a na osi rzędnych odpowiadające jej ciśnienie. Otrzymana krzywa zwana jest izotermą gazu. Na Rys. 1 przedstawiono izotermy dla dwóch różnych temperatur: \\( T_{1} \\) ( Rys. 1b).", "Strukturę o sieci RSC można również przedstawić jako pakiet ułożony z równoległych do siebie warstw atomowych, gdzie każda warstwa odpowiada płaszczyźnie sieciowej \\( \\{111\\} \\). Zwarte ułożenie atomów w jednej warstwie oznacza, że każdy atom styka się z sześcioma atomami sąsiednimi. Zwarty przestrzenny układ atomów powstaje, gdy atomy kolejnej warstwy leżą w zagłębieniach warstwy poprzedniej ( Rys. 2 ).", "Środki atomów w strukturze o sieci RSC w trzech kolejnych warstwach A, B i C ( Rys. 1c) nie są położone nad sobą i dopiero czwarta warstwa znajduje się dokładnie nad wyjściową warstwą A. Występuje zatem sekwencja warstw: ABCABCA…. Przy takim układzie wokół każdego atomu jest skoordynowany zespół 12 atomów stykających się ze sobą oraz z atomem centralnym. Liczba koordynacyjna LK = 12, a figurą koordynacyjną jest kubooktaedr regularny. Jeśli traktuje się atomy jako kule o promieniu \\( R \\), to stopień wypełnienia nimi przestrzeni wynosi \\( 74,04\\% \\). Pomiędzy tymi atomami występują dwa rodzaje luk. Luki większe – oktaedryczne – są otoczone sześcioma atomami, których środki tworzą ośmiościan foremny ( Rys. 1d). W luce oktaedrycznej mieści się kula o promieniu \\( r = 0,414R \\). Środki tych luk są zlokalizowane w środku komórki elementarnej oraz w środkach jej krawędzi. Luki mniejsze – tetraedryczne – są otoczone czterema atomami rozmieszczonymi na narożach czworościanu foremnego ( Rys. 1e). Luka tetraedryczna może pomieścić kulę o promieniu \\( r = 0,255R \\). Środki tych luk są umiejscowione na przekątnych komórki elementarnej, w odległości \\( a\\sqrt{\\frac{3}{4}} \\) od naroży. Struktura A2 o sieci RPC ma mniejszy stopień wypełnienia przestrzeni niż w sieci RSC; wynosi on \\( 68,02\\% \\). Atomy są rozmieszczone w narożach i w środku elementarnej komórki regularnej ( Rys. 3a). Komórka zawiera tylko 2 atomy \\( (8 \\cdot \\frac{1}{8}+1) \\). Najgęściej upakowanymi płaszczyznami w tej strukturze są \\( \\{110\\} \\), na których wzdłuż kierunków \\( <111> \\) atomy stykają się ze sobą ( Rys. 3b). Każdy atom jest otoczony ośmioma położonymi w jednakowej odległości – stąd liczba koordynacyjna LK = 8. Figurą koordynacyjną jest sześcian. Struktura o sieci RPC zawiera luki oktaedryczne i tetraedryczne. Środki luk oktaedrycznych są umiejscowione w środkach ścian oraz na środkach krawędzi komórki elementarnej ( Rys. 3c). Środki luk tetraedrycznych są zlokalizowane na ścianach komórki w połowie odległości między środkiem ściany i środkiem krawędzi ( Rys. 3d). Luka oktaedryczna mieści kulę o promieniu \\( r = 0,154R \\), natomiast tetraedryczna – kulę o promieniu \\( r = 0,291R \\).", "Sieci RSC i RPC są sieciami Bravais’go, natomiast sieć HZ nie jest siecią Bravais’go. Składa się z trzech prymitywnych sieci heksagonalnych przesuniętych względem siebie o wektor \\( \\vec{R}= \\frac{2}{3} \\vec{a}_{1}+\\frac{1}{3} \\vec{a}_{2}+\\frac{1}{2} \\vec{a}_{3} \\). Na komórkę elementarną ( Rys. 4a) przypada 6 atomów \\( (12 \\cdot \\frac{1}{6}+2 \\cdot \\frac{1}{2}+3) \\). Strukturę A3 o sieci HZ można przedstawić jako pakiet warstw o zwartym ułożeniu atomów równoległych do podstawy (0001) komórki elementarnej ( Rys. 4a). Warstwy te mają taką sama budowę jak warstwy \\( \\{111\\} \\) w strukturze o sieci RSC. Struktury o sieci RSC i HZ są do siebie podobne – różnią się tylko sekwencją ułożenia zwartych warstw. Sekwencję w strukturze o sieci HZ można przedstawić zapisem ABABAB… - atomy co drugiej warstwy są położone dokładnie nad sobą. Stąd liczba koordynacyjna, figura koordynacyjna i stopień wypełnienia przestrzeni w strukturze o sieci HZ są takie same jak w strukturze o sieci RSC. Luki oktaedryczne ( Rys. 4b) i tetraedryczne ( Rys. 4c) mieszczą w sobie kule o takich samych średnicach względnych jak luki struktury o sieci RSC. Wartość ilorazu stałych sieciowych komórki elementarnej struktury o sieci HZ, warunkująca stykanie się wszystkich atomów między sobą, wynosi \\( \\frac{c}{a}=\\sqrt{\\frac{8}{3}} \\approx \\) 1,633. W rzeczywistości przyjmuje wartość od 1,56 do 1,85.", "Moduł opracowano na podstawie [1], [2]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 662, "subject": "Defekty struktury", "paragraphs": ["W kryształach rzeczywistych występuje zawsze – w mniejszym lub większym stopniu – zdefektowanie struktury krystalicznej. Wadą – defektem struktury krystalicznej jest taki jej obszar, w którym zostało naruszone idealne uporządkowanie elementów fizycznych budujących sieć, a przez to również zostały zmienione ich warunki energetyczne ( Rys. 1 ).", "Defekty kryształów klasyfikuje się według różnych kryteriów. Najczęściej stosuje się kryteria geometryczne – kształtu i rozmiaru obszaru zaburzonego. Ze względu na kształt wyróżnia się defekty punktowe (zerowymiarowe), liniowe (jednowymiarowe), płaskie (dwuwymiarowe) i objętościowe (trójwymiarowe). Natomiast ze względu na skalę rozmiarów defekty te można podzielić na: subatomowe (elektronowe), atomowe (zero-, jedno- i dwuwymiarowe) oraz makroskopowe (trójwymiarowe).", "Uwzględniając kryteria termodynamiczne, wyróżnia się dwie podstawowe grupy defektów: termodynamicznie odwracalne i nieodwracalne. Do pierwszej grupy zalicza się defekty punktowe, których stężenie w strukturze zależy od temperatury oraz ciśnienia zewnętrznego i można je zmienić przez zmianę tych warunków zewnętrznych. Stężenie defektów termodynamicznie nieodwracalnych nie jest związane zależnością funkcyjną z temperaturą i ciśnieniem. Warunek ten spełniają defekty liniowe, płaskie i objętościowe.", "Kryształy rzeczywiste cechuje ruchliwość tworzących je atomów. Pod uproszczonym pojęciem atomu należy rozumieć, zależnie od typu kryształu: atom, jon lub cząsteczkę. Atomy nie tkwią nieruchomo w pozycjach równowagi w węzłach sieci krystalicznej, lecz są w nieustannym ruchu. Wszystkie atomy wykonują ruch drgający wokół położeń równowagi, naruszając idealną okresowość budowy kryształów. Amplituda i energia drgań sieci krystalicznej zwiększają się wraz z podwyższaniem temperatury. Wskutek fluktuacji energii niektóre atomy uzyskują na tyle dużą energię, że mogą opuścić swoje pozycje równowagi i ruchem stochastycznym przemieszczać się w inne położenie równowagowe lub w nieprawidłowe pozycje międzywęzłowe. Taki aktywowany cieplnie przypadkowy ruch atomów jest samodyfuzją w stanie stałym.", "Moduł opracowano na podstawie [1]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 663, "subject": "Charakterystyka półprzewodników", "paragraphs": ["Pomiędzy metalami, ciałami o bardzo wysokim przewodnictwie elektrycznym wynoszącym \\( 10^4 - 10^6 \\ \\Omega^{-1} \\cdot cm^{-1} \\), a dielektrykami, o przewodnictwie \\( 10^{-24} - 10^{-12} \\ \\Omega^{-1} \\cdot cm^{-1} \\), znajduje się jeszcze jedna klasa przewodników wykazujących przewodnictwo pośrednie. Są to półprzewodniki (zob. moduły: Podstawowe informacje o fizyce półprzewodników oraz Zastosowania półprzewodników ).", "Moduł opracowano na podstawie [1]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 664, "subject": "Ciało amorficzne", "paragraphs": ["Ciała amorficzne (bezpostaciowe) są substancjami zdolnymi do krystalizacji, ale ze względu na duży rozmiar cząsteczek, zanieczyszczenia lub szybkie schłodzenie cieczy, nie mają warunków, aby w pełni skrystalizować. W miarę obniżania temperatury ruchliwość cząsteczek cieczy zmniejsza się, co na zewnątrz przejawia się we wzroście jej lepkości. Stopniowy wzrost lepkości prowadzi ostatecznie do zakrzepnięcia cieczy w ciało sztywne zachowujące, podobnie jak ciecz, stopień uporządkowania pośredni pomiędzy gazem a ciałem krystalicznym. Ciała bezpostaciowe nie wykazują zależności swych właściwości od kierunku (ciała izotropowe). W czasie ogrzewania przejście ich do stanu ciekłego odbywa się w sposób ciągły poprzez stan plastyczny, w odróżnieniu od ciał krystalicznych topiących się w określonej temperaturze i zmieniających wówczas swe właściwości skokowo. Zgodnie z powszechnie przyjętą umową, terminem ciała stałe określamy tylko ciała krystaliczne. Nie obejmują one natomiast ciał amorficznych, mimo że wykazują one sztywną postać.", "Metale i ich stopy w postaci amorficznej są powszechnie określane szkłami metalicznymi. Rozważając naturę występujących w nich wiązań, można przyjąć, że strukturę wewnętrzną szkieł metalicznych opisuje model przypadkowego zwartego upakowania. Model takiego upakowania uzyskano, obserwując położenie jednakowych, sztywnych kul po ich wsypaniu do pojemnika o kształcie nieregularnym ( Rys. 1 ). Płaskie ściany pojemnika sprzyjają uporządkowanemu, okresowemu układaniu się kul. Symulacje komputerowe ułożenia kul pozwoliły stwierdzić, że współczynnik wypełnienia przestrzeni dla modelu przypadkowego zwartego upakowania wynosi ok. \\( 64\\% \\). Jest to wartość mniejsza niż w strukturze krystalicznej o zwartym upakowaniu, gdzie stopień wypełnienia przestrzeni nieznacznie przekracza \\( 74\\% \\). Oszacowania dokonane na modelach znajdują potwierdzenie w danych doświadczalnych.", "Objętość właściwa materiału amorficznego jest zawsze większa od objętości materiału krystalicznego o tym samym składzie chemicznym. W strukturze amorficznej występuje tzw. objętość nadmiarowa zlokalizowana w postaci luk o różnych kształtach i rozmiarach.", "Moduł opracowano na podstawie [1], [2]."], "definitions": [{"name": "Definicja 1: Ciało amorficzne", "content": " Stan skupienia materii charakteryzujący się właściwościami zbliżonymi do ciała krystalicznego, w którym nie występuje uporządkowanie dalekiego zasięgu. Ciało będące w stanie amorficznym jest ciałem stałym, ale tworzące je cząsteczki są ułożone w sposób dość chaotyczny, bardziej zbliżony do spotykanego w cieczach."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 665, "subject": "Ciekłe kryształy", "paragraphs": ["Mezoformy tworzą związki o cząsteczkach płaskich wydłużonych i usztywnionych podwójnymi wiązaniami. U wielu substancji stwierdzono występowanie dwu lub kilku faz mezomorficznych w zakresie pomiędzy temperaturą topnienia, a temperaturą przejścia w ciecz izotropową. Schemat ułożenia cząsteczek w fazach mezomorficznych przedstawiono na Rys. 1. Różnią się one stopniem uporządkowania. Cząsteczki mogą być ułożone warstwami o niezupełnie zapełnionych przestrzeniach. Uporządkowanie może polegać jedynie na zorientowaniu długich łańcuchów równolegle do siebie. Kierunek w jakim ustawione są długie cząsteczki nie jest stały, zmienia się stopniowo, tworząc jak gdyby spiralę. Formy te mają duże możliwości zmian struktury pod wpływem słabych bodźców fizycznych, np. temperatury, pola elektrycznego.", "Szczególne zainteresowanie wzbudziły optyczne właściwości faz mezomorficznych. Znane są substancje, których barwa w świetle odbitym zmienia się od niebieskiej do czerwonej, poprzez całe widmo widzialne, pod wpływem zmiany temperatury. Właściwość tę wykorzystuje się w sporządzaniu map temperaturowych (np. w medycynie). Inną ważną ze względów praktycznych właściwością faz mezomorficznych jest zmiana przeźroczystości warstwy pod wpływem pola elektrycznego (w kierunku orientacji cząsteczek), zachodząca natychmiast po przyłożeniu pola. Zjawisko to znalazło zastosowanie w konstrukcji wskaźników cyfrowych: kalkulatorów i zegarków.", "Do tej pory rozpoznano dość znaczną liczbę substancji, które w pewnych przedziałach temperatur posiadają właściwości ciekłokrystaliczne. Nagrzewanie tych substancji powyżej temperatury, zwykle znacznie wyższej od temperatury topnienia, powoduje znikanie właściwości ciekłokrystalicznych. W tej temperaturze i w temperaturach wyższych ciecze te stają się zwykłymi cieczami izotropowymi. Przedział temperatur, w których istnieje stan ciekłokrystaliczny jest różny dla różnych substancji ciekłokrystalicznych, a jego wartość może dochodzić do kilkudziesięciu stopni.", "Ciekłe kryształy, w których właściwości ciekłokrystaliczne występują w określonym przedziale temperatur noszą nazwę ciekłych kryształów termotropowych. Ogólnie można je podzielić na nematyki, cholesteryki i ciekłe kryształy smektyczne ( Rys. 2 ). Podział ten jest związany z lepkością tych substancji, która znajduje odbicie w strukturze i przestrzennym ułożeniu cząsteczek omawianych ciekłych kryształów. Najmniej lepkie spośród cieklych kryształów termotropowych są nematyki, których lepkość można przyrównać do lepkości mleka. W dalszej kolejności wyróżniamy cholesteryki, a największą lepkość wykazują smektyki.", "Wśród ciekłych kryształów cholesterolowych można wyodrębnić, takie, które w swym przedziale temperaturowym ciekłokrystaliczności posiadają niemezofazy: smektyczną i cholesterolową. Do takich ciekłych kryształów należą między innymi pelargonian, mirystynian cholesterylu. Stąd też lepkość ciekłych kryształów cholesterolowych zależy silnie od temperatury.", "Ze względu na ułożenie cząsteczek nematyczne ciekłe kryształy charakteryzują się spontaniczną orientacją długich osi cząsteczek, których środki ciężkości nie leżą w jednej płaszczyźnie. Smektyczne ciekłe kryształy mają cząsteczki ułożone tak, że ich środki ciężkości leżą w określonych płaszczyznach. Takie ułożenie cząsteczek powoduje ograniczenie ich ruchów i dlatego smektyki wykazują znacznie większą lepkość w porównaniu do nematyków.", "Trzecim typem ciekłych kryształów termotropowych są ciekłe kryształy cholesterolowe. Różnią się one od nematyków i smektyków kształtem cząsteczki oraz występowaniem specyficznej mezofazy cholesterolowej. Mezofaza cholesterolowa charakteryzuje się warstwowym ułożeniem cząsteczek, które wykazują określoną orientację w warstwie, a ponadto skręceniem tej orientacji w kolejno następujących po sobie warstwach. Warstwy cholesteryka tworzą spiralę, której długość zależy od temperatury.", "Moduł opracowano na podstawie [1], [2]."], "definitions": [{"name": "Definicja 1: Ciekłe kryształy", "content": "Substancje (związki organiczne i nieorganiczne) posiadające właściwości tworzenia w dużym przedziale temperatur, ciekłokrystalicznej płynnej, ale jeszcze anizotropowej (zależnej od kierunku) fazy pośredniej czyli mezofazy zwanej ciekłymi kryształami."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 666, "subject": "Zmiany stanu skupienia", "paragraphs": ["Ta sama substancja może występować w stanie gazowym, ciekłym i stałym. Stan skupienia substancji może się zmieniać w zależności od warunków zewnętrznych. W tej ogólnej klasyfikacji pominięto stany pojawiające się w warunkach ekstremalnych np. w bardzo wysokiej temperaturze (kilka tysięcy kelwinów) pojawia się inny stan materii, tzw. plazma. Natomiast pod bardzo dużym ciśnieniem (kilkaset i więcej megapaskali) materia przechodzi w stan ciekło-plazmowy i następnie w stan neutronowy. W każdym z trzech stanów skupienia wyróżnić można podstawowe cechy materii.", "Materia w stanie gazowym (lotnym) składa się ze swobodnych atomów lub małych (zazwyczaj kilkuatomowych) cząsteczek będących w nieustannym, chaotycznym ruchu. Odległości międzyatomowe lub międzycząsteczkowe w tym stanie skupienia są znaczne, a siły wzajemnego przyciągania znikome – materia nie wykazuje własnego kształtu ani objętości. Substancje, które w warunkach normalnych ( \\( T = 273,15 K, p = 0,1013 MPa \\)) występują w stanie lotnym, to gazy natomiast lotny stan substancji będącej w normalnych warunkach ciałem stałym lub cieczą jest określany jako para.", "Stan ciekły tworzą cząsteczki, atomy lub jony rozmieszczone tak blisko siebie, że przebywają stale w sferze sił przyciągających pochodzących od otaczających je sąsiadów. Szacunkowe obliczenia teoretyczne i przeprowadzone doświadczenia z zakresu wytrzymałości cieczy na rozciąganie dowodzą występowania znacznych sił spójności w stanie ciekłym. Stąd ciecze, w przeciwieństwie do gazów, zachowują własna objętość i mają dużą gęstość. Wykazują ponadto tylko niewielką ściśliwość oraz rozszerzalność cieplną. Składniki cieczy nieustannie się przemieszczają ruchem oscylacyjno-postępowym bez zbytniego jednak oddalania się od siebie. Intensywność ich ruchu zwiększa się z podwyższaniem temperatury cieczy. Stąd ciecze nie mają własnego kształtu.", "Gęstość w stałym stanie skupienia określonej substancji jest z reguły większa niż w stanie ciekłym (są wyjątki, np. woda i lód). Cechą wyróżniającą ciało stałe jest sztywność jego postaci. Oznacza to, że niemal całkowicie zanika ruch postępowy elementów budujących ciało, drgają tylko nieustannie wokół ustalonych miejsc w jego strukturze. Ciała stałe, podobnie jak i ciecze, charakteryzują się nieznaczną ściśliwością i małą rozszerzalnością cieplną. Te dwie właściwości są wyrażane współczynnikami empirycznymi definiowanymi następująco:", "współczynnik rozszerzalności cieplnej:", "współczynnik ściśliwości:", "gdzie: \\( T \\) – temperatura, \\( V \\) – objętość, \\( p \\) – ciśnienie.", "Substancja, ze zmianą temperatury i ciśnienia, może przechodzić z jednego stanu skupienia w inny ( Rys. 1 ). Nagrzana do odpowiednio wysokiej temperatury przemienia się w ciecz, a ta z kolei w jeszcze wyższej temperaturze ulega odparowaniu. Przejście cieczy w parę jest parowaniem, jeśli odbywa się na swobodnej powierzchni cieczy, natomiast wrzeniem, jeśli zachodzi w całej jej masie. Niektóre ciała stałe ulegają sublimacji, czyli przemieniają się w parę z pominięciem stanu ciekłego.", "Należy zaznaczyć, że nie wszystkie substancje mogą występować we wszystkich stanach skupienia. Niektóre ciała stałe, będące związkami chemicznymi, ulegają rozpadowi podczas nagrzewania i następuje zmiana ich cech chemicznych.", "Obniżanie temperatury prowadzi do przemian odwrotnych. Ciało stałe może powstawać w wyniku albo krzepnięcia cieczy, albo zestalenia pary (resublimacji).", "Moduł opracowano na podstawie [1], [2]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 667, "subject": "Prężność pary nad cieczą", "paragraphs": ["Stałą równowagi pomiędzy roztworem a parą rozpuszczalnika wyraża równanie:", "Ułamek molowy wody w cieczy \\( x_{p} \\) nie jest równy jedności. Obok wody występuje bowiem w fazie ciekłej jeszcze substancja rozpuszczona, np. substancja \\( A \\), której ułamek molowy \\( x_{A} \\) ma taką wartość, że \\( x_{p} + x_{A} = 1 \\). Ułamek molowy wody w fazie gazowej \\( x_{g} \\) pozostaje natomiast równy jedności, gdyż założyliśmy, że substancja \\( A \\) jest nielotna. Wprowadzając stałą równowagi \\( K_{p} \\) możemy napisać:", "Podstawienie jej do równania ( 2 ) daje równanie:", "stanowiące jedną z postaci prawa Raoulta. Z równania tego wynika, że stosunek prężności pary nasyconej nad roztworem do prężności pary nasyconej nad czystym rozpuszczalnikiem jest równy ułamkowi molowemu rozpuszczalnika w roztworze, czyli jest mniejszy od 1. Rozpuszczenie dowolnej substancji w wodzie czy w jakimkolwiek innym rozpuszczalniku prowadzi zatem do obniżenia jego prężności pary nasyconej.", "Równanie ( 4 ) poddaje się zwykle dalszemu przekształceniu. Uwzględniając fakt, że:", "dochodzimy do wzoru:", "Wyrażenie \\( \\frac{p_{0} - p}{p_{0}} \\) nazywamy względnym obniżeniem prężności pary. Prawo Raoulta można teraz wypowiedzieć w następujący sposób:", "Ważną konsekwencją obniżenia prężności pary pozostającej w równowadze z roztworem jest zmiana jego temperatury wrzenia i temperatury krzepnięcia w porównaniu z czystym rozpuszczalnikiem. Temperatura wrzenia jest to temperatura, w której prężność pary nasyconej danej cieczy osiąga wartość równą ciśnieniu zewnętrznemu. Zwykle odnosimy ją do ciśnienia atmosferycznego wynoszącego \\( 1013,25 hPa \\). Temperaturę krzepnięcia wyznacza natomiast punkt określający temperaturę współistnienia wody ciekłej i lodu pod tym samym ciśnieniem. W przypadku czystej wody jest to punkt P na Rys. 1, na którym przedstawiono diagram fazowy wody w przypadku gdy faza ciekła jest substancją czystą (linia ciągła), oraz w przypadku gdy faza ciekła jest roztworem (linia przerywana). Krzywa OA, wyrażająca prężność pary nad cieczą, zostaje dla roztworu przesunięta w dół, np. do pozycji O’A’. Równocześnie krzywa topnienia lodu OC przesunie się do pozycji O’A’. Zmiany te powodują, że punkt określający temperaturę krzepnięcia przesuwa się z P do P’, a temperatura krzepnięcia zmienia się od \\( T_{k}^0 \\) do \\( T_{k} \\). Punkt określający temperaturę wrzenia pzesuwa się od punktu Q do Q’, czemu towarzyszy zmiana temperatury wrzenia od \\( T_{w}^0 \\) do \\( T_{w} \\). Z Rys. 1 wynika zatem, że roztwory wykazują obniżoną temperaturę krzepnięcia i podwyższoną temperaturę wrzenia w porównaniu z temperaturą krzepnięcia i temperaturą wrzenia czystego rozpuszczalnika.", "Moduł opracowano na podstawie [1], [2]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 2. Stany skupienia materii", "subject_id": 668, "subject": "Reguła faz Gibbsa", "paragraphs": ["Równowagi fazowe w układzie jednoskładnikowym zależą tylko od temperatury i ciśnienia. W układach wieloskładnikowych zachodzi potrzeba uwzględnienia także zmian stężenia składników w poszczególnych fazach. Pojawia się w nich często także kilka faz stałych, zdarzają się przypadki, że obok siebie współistnieją dwie lub więcej faz ciekłych. Wszystkie te okoliczności powodują, że w miarę jak zwiększa się liczba składników, obraz równowag fazowych staje się coraz bardziej skomplikowany. W tych przypadkach szczególnie duże usługi oddaje tzw. reguła faz, formułująca ogólne warunki równowag fazowych w układach jedno- i wieloskładnikowych. Została ona wyprowadzona w 1876 r. przez J. W. Gibbsa. Wyprowadzenie reguły faz wymaga wprowadzenia trzech pojęć: fazy, liczby składników niezależnych oraz liczby stopni swobody. Liczbę faz obecnych w układzie oznaczać będziemy literą f. Liczba składników niezależnych n jest to najmniejsza liczba składników (substancji), z których można zbudować cały układ. Układ zawierający węgiel, tlenek węgla(II) i tlenek węgla(IV), pozostające ze sobą w równowadze, jest układem trójskładnikowym, lecz tylko dwa spośród nich można uważać za składniki niezależne. Pozostały trzeci składnik, zależny, tworzy się z dwóch niezależnych w reakcji:", "W układach bardziej skomplikowanych dla znalezienia liczby składników niezależnych najlepiej posługiwać się metodą, która polega na tym, że od całkowitej liczby składników (liczby substancji obecnych w układzie) odejmuje się liczbę niezależnych od siebie reakcji chemicznych, jakie w danym układzie mogą zachodzić. Tak więc, układ składający się z: \\( \\ce{C, CO, CO_{2}, H_{2}} \\) i \\( \\ce{H_{2}O_{2}} \\) jest układem o trzech niezależnych składnikach. Mamy w nim bowiem łącznie pięć składników i mogą w nim zachodzić dwie niezależne od siebie reakcje chemiczne:", "Trzecia reakcja, której równanie można by jeszcze napisać:", "stanowi sumę reakcji ( 2 ) i ( 3 ) bezpośrednio po sobie następujących. Zatem nie można jej uważać za reakcję niezależną. W układach, w których nie zachodzą żadne reakcje, np. w układzie jednoskładnikowym zawierającym tylko wodę lub układzie dwuskładnikowym zawierającym wodę i chlorek sodu, wszystkie składniki możemy uważać za składniki niezależne. Liczba stopni swobody s jest to liczba czynników wyznaczających równowagę (temperatura, ciśnienie, stężenia), które możemy zmieniać dowolnie zachowując niezmienioną liczbę faz. Układ zawierający tylko parę wodną ma dwa stopnie swobody (układ dwuzmienny), gdyż możemy w nim zmieniać – w pewnych granicach oczywiście – zarówno temperaturę, jak i ciśnienie, bez pojawienia się nowej fazy. Układ zawierający parę wodną w równowadze z wodą ciekłą jest układem o jednym stopniu swobody, czyli układem jednozmiennym. Jeżeli bowiem wybierzemy dowolnie jego temperaturę, to tym samym określimy panujące w nim ciśnienie. Wybierając zaś swobodnie ciśnienie, decydujemy jaka musi być temperatura, aby obie fazy mogły ze sobą współistnieć. Wynika to wprost z faktu, że każdej temperaturze odpowiada określona i różna prężność pary nasyconej nad cieczą. Gdyby ciśnienie panujące w układzie było wyższe od prężności pary nasyconej, znikłaby w nim faza gazowa. W przypadku ciśnienia niższego od prężności pary nasyconej musiałaby w nim zniknąć ciecz. Układ zawierający parę, lód i wodę ciekłą nie wykazuje ani jednego stopnia swobody ( \\( s = 0 \\)). Może istnieć w równowadze tylko w temperaturze \\( 0,0075^oC \\) i pod ciśnieniem \\( 4,58 \\ mmHg \\). Zmiana któregokolwiek z tych czynników spowoduje zmniejszenie liczby faz.", "Za jej pomocą możemy łatwo potwierdzić dotychczasowe obserwacje dotyczące układu jednoskładnikowego:", "Dla układu składającego się z \\( H_{2}O \\) i \\( NaCl \\) ( \\( n = 2 \\)) w przypadku \\( f = 1 \\) znajdujemy:", "Układ zawierający tylko fazę ciekłą (roztwór \\( NaCl \\)) jest więc trójzmienny. Można w nim dowolnie zmieniać w pewnym zakresie temperaturę, ciśnienie i stężenie soli. Gdy liczba faz wzrośnie do 2, a więc np. gdy roztwór będzie w równowadze z parą wodną, wówczas:", "Wyznaczając temperaturę i stężenie roztworu określamy jednocześnie prężność pary nasyconej. Układ staje się jednozmienny dopiero wówczas, gdy pojawi się w nim jeszcze jedna faza, np. chlorek sodu w stanie stałym:", "co wskazuje, że prężność pary nad roztworem, który jest obecnie roztworem nasyconym, zostaje jednocześnie określona przez wybór temperatury. Z reguły faz wynika wreszcie, że największa liczba faz w układzie \\( \\ce{H_{2}O-NaCl} \\), osiągana dla \\( s = 0 \\), wynosi:", "Układ taki jest niezmienny. Stan taki zostaje zrealizowany, gdy w temp. \\( 0,15^oC \\) obok pary wodnej, roztworu nasyconego, kryształków bezwodnego \\( \\ce{NaCl} \\) pojawią się także kryształy dwuhydratu \\( \\ce{NaCl-2H_{2}O} \\), tworzące nową fazę stałą.", "Moduł opracowano na podstawie [1], [2]."], "definitions": [{"name": "Definicja 1: Reguła faz Gibbsa", "content": "Reguła faz łączy liczbę faz f, występujących w układzie po osiągnięciu równowagi, z liczbą niezależnych składników n oraz liczbą stopni swobody s. Wyrażamy ją równaniem:\n(5)\n\n\t\t\t\t\t\t\t\t\\( f + s = n + 2 \\)\n\n"}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 3. Klasyfikacja chemicznych związków nieorganicznych i ich nomenklatura", "subject_id": 527, "subject": "Tlenki", "paragraphs": ["Tlenkami nazywamy związki chemiczne zbudowane z atomów tlenu i atomów innego pierwiastka. Prawie wszystkie pierwiastki z układu okresowego tworzą tlenki. Ogólny wzór tlenku możemy napisać jako:", "gdzie: \\( \\ce{E} \\) - oznacza dowolny pierwiastek \\( \\ce{n} \\) - liczba atomów danego pierwiastka \\( \\ce{m} \\) - liczba atomów tlenu", "Nazewnictwo tlenków Nazwy tlenków metali o stałej wartościowości tworzy się dodajac do nazwy \"tlenek\" nazwę metalu.", "W przypadku metali o zmiennej wartościowości, na końcu nazwy tlenku umieszcza się w nawiasie rzymską cyfrę równą wartościowości metalu w związku:", "Do tlenków niemetali stosuje się najczęściej tradycyjne nazwy, które mają końcówkę rzeczownikową niemetalu, natomiast wartościowość wskazuje się za pomocą przedrostków. Nazwy systematyczne tworzy się podobnie jak w przypadku tlenków metali.", "Otrzymywanie tlenków: 1. utlenianie pierwiastków", "2. utlenianie niższego tlenku danego pierwiastka do tlenku zawierającego ten sam pierwiastek ale na wyższym stopniu utlenienia", "3. redukcja wyższego tlenku do tlenku na niższym stopniu utlenienia:", "4. spalanie związków organicznych:", "5. rozkład termiczny soli, wodorotlenków i tlenków:", "Właściwości chemiczne, reaktywność tlenków", "Ze względu na własności chemiczne i reaktywność, tlenki klasyfikujemy jako: tlenki zasadowe - tlenki metali głównie litowców i berylowców oraz metali bloku d na nizszych stopniach utlenienia, np. \\( \\ce{FeO} \\), \\( \\ce{MnO} \\), \\( \\ce{CuO} \\). Tlenki zasadowe, które reaguja z wodą nazywamy bezwodnikami zasadowymi. Zasadowy charakter tlenków maleje w okresie wraz ze wzrostem liczby atomowej pierwiastka związanego z tlenem. W grupie zasadowy charakter tlenków wzrasta wraz ze zwiększającą się liczbą atomową pierwiastka połączonego z tlenem.", "1. tlenki zasadowe reagują z wodą tworząc wodorotlenki:", "2. tlenki zasadowe reagują z kwasami i w wyniku reakcji powstaje sól i woda:", "3. tlenki zasadowe reagują z tlenkami kwasowymi dając sole", "tlenki kwasowe (bezwodniki kwasowe) – tworzą przede wszystkim niemetale. Mała różnica elektroujemności pomiędzy niemetalem a tlenem powoduje, że mają one budowę kowalencyjną lub kowalencyjną spolaryzowaną. Kwasowość tlenków rośnie w okresie gdy rośnie liczba atomowa pierwiastka połączonego z tlenem natomiast w grupie kwasowość tlenku maleje, gdy liczba atomowa pierwiastka połączonego z tlenem wzrasta. Tlenkami kwasowymi mogą być również tlenki niektórych metali na wyższym stopniu utlenienia, np. \\( \\ce{Bi_2O_5} \\), \\( \\ce{CrO_3} \\).", "1.\tTlenki kwasowe reagują z wodą dając kwasy tlenowe", "2.\ttlenki kwasowe reagują z wodorotlenkami dając sól i wodę:", "3.\t tlenki kwasowe reagują z tlenkami zasadowymi dając sól:", "tlenki amfoteryczne - reagują zarówno z zasadami jaki i kwasami. Do tlenków amfoterycznych zaliczamy: \\( \\ce{BeO, Al_2O_3, Ga_2O_3, In_2O_3, SnO, SnO_2, PbO_2, PbO, Sb_2O_5, Sb_2O_3, TeO_2, As_2O_3, ZnO, MnO_2, Cr_2O_3} \\).", "Tlenki obojętne - to tlenki, które nie wchodzą w reakcje ani z kwasami, ani z zasadami. Nie są bezwodnikami kwasowymi oraz bezwodnikami zasadowymi, nie tworzą soli. Tlenki te rozpuszczając się w wodzie nie reagują z nią, jest to rozpuszczanie fizyczne. Do grupy tlenków obojętnych należy tylko kilka związków: \\( \\ce{NO} \\) - tlenek azotu(II), \\( \\ce{CO} \\) - tlenek węgla(II), \\( \\ce{N_2O} \\) - tlenek azotu (I), \\( \\ce{SiO} \\) – tlenek krzemu (II)."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 3. Klasyfikacja chemicznych związków nieorganicznych i ich nomenklatura", "subject_id": 1461, "subject": "Wodorki", "paragraphs": ["Wodorkami nazywamy związki wodoru z innymi pierwiastkami. Wzory wodorków piszemy w zależności od tego z pierwiastkiem której grupy układu okresowego wiąże się wodór. Skład wodorków można przedstawić ogólnymi wzorami:", "jeżeli \\( E \\) znajduje się w 1-15 grupie układu okresowego.", "jeżeli \\( E \\) znajduje się w 16 i 17 grupie układu okresowego.", "Nazwy wodorków metali tworzy się analogicznie jak nazwy tlenków, np. \\( NaH \\) – wodorek sodu \\( BaH_2 \\) – wodorek baru \\( AlH_3 \\) – wodorek glinu", "Nazwy wodorków niemetalu zaczynają się przedrostkiem wywodzącym się z nazwy niemetalu z końcówką \"wodór\". \\( H_2S \\) – siarkowodór \\( HF \\) – fluorowodór \\( HCl \\) – chlorowodór \\( HI \\) – jodowodór Dla niektórych wodorków używa się tylko nazw zwyczajowych, np.: \\( H_2O \\) – woda \\( NH_3 \\) – amoniak \\( CH_4 \\) – metan", "Wodorki metali są najczęściej jonowe i zawierają w sieci krystalicznej jon wodorkowy, \\( H^- \\) (jądro wodoru otoczone jest dubletem elektronowym). Wodorki niemetali mają budowę kowalencyjną. Między wodorkami metali i niemetali nie ma ostrej granicy. W miarę jak wzrasta elektroujemność pierwiastków, zmienia się charakter wiązania od typowo jonowego z ujemnym jonem wodorkowym \\( H^- \\), aż do kowalencyjnego silnie spolaryzowanego z dodatnim jonem wodorowym \\( H^+ \\). Wodorki metali są ciałami stałymi a wodorki niemetali gazami.", "Otrzymywanie wodorków: 1.\tBezpośrednia synteza pierwiastka z wodorem:", "2.\tTermiczny rozkład chlorku amonu", "Właściwości chemiczne: Wodorki cechuje wielka różnorodność właściwości chemicznych. 1.\tWodorki metali reagują gwałtownie z wodą tworząc zasady, przy czym wydziela się wodór", "2.\tWodorki niemetali takich jak fluorowce i tlenowce rozpuszczając się w wodzie tworzą kwasy beztlenowe, np. wodny roztwór fluorowodoru \\( HF \\) -kwas fluorowodorowy, wodny roztwór chlorowodoru \\( HCl \\) -kwas chlorowodorowy (lub solny). 3.\tAmoniak \\( NH_3 \\) jest jedynym wodorkiem, który reagując z wodą tworzy związek o charakterze zasadowym wodorotlenek amonowy:", "którego nie wyodrębniono w stanie wolnym. 4.\tPozostałe wodorki niemetali nie reagują z wodą. Ich niewielka rozpuszczalność w wodzie polega na rozpuszczaniu fizycznym (wymieszaniu)."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 3. Klasyfikacja chemicznych związków nieorganicznych i ich nomenklatura", "subject_id": 528, "subject": "Kwasy", "paragraphs": ["Kwasy są to związki zbudowane z wodoru i reszty kwasowej o ogólnym wzorze:", "n – ilość atomów wodorów równa liczbowo wartościowości reszty kwasowej R - oznacza resztę kwasową: kwasów beztlenowych, np. \\( \\ce{S^{2-}} \\), \\( \\ce{Br^-} \\), lub kwasów tlenowych, np. \\( \\ce{PO_4^{3-}} \\), \\( \\ce{SO_4^{2-}} \\).", "Nazewnictwo kwasów Nazwy kwasów beztlenowych tworzy się dodając do nazwy pierwiastka tworzącego kwas końcówkę \"wodorowy\":", "\\( \\ce{HF} \\) –\tkwas fluorowodorowy \t\t \\( \\ce{HCl} \\) –\tkwas chlorowodorowy (tradycyjnie kwas solny) \t\t \\( \\ce{HBr} \\) –\tkwas bromowodorowy \t\t \\( \\ce{HI} \\) – \tkwas jodowodorowy \t\t \\( \\ce{H_2S} \\) –\tkwas siarkowodorowy \t\t \\( \\ce{HCN} \\) –\tkwas cyjanowodorowy", "Nazwy kwasów tlenowych tzn. takich, które zawierają atomy tlenu połączone z atomem centralnym (niemetalem) wywodzą się od nazwy niemetalu z końcówką „-owy”. Jeżeli ten sam pierwiastek tworzy kwasy na różnych stopniach utlenienia, to w nawiasie za nazwą podaje się wartościowość tego niemetalu w danym kwasie.", "\\( \\ce{H_2SO_3} \\) – kwas siarkowy(IV) \\( \\ce{H_2SO_4} \\) – kwas siarkowy(VI) \\( \\ce{HNO_2} \\) – kwas azotowy(III) \\( \\ce{HNO_3} \\) – kwas azotowy(V) \\( \\ce{HClO} \\) – kwas chlorowy(I) \\( \\ce{HClO_2} \\) – kwas chlorowy(III) \\( \\ce{HClO_3} \\) – kwas chlorowy(V) \\( \\ce{HClO_4} \\) – kwas chlorowy(VII)", "Kwasy tlenowe głównie otrzymujemy w reakcji tlenku niemetalu z wodą. Jeżeli tlenek kwasowy reaguje z różną ilością cząsteczek wody, wówczas powstające kwasy mają nazwy \"meta-\", \"piro-\",\"orto-\", na przykład: \\( \\ce{P_2O_5 + H_2O \\rightarrow 2HPO_3} \\)\tkwas metafosforowy(V) (najmniejsza ilość kwasowych atomów wodoru) \t \\( \\ce{P_2O_5 + 2H_2O \\rightarrow H_4P_2O_7} \\)\tkwas pirofosforowy(V) lub zalecana nazwa - kwas dwufosforowy(V) \\( \\ce{P_2O_5 + 3H_2O \\rightarrow 2H_3PO_4} \\)\tkwas ortofosforowy(V)", "Otrzymywanie kwasów 1.\tReakcja syntezy pomiędzy tlenkiem kwasowym a wodą:", "2. reakcja jonowa strącania osadu (pod warunkiem, że kwas jest słabo rozpuszczalny):", "3. słaby kwas tlenowy można otrzymać działając na jego sól kwasem mocnym:", "4. kwasy beztlenowe otrzymuje się przez rozpuszczanie odpowiednich wodorków w wodzie", "Właściwości chemiczne, reaktywność kwasów", "1. kwasy reagują z zasadami (reakcja neutralizacji lub zobojętniania):", "2. większość kwasów reaguje z metalami nieszlachetnymi wypierając z nich wodór:", "3. metale szlachetne i półszlachetne reagują z kwasami utleniającymi tj. stężonym \\( \\ce{H_2SO_4} \\) i \\( \\ce{HNO_3} \\), ale nie wypierają wodoru z tych kwasów:", "4. kwasy reagują z tlenkami metali:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 3. Klasyfikacja chemicznych związków nieorganicznych i ich nomenklatura", "subject_id": 529, "subject": "Wodorotlenki", "paragraphs": ["Wodorotlenki są to związki zbudowane głównie z metali i grupy wodorotlenowej o ogólnym wzorze:", "gdzie: \\( \\ce{M} \\)– metal, \\( \\ce{n} \\) – współczynnik liczbowo równy wartościowości metalu", "Nazwy wodorotlenków metali o stałej wartościowości tworzy się dodając do słowa \"wodorotlenek\" nazwę metalu, np. \\( \\ce{LiOH} \\)\t\t- wodorotlenek litu \\( \\ce{KOH} \\) \t- wodorotlenek potasu \\( \\ce{Ba(OH)_2} \\) \t- wodorotlenek baru \\( \\ce{Mg(OH)_2} \\) \t- wodorotlenek magnezu \\( \\ce{Al(OH)_3} \\) \t- wodorotlenek glinu \\( \\ce{Zn(OH)_2} \\)\t- wodorotlenek cynku W przypadku metalu o zmiennej wartościowości na końcu nazwy, umieszcza się w nawiasie wartościowość metalu w związku: \\( \\ce{Fe(OH)_2} \\) -\twodorotlenek żelaza(II) \\( \\ce{Fe(OH)_3} \\) -\twodorotlenek żelaza(III) \\( \\ce{Sn(OH)_2} \\)\t- wodorotlenek cyny(II) \\( \\ce{Sn(OH)_4} \\) - \twodorotlenek cyny(IV) \\( \\ce{Ni(OH)_2} \\) -\twodorotlenek niklu(II) \\( \\ce{Ni(OH)_3} \\)\t- wodorotlenek niklu(III)", "Otrzymywanie wodorotlenków 1.\tReakcja syntezy pomiędzy tlenkiem zasadowym a wodą", "2. Reakcja litowców i berylowców z wodą", "3. Wodorotlenki trudno rozpuszczalne w \\( \\ce{H_2O} \\) otrzymuje się w reakcji strącania osadu; reakcja pomiędzy rozpuszczalną solą danego metalu i wodorotlenkiem o silnych właściwościach zasadowych", "Właściwości chemiczne, reaktywność wodorotlenków Ze względu na właściwości chemiczne można wyróżnić wodorotlenki zasadowe i amfoteryczne. Wodorotlenki zasadowe to wodorotlenki litowców i berylowców (z wyjątkiem \\( \\ce{Be(OH)_2} \\)).", "1. wodorotlenki zasadowe reagują z kwasami dając sól i wodę (reakcja zobojętniania):", "2.\twodorotlenki amfoteryczne to takie które reagują zarówno z kwasami jak i zasadami. W reakcji z kwasami zachowują się jak zasada, a w reakcji z zasadą zachowują się jak kwas:", "Powyższy zapis reakcji z zasadą jest uproszczony i produkt tej reakcji wystepuje tylko w fazie stałej. W roztworach produktami są związki kompleksowe:", "Do najczęściej spotykanych wodorotlenków amfoterycznych należą: \\( \\ce{Al(OH)_3, Be(OH)_2, Pb(OH)_2, Cr(OH)_3, Sn(OH)_2, Sn(OH)_4, Sb(OH)_3, Sb(OH)_5, As(OH)_3} \\) i inne."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 3. Klasyfikacja chemicznych związków nieorganicznych i ich nomenklatura", "subject_id": 530, "subject": "Sole", "paragraphs": ["Sole są to związki chemiczne które powstają w reakcji pomiędzy kwasem i zasadą. Kationy z zasady zastępują kationy wodoru w kwasie. Wyróżnia się: - sole obojętne - hydroksosole - sole zasadowe (dawne nazwy: hydroksysole) - wodorosole - sole kwasowe (dawne nazwy: sole kwaśne)", "Ogólny wzór soli obojętnej można przedstawić następująco:", "Gdzie: \\( \\ce{M} \\) – metal, lub grupa amonowa \\( NH_4^+ \\) \\( \\ce{R} \\) – reszta kwasowa, \\( \\ce{n,m} \\) – współczynniki stechiometryczne", "Wodorosole, zwane solami kwaśnymi, pochodzą od kwasów wielowodorowych. Podczas reakcji syntezy tylko część atomów wodoru jest zastępowana przez metal lub jon amonowy. Można je przedstawić ogólnym wzorem:", "Gdzie: \\( \\ce{M} \\) – metal, lub grupa amonowa \\( \\ce{NH_4^+} \\) \\( \\ce{R} \\) – reszta kwasowa, \\( \\ce{n,m, k} \\) – współczynniki stechiometryczne", "Hydroksosole, zwane solami zasadowymi, powstają z wodorotlenków wielohydroksylowych (wielokwasowych). Hydroksosole można przedstawić ogólnym wzorem:", "Gdzie: \\( \\ce{M} \\) – metal, lub grupa amonowa \\( \\ce{NH_4^+} \\) \\( \\ce{R} \\) – reszta kwasowa, \\( \\ce{n,m, k} \\) – współczynniki stechiometryczne", "Nazewnictwo soli Nazwy soli prostych tworzy się z dwóch członów. Pierwszy określa resztę kwasową, drugi nazwę metalu. Jeżeli metal może tworzyć sole na różnych stopniach utlenienia, w nawiasie za metalem podaje się jego wartościowość. Sól pochodząca od kwasu beztlenowego ma końcówkę -ek, natomiast sól pochodząca od kwasu tlenowego -an. Nazwy wodorosoli tworzy się tak jak soli obojętnych, z tym, że do pierwszego wyrazu dodaje się przedrostek wodoro-. Nazwy hydroksosoli tworzy się dodając przedrostek hydrokso- przed nazwą metalu. Poniżej podano nazwy niektórych popularnych soli. Nazwy kwasów i odpowiadające im nazwy soli przedstawiono w .", "Metody otrzymywania soli", "Wszystkich metod otrzymywania soli jest 16. Zostały zebrane w oraz . Nie wszystkie sole da się otrzymać wszystkimi zebranymi w tabeli sposobami. Najpopularniejsze z tych metod to:", "1. reakcja neutralizacji (zobojętniania), reakcja pomiędzy wodorotlenkiem i kwasem, np.:", "2. reakcja kwasu z metalem, np.:", "3. reakcja tlenku zasadowego z kwasem, np.", "4. reakcja wodorotlenku z tlenkiem kwasowym, np.", "5. reakcja tlenku zasadowego z tlenkiem kwasowym, np.", "6. reakcja metalu z niemetalem, np.", "7. reakcja metalu aktywnego z solą metalu szlachetniejszego"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 3. Klasyfikacja chemicznych związków nieorganicznych i ich nomenklatura", "subject_id": 531, "subject": "Związki kompleksowe", "paragraphs": ["Związki kompleksowe, zwane również związkami koordynacyjnymi są to związki zbudowane z jonu lub atomu centralnego, które otoczone są przez jony lub cząsteczki obojętne zwane ligandami. Ligandy połączone są z atomem centralnym wiązaniem koordynacyjnym (donorowo-akceptorowym). Pod wpływem pola ligandów orbitale i elektrony ulegają reorganizacji - wolne orbitale obsadzane są przez wolne pary elektronowe ligandów.", "W związku kompleksowym możemy wyróżnić strefy koordynacyjne: wewnętrzną i zewnętrzną. Strefa koordynacyjna wewnętrzna jest kompleksowa.", "Jon kompleksowy może być kationem, anionem lub cząsteczką obojętną. Jeżeli część związku kompleksowego złożonego z jonu centralnego i ligandu jest obdarzona ładunkiem, czyli jest jonem, to sferę zewnętrzną tworzą proste jony o przeciwnym znaku. Liczbę przyłączonych par elektronowych, która najczęściej odpowiada liczbie podstawników przypadających na jon centralny nazywamy liczbą koordynacyjną.", "Nazewnictwo związków kompleksowych", "Nazywając związek kompleksowy najpierw podajemy nazwę anionu, a potem kationu. Nazwy ligandów o ładunku ujemnym kończymy samogłoską –o, natomiast w ligandach obojętnych nie zmienia się końcówek, np. \\( \\ce{H_2O} \\) – akwa \\( \\ce{NH_3} \\) – amina \\( \\ce{CO} \\)- karbonyl \\( \\ce{OH^-} \\)- hydrokso \\( \\ce{F^-} \\) - fluoro \\( \\ce{Cl^-} \\) - chloro \\( \\ce{NO_2^-} \\)- nitro \\( \\ce{NO_3^-} \\) - azotano \\( \\ce{SO_4^{2-}} \\) - siarczano \\( \\ce{CN^-} \\) - cyjano W nazwie jonu kompleksowego najpierw wymieniamy ligandy, a potem atom centralny. Liczbę ligandów określamy za pomocą przedrostka greckiego: gdy jeden to: mono-, gdy dwa to: di-, gdy trzy to: tri-, gdy cztery to: tetra-, itd. Nazwę związku, który zawiera anion kompleksowy tworzymy w ten sposób, że do nazwy anionu centralnego dodajemy końcówkę –an. Stopień utlenienia atomu centralnego piszemy cyfrą rzymską, w nawiasie. np. \\( \\ce{K_2[CuCl_4]} \\) tetrachloromiedzian(II) potasu W kompleksach kationowych i zawierające obojętne cząstki podajemy niezmienioną nazwę pierwiastka np. \\( \\ce{[Cr(H_2O)_4Cl_2]Cl} \\) chlorek tetraakwadichlorochromu(III)"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 532, "subject": "Reakcje homogeniczne i heterogeniczne", "paragraphs": ["Z kinetycznego punktu widzenia celowy jest podział reakcji na: homogeniczne i heterogeniczne."], "definitions": [{"name": "Definicja 1: Reakcje homogeniczne", "content": " Reakcje homogeniczne (jednorodne) to takie, w których wszystkie reagenty znajdują się w jednej fazie (tzn. są w tym samym stanie skupienia (ciekłym, gazowym))."}, {"name": "Definicja 2: Reakcje heterogeniczne", "content": "Reakcje heterogeniczne (niejednorodne) to takie, które przebiegają na granicy faz (tzn. reagenty nie są w tym samym stanie skupienia). "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 533, "subject": "Szybkość reakcji chemicznej", "paragraphs": [], "definitions": [{"name": "Definicja 1: Szybkość reakcji chemicznej", "content": "Pojęcie szybkości reakcji chemicznej (r) wiąże się z przebiegiem reakcji chemicznej i jest miarą zmian jakie zachodzą w czasie układu reagującego.\nZe stechiometrii reakcji chemicznej:\n\n\n\t\t\t\t\t\t\t\t\\( aA + bB \\rightarrow cC + dD \\)\n\n(gdzie: A, B i C, D to odpowiednio substraty i produkty, natomiast a, b, c, d to współczynniki stechiometryczne reagentów)\nSzybkość reakcji chemicznej r, można zdefiniować jako zmiany stężenia substratów \\( [A], [B] \\) lub produktów \\( [C], [D] \\) w czasie (t):\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( r=-\\frac{1}{a} \\cdot \\frac{d[A]}{dt}=- \\frac{1}{b} \\cdot \\frac{d[B]}{dt}= \\frac{1}{c} \\cdot \\frac{d[C]}{dt}= \\frac{1}{d} \\cdot \\frac{d[D]}{dt} \\)\n\n\nOgólne wyrażenie na szybkość reakcji chemicznej r, można zdefiniować jako:\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( r= \\pm\\frac{1}{v_x} \\cdot \\frac{d[X]}{dt} \\)\n\ngdzie:\nr- szybkość reakcji chemicznej \\( [mol\\cdot dm ^{-3} s^{-1}] \\)\nznak \\( „- ” \\) dla substratów znak \\( „+ ” \\) dla produktów\n \\( [X] \\)- stężenie reagenta X \\( [mol\\cdot dm^{-3}] \\)\n \\( ν_X \\) - stechiometryczny współczynnik reagenta X\nt - czas \\( [s] \\)\n\n"}, {"name": "Definicja 2: Chwilowa szybkość reakcji chemicznej", "content": "\nChwilową szybkość reakcji chemicznej można przedstawić jako nachylenie stycznej do krzywej, która przedstawia zmianę stężenia produktu ( Rys. 1A ) lub substratu ( Rys. 1B ). Szybkość reakcji chemicznej r, w danej chwili jest równa współczynnikowi kierunkowemu stycznej do krzywej stężenie molowe = f(czas) w określonym punkcie np \\( ([P],t), ([S],t) \\).\n\nRysunek 1: Zmiany stężenia produktu (A) i substratu (B) w funkcji czasu.\n\n"}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 534, "subject": "Teoria zderzeń - równanie kinetyczne", "paragraphs": ["Teoria zderzeń, klasyczna teoria kinetyki chemicznej, opracowana dla cząsteczek w fazie gazowej.", "Zgodnie z tą teorią, aby reakcja zaszła musi dojść do zderzenia (kolizji) pomiędzy cząsteczkami (atomami, jonami, rodnikami) A i B (substraty). Należy jednak pamiętać, że nie wszystkie zderzenia prowadzą do powstania nowej cząsteczki P (produkt).", "Dwa kluczowe warunki, które muszą zostać spełnione, aby zderzenie było skuteczne (efektywne, aktywne):"], "definitions": [{"name": "Definicja 1: Równanie kinetyczne", "content": "\n\nSzybkość reakcji chemicznej jest proporcjonalna do ilości zderzeń aktywnych zachodzących pomiędzy cząstkami (cząsteczkami, atomami).\nJeżeli w układzie zachodzi reakcja jednofazowa (homogeniczna):\n\n\n\t\t\t\t\t\t\t\t\\( aA + bB \\rightarrow cC \\)\n\n\ngdzie:\nA, B - substraty\nC - produkt\na, b, c - współczynniki stechiometryczne reakcji chemicznej\n\nto szybkość reakcji (r) w danej chwili jest proporcjonalna do iloczynu stężeń wszystkich cząsteczek, które biorą udział w reakcji. Tą zależność można zapisać w formie ogólnego równania kinetycznego reakcji chemicznej, które jest wyznaczane doświadczalnie i ma postać:\n\n\n\t\t\t\t\t\t\t\t\\( r=k[A]^x [B]^y \\)\n\n\ngdzie:\n \\( [A], [B] \\) - stężenia molowe substratów w określonej chwili,\nk - współczynnik proporcjonalności, stała szybkości reakcji, która ma charakaterystyczną wartość dla danej reakcji chemicznej i warunków w jakich zachodzi reakcja (zależy od temperatury), nie zależy od stężeń reagentów,\n\nx, y - wyznaczone doświadczalnie wykładniki potęgowe."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 535, "subject": "Wpływ temperatury na szybkość reakcji chemicznej", "paragraphs": ["Zależność pomiędzy szybkością reakcji chemicznej, a temperaturą (w dużym zakresie temperatur) podaje równanie Arrheniusa:", "Powyższe równanie można zapisać w postaci logarytmicznej (logarytm naturalny po obu stronach równania):", "gdzie: k - stała szybkości reakcji, A - stała A (czynnik częstośći zderzeń) \\( E_a \\) - energia aktywacji reakcji \\( [J mol^{-1}] \\) R - stała gazowa (8,314 \\( [J mol^{-1} K^{-1}] \\)) T - temperatura \\( [K] \\)(°C + 273)", "Wykres zależności lnk od odwrotności temperatury \\( \\frac {1}{T} \\) jest linią prostą o nachyleniu \\( \\frac {-E_a}{R} \\)( Rys. 1 ).", "Energię aktywacji \\( E_a \\) można obliczyć znając stałe szybkości reakcji chemcznej w dwóch różnych temperaturach ( \\( T_1 \\) i \\( T_2 \\)):", "czyli:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 536, "subject": "Wpływ orientacji cząsteczek na szybkość reakcji chemicznej", "paragraphs": ["Zgodnie z teorią zderzeń czynnikiem, który ogranicza efektywność zderzeń jest orientacja przestrzenna zderzających się cząsteczek (lub atomów, jonów, rodników). Szybkość reakcji chemicznej zależy od liczby zderzeń efektywnych, czyli takich, w których zderzające się cząsteczki mają odpowiednią energię oraz właściwą orientację względem siebie."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 537, "subject": "Wpływ stężenia reagentów na szybkość reakcji chemicznej", "paragraphs": [], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 538, "subject": "Mechanizm reakcji chemicznej", "paragraphs": [], "definitions": [{"name": "Definicja 1: Mechanizm reakcji chemicznej", "content": "Pojęcie mechanizmu reakcji chemicznej stosuje się do określenia rzeczywistego przebiegu reakcji chemicznej, który jest o wiele bardziej skomplikowany niż mogłoby to wynikać z postaci sumarycznego równania stechiometrycznego. W większości przypadków reakcja chemiczna składa się z wielu etapów pośrednich, tzw. reakcji elementarnych, które występują w określonej kolejności i składają się na daną przemianę chemiczną. Z pojęciem reakcji elementarnej wiąże się określenie cząsteczkowość, które oznacza liczbę cząsteczek (lub atomów, jonów, rodników), które biorą udział w reakcji elementarnej.\nReakcja elementarna, w której bierze udział jedna cząsteczka (lub atom, jon, rodnik) nazywa się reakcją jednocząsteczkową.\nReakcja elementarna, w której biorą udział dwie cząsteczki (lub atomy, jony, rodniki) nazywa się reakcją dwucząsteczkową.\n\nReakcje elementarne trzycząsteczkowe są rzadko spotykane."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 539, "subject": "Reakcje wieloetapowe", "paragraphs": ["Większość reakcji chemicznych przebiega wieloetapowo, co oznacza, że szybkość procesu chemicznego jest wynikiem przebiegu wielu reakcji elementarnych i zależy od ich wzajemnej sekwencji, czyli uszeregowania poszczególnych reakcji elementarnych w czasie. W reakcjach wieloetapowych można wyróżnić następcze i równoległe reakcje elementarne."], "definitions": [{"name": "Definicja 1: Reakcje następcze", "content": "Reakcje następcze, to takie, które przebiegają etapami, poprzez różne stany pośrednie, w taki sposób, że tworzący się produkt pośredni jednej reakcji staje się również substratem następnej. "}, {"name": "Definicja 2: Reakcje równoległe", "content": "Reakcje równoległe charakteryzują się tym, że jeden substrat może reagować w jednym czasie w różny sposób."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 540, "subject": "Teoria kompleksu aktywnego", "paragraphs": ["Teoria kompleksu aktywnego (teoria stanu przejściowego) stanowi uzupełnienie teorii zderzeń.", "Podczas zderzenia efektywnego pomiędzy cząsteczkami A i B dochodzi do utworzenia się nietrwałego przejściowego układu AB* tzw. kompleksu aktywnego (stanu przejściowego) pomiędzy substratami ( \\( A \\) i \\( B \\)), a produktami ( \\( C \\) i \\( D \\)). Kompleks aktywny, w przypadku efektywnego zderzenia można opisać jako tworzenie się wspólnego układu atomów, które oddziałują na siebie (nie jest to produkt, ani substrat reakcji chemicznej). Stadium pośrednie (kompleks aktywny) jest krótkotrwałe, podczas rozpadu mogą powstać substraty jak i produkty.", "Analizując profil zmian energii potencjalnej substratów A i B podczas reakcji chemicznej obszar, który znajduje się w pobliżu maksimum energii potencjalnej nazywa się kompleksem aktywnym ( Rys. 1 ). Substraty przekształcą się w produkty lub odwrotnie produkty w substraty, jeżeli zostanie pokonana bariera energetyczna.", "Rys. 1 przedstawia profile energetyczne dla reakcji egzotermicznej (ΔH <0; ΔH - zmiany entalpii; ΔH = H (produkty) - H (substraty)) i endotermicznej (ΔH> 0)."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 541, "subject": "Kataliza", "paragraphs": ["Kataliza to zjawisko, które polega na zwiększeniu szybkości reakcji chemicznej. Do zwiększenia szybkości reakcji chemicznej może dojść poprzez wprowadzenie do układu reagującego katalizatora, czyli substancji, która może tworzyć nietrwałe połączenia przejściowe z substratami, ale po zakończeniu reakcji chemicznej występuje w niezmienionym stanie. W reakcji katalitycznej, czyli przebiegającej pod wpływem katalizatora, dochodzi do obniżenia energii aktywacji \\( (E_a) \\) co sprawia, że reakcja przebiega z większą szybkością ( Rys. 1 ).", "Katalizator nie wpływa na położenie stanu równowagi reakcji katalitycznej ( katalizator a równowaga ).", "Katalizę można podzielić na katalizę homogeniczną i heterogeniczną (podział ze względu na fazę w jakiej znajdują się substancje reagujące oraz katalizator)."], "definitions": [{"name": "Definicja 1: Katalia homogeniczna", "content": "Kataliza homogeniczna (jednorodna, jednofazowa) - katalizator znajduje się w takiej samej fazie jak reagenty."}, {"name": "Definicja 2: Kataliza heterogeniczna", "content": "Kataliza heterogeniczna (niejednorodna, wielofazowa) - katalizator stanowi odrębną fazę układu reagującego. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 542, "subject": "Statyka chemiczna", "paragraphs": ["Statyka chemiczna to dział chemii fizycznej, który zajmuje się badaniem stanów równowagi reakcji chemicznych. Wszystkie reakcje chemiczne dążą do równowagi dynamicznej, czyli stanu, w którym substraty i produkty nie wykazują dalszej tendencji do wypadkowej zmiany. [1] [2]", "Poniżej przedstawiono podstawowe pojęcia jakie wiążą się z działem statyki chemicznej:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 543, "subject": "Stan równowagi chemicznej", "paragraphs": ["Główne czynniki mające wpływ na stan równowagi chemicznej:"], "definitions": [{"name": "Definicja 1: Stan równowagi reakcji chemicznych", "content": "Reakcja chemiczna osiąga stan równowagi chemicznej wtedy gdy stężenia zarówno substratów jak produktów nie ulegają wypadkowej zmianie.\nZ perspektywy poziomu molekularnego reakcje biegną w kierunku tworzenie się produktów (reakcja wprost) oraz substratów (reakcja odwrotna). Stan równowagi chemicznej rozpatrywany jest jako proces dynamiczny, co oznacza, że szybkość reakcji chemicznej w kierunku tworzenia się produktów jest taka sama jak w kierunku tworzenia się substratów, w przeciwieństwie do równowagi statycznej. Z reguły równowaga chemiczna jest procesem dynamicznym (ciśnienie i temperatura nie ulegają zmianie) opisywanym za pomocą stałej równowagi (K)."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 544, "subject": "Prawo działania mas", "paragraphs": [], "definitions": [{"name": "Definicja 1: Prawo działania mas (prawo Guldberga i Waagego)", "content": "Wyrażenie na stałą równowagi zostało wyprowadzone przez Guldberga i Waagego w 1864 r. jako tzw. prawo działania mas. W stanie równowagi chemicznej, w stałej temperaturze iloraz iloczynu stężeń molowych produktów do iloczynu stężeń molowych substratów, podniesionych do odpowiednich potęg, które odpowiadają współczynnikom stechiometrycznym reagujących substancji ma wartość stałą. Wartość stałej równowagi chemicznej jest wielkością charakterystyczną dla danej reakcji chemicznej oraz określonej temperatury.\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( K=\\frac{k_1}{k_{-1}}= \\frac{[C]^c\\cdot[D]^d}{[A]^a\\cdot[B]^b} \\)\n\n"}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 545, "subject": "Równowaga w układach heterogenicznych", "paragraphs": [], "definitions": [{"name": "Definicja 1:", "content": "Równowaga heterogeniczna, to równowaga chemiczna, która ustala się pomiędzy reagentami, które znajdują się w różnych fazach.\nW układzie heterogenicznym (niejednorodnym) reakcja chemiczna zachodzi na granicy faz. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 546, "subject": "Reguła Le Chateliera i Brauna", "paragraphs": ["Stan równowagi chemicznej może zostać zaburzony (przesunięty) pod wpływem zmiany stężenia reagentów, temperatury układu, ciśnienia (reakcje przebiegające w fazie gazowej). Układ chemiczny, zgodnie z regułą przekory, dąży wtedy do przeciwdziałania tej zmianie, w celu osiągnięcia ponownego stanu równowagi."], "definitions": [{"name": "Definicja 1: Reguła Le Chateliera i Brauna", "content": "\nReguła Le Chateliera i Brauna (nazwa reguły pochodzi od nazwiska chemika H. Le Chatelier oraz fizyka K. F. Brauna, którzy ją niezależnie od siebie opisali) zwana powszechnie regułą przekory mówi, że jeżeli na układ znajdujący się w stanie równowagi chemicznej zadziała jakiś czynnik zewnętrzny, to w układzie dojdzie do takich zmian, które zminimalizują działanie tego czynnika. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 547, "subject": "Katalizator a równowaga", "paragraphs": [], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 548, "subject": "Kinetyka reakcji - zadania, przykłady", "paragraphs": [], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 4. Kinetyka i statyka chemiczna", "subject_id": 549, "subject": "Obliczanie wydajności reakcji - zadania, przykłady", "paragraphs": [], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 550, "subject": "Wielkości fizyczne", "paragraphs": ["Obowiązującym obecnie w Polsce układem jednostek jest układ SI, w którym opisane jest siedem jednostek głównych wyprowadzonych w oparciu o fundamentalne stałe, Tabela 1.", "Oprócz jednostek głównych wyróżnia się jednostki pochodne związane z wielkościami pochodnymi, wyrażanymi przy pomocy iloczynów wielkości podstawowych w odpowiednich potęgach, np. paskal \\( \\text{Pa} \\) - jednostka ciśnienia oraz naprężenia:", "Jednostki pochodne w układzie SI mogą posiadać własne nazwy, jak np. dżul \\( \\text{J} \\), niuton \\( \\text{N} \\), paskal \\( \\text{Pa} \\), herc \\( \\text{Hz} \\), kulomb \\( \\text{C} \\), wolt \\( \\text{V} \\) lub om \\( \\Omega \\), bądź być pozbawione własnych nazw i wyrażane jako iloczyn wielkości podstawowych w odpowiednich potęgach, np. \\( \\text{J}\\cdot{\\text{mol}^{-1}}\\cdot{\\text{K}^{-1}} \\) (jednostka molowego ciepła właściwego), \\( \\text{m}^{3} \\) (jednostka objętości), \\( \\text{kg}\\cdot{\\text{m}^{-3}} \\) (jednostka gęstości) czy \\( \\text{mol}\\cdot{\\text{m}^{-3}} \\) (jednostka stężenia molowego).", "Do jednostek podstawowych jak i pochodnych można dodać przedrostki jednostek (prefiksy), Tabela 2, otrzymując wielokrotności lub podwielokrotności jednostek układu SI, np.:", "Moduł opracowano na podstawie [1]."], "definitions": [{"name": "Definicja 1: Wielkość fizyczna", "content": "Cecha zjawiska fizycznego, właściwość ciała lub substancji, która może być określona ilościowo na drodze pomiaru."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 551, "subject": "Dokładność obliczeń", "paragraphs": ["Wartości liczbowe dowolnych wielkości wyznaczanych eksperymentalnie zawsze odbiegają w mniejszym lub większym stopniu od wartości rzeczywistych (dokładnych). Na błąd, którym obarczony jest każdy wynik pomiarowy składają się błąd systematyczny, pozostający stały dla danej serii pomiarów lub zmieniający się w sposób przewidywalny i mający swoje źródło w np. zastosowanej metodzie pomiarowej, niedoskonałościach aparatury oraz błąd przypadkowy związany z trudnymi do zidentyfikowania i przewidzenia przyczynami, a którego wartości zmieniają się przypadkowo w serii pomiarów. Do określenia dokładności pomiaru i związanych z nim obliczeń stosuje się dwa rodzaje błędów pomiaru - błąd bezwzględny i błąd względny.", "Jednostką błędu bezwzględnego jest miano wielkości mierzonej, dla której błąd ten jest szacowany.", "Błąd bezwzględny jest wielkością bezwymiarową, bardzo często wyrażaną w procentach (nazywany jest wówczas błędem względnym procentowym):", "Ponieważ wartość rzeczywista w wielu przypadkach nie jest znana, przybliża się ją przy pomocy średniej arytmetycznej wartości danej wielkości zmierzonych w serii \\( N \\) pomiarów:", "Z pojęciem błędu bezwzględnego związana jest liczba cyrf znaczących w mierzonej lub obliczanej wartości liczbowej wielkości fizycznej. Każda z liczb naturalnych należąca do przedziału \\( [0,9] \\) może być cyfrą znaczącą. Szczególnym przypadkiem jest zero, które w zależności od położenia w danej liczbie będzie lub nie uznawane za cyfrę znaczącą. Zera znajdujące się przed pierwszą inną niż zero cyfrą w danej liczbie nigdy nie są cyframi znaczącymi - określają one jedynie rząd danej liczby. Cyfrę tę można uznać za znaczącą wówczas, gdy zajmuje pozycję pomiędzy innymi cyframi znaczącymi, lub występując na końcu liczby oznacza dokładność wyznaczenia danej wielkości.", "Moduł opracowano na podstawie [1], [2], [3]."], "definitions": [{"name": "Definicja 1: Błąd bezwzględny", "content": "Różnica między wartością zmierzoną \\( x \\) a wartością rzeczywistą \\( x_0 \\).\n\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\epsilon=x-x_0 \\)\n\n"}, {"name": "Definicja 2: Błąd względny", "content": "Stosunek błędu bezwzględnego \\( \\epsilon \\) do wartości rzeczywistej \\( x_0 \\).\n\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( \\displaystyle\\delta=\\frac{\\epsilon}{x_0} \\)\n\n"}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 552, "subject": "Zaokrąglanie liczb przy dodawaniu, odejmowaniu, mnożeniu i dzieleniu", "paragraphs": ["Zaokrąglanie liczb polega na odcięciu z końca danej liczby cyfr, które przekraczają dokładność jej wyznaczenia. Przy zaokraglaniu liczb zastosowanie mają następujące reguły:", "Moduł opracowano na podstawie [1], [2]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 671, "subject": "Pojęcia podstawowe", "paragraphs": ["W toku reakcji chemicznej zachodzącej w układzie nie wymieniającym masy z otoczeniem ilości atomów poszczególnych pierwiastków pozostają stałe, zmienia się jedynie układ wiązań pomiędzy nimi - z atomów wchodzących w skład rozpadających się cząsteczek powstaja nowe związki o innej budowie i właściwościach. Niemniej, sumaryczna masa substratów zawsze jest równa całkowitej masie produktów reakcji:", "Analogicznie do prawa zachowania masy, dla układu, w którym zachodzi reakcja chemiczna i nie mogącego wymieniać masy z otoczeniem, całkowity ładunek elektryczny dla produktów tej reakcji musi być równy sumarycznemu ładunkowi elektrycznemu substratów.", "Poprawnie zbilansowane równanie chemiczne jest symboliczną reprezentacją prawa zachowania ładunku dla danej reakcji chemicznej. Przykładowo, dla reakcji redoks:", "Moduł opracowano na podstawie [1], [2], [3], [4], [5], [6], [7]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 670, "subject": "Zasady ustalania stopni utlenienia pierwiastków", "paragraphs": ["Moduł opracowano na podstawie [1], [2], [3]."], "definitions": [{"name": "Definicja 1: Stopień utlenienia", "content": "Hipotetyczny ładunek jaki posiadałby atom wchodzący w skład cząsteczki przy założeniu, że wszystkie wiązania pomiędzy atomami tworzącymi tę cząsteczkę są jonowe."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 672, "subject": "Stechiometria wzorów chemicznych", "paragraphs": ["Wzór związku chemicznego niesie ze sobą informacje jakie pierwiastki tworzą dany związek oraz podaje liczby atomów poszczególnych pierwiastków w cząsteczce. Niezależnie od sposobu otrzymania danego związku skład jego cząsteczki zawsze będzie taki sam, np. cząsteczka wody może być produktem m.in. reakcji spalania wodoru ( 1 ) lub zobojętniania ( 2 ). W obydwu wymienionych przypadkach woda posiada ten sam wzór chemiczny, t.j. \\( \\text{H}_{2}\\text{O} \\).", "Dla cząsteczki wody stosunek liczby atomów wodoru do liczby atomów tlenu to 2 do 1, natomiast stosunek mas atomów pierwiastków w próbe o dowolnej wielkości jest równy stosunkowi mas molowych tych pierwiastków \\( M \\) przemnożonych przez odpowiednie współczynniki stechiometryczne i wynosi 1 do 8:", "Analogicznie, dla cząsteczki dwutlenku węgla \\( \\text{CO}_{2} \\) można zapisać:", "Pierwiastki posiadające kilka możliwych tworzą z atomami innego pierwiastka związki w różnych proporcjach. Przykładowo, chrom tworzy z tlenem szereg tlenków, np.: tlenek chromu(II) \\( \\text{CrO} \\), tlenek chromu(III) \\( \\text{Cr}_{2}\\text{O}_{3} \\), tlenek chromu(IV) \\( \\text{CrO}_{2} \\) oraz tlenek chromu(VI) \\( \\text{CrO}_{3} \\).", "Z wymienionymi powyżej prawami związane jest prawo stosunków objętościowych. Przykładowo, w reakcji spalania wodoru dwie jednostki objętości (np. \\( 2\\text{ ml} \\), \\( 2\\text{ dm}^{3} \\), \\( 2\\text{ m}^{3} \\) itp.) gazowego wodoru reagują z jedną jednostką objętości gazowego tlenu dając dwie objętości wody w stanie gazowym. Stwierdzenie to jest prawdziwe dla objętości reagujących gazów zmierzonych w tych samych warukach temperatury i ciśnienia.", "Można wyróżnić trzy rodzaje wzorów chemicznych:", "Wzór empiryczny można otrzymać dzieląc współczynniki stechiometryczne stojące przy symbolach pierwiastków we wzorze sumarycznym przez ich największy wspólny dzielnik. Przykładowo, pojedyncza cząsteczka glukozy zbudowana jest z sześciu atomów węgla, dwunastu wodoru i sześciu tlenu:", "Wzór empiryczny dla glukozy można utworzyć dzieląc współczynniki stechiometryczne stojące przy symbolach pierwiastków przez ich największy wspólnych dzielnik - sześć.", "W przypadku związków, których cząsteczki zawierają pojedynczy atom przynajmniej jednego pierwiastka, wzór sumaryczny jest tożsamy ze wzorem empirycznym. Przykładem takiego związku jest kwas azotowy(V) \\( \\text{HNO}_{3} \\), w którego cząsteczce występują pojedyncze atomy wodoru i azotu, a więc nie ma możliwości dalszego uproszczenia współczynników stechiometrycznych stojących przy symbolach tych pierwiastków. Bez znajomości masy cząsteczkowej danego związku nie jest możliwa jego jednoznaczna identyfikacja w oparciu tylko o wzór empiryczny, który może być wspólny dla kilku zupełnie różnych związków posiadających własne wzory sumaryczne. Na przykład, \\( \\text{CH}_{2}\\text{O} \\) jest wspólnym wzorem empirycznym m. in. dla:", "W przypadku aldehydu mrówkowego, wzór empiryczny jest jednocześnie jego wzorem sumarycznym.", "Przykłady obliczeń oraz zadania do samodzielnego rozwiązania związane ze stechiometrią wzorów chemicznych można znaleźć w module Stechiometria wzorów chemicznych - przykłady obliczeń.", "Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 554, "subject": "Stechiometria wzorów chemicznych - przykłady obliczeń", "paragraphs": ["Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 553, "subject": "Równanie chemiczne", "paragraphs": ["Reakcja chemiczna jest procesem, podczas którego zachodzi przemiana substancji chemicznych (substratów) w inne substancje chemiczne (produkty), które różnią się od tych pierwszych właściwościami oraz budową. Jej symboliczną reprezentacją jest równanie reakcji chemicznej (równanie chemiczne, równanie reakcji), w którym substraty zapisane są po lewej stronie równania, produkty natomiast po jego prawej stronie, przy czym równanie reakcji nie dostarcza informacji o mechanizmie reakcji chemicznej, przedstawia jedynie jej bilans.", "Strony równania chemicznego rozdzielone mogą być strzałkami, których postać zależy od typu reakcji ( Tabela 1 ), bądź znakiem równości w przypadku, gdy interesujący jest jedynie bilans danej reakcji. Pomiędzy poszczególnymi reagentami umieszcza się znak dodawania, plus \\( (+) \\).", "Nad lub pod strzałkami bardzo często zapisuje się informacje dotyczące warunków, przy których dana reakcja zachodzi:", "W przypadku, gdy ważne jest podkreślenie stanów skupienia (faz) w jakich występują substraty i produkty danej reakcji, stosuje się odpowiednie litery umieszczone w nawiasie okrągłym: \\( (g) \\) - gaz, \\( (c) \\) lub \\( (l) \\) - faza ciekła, \\( (s) \\) - ciało stałe, symbol \\( (aq) \\) stosuje się dla substancji rozpuszczonych w wodzie.", "Jeżeli w toku reakcji powstaje nierozpuszczalny lub gazowy produkt, wówczas fakt ten zaznaczany jest strzalkami pionowymi. Produkt wytrącający się z roztworu (osad), w którym zachodziła reakcja oznaczany jest strzałką skierowaną w dół \\( \\downarrow \\), strzałka ku górze \\( \\uparrow \\) zaznacza wydzielający się produkt gazowy.", "Uzgodnione (zbilansowane) równanie reakcji jest ściśle powiązane z prawami zachowania masy, zachowania ładunku oraz zachowania energii i uzupełnione jest wówczas o współczyniki stechiometrycze stojące przed odpowiednimi składnikami równania. Z kolei równanie reakcji uzupełnione o wartość energii jaka jest pochłaniana bądź oddawana do otoczenia (patrz moduł Obliczenia termochemiczne oraz Energetyka reakcji chemicznych ) nosi nazwę równania termochemicznego. Jednakże, kiedy interesujący jest jedynie zarys przebiegu danej reakcji, współczynniki stechiometryczne są pomijane:", "Informacje dotyczące uzgadniania reakcji chemicznych można znaleźć w module: Stechiometria równań chemicznych, sposoby bilansowania reakcji typu redoks zamieszczono w modułach: Reakcje redoks - zapis i uzgadnianie, Reakcje redoks w środowisku kwasowym oraz Reakcje redoks w środowisku zasadowym."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 673, "subject": "Stechiometria równań chemicznych", "paragraphs": ["Uzgadnianie równań reakcji chemicznych polega na doborze odpowiednich wartości współczynników stechiometrycznych stojących przed wzorami chemicznymi związków biorących udział w reakcji, takich, dla których spełniona jest zasada zachowania masy. Innymi słowy, sumaryczna liczba atomów danego pierwiastka po stronie substratów musi być równa całkowitej liczbie jego atomów po stronie produktów w poprawnie uzgodnionym równaniu reakcji chemicznej. W czasie bilansowania równań chemicznych niedopuszczalne jest zmienianie wzorów chemicznych związków, gdyż taka zmiana sugeruje, że reagentem jest zupełnie inna substancja niż w rzeczywistości). Równania ( 1 ) przedstawiają poprawnie oraz błędnie zbilansowane równanie reakcji spalania wodoru. Pomimo, iż masa w obydwu przypadkach jest zachowana, nieprawidłowo uzgodnione równanie błędnie sugeruje, że produktem reakcji jest nadtlenek wodoru zamiast wody.", "Zabronione jest również wstawianie współczynników stechiometrycznych pomiędzy symbole pierwiastków tworzące wzór cząsteczki:", "Przykłady obliczeń i zadania do samodzielnego rozwiązywania związane ze stechiometrią równań reakcji chemicznych można znaleźć w modułach Stechiometria równań chemicznych - przykłady obliczeń oraz Reakcje chemiczne w roztworach.", "Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 674, "subject": "Stechiometria równań chemicznych - przykłady obliczeń", "paragraphs": ["Prawidłowo uzgodnione równanie chemiczne podaje stosunki molowe substratów i produktów biorących udział w danej reakcji. Dzięki znajomości tych realcji można z kolei obliczyć masy bądź objętości poszczególnych reagentów i odwrotnie, znając masy bądź objętości reagujących substancji można określić współczynniki stechiometryczne występujące w równaniu reakcji lub wzorze chemicznym. W module tym przedstawione zostały przykłady obliczeń dla substancji czystych (np. nie będących składnikiem mieszaniny). Przykłady obliczeń dla roztworów (mieszanin) można znaleźć w module Reakcje chemiczne w roztworach.", "Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 557, "subject": "Reakcje chemiczne w roztworach", "paragraphs": ["W module tym przedstawione zostały przykłady obliczeń stechiometrycznych dla układów, w których przynajmniej jeden z reagentów jest składnikiem mieszaniny (np. roztworu). Przykłady obliczeń dla czystych reagentów można znaleźć w module Stechiometria równań chemicznych - przykłady obliczeń.", "Moduł opracowano na podstawie [1], [2], [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 555, "subject": "Reakcje redoks - zapis i uzgadnianie", "paragraphs": ["Termin \"redoks\" pochodzi od nazw sprzężonych reakcji REDukcji i OKSydacji (utleniania), w których stopnie utleniania atomów pierwiastków zmianiają się. Podczas reakcji oksydacji, stopnie utlenienia niektórych atomów wzrastają, natomiast w towarzyszącej jej reakcji redukcji stopnie utlenienia innych atomów maleją. Dla reakcji redoks procesy te są ze sobą nierozerwalnie związane i nie mogą zachodzić oddzielnie - sumaryczny wzrost stopnia utlenienia dla wszystkich atomów utlenianych musi być równy całkowitemu obniżeniu się stopnia utleniania dla atomów ulegających redukcji. Pierwiastek (lub pierwiastki), którego atomy w danej reakcji utleniają atomy innego pierwiastka (lub pierwiastków), jednocześnie same ulegają redukcji nazywany jest utleniaczem. Z kolei, pierwiastek powodujący redukcję atomów innego pierwiastka to reduktor. Uzgadniając równania reakcji typu redoks należy bilansować nie tylko masę (liczby atomów poszczególnych pierwiastków), ale również sumaryczne zmiany stopni ultenienia atomów.", "Moduł opracowano na podstawie [1], [2], [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 675, "subject": "Reakcje redoks w środowisku kwasowym", "paragraphs": ["W module Reakcje redoks - zapis i uzgadnianie przedstawiony został ogólny sposób bilansowania równań reakcji typu redoks bez rozważania wpływu odczynu roztworu. W tym module skupimy się na uzgadnianiu równań reakcji redoks zapisanych przy użyciu notacji jonowej oraz przy założeniu, że odczyn roztworu, w którym dana reakcja zachodzi jest kwasowy.", "Moduł opracowano na podstawie [1], [2], [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 676, "subject": "Reakcje redoks w środowisku zasadowym", "paragraphs": ["W module tym przedstawiono sposób uzgadaniania równań reakcji typu redoks dla środowisk o odczynie \\( pH>7 \\) podanych przy użyciu zapisu jonowego.", "Moduł opracowano na podstawie [1], [2], [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 556, "subject": "Energetyka reakcji chemicznych", "paragraphs": ["Podczas reakcji chemicznej dochodzi do tworzenia nowych związków o budowie i składzie innym niż substraty, z których powstają. Towarzyszy temu zrywanie części wiązania pomiędzy atomami w cząsteczce, a także tworzenie nowych wiązań. Z każdą reakcją chemiczną związany jest pewien efekt energetyczny. Zerwanie wiązania wymaga bowiem pochłonięcia określonej porcji energii, z kolei utworzenie nowego wiązania powoduje jej wydzielenie. Procesy te prowadzą do zmiany energii wewnętrznej układu, w którym dana reakcja zachodzi. Zgodnie z pierwszą zasadą termodynamiki, zmiana energii wewnętrznej \\( {\\Delta}U \\) układu zamkniętego (wymieniającego jedynie energię z otoczeniem) możliwa jest tylko poprzez wymianę ciepła z otoczeniem lub na drodze pracy.", "Entalpia układu, jest z kolei sumą energii wewnętrznej układu i iloczynu cisnienia oraz objętości. Jest to energia niezbędna do utworzenia układu w próżni ( \\( U \\)) powiększona o pracę ( \\( pV \\)), jaką układ musi wykonać przeciwko siłom zewnętrznym aby uzyskać niezerową objętość.", "Nieskończenie mała zamiana entalpii ukladu będąca wynikiem zachodzącej w tym układzie reakcji:", "Przyjęcie warunków izobarycznych powoduje eliminację drugiego członu po prawej stronie równania ( 3 ), \\( dpV=0 \\). Po zamianie różniczek na przyrosty skończone oraz podstawieniu do równania ( 3 ) wyrażenia na zmianę energii wewnętrznej układu, równanie ( 1 ):", "Jeżeli założymy, że układ wykonuje pracę objętościową przy stałym ciśnieniu \\( W=-p{\\Delta}V \\):", "Ostatecznie, zmiana entalpii układu, w którym zachodzi reakcja w warunkach stałego ciśnienia równa jest ciepłu przy stałym ciśnieniu:", "Ze względu na kierunek przepływu energii wyróżnia się reakcje egzotermiczne (egzoenergetyczne) oraz endotermiczne (endoenergetyczne).", "Jeśli to niezbędne, efekt cieplny danej reakcji uwzględnia się w zapisie równania chemicznego. Dla reakcji endotermicznych, wartość energii pochłoniętej zapisuje się po stronie substratów, w przypadku reakcji egzotermicznych, po stronie produktów podaje się wartość bezwzględną wydzielonej energii.", "Dzięki prawu Hessa możliwe jest wyliczenie zmiany entalpii reakcji, która dla waruków standardowych, t.j. ciśnienia \\( 10^{5}{\\text{ Pa}} \\) oraz dowolnej temperatury nosi nazwę standardowej entalpii reakcji i oznaczana jest symbolem \\( {\\Delta}_{r}H^{\\Theta} \\). Ponieważ entalpia jest funkcją stanu, wartość jej zmiany zależeć będzie jedynie od wartości entalpii w stanach końcowym i początkowym, które dla reakcji chemicznej oznaczają odpowiednio stany produktów i substratów. Prawo Hessa można wyrazić rówaniem:", "gdzie: \\( \\nu \\) są współczynnikami stechiometrycznymi w równaniu reakcji, \\( {\\Delta}_{f}H^{\\Theta} \\) to standardowe molowe entalpie tworzenia dla substratów i produktów danej reakcji.", "Przykładowo, najtrwalszą odmianą tlenu w temperaturze \\( 25^{\\circ}{\\text{C}} \\) i ciśnieniu \\( 10^{5}{\\text{ Pa}} \\) są cząsteczki dwuatomowe tego pierwiastka: \\( \\text{O}_{2} \\). Z kolei najtrwalszą odmianą węgla w tych warunkach jest grafit, natomiast dla wysokich temperatur i ciśnień stabilną odmianą jest diament. Jeżeli w reakcji bierze udział reagent będący w stanie podstawowym, przyjmuje się dla niego, że wartość standardowej molowej entalpii tworzenia wynosi zero. Reagentami takimi mogą być pojedyncze atomy pierwiastków, bądź w przypadku gazów innych niż szlachetne, cząsteczki tych gazów w najtrwalszej w danych warunkach odmianie. Wartości standardowych molowych entalpii tworzenia związków są stabelaryzowane i zawsze podawane są dla ciśnienia standardowego (t.j. \\( 10^{5}{\\text{ Pa}} \\)) oraz zwykle dla temperatury \\( 25^{\\circ}{\\text{C}} \\). Jednostką standardowej molowej entalpii tworzenia (oraz standardowej entalpii reakcji) jest:", "Wartość zmiany entalpii reakcji nie jest zależna od drogi prowadzenia danej reakcji, zależy jedynie od wartości entalpii w stanie końcowym (stan produktów reakcji) oraz w stanie początkowym (stan substratów). Innymi słowy, na wartość entalpii reakcji nie wpływa ilość reakcji pośrednich prowadzących do uzyskania określonych produktów z tych samych substratów.", "Zmiana entalpii reakcji (oraz entalpia w ogólności) jest zależna od warunków ciśnienia i temperatury w jakich została wyznaczona. Termochemiczne prawo Kirchhoffa pozwala na przeliczenie wartości standardowej entalpii reakcji dla pewnej temperatury \\( T_{2} \\) jeżeli znana jest wartość tej wielkości w temperaturze \\( T_{1} \\). Zależność standardowej entalpii reakcji od temperatury można wyprowadzić z definicji pojemności cieplnej1:", "Dla warunków izotermicznych ciepło równe jest zmianie entalpii:", "Scałkowanie tego równania oraz zastąpienie pojemności cieplnej przez zmianę standardowej pojemności cieplnej reakcji daje zależność wyrażającą prawo Kirchhoffa:", "Standardowa zmiana pojemności cieplnej reakcji dana jest równaniem analogicznym jak ( 8 ) i jest zmianą pojemności cieplnej reakcji dla warunków standardowych:", "gdzie: \\( \\nu \\) są współczynnikami stechiometrycznymi w reakcji, \\( C_{p}^{\\Theta} \\) oznacza standardowe ciepło molowe danego reagenta. Przy niewielkiej różnicy temperatur (do \\( 100{\\text{ K}} \\)) przyjmuje się, że \\( C_{p}^{\\Theta} \\) nie zależy od temperatury - ma stałą wartość w danym zakresie. Dla większych różnic temperatur, stosuje się funkcję:", "Jednostką zmiany standardowej pojemności cieplnej reakcji jest:", "Przykłady obliczeń oraz zadania do samodzielnego rozwiązania oparte na prawach Hessa oraz Kirchhoffa można znaleźć w module Obliczenia termochemiczne.", "Moduł opracowano na podstawie [1], [2], [3], [4], [5]."], "definitions": [{"name": "Definicja 1: Standardowa molowa entalpia tworzenia, \\( {\\Delta}_{f}H^{\\Theta} \\)", "content": "Jest to entalpia utworzenia 1 mola danego związku z pierwiastków w ich stanach podstawowych."}, {"name": "Definicja 2: Stan podstawowy pierwiastka", "content": "Najtrwalsza odmiana pierwiastka w danych warunkach."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 558, "subject": "Obliczenia termochemiczne", "paragraphs": ["Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 559, "subject": "Entalpia swobodna i kierunek reakcji chemicznej", "paragraphs": ["Dla procesów zachodzących w warunkach stałej temperatury i stałego ciśnienia (izotermiczno-izobarycznych), zmiana entalpii swobodnej dana jest równaniem ( 2 ).", "Z drugiej zasady termodynamiki wiadomo, że zmiana całkowitej entropii wszechświata ma tendencję do wzrostu:", "Zmiana entropii otoczenia równa jest ujemnemu ilorazowi zmiany entalpii układu i temperatury, można więc zapisać:", "Jak można zauważyć, prawe strony równań ( 2 ) oraz ( 4 ) są takie same, zmiana entalpii swobodnej procesu zachodzącego w warunkach stałej temperatury i stałego ciśnienia jest proporcjonalna do zmiany entropii całkowitej z przeciwnym znakiem:", "Warunkiem samorzutności dowolnego procesu jest aby zmiana całkowitej entropii była większa od zera, z kolei dla procesów izotermiczno-izobarycznych warunkiem tym jest aby zmiana entalpii swobodnej przyjmowała wartości mniejsze od zera.", "Dla układu, w którym zachodzi proces izobaryczno-izotermiczny, zmiana entalpii swobodnej równa jest także maksymalej pracy nieobjętościowej, jaką może wykonać układ (jest to praca nie związana ze zmianą jego objętości). Przykładem takiej pracy jest praca elektryczna dla ogniwa galwanicznego. Praca nieobjetościowa jest z kolei różnicą prac maksymalnej (odwracalnej) oraz objętościowej.", "Dla reakcji chemicznej przebiegającej w warunkach stałego ciśnienia i tempreratury, w której biorą udział reagenty w stanie standardowym można zapisać zmianę standardowej entalpii swobodnej reakcji.", "Wzór ten jest prawdziwy dla układów, w których następuje przemiana czystych substratów w czyste produkty, a więc żaden z reagentów nie jest składnikiem mieszany lub roztworu. Poprzez analogię do prawa Hessa, równanie na \\( {\\Delta}_{r}G^{\\Theta} \\) można zapisać jako różnicę sum iloczynów współczynników stechiometrycznych oraz zmian standardowych entalpii swobodnych tworzenia dla produktów i substratów:", "Jeżeli reakcja zachodzi w mieszaninie reagentów, wówczas w miejsce zmiany standardowej entalpii swobodnej reakcji stosuje się zmianę entalpii swobodnej reakcji \\( {\\Delta}_{r}G \\). Pomiędzy \\( {\\Delta}_{r}G^{\\Theta} \\) a \\( {\\Delta}_{r}G \\) istnieje relacja poprzez iloczyn reakcji \\( Q \\), równanie ( 10 ).", "Przykładowo, dla reakcji danej równaniem ( 11 ) iloraz \\( Q \\) równy jest stosunkowi iloczynów aktywności poszczególnych reagentów podniesionych do odpowiednich potęg.", "Znak zmiany entalpii swobodnej reakcji pozwala określić kierunek zachodzenia danej reakcji:", "Dla odwracalnej reakcji w stanie równowagi można zapisać:", "Wiekość \\( K \\) jest stałą równowagi reakcji odwracalnej.", "Przykłady obliczeń opartych na entaplii swobodnej można znaleźć w module Entalpia swobodna reakcji - przykłady obliczeń.", "Moduł opracowano na podstawie [1], [2], [3], [4], [5]."], "definitions": [{"name": "Definicja 1: Entalpia swobodna, funkcja Gibbsa", "content": "\nTermodynamiczna funkcja stanu dana równaniem:\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( G=H-TS=U+pV-TS \\)\n\ngdzie: \\( G \\) - entalpia swobodna, \\( H \\) - entalpia, \\( T \\) - temperatura w skali bezwzględnej, \\( S \\) - entropia, \\( U \\) - energia wewnętrzna, \\( p \\) - ciśnienie, \\( V \\) - objętość.\n\n"}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 5. Reakcje i obliczenia chemiczne", "subject_id": 560, "subject": "Entalpia swobodna reakcji - przykłady obliczeń", "paragraphs": ["Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 6. Termodynamika", "subject_id": 518, "subject": "Faza, układ, otoczenie", "paragraphs": ["Podstawowym pojęciem w termodynamice jest układ, przez który rozumiemy część przestrzeni poddawaną obserwacji i badaniu. Pozostałą część wszechświata z punktu termodynamicznego stanowi otoczenie. Pomiędzy układem a otoczeniem może istnieć granica, niekiedy może to być granica wyimaginowana. Jest to uzależnione od stanu materii oraz od rodzaju zjawisk rozważanych w układzie. Jeżeli w naczyniu zamkniętym znajduje się ciecz, to ścianki tego naczynia stanowią fizyczną (naturalną) granicę układu. Istnienie ścianek naczynia możemy zaniedbać, gdy rozważamy proces parowania wewnątrz naczynia. Natomiast jeżeli naczynie podgrzewamy, to układ nasz musimy powiększyć przynajmniej o ścianki tego naczynia, gdyż posiadają one określoną pojemność cieplną i również będą się ogrzewały. Jeżeli naczynie będzie izolowane, to za granicę układu możemy przyjąć zewnętrzną powierzchnię naczynia. Rozważając z kolei wpływ promieniowania na naszą planetę, nie jesteśmy w stanie wydzielić fizycznej granicy układu, gdyż gęstość powietrza oddalając się od powierzchni Ziemi asymptotycznie dąży do zera. Możemy jedynie w zależności od możliwości, a przede wszystkim od wielkości błędu pomiaru danej wielkości, określić obszar naszych zainteresowań. Wśród układów wyróżniamy układy ciągłe, które składają się z jednej fazy, gdzie fazę definiujemy jako jednorodną pod względem fizycznym i chemicznym część materii, ograniczoną od obszarów układu o innych właściwościach powierzchnią fazową. Drugim typem układu są układy nieciągłe, to znaczy takie, których objętość możemy podzielić na co najmniej dwa podukłady. Ciecz wewnątrz naczynia (ograniczona ściankami i powierzchnią cieczy) stanowi układ ciągły, ale już ciecz i współistniejąca z nią para stanowią dwa podukłady. Natomiast, w pewnych procesach również ścianki naczynia musimy traktować jako podukład. Ze względu na możliwość wymiany masy (cząstek) i energii pomiędzy układami a otoczeniem wyróżniamy: układy otwarte, zamknięte i izolowane. Do układów otwartych zaliczamy takie układy, w których pomiędzy nimi i otoczeniem następuje nieustanny przepływ cząstek i energii. W układach zamkniętych jest możliwość wymiany energii, ale nie ma możliwości wymiany z otoczeniem cząstek (składników). Natomiast układy izolowane nie mają możliwości wymiany z otoczeniem ani masy, ani energii. Wyróżniane są również układy izolowane adiabatycznie, które nie mogą wymieniać z otoczeniem masy i ciepła, natomiast wymieniają energie pod innymi postaciami, np. wykonywana jest praca mechaniczna. Stosowane jest również pojęcie układu nieizolowanego, który może wymieniać z otoczeniem masę bądź energię lub równocześnie masę i energię.", "Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 6. Termodynamika", "subject_id": 519, "subject": "Energia, praca, ciepło", "paragraphs": ["Każdy układ materialny charakteryzuje się pewnym zasobem energii, który w ogólnym ujęciu jest sumą trzech składowych: całkowitej energii potencjalnej \\( E_{p} \\), całkowitej energii kinetycznej \\( E_{k} \\), energii wewnętrznej \\( U \\). Wprowadzone pojęcia można wyjaśnić na przykładzie układu, jakim jest obiekt o masie \\( m \\), staczający się po pochyłej powierzchni ( Rys. 1 ). W momencie gdy znajduje się na wysokości \\( h \\) i ma prędkość \\( v \\), jego energia całkowita składa się z całkowitej energii potencjalnej \\( E_{p} = m \\cdot g \\cdot h \\), ( \\( g \\) – przyspieszenie ziemskie), całkowitej energii kinetycznej \\( E_{k} = \\frac{m \\cdot v^2}{2} \\), oraz energii wewnętrznej \\( U \\), zmagazynowanej w tym obiekcie.", "Energia wewnętrzna Na energię wewnętrzną układu składają się:", "1) energia kinetyczna ruchu drgającego, obrotowego i postępowego atomów, jonów i cząsteczek,", "2) energia potencjalna elementów tego układu, wynikająca z istnienia sił wiązań międzyatomowych i oddziaływań międzycząsteczkowych,", "3) energia stanów elektronowych,", "4) energia jąder atomowych, a ściślej energia „uwięziona” w materii, związana z masą \\( m \\) równaniem Einsteina \\( E = m \\cdot c^2 \\) ( \\( c \\) – prędkość światła); energia ta nie jest jednak uwzględniana, gdyż w zwykłych procesach i przemianach nie może zostać uwolniona.", "Udział podanych rodzajów energii, składających się na energię wewnętrzną, zależy od stanu skupienia faz tworzących układ. Energia kinetyczna związana z ruchem postępowym, największa w fazie gazowej, przyjmuje mniejsze wartości w fazie ciekłej, natomiast w fazie stałej ustępuje energii drgań. Energia potencjalna wiązań w fazie skondensowanej jest zdecydowanie większa niż w fazie gazowej. Osiąga w ciałach stałych większą wartość niż w cieczach. Energia wewnętrzna układu jest wielkością ekstensywną (zależy od masy ciała), a jej ilość zależy nie tylko od masy i natury ciała, lecz również od charakteryzujących go parametrów \\( p, V, T \\). Bezwzględnej wartości energii wewnętrznej nie można określić. Wyznacza się tylko jej zmianę \\( \\Delta U \\), podczas różnych przemian zachodzących w układzie. Przyjmuje się warunek, że układ nie jest izolowany od otoczenia. Zmiana energii wewnętrznej następuje przez jej wymianę pomiędzy układem i otoczeniem. Energia jest przekazywana na sposób ciepła lub pracy. Gdy układ wymieni z otoczeniem pewną ilość energii \\( Q \\) na sposób ciepła i ilość energii \\( W \\) na sposób pracy, to energia wewnętrzna \\( U \\) zmienia się o wartość:", "Użycie sformułowania „energia przekazywana na sposób ciepła lub pracy” ma na celu podkreślenie faktu, że ciepło i praca nie są formami energii – są jedynie sposobem jej przekazywania. W literaturze, zwłaszcza w podręcznikach, powszechnie stosuje się krótszy, ale zarazem mniej ścisły sposób wyrażania się: „układ wymienia z otoczeniem ciepło \\( Q \\)” oraz „układ wykonuje pracę \\( W \\)”, lub „na układzie jest wykonywana praca \\( W \\)”. Zawsze jednak należy mieć na uwadze, że w ciałach nie ma ani ciepła, ani pracy, jest tylko energia wewnętrzna. Energia wewnętrzna układu jest jednoznaczną funkcją stanu. Wynikają stąd następujące konsekwencje matematyczne:", "1) zmiana energii wewnętrznej w dowolnej przemianie nie zależy od sposobu jej przebiegu – wynika jedynie z początkowego i końcowego stanu układu, natomiast ciepło i praca tego warunku nie spełniają,", "2) elementarna zmiana energii wewnętrznej \\( dU \\), jest różniczką zupełną parametrów stanu, natomiast elementarne zmiany ciepła i pracy nie są różniczkami zupełnymi i oznacza się je symbolami \\( \\delta Q \\) i \\( \\delta W \\).", "Zatem poprawny zapis równania ( 1 ) w przypadku przemiany elementarnej, nieskończenie małej, ma postać:", "W termodynamice bardzo ważną rolę odgrywa praca objętościowa polegająca na wykonaniu pracy na układzie lub przez układ pod działaniem ciśnienia, prowadząca do zmiany objętości. Stosując powszechnie przyjętą umowę znakowania pracy i ciepła (Rys.2), pracę objętościową wykonaną przez układ należy przedstawiać zależnością \\( W = -p \\Delta V \\) .", "Wśród procesów fizycznych i chemicznych dokonujących się w układzie wymieniającym energię z otoczeniem wyróżnia się procesy izochoryczne i izobaryczne. Procesy izochoryczne cechuje niezmienność objętości układu ( \\( V = const \\)) i związany z tym brak pracy objętościowej ( \\( W = 0 \\)). Zatem energia przekazana w postaci ciepła \\( Q_{v} \\) w warunkach izochorycznych jest równa zmianie energii wewnętrznej \\( \\Delta U \\) układu. Zmiana energii wewnętrznej objawia się zmianą temperatury układu. Iloraz ilości ciepła \\( \\delta Q_{v} \\) pobranego przez układ w stałej objętości i spowodowanej tym zmiany temperatury \\( dT \\) jest pojemnością cieplną w stałej objętości \\( C_{v} \\):", "Pojemność cieplna odniesiona do jednostki masy substancji jest ciepłem właściwym. W termodynamice chemicznej podstawową jednostką ilości substancji jest mol (gramocząsteczka, gramoatom) i dlatego zazwyczaj operuje się pojęciem ciepła molowego w stałej objętości. Ciepło właściwe (molowe) jest miarą zdolności gromadzenia energii przez substancję. Procesy izochoryczne obserwuje się w fazie gazowej (np. reakcje w zamkniętej bombie kalorymetrycznej), nie występują one natomiast w fazach skondensowanych, ze względu na rozszerzalność cieplną ciał stałych i cieczy. Z tego powodu ciepła właściwego w stałej objętości nie można wyznaczyć doświadczalnie dla faz skondensowanych.", "Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 6. Termodynamika", "subject_id": 520, "subject": "Ciepło właściwe, ciepło molowe", "paragraphs": ["Ciepło molowe ciała to pojemność cieplna \\( 1 \\ mola \\) substancji. Matematycznie ciepło molowe ciała zapisujemy jako stosunek pobranego przez nie ciepła \\( Q \\) do liczby jego moli \\( n \\) i spowodowanego tym przyrostu jego temperatury \\( \\Delta T \\).", "Jednostką ciepła molowego jest: \\( \\frac{J}{mol \\ K} \\) Ciepło molowe jest równe iloczynowi ciepła właściwego i masy molowej. Ciepło molowe jest różne, gdy ogrzewa się substancję pod stałym ciśnieniem ( \\( C_p \\)):", "\\( \\Delta H \\)- zmiana entalpii układu,", "oraz gdy ogrzewa się ją w stałej objętości ( \\( C_v \\)):", "\\( \\Delta U \\)- zmiana energii wewnętrznej układu.", "Różnice te są duże zwłaszcza dla gazów. Dla gazu doskonałego różnica między \\( C_p \\), a \\( C_v \\) równa jest stałej gazowej \\( R \\) ( \\( C_p - C_v = R = 8,314 \\ [\\frac{J}{mol \\cdot K}] \\)), natomiast dla substancji skondensowanych można ją zaniedbać.", "Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 6. Termodynamika", "subject_id": 521, "subject": "Funkcja stanu", "paragraphs": ["Termodynamiczny stan fazy, składającej się z określonych składników niezależnych jednoznacznie opisują tzw. parametry stanu, mierzone bezpośrednio metodami fizycznymi. Do parametrów charakteryzujących stan fazy zalicza się: ciśnienie \\( p \\), pod którym faza się znajduje, objętość \\( V \\) zajmowaną przez fazę oraz temperaturę \\( T \\) tej fazy, a także stężenie poszczególnych składników w rozpatrywanej fazie. Termodynamiczny stan całego układu określa się zbiorem parametrów stanu wszystkich faz tworzących układ. Funkcjami stanu, inaczej funkcjami termodynamicznymi, są zmienne zależne, jednoznacznie określone przez parametry stanu fazy lub układu. Wartości liczbowe funkcji stanu nie zależą od historii fazy lub układu, a więc są niezależne od tego, w jaki sposób stan ten został osiągnięty. Wynikają tylko z obecnego stanu fazy lub układu. Zmiana tych funkcji daje charakterystykę termodynamiczną procesu przebiagającego w danym układzie. Do pięciu podstawowych funkcji termodynamicznych, których wartości są związane ze stanem energetycznym materiału, zalicza się: energię wewnętrzną \\( U \\), entropię \\( S \\), entalpię \\( H \\), energię swobodną \\( F \\), entalpię swobodną (potencjał termodynamiczny) \\( G \\). Pojęcie funkcji stanu stosuje się zarówno w odniesieniu do substancji (fazy, układu), jak i do procesu. W tym drugim przypadku podaje się przyrosty funkcji stanu zachodzące w danym procesie, a więc \\( \\Delta U \\), \\( \\Delta H \\), \\( \\Delta S \\) itp. Parametry i funkcje stanu można podzielić na dwie grupy: ekstensywne i intensywne. Wielkości ekstensywne zależą od masy ciała. Należą do nich: objętość i masa układu oraz funkcje stanu \\( U, H, F, S, G \\). Do wielkości intensywnych zalicza się te, które nie zależą od masy ciała. Na przykład wielkościami intensywnymi są temperatura, ciśnienie oraz wszystkie wartości względne, jak gęstość, objętość właściwa.", "Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 6. Termodynamika", "subject_id": 522, "subject": "Zasady termodynamiki", "paragraphs": ["Z zerową zasadą termodynamiki związane jest pojęcie temperatury. Jeżeli temperatury \\( T \\) układów połączonych ze sobą przepuszczalną dla ciepła granicą są sobie równe, wówczas pomiędzy tymi układami występuje zerowy wypadkowy strumień ciepła - układy te znajdują się w równowadze termicznej, Rys. 1.", "W skład energii wewnętrznej wchodzą energie kinetyczne wszystkich atomów, jonów, cząsteczek, elektronów i składników jądra atomowego występujących w układzie oraz energie ich wzajemnych oddziaływań np. energie wiązań chemicznych, oddziaływania pomiędzy ładunkami. Energia wewętrzna nie obejmuje energii kinetycznej ani potencjalnej układu jako całości.", "Znaki ciepła \\( Q \\) oraz pracy \\( W \\) zapisuje się zgodnie z konwencją IUPAC:", "Z pierwszej zasady termodynamiki wynika ponadto, że energia wewnętrzna układu izolowanego (nie wymieniającego ani energii, ani masy z otoczeniem) jest stała, \\( U=const \\) ( \\( {\\Delta}U=0 \\)).", "Korzystając z pierwszej zasady termodynamiki wyprowadza się wyrażenie na ciepło reakcji chemicznej w warunkach stałego ciśnienia. Przepiszmy równanie ( 1 ) przyjmując, że układ wykonuje pracę objętościową nad otoczeniem, \\( W=-p{\\Delta}V \\):", "Jeżeli przyjmiemy, ze układ, w którym zachodzi reakcja nie jest w stanie zmienić swojej objętości ( \\( {\\Delta}V=0 \\)), praca objętościowa przyjmie wartość zero:", "Dla reakcji zachodzących w warunkach stałej objętości, zmiana energii wewnętrznej układu jest równa ciepłu reakcji przy stałej objętości:", "Wyprowadzenie analogicznych zależności dla warunków stałego ciśnienia można znaleźć w module Energetyka reakcji chemicznych.", "Z drugą zasadą termodynamiki zwiazane są pojęcia procesów odwracalnych oraz nieodwracalnych.", "Zmiana entropii układu wymieniającego z otoczeniem jedynie energię (układu zamkniętego), w którym zachodzi proces odwracalny jest wprost proporcjonalna do ciepła wymienionego pomiędzy układem a otoczeniem:", "Z kolei, dla układu zamkniętego, w którym zachodzi proces nieodwracalny zmiana entropii będzie zawsze większa od ilorazu ciepła i temperatury:", "W przypadku rzeczywistych układów możliwe jest zachodzenie wyłącznie procesów nieodwaracalnych, gdyż praca uzyskana w procesie pierwotnym nie wystarcza do przeprowadzenia procesu w kierunku przeciwnym i doprowadzenia układu ponownie do stanu początkowego. Przeprowadzenie procesu w kierunku przeciwnym spowoduje bowiem zmiany w otoczeniu danego układu, przez co całkowita entropia układu i otoczenia wzrośnie. Dążność do zwiększania entropii całkowitej jest miarą samorzutności procesów. W oparciu o pierwszą i drugą zasadę termodynamiki wyprowadza się wyrażenie na entalpię swobodną, ze znaku której to wartości określa się kierunek zachodzenia danego procesu lub reakcji.", "Moduł opracowano na podstawie [1], [2], [3], [4], [5], [6]."], "definitions": [{"name": "Definicja 1: Proces odwracalny", "content": "Proces, w którym parametry stanu układu zmieniają swoje wartości od początkowych do końcowych jest procesem odwracalnym jeżeli istnieje proces odwrotny, który zachodząc w układzie powoduje powrót wartości parametrów stanu tego układu do wartości początkowych.\nProces odwrotny musi spełniać ponadto warunki:\n\nUkład przechodzi przez te same stany pośrednie co w procesie pierwotnym, lecz w odwrotnej kolejności,\nUkład w procesie odwrotnym wymienia z otoczeniem te same ilości masy i energii co w procesie pierwotnym, jedynie z przeciwnym znakiem,\nPo zakończeniu procesu odwrotnego zarówno układ jak i otoczenie powrócą do stanu sprzed zajścia procesu pierwotnego.\n"}, {"name": "Definicja 2: Proces nieodwracalny", "content": "Proces, który nie spałnia przynajmniej jednego z warunków zachodzenia procesu odwracalnego."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 6. Termodynamika", "subject_id": 526, "subject": "Trzecia zasada termodynamiki", "paragraphs": ["Fenomenologiczne ujęcie drugiej zasady termodynamiki pozwala obliczyć entropię z dokładnością do stałej addytywnej. Walter Nernst, analizując przebieg reakcji pomiędzy fazami krystalicznymi w temperaturach bliskich zera Kelvina, doszedł do wniosku, że suma entropii produktów i substratów reakcji ( \\( \\Delta S^r \\)), zachodzącej w układach skondensowanych, jest w pobliżu temperatury zera bezwzględnego równa zeru, co matematycznie można zapisać:", "Rozszerzenia postulatu Nernsta dokonał Planck opierając się na rozważaniach Boltzmanna i statystycznej definicji entropii. Planck twierdził, że:", "Powyższe równanie wynika wprost z równania Boltzmanna, definiującego entropię, a mianowicie: jeżeli \\( W = 1 \\), to entropia ciała wynosi zero:", "Określenie ciała doskonale jednolitego czy fazy czystej i skondensowanej praktycznie napotyka pewne trudności, a często prowadzi do pozornej sprzeczności z doświadczeniem, gdyż w pobliżu \\( T = 0 \\ K \\) stwierdza się skończoną wartość entropii. Stasystycznie prawdopobieństwo \\( W = 1 \\) oznacza, że istnieje tylko jeden sposób rozmieszczenia atomów. Praktycznie oznacza to, że jeżeli mamy kryształ zbudowany z atomów, to każdy atom znajduje się w ściśle określonym położeniu (w swoim położeniu węzłowym) i posiada w tym stanie najmniejszą energię. Rozważając statystycznie pojęcie entropii musimy pamiętać, że wymaga ono, aby materia w temperaturze \\( T = 0 \\ K \\) była w stanie równowagi pełnej. A więc musimy mieć pewność, że badana faza w pobliżu \\( T = 0 \\ K \\) jest fazą termodynamicznie trwałą, że wszelkie zaburzenia struktury, defekty punktowe, chaotyczny rozkład orientacji itp., w czasie procesu oziębiania zanikają, co praktycznie rzadko jest możliwe do osiągnięcia. Istnienie wtrąceń obcych atomów (zanieczyszczeń) czy nawet różnych izotopów tego samego pierwiastka, które są chaotycznie rozmieszczone w węzłach sieci, powodują istnienie w \\( T \\to 0 \\) skończonej wartości entropii, którą nazywamy entropią resztkową. W przypadku opisu układu zgodnie z zasadami mechaniki kwantowej zagadnienie jest zbliżone:", "Jeżeli stan podstawowy jest jednoznacznie określony ( \\( G_{o} = 1 \\)), to powyższe wyrażenie sprowadza się do postulatu Plancka. W przypadku gdy \\( G_{o} \\neq 1 \\), otrzymujemy wartość entropii resztkowej. Ponieważ \\( k \\) jest bardzo małe, \\( G_{o} \\) musi mieć dość znaczną wartość, aby entropia resztkowa była mierzalna. Posiadając zatem dane spektroskopowe oraz opierając się na mechanice kwantowej i termodynamice statystycznej można obliczyć zarówno entropię resztkową, jak i przyrost entropii w określonej temperaturze.", "Moduł opracowano na podstawie [1], [2] oraz [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 6. Termodynamika", "subject_id": 523, "subject": "Entalpia, entropia", "paragraphs": ["W celu znalezienia wygodnej funkcji opisującej proces przebiegający przy stałym ciśnieniu wprowadzono funkcję stanu zdefiniowaną za pomocą równania:", "\\( H \\) - entalpia, \\( U \\) - energia wewnętrzna układu, \\( p, v \\) - ciśnienie i objętość układu,", "którą nazywamy entalpią. Entalpia to wielkość fizyczna zależna od stanu układu (aktualnego) oraz od wszystkich opisujących go parametrów. Funkcja ta nie zależy od historii układu. Różniczkując powyższe równanie otrzymujemy:", "Wstawiając w miejsce \\( dU \\) prawą stronę równania wyrażającego pierwszą zasadę termodynamiki: \\( dU = Q_{el} - pdv + W_{el} \\) otrzymujemy:", "Jeżeli praca nieobjętościowa nie jest wykonywana, \\( W_{el} = 0 \\) i proces przebiega przy stałym ciśnieniu (proces izobaryczny), to:", "czyli pomiar efektu cieplnego w takim procesie jednoznacznie określa zmianę entalpii (energii) układu.", "Pojęcie entropii omówiono w module Entropia.", "Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 6. Termodynamika", "subject_id": 524, "subject": "Energia swobodna", "paragraphs": ["Kryterium samorzutności procesów wyrażone równaniem \\( \\Delta S_{ukł.} + \\Delta S_{otocz.} > 0 \\) zawiera człon odnoszący się do otoczenia, który nie zawsze można ściśle określić. Dlatego wygodnie jest wprowadzić dwie inne funkcje termodynamiczne związane z entropią: energię swobodną Helmholtza \\( F \\) i energię swobodną Gibbsa \\( G \\) (entalpię swobodną) układu.", "Energię swobodną (Helmholtza) stosuje się jako kryterium procesów samorzutnych zachodzących w warunkach izotermiczno-izochorycznych ( \\( T = const, V = const \\)). Energia swobodna jest zdefiniowana równaniem:", "\\( U \\) - energia wewnętrzna układu, \\( T \\) - temperatura bezwzględna układu, \\( S \\) - entropia układu.", "Wynika stąd, że jest ekstensywną funkcją stanu układu (zależną od masy ciała). Zmiana energii swobodnej \\( \\Delta F \\), jaka nastąpi w wyniku przejścia układu od stanu 1 do stanu 2 wynosi:", "Po uwzględnieniu, że przemiana zachodzi w stałej temperaturze ( \\( T_{1} = T_{2} \\)), zmiana ta jest dana zależnością:", "Samorzutnie mogą przebiegać tylko takie procesy izotermiczno-izochoryczne, które powodują zmniejszenie energii swobodnej układu ( \\( \\Delta F < 0 \\)). Układ osiąga stan równowagi wówczas, gdy jego energia swobodna jest najmniejsza w danych warunkach.", "Energia swobodna (Gibbsa) określana również jako entalpia swobodna, znajduje zastosowanie w badaniach procesów izotermiczno-izobarycznych ( \\( T = const, p = const \\)). Tę kolejną ekstensywną funkcję stanu definiuje się zależnością:", "\\( H \\) - entalpia.", "Zmiana entalpii swobodnej \\( \\Delta G \\), jaka nastąpi w czasie przemiany zachodzącej w stałej temperaturze, wynosi:", "Procesom samorzutnym w warunkach izotermiczno-izobarycznych towarzyszy zmniejszanie się wartości funkcji \\( G \\) ( \\( \\Delta G < 0 \\)), przy czym w stanie równowagi osiąga ona swoje minimum. Entalpia swobodna ma duże znaczenie praktyczne, gdyż większość procesów z udziałem faz skondensowanych przebiega pod stałym ciśnieniem (niewielkie zmiany ciśnienia atmosferycznego zwykle się pomija). Należy jednak zauważyć, że w przypadku procesów zachodzących w ciałach stałych zmiany objętości układu są bardzo małe i wyrażenie \\( p\\Delta V \\) w równaniu \\( \\Delta H = H_{2} - H_{1} = \\Delta U +p\\Delta V \\) nie jest uwzględniane – bez popełnienia większego błędu. Można zatem przyjąć \\( \\Delta H \\approx \\Delta U \\) i na podstawie zależności (4) oraz (5) stwierdzić, że w tym przypadku nie ma potrzeby rozróżniania entalpii swobodnej i energii swobodnej ( \\( \\Delta G \\approx \\Delta F \\)).", "Moduł opracowano na podstawie [1], [2], [3], [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 6. Termodynamika", "subject_id": 525, "subject": "Zależności między funkcjami termodynamicznymi", "paragraphs": ["Znajomość funkcji stanu: \\( U, H, S, F, G \\), a ściślej ich zmian, odgrywa zasadnicza rolę w określaniu warunków równowagi, jak i warunków przebiegu procesów samorzutnych. Związki między funkcjami termodynamicznymi przedstawia Rys. 1.", "Łatwo z niego odczytać zależności, np:", "W czasie przebiegu reakcji chemicznej w układzie następuje zmiana składu układu i funkcje termodynamiczne stają się funkcjami składników układu. Zatem w celu termodynamicznego opisu reakcji chemicznej posługujemy się przyrostami \\( \\Delta U^r, \\Delta H^r, \\Delta S^r, \\Delta F^r, \\Delta G^r \\). Funkcje te obliczamy przy założeniu, że molowe ilości składników przereagowały zgodnie z reakcją chemiczną, a najczęściej przyjmujemy, że liczba postępu reakcji wynosi \\( \\lambda = 1 \\). Zakładamy również, że reagujące substancje są w swoich stanach standardowych. Oznacza to, że funkcje termodynamiczne reakcji chemicznych nie zależą od składu i w związku z tym spełniają analogiczne równania jak funkcje stanu czystych związków. \tW celu obliczania zmian funkcji termodynamicznych musimy mieć możliwość wyrażenia ich pochodnych poprzez mierzalne wielkości fizykochemiczne. Musimy zatem poznać związki, jakie występują pomiędzy tymi funkcjami. Załóżmy, że rozważana przemiana jest quasi-statyczna i nie występuje praca nieobjętościowa, a układ jest jednofazowy o stałym składzie lub stałym stopniu przereagowania, a więc:", "Funkcje termodynamiczne takiego układu mogą być wyrażone za pomocą dwóch zmiennych niezależnych. Pierwsza zasada termodynamiki przyjmuje zatem, zgodnie z równaniem \\( dU =Q_{el} - pdv + \\overline{W_{el}} \\), dla układów zawierających \\( 1 mol \\) substancji (lub \\( \\lambda = 1 \\)) ma następującą postać:", "Natomiast zgodnie z równaniem ( \\( dH = Q_{el} + vdp +\\overline {W_{el}} \\)):", "Z definicji energii swobodnej: \\( F = U – Ts \\) wynika, że:", "A podstawiając w miejsce \\( dU \\) równanie ( 2 ), będziemy mogli napisać:", "Analogicznie, zgodnie z definicją entalpii: \\( G = H – TS \\), otrzymujemy:", "Eliminując \\( dH \\) zgodnie z równaniem ( 3 ) mamy:", "Przedstawione powyżej funkcje stanu, jak widać, są funkcjami dwóch zmiennych, co można wyrazić za pomocą różniczki cząstkowej:", "Porównując odpowiednia równania ( ( 2 ) - ( 7 ) ) i ( ( 8 ) - ( 11 ) ) uzyskujemy bardzo ważne związki:", "Moduł opracowano na podstawie [1], [2], [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 561, "subject": "Definicja roztworu", "paragraphs": ["Ze względu na własności fizyczne wyróżniamy rozpuszczalniki polarne i niepolarne. Rozpuszczalniki polarne są to związki chemiczne o znacznym momencie dipolowym (np. woda, alkohol etylowy), natomiast rozpuszczalniki niepolarne mają moment dipolowy bliski lub równy zero (np. benzen, chloroform, dimetyloformamid). Ze względu na własności chemiczne rozpuszczalniki klasyfikujemy na protyczne (protonowe) i aprotyczne (aprotonowe). Rozpuszczalniki protonowe to takie, które posiadają w swojej strukturze tzw. kwaśne atomy wodoru, które mogą być łatwo odszczepiane od cząsteczek rozpuszczalnika i tworzyć jony \\( \\ce{ H^+ } \\) oraz wiązania wodorowe. (np. woda, alkohole, aldehydy, kwasy). Aprotonowe nie posiadają w swojej strukturze tzw. kwaśnych atomów wodoru - protonów (np. aceton, węglowodory). Pod względem fizycznym roztwór jako układ jednofazowy musi charakteryzować się molekularnym rozproszeniem wszystkich składników. Roztwory o molekularnym rozproszeniu składników, w których rozmiar cząsteczek fazy rozproszonej nie przekracza 1 nm nazywany jest roztworem właściwym lub rzeczywistym. Roztwory, w których rozmiar cząsteczek fazy rozproszonej (substancji rozpuszczonej) mieści się w przedziale 1 – 200 nm są nazywane roztworami koloidalnymi. W sensie fizycznym roztwory koloidalne są mieszaninami a nie roztworami."], "definitions": [{"name": "Definicja 1: Roztwór", "content": "Roztwór jest to wieloskładnikowy układ jednofazowy. Każdy roztwór składa się z rozpuszczalnika i substancji rozpuszczonej. Składnik, którego jest więcej nazywamy rozpuszczalnikiem. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 562, "subject": "Stężenie roztworu procentowe", "paragraphs": ["Można zatem powiedzieć, że jest to ilość gramów substancji rozpuszczona w 100 gramach roztworu. Należy przy tym pamiętać, że na masę roztworu składa się masa substancji rozpuszczonej \\( m_s \\) oraz masa rozpuszczalnika \\( m_{rozp} \\). Stężenie procentowe roztworu jest więc równe:", "\\( m_s \\) - masa substancji rozpuszczonej, g, kg \\( m_r \\) - masa roztworu, g, kg \\( m_{rozp} \\) - masa rozpuszczalnika, g, kg", "Można zatem powiedzieć, że jest to liczba moli rozpuszczona w 1 \\( dm^3 \\) roztworu.", "\\( v_s \\) - objętość substancji rozpuszczonej, \\( dm^3 \\), \\( cm^3 \\) \\( v_r \\) - objętość roztworu, \\( dm^3 \\), \\( cm^3 \\) \\( v_{rozp} \\) - objętość rozpuszczalnika, \\( dm^3 \\), \\( cm^3 \\)"], "definitions": [{"name": "Definicja 1: Procent wagowy", "content": "Stężenie procentowe (w procentach masowych) - podaje liczbę jednostek masowych substancji rozpuszczonych w 100 jednostkach masowych roztworu. "}, {"name": "Definicja 2: Procent objętościowy", "content": "Stężenie procentowe (w procentach objętościowych) - podaje liczbę jednostek objętościowych substancji rozpuszczonych w 100 jednostkach objętościowych roztworu."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 563, "subject": "Stężenie roztworu molowe i molarne", "paragraphs": ["\\( C_M \\) – stężenie molowe, \\( n \\) – liczba moli substancji rozpuszczonej, \\( v \\) – objętość roztworu w \\( dm^3 \\), \\( m_s \\) – masa substancji rozpuszczonej, \\( M_s \\) – masa molowa substancji rozpuszczonej", "\\( C_m \\) – stężenie molarne, \\( n \\) – liczba moli substancji rozpuszczonej, \\( m_{rozp} \\) – masa rozpuszczalnika w kg, \\( m_s \\) – masa substancji rozpuszczonej, \\( M_s \\) – masa molowa substancji rozpuszczonej"], "definitions": [{"name": "Definicja 1: Stężenie molowe", "content": "Stężenie molowe – podaje liczbę moli substancji rozpuszczonej w \\( 1 dm^3 \\) roztworu. "}, {"name": "Definicja 2: Stężenie molarne", "content": "Stężenie molarne – wyraża liczbę moli substancji rozpuszczonej w 1kg rozpuszczalnika. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 564, "subject": "Stężenie roztworu normalne", "paragraphs": ["Na przykłąd roztwór 0,2 normalny zwiera 0,2 gramorównoważnika substancji rozpuszczonej w \\( 1 dm^3 \\) roztworu.", "\\( C_N \\) – stężenie normalne, \\( g_s \\) – liczba gramorównoważników substancji, \\( v \\) – objętość roztworu, \\( m_s \\) – masa substancji, \\( G_s \\) – gramorównoważnik.", "Gramorównoważnik dla pierwiastków oblicza się dzieląc masę molową danego pierwiastka przez jego wartościowość. Np. gramorównoważnik dla wapnia \\( \\ce{Ca} \\): \\( G_{Ca} = \\frac{M_{Ca}}{2} \\)g/val gramorównoważnik dla sodu \\( \\ce{Na} \\): \\( G_{Na} = \\frac{M_{Na}}{1} \\)g/val", "Gramorównoważnik dla kwasów jest równy masie molowej danego kwasu podzielonej przez ilość atomów wodoru. Np. gramorównoważnik dla kwasu siarkowego(VI) \\( \\ce{H_2SO_4} \\): \\( G_{H_2SO_4} = \\frac{M_{H_2SO_4}}{2} \\)g/val gramorównoważnik dla kwasu ortofosforowego(V) \\( \\ce{H_3PO_4} \\): \\( G_{H_3PO_4} = \\frac{M_{H_3PO_4}}{3} \\)g/val", "Gramorównoważnik dla wodorotlenków jest równy masie molowej danego wodorotlenku podzielonej przez ilość grup wodorotlenowych. Na przykład gramorównoważnik dla wodorotlenku wapnia \\( \\ce{Ca(OH)_2} \\): \\( G_{Ca(OH)_2} = \\frac{M_{Ca(OH)_2}}{2} \\)g/val gramorównoważnik dla wodorotlenku glinu \\( \\ce{Al(OH)_3} \\): \\( G_{Al(OH)_3} = \\frac{M_{Al(OH)_3}}{3} \\)g/val", "Gramorównoważnik dla soli jest równy masie molowej danej soli podzielonej przez ilość atomów metalu pomnożoną przez wartościowość tego metalu. np. gramorównoważnik dla chlorku sodu \\( \\ce{NaCl} \\) \\( G_{NaCl} = \\frac{M_{NaCl}}{1·1} \\)g/val gramorównoważnik dla siarczanu(VI) potasu \\( \\ce{K_2SO_4} \\): \\( G_{K_2SO_4} = \\frac{M_{K_2SO_4}}{2·1} \\)g/val gramorównoważnik dla siarczanu(VI) glinu \\( \\ce{Al_2(SO_4)_3} \\): \\( G_{Al_2(SO_4)_3} = \\frac{M_{Al_2(SO_4)_3}}{2·3} \\)g/val"], "definitions": [{"name": "Definicja 1: Stężęnie normalne", "content": "Stężenie normalne – podaje liczbę gramorównoważników substancji rozpuszczonej w \\( 1dm^3 \\) roztworu. "}, {"name": "Definicja 2: Gramorównoważnik", "content": "Gramorównoważnik – ilość gramów substancji powiązana z oddaniem lub przyjęciem jednego mola, elektronów. Inaczej - jest to część mola, która przypada na jedną wartościowość."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 565, "subject": "Rozpuszczanie", "paragraphs": ["Roztwory powstają w wyniku rozpuszczenia substancji w rozpuszczalniku. Tworzenie roztworu może zachodzić poprzez:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 566, "subject": "Rozpuszczanie w wyniku reakcji chemicznej", "paragraphs": ["Rozpuszczająca się substancja reaguje z cząsteczkami rozpuszczalnika lub innej, wcześniej rozpuszczonej substancji, tworząc nowy związek chemiczny. Przykładem może być rozpuszczanie metali w kwasach, np. cynk metaliczny roztwarza się w roztworze kwasu i powstaje roztwór który zawiera nowy związek - sól cynku.", "\\( \\ce{Zn + \\text{2}HCl \\rightarrow ZnCl_2 + H_2} \\)", "Również tlenki kwasowe rozpuszczając się w wodzie reagują z jej cząsteczkami i otrzymujemy roztwory kwasów:", "\\( \\ce{CO_2 + H_2O \\rightarrow H_2CO_3} \\)", "\\( \\ce{P_2O_5 + \\text{3}H_2O \\rightarrow \\text{2}H_3PO_4} \\)"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 567, "subject": "Rozpuszczanie w wyniku solwatacji cząsteczek lub jonów", "paragraphs": ["Hydratacja jest jednym z głównych czynników powodujących dysocjację elektrolityczną. Inny jest mechanizm dysocjacji związków tworzących kryształy jonowe a inny w cząsteczkach w których występuje wiązanie atomowe spolaryzowane (np. \\( \\ce{HCl} \\)). W pierwszym przypadku rozpuszczanie związku powoduje uwolnienie z sieci krystalicznej obecnych tam jonów, w drugim jonizacja – powstawanie jonów z cząsteczek kowalencyjnych (zob. moduł Dysocjacja elektrolityczna ).", "Rozpuszczanie zależy od rodzaju rozpuszczalnika, a właściwie od jego stałej dielektrycznej ε. Jeżeli wielkość siły wzajemnego oddziaływania ładunków elektrycznych w zależności od ich wielkości ( \\( q_1, q_2 \\)) i odległości ( \\( r \\)) dana jest prawem Coulomba \\( F = \\frac {q_1·q_2}{εr^2} \\), to stała dielektryczna ε charakteryzuje ośrodek, w którym powyższe ładunki na siebie oddziaływają. Stałe dielektryczne wybranych substancji zostały przedstawione w Tabela 1.", "Stała dielektryczna wody wynosi \\( ε_{H_2O} = 80 \\). Dla próżni i w przybliżeniu dla powietrza wielkość ta jest równa jedności. Patrząc na wzór na prawo Coulomba możemy powiedzieć, że dwa ładunki oddziaływają na siebie ok. 80 razy słabiej w wodzie niż na powietrzu. Fakt ten stanowi kolejną przyczynę rozpuszczania (dysocjacji) elektrolitów w roztworach wodnych, w których następuje 80-krotne osłabienie sił międzyjonowych działających w krysztale jonowym, jak również osłabienie oddziaływania atomów w spolaryzowanej cząsteczce kowalencyjnej. W wyniku osłabienia sił dipole wody mogą poprzez hydratację oderwać jony od siebie. Im większa stała dielektryczna rozpuszczalnika, będąca miarą jego własności polarnych tym łatwiej rozpuszczają się w nim cząsteczki polarne lub kryształy jonowe. Rozpuszczalniki zbudowane z cząsteczek o słabych własnościach polarnych (niskiej stałej dielektrycznej) są natomiast dobrymi rozpuszczalnikami dla cząsteczek niepolarnych. Przykładem rozpuszczalnika „niepolarnego” jest czterochlorek węgla. W cząsteczce tej cztery atomy chloru związane kowalentnie z centralnie położonym atomem węgla tworzą symetryczny czworościan. Tego typu ułożenie atomów chloru powoduje jednorodność ładunku na powierzchni bryły, pomimo istnienia polarnych wiązań \\( \\ce{C-Cl} \\)."], "definitions": [{"name": "Definicja 1: Solwatacja", "content": "Solwatacją nazywamy oddziaływanie cząsteczek lub jonów danej substancji z cząsteczkami rozpuszczalnika w wyniku czego powstaje solwatowana forma cząsteczki (jonu). Forma ta jest przeważnie strukturą przestrzenną w której cząsteczka (jon) są otoczone ściśle zorientowanymi cząsteczkami rozpuszczalnika."}, {"name": "Definicja 2: Hydratacja", "content": "Otaczanie się jonów związanymi z nimi cząsteczkami wody nazywamy hydratacją."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 568, "subject": "Rozdrobnienie substancji w rozpuszczalniku - dyspersja", "paragraphs": ["Dyspersja jest to rozproszenie cząstek stałych w rozpuszczalniku. Cząstki te nie rozpuszczają się w cieczy, a jedynie tworzą stabilną, dwufazową mieszaninę koloidalną. Mieszanie się dwóch substancji zachodzi na drodze dyfuzji i oddziaływań międzycząsteczkowych. Otrzymane w ten sposób układy nazywa się układami rozproszonymi lub dyspersyjnymi. Substancję rozproszoną układu nazywa się fazą zdyspergowaną a przestrzeń, w której nastąpiło rozproszenie fazą dyspersyjną. Faza dyspersyjna może występować w stanie gazowym, ciekłym lub stałym. Układy, w których środowiskiem dyspersji jest woda (lub inna ciecz) nazywamy roztworami."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 569, "subject": "Rozpuszczalność", "paragraphs": ["Ilość substancji, którą możemy rozpuścić w danej objętości rozpuszczalnika jest przeważnie ograniczona. Ilość ta zależy od budowy chemicznej substancji i rozpuszczalnika, a także od warunków fizykochemicznych układu (temperatury i ciśnienia). W roztworze nasyconym w określonych warunkach ciśnienia i temperatury ustala się pomiędzy roztworem a osadem stan równowagi dynamicznej. Jest to stan, w którym zachodzą z taką samą szybkością dwa przeciwstwne procesy: rozpuszczanie osadu i jego wydzielanie się."], "definitions": [{"name": "Definicja 1: Rozpuszczalność", "content": "Masę substancji rozpuszczanej (wyrażoną w gramach), którą w danej temperaturze i pod danym ciśnieniem można rozpuścić w 100g rozpuszczalnika, tworząc roztwór nasycony nazywamy rozpuszczalnością. Miarą rozpuszczalności substancji jest stężenie jej roztworu nasyconego."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 570, "subject": "Wpływ temperatury na rozpuszczalność", "paragraphs": ["Na rysunku przedstawiono zależności rozpuszczalności niektórych soli w wodzie od temperatury (krzywe rozpuszczalności).", "Korzystając z krzywych rozpuszczalności można określić jaka jest rozpuszczalność danej substancji w określonej temperaturze. Rozpuszczalność zależy od rodzaju substancji rozpuszczonej i jest ona różna dla różnych substancji w danej temperaturze. Jeżeli proces rozpuszczania jest egzotermiczny to można go schematycznie opisać równaniem:", "W takim przypadku podnoszenie temperatury powoduje przesunięcie równowagi w lewo, co skutkuje mniejszą rozpuszczalnością. Jeżeli proces rozpuszczania jest endotermiczny, schematycznie zapisujemy go równaniem:", "W tym przypadku podnoszenie temperatury skutkuje zwiększeniem rozpuszczalności.", "W przypadku gazów, im wyższa temperatura, tym mniejsza jego rozpuszczalność. Na przykład wraz ze wzrostem temperatury zmniejsza się rozpuszczalność \\( \\ce{CO_2} \\) w wodzie. Znane są przypadki pękania butelek z napojami gazowymi w zbyt wysokiej temperaturze – przyczyną tego jest zmniejszanie się rozpuszczalności gazów w wodzie wraz ze wzrostem temperatury. Gromadzący się nad roztworem nadmiar gazu powoduje wzrost ciśnienia wewnątrz butelki i w efekcie często jej pęknięcie."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 571, "subject": "Wpływ ciśnienia na rozpuszczalność - prawo Henry'ego", "paragraphs": ["Na rozpuszczalność gazów ma wpływ nie tylko temperatura (ze wzrostem temperatury rozpuszczalność gazów zmniejsza się), ale również ciśnienie. Rozpuszczalność wszystkich gazów rośnie, gdy wzrasta ciśnienie cząstkowe gazu nad roztworem. Na przykład stężenie \\( \\ce{CO_2} \\) rozpuszczonego w napojach gazowych zależy bezpośrednio od ciśnienia cząstkowego \\( \\ce{CO_2} \\) w fazie gazowej. Po otwarciu butelki ciśnienie spada, rozpuszczalność \\( \\ce{CO_2} \\) maleje i tworzące się pęcherzyki \\( \\ce{CO_2} \\) wydobywają się z napoju. Ilościowo zjawisko to opisuje prawo Henry’ego.", "Prawo Henry’ego jest spełniane jedynie przez gazy, które nie wchodzą w reakcję chemiczną z rozpuszczalnikiem. Dlatego nie stosuje się ono do układów typu: \\( \\ce{H_2O-SO_2} \\), \\( \\ce{H_2O-NH_3} \\) itp."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 572, "subject": "Roztwory doskonałe i rzeczywiste", "paragraphs": ["Roztwory doskonałe (idealne ) to takie, w których siły oddziaływań międzycząsteczkowych pomiędzy cząsteczkami wszystkich składników obecnych w układzie są zawsze takie same. Oznacza to, że w roztworze doskonałym oddziaływania pomiędzy cząsteczkami: rozpuszczalnik – rozpuszczalnik, rozpuszczalnik – substancja rozpuszczona, substancja rozpuszczona – substancja rozpuszczona są takie same. W praktyce często w roztworze oddziaływania pomiędzy cząsteczkami substancji rozpuszczonej a rozpuszczalnikiem są większe lub mniejsze, niż pomiędzy cząsteczkami rozpuszczalnika i pomiędzy cząsteczkami substancji rozpuszczonej – mówimy wtedy o roztworach rzeczywistych. Roztwory doskonałe spełniają prawo Raoulta.", "Jeżeli wykreślimy zależność ciśnienia cząstkowego pary składników A (granatowa krzywa) i B (czerwona krzywa) nad roztworem w funkcji ułamków molowych A i B w roztworze ciekłym, to otrzymamy linie proste. Linią czarną oznaczono wartości sumaryczne całkowitego ciśnienia pary \\( p = p_A + p_B \\) nad roztworem w zależności od jego stężenia.", "Roztwory rzeczywiste wykazują jednak różne odchylenia od prawa Raoulta. Jest to spowodowane występowaniem różnych oddziaływań pomiędzy cząsteczkami w roztworze. W przypadku, gdy siły oddziaływań pomiędzy cząsteczkami A – B mniejsze od oddziaływań A – A i B – B , to w roztworze wzrosną odległości międzycząsteczkowe i cząsteczki łatwiej będą przechodziły do fazy gazowej, co spowoduje wzrost ciśnienia pary nasyconej. Taki przypadek został przedstawiony na Rys. 2 i nazywamy go dodatnim odchyleniem od prawa Raoulta.", "Jeżeli siły oddziaływań międzycząsteczkowych A – B są większe od oddziaływań pomiędzy cząsteczkami A – A i B – B, w roztworze działają większe siły międzycząsteczkowe niż w czystej cieczy. Cząsteczki trudniej przechodzą do fazy gazowej i wówczas ciśnienie pary nasyconej nad roztworem jest niższe niż przewidziane prawem Raoulta. Taki przypadek przedstawiono na Rys. 3 i nazywamy go ujemnym odchyleniem od prawa Raoulta."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 573, "subject": "Temperatura wrzenia i krzepnięcia roztworu", "paragraphs": ["W wyniku rozpuszczania w cieczy substancji nielotnej, prężność (ciśnienie) pary nasyconej tej cieczy obniża się. Na Rys. 1 przedstawiono schematycznie prężność pary nad czystym rozpuszczalnikiem \\( p_o \\) oraz nad roztworem substancji nielotnej w tym rozpuszczalniku \\( p \\).", "W czystym rozpuszczalniku cząsteczki mogą w każdym punkcie powierzchni przejść do fazy gazowej i w każdym punkcie mogą powrócić do fazy ciekłej. W roztworze natomiast część powierzchni jest zablokowana nielotnymi cząsteczkami substancji rozpuszczonej, toteż efektywna powierzchnia, z której cząsteczki rozpuszczalnika mogą przejść do fazy gazowej jest zmniejszona, natomiast cząsteczki powracające z fazy gazowej do ciekłej mają całą powierzchnię roztworu. Istnieje zatem większe prawdopodobieństwo przechodzenia fazy gazowej w fazę ciekłą, niż ciekłej w gazową. W rezultacie prężność pary nad czystym rozpuszczalnikiem jest większa niż nad roztworem. Zależność tę ujmuje ilościowo prawo Raoulta. Konsekwencją obniżenia prężności pary nad roztworem jest zmiana temperatury krzepnięcia i temperatury wrzenia roztworu w miarę zwiększania stężenia substancji rozpuszczonej. Roztwory zatem krzepną w niższych temperaturach i wrzą w wyższych temperaturach niż rozpuszczalniki.", "Na rysunku przedstawiono diagram fazowy wody i wodnego roztworu. Krzywa -1 przedstawia prężność pary czystej wody, krzywa -2- prężność pary nad roztworem. Przecięcie się krzywej prężności pary nad roztworem z krzywą sublimacji lodu (punkt A) odpowiada temperaturze krzepnięcia roztworu, niższą o \\( \\Delta T_k \\) od temperatury krzepnięcia czystej wody. Punkt, w którym prężność pary nad roztworem jest równa \\( 10^5 Pa \\), oznacza temperaturę wrzenia roztworu, wyższą o wartość \\( \\Delta T_e \\) od temperatury wrzenia czystej wody.", "Zależność pomiędzy obniżeniem temperatury krzepnięcia rozpuszczalnika i ilością rozpuszczonej substancji wyraża wzór:", "\\( \\Delta T_k \\)- obniżenie temperatury krzepnięcia roztworu, \\( E_k \\)- stała krioskopowa rozpuszczalnika \\( C_m \\) – stężenie molarne roztworu (liczba moli rozpuszczonej substancji przypadająca na 1kg rozpuszczalnika) Uwzględniając, że \\( C_m = \\frac {n}{m_r} \\), oraz \\( n = \\frac {m}{M} \\), otrzymujemy:", "Gdzie: \\( M \\) – masa molowa substancji rozpuszczonej, \\( m \\) – masa substancji rozpuszczonej w kg \\( m_r \\) – masa rozpuszczalnika w kg.", "Stała krioskopowa \\( K_k \\) jest równa zmianie temperatury krzepnięcia roztworu \\( \\Delta T_k \\), gdy w 1kg rozpuszczalnika rozpuszczony jest 1kg nielotnej substancji. Wielkość ta jest charakterystyczna dla danego rozpuszczalnika i nie zależy od rodzaju substancji rozpuszczonej.", "Zmiana temperatury wrzenia roztworu w stosunku do czystego rozpuszczalnika wyraża się zależnością:", "Gdzie: \\( E_e \\) – stała ebulioskopowa rozpuszczalnika", "Wynika stąd, że stała ebulioskopowa \\( K_e \\) jest równa zmianie temperatury wrzenia roztworu w stosunku do temperatury wrzenia rozpuszczalnika zawierającego 1 mol substancji rozpuszczonej w 1kg rozpuszczalnika.", "Przytoczone wzory dają możliwość :", "Wystarczy w tym celu rozpuścić znaną ilość substancji \\( m \\) w znanej ilości rozpuszczalnika \\( m_r \\) i zmierzyć \\( \\Delta T_k \\) lub \\( \\Delta T_e \\)."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 574, "subject": "Zjawisko osmozy", "paragraphs": ["Osmoza jest zjawiskiem powszechnie występującym w przyrodzie. Polega na spontanicznym przechodzeniu cząsteczek rozpuszczalnika przez półprzepuszczalną błonę z obszaru o niższym stężeniu do obszaru o wyższym stężeniu.", "Zjawisko osmowy zostało przedstawione na Rys. 1. W naczyniu z półprzepuszczalną błoną zostały umieszczone dwa roztwory. Po lewej stronie błony półprzepuszczalnej roztwór rozcieńczony a po prawej roztwór stężony. Półprzepuszczalna błona (membrana) jest przepuszczalna tylko dla cząsteczek rozpuszczalnika. W procesie osmozy rozpuszczalnik dążąc do wyrównania ciśnienia osmotycznego będzie dążył do rozcieńczenia stężonego roztworu, dlatego poziom roztworu po prawej stronie membrany po pewnym czasie się podniesie.", "Przepływ rozpuszczalnika jest skierowany od stężenia niższego do wyższego i będzie wywoływał ciśnienie pi proporcjonalne do różnicy stężeń:", "Gdzie: \\( \\Pi \\) – ciśnienie osmotyczne \\( R \\) –stała gazowa \\( T \\) – temperatura \\( \\Delta c \\) – różnica stężeń.", "Ciśnienie osmotyczne jest zatem proporcjonalne do różnicy stężeń.", "Na filmie zostało przedstawione proste doświadczenie obrazujące zjawisko osmozy."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 575, "subject": "Dysocjacja elektrolityczna", "paragraphs": ["Takie substancje mają zdolność do przewodzenia prądu elektrycznego. Substancje, które nie ulegaja dysocjacji jonowej, nazywamy nieelektrolitami. Do nieelektrolitów zaliczamy związki organiczne (z wyjątkiem kwasów karboksylowych i ich soli) oraz tlenki i wodorki nie reagujące z wodą. Nieelektrolity nie mają zdolności przewodzenia prądu elektrycznego. Proces dysocjacji zależy od rodzaju rozpuszczalnika oraz rodzaju wiązań w cząsteczce rozpuszczonej. Cząsteczka wody jest dipolem, dlatego jest dobrym rozpuszczalnikiem dla substancji posiadających wiązanie jonowe lub atomowe spolaryzowane. Dlatego też, do elektrolitów zaliczamy wodne roztwory zasad, kwasów i soli.", "Dysocjacja związków o wiązaniu atomowym spolaryzowanym. W przypadku związków o wiązaniu kowalencyjnym spolaryzowanym (np. \\( \\ce{HCl} \\)), jony powstają wskutek oddziaływań polarnych cząsteczek wody na polarną (dipolową) cząsteczkę związku.", "Dipole wody otaczają polarną cząsteczkę związku, powodując zwiększenie jej polarności, a w konsekwencji rozerwanie wiązania kowalencyjnego spolaryzowanego. Podczas dysocjacji rozerwaniu ulegają najbardziej spolaryzowane wiązania.", "Dysocjacja związków o wiązaniu jonowym Kryształy związków jonowych zbudowane są z kationów i anionów, jak przedstawiono to na Rys. 2. Dipole wody ustawiają się odpowiednimi biegunami do jonów w krysztale jonowym i wyrywają je z sieci krystalicznej. Jony otoczone przez cząsteczki wody przechodzą do roztworu.", "Proces dysocjacji chlorku sodu możemy zapisać w postaci równania:", "W przypadku tej soli nie ma etapu rozrywania cząsteczek, ponieważ już w stanie krystalicznym istnieją jony. Pisząc reakcje dysocjacji nie uwzględnia się cząsteczek wody otaczających jony, ponieważ ich liczba jest zmienna.", "Schematycznie reakcję dysocjacji możemy zapisać:", "Stopień dysocjacji może przyjmować wartości od 0 do 1 (lub w procentach \\( 0-100\\% \\)). W zależności od stopnia dysocjacji elektrolity dzielimy na mocne, średniej mocy i słabe. Im więcej cząsteczek ulega rozpadowi na jony, tym mocniejszy jest elektrolit. Stopień dysocjacji elektrolitów wzrasta wraz z rozcieńczaniem roztworu.", "Jeżeli słaby elektrolit rozpuścimy w wodzie, to tylko część jego cząsteczek będzie zdysocjowana na jony. W stałej temperaturze pomiędzy niezdysocjowanymi cząsteczkami a jonami ustali się stan równowagi, który możemy wyrazić stałą równowagi.", "Stała dysocjacji określa moc elektrolitu i nie zależy od jego stężenia, zmienia się natomiast wraz z temperaturą. Im mniejsza jest wartość stałej dysocjacji, tym słabszy jest elektrolit. Dla bardzo słabych elektrolitów wartość stałej dysocjacji jest rzędu \\( 10^{-10} \\) a dla bardzo mocnych \\( 10^8 \\). Stałe dysocjacji niektórych związków zostały podane w Tabela 1. [1]"], "definitions": [{"name": "Definicja 1: Dysocjacja elektrolityczna", "content": "Rozpad cząsteczek na jony pod wpływem rozpuszczalnika nazywany dysocjacją elektrolityczną. Substancje, które podczas rozpuszczania w rozpuszczalniku rozpadaja sie na jony nazywamy elektrolitami."}, {"name": "Definicja 2: stopień dysocjacji", "content": "Stosunek liczby cząsteczek rozpadających się na jony do ogólnej liczby cząsteczek rozpuszczonych w roztworze nazywamy stopniem dysocjacji elektrolitycznej i oznaczamy symbolem α.\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\alpha= \\frac{N_{zdys}}{N_o} ; \\alpha=\\frac{n_{zdys}}{n_o} \\)\n\n \\( \\alpha \\) – stopień dysocjacji\n \\( N_{zdys.} \\) – liczba cząsteczek zdysocjowanych\n \\( N_o \\) – ogólna liczba cząsteczek\n \\( n_{zdys.} \\) – liczba moli cząsteczek zdysocjowanych\n \\( n_o \\) – ogólna liczba moli cząsteczek\n\n"}, {"name": "Definicja 3: stała dysocjacji", "content": "Dla słabych elektrolitów w stanie równowagi stosunek iloczynu stężeń jonów powstałych przez dysocjację elektrolityczną, do stężenia cząsteczek niezdysocjowanych jest wielkością stałą w danej temperaturze.\n\n\n\n\t\t\t\t\t\t\t\t\\( K =\\frac{[A^{m+}]^n[B^{n-}]^m}{[A_nB_m]} \\)\n\n"}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 1460, "subject": "Teorie kwasów i zasad", "paragraphs": ["1.\tTEORIA ARRHENIUSA", "Teoria ta opiera się na dysocjacji elektrolitycznej i podaje definicje kwasów i zasad. Kwasy to substancje, które dysocjują z odszczepieniem jonu wodorowego:", "Np. \\( HCl \\rightleftharpoons H^+ + Cl^- \\) \\( H_2SO_4 \\rightleftharpoons H^+ + HSO_4^- \\) \\( HSO_4^- \\rightleftharpoons H^+ + SO_4^{ 2-} \\) \\( H_3PO_4 \\rightleftharpoons H^+ + H_2PO_4^- \\) \\( H_2PO_4^- \\rightleftharpoons H^+ + HPO_4^{2-} \\) \\( HPO_4^{2-} \\rightleftharpoons H^+ + PO_4^{3-} \\) Zasady to substancje, które w roztworze wodnym dysocjują z odszczepieniem jonów hydroksylowych:", "Np. \\( Mg(OH)_2 \\rightleftharpoons Mg(OH)^+ + OH^- \\) \\( Mg(OH)^+ \\rightleftharpoons Mg^{2+} + OH^- \\) \\( Ca(OH)_2 \\rightleftharpoons Ca^{2+} + 2 OH^- \\)", "Teoria ta choć chętnie stosowana przez chemików, posiada pewne ograniczenia. Nie wyjaśnia dlaczego niektóre sole, które wg tej teorii są substancjami obojętnymi, w roztworach wodnych zachowują się jak kwasy lub zasady (np. węglan sodu ma odczyn alkaliczny, a siarczan(VI) miedzi(II) odczyn kwaśny). Kolejnym ograniczeniem jest fakt, że stosuje się tylko do roztworów wodnych. Niektóre substancje zmieniają swoje właściwości w roztworach gdzie rozpuszczalnik jest inny niż woda. Za przykład można podać mocznik. Substancja ta w roztworze wodnym jest obojętna, natomiast w bezwodnym, ciekłym amoniaku zachowuje się jak typowy kwas. Swoje właściwości zmienia w bezwodnym kwasie octowym, w którym wykazuje właściwości zasadowe.", "2.\tTEORIA BRöNSTEDA I LOWRY'EGO", "Teoria ta jest inaczej nazywana teoria protonową, gdyż wodór pozbawiony elektronu staje się protonem. W związku z tym kwasem jest każdy związek, który jest donorem (dawcą) protonu, a zasada to substancja która jest akceptorem protonu.", "W roztworach wolne protony nie mogą samodzielnie istnieć, wobec tego muszą połączyć się z inną cząsteczką lub jonem. Taka cząsteczka lub jon ma charakter akceptora protonu, a więc zasady. Dlatego w rzeczywistości nie przebiegają reakcje odłączenia protonu od kwasu, a jedynie reakcje przeniesienia protonu do cząsteczki innej zasady, będącej mocniejszym akceptorem protonów od zasady sprzężonej z danym kwasem.", "Jeżeli rozpatrzymy reakcję:", "\\( H_2O + NH_3 \\rightleftharpoons OH^- + NH_4^+ \\)", "W tej reakcji woda jest donorem jonu wodorowego (protonu), a cząsteczka amoniaku jest akceptorem protonu. Woda jest więc kwasem a amoniak zasadą. Natomiast w reakcji:", "\\( H_2O + CH_3COOH \\rightleftharpoons CH_3COO^- + H_3O^+ \\)", "Woda jest zasadą, ponieważ przyjmuje proton od kwasu (kwasu octowego). Sprzężonym kwasem będzie wzbogacona o proton cząsteczka wody, czyli kation hydroniowy. Reszta kwasowa \\( CH_3COO^- \\) jest sprzężoną zasadą. Ujęcie Brönsteda i Lowry'ego pozwala na lepsze zaobserwowanie właściwości słabych zasad i słabych kwasów. Cechą charakterystyczną wszystkich kwasów Brønsteda-Lowry'ego jest to, że posiadają tzw. kwaśne (ruchliwe) atomy wodoru. Natomiast wspólną cechą zasad w tej teorii jest posiadanie wolnej pary elektronowej, która może być przyłączona do pozbawionego elektronów jonu \\( H^+ \\).", "3.\tTEORIA LEWISA", "Teoria Lewisa jest jedną z najbardziej ogólnych teorii kwasowo - zasadowych. Wiele substancji, które zarówno w ujęciu Arrheniusa, jak i w ujęciu Brönsteda i Lowry'ego, nie były klasyfikowane, są zdefiniowane według Lewisa. Teoria ta opiera się na zdolności substancji do przyłączania i oddawanie pary elektronowej. Zgodnie z tą teorią: - kwasem nazywa się jon, atom lub cząsteczkę, która jest akceptorem pary elektronowej (posiada lukę elektronową). Np. \\( H_2O \\), \\( H^+ \\), \\( Na^+ \\), \\( Fe^{3+} \\), \\( NH_3 \\), \\( SO_2 \\), \\( SO_3 \\) - zasadą natomiast określa się jon, atom lub cząsteczkę, która jest donorem pary elektronowej (posiada wolną parę elektronową). Np. \\( H_2O \\), \\( OH^- \\), \\( NH_3 \\), Teoria ta ma szersze zastosowanie, ponieważ umożliwia klasyfikacje także tych substancji, które nie posiadają w cząsteczce wodoru. Według tej teorii niektóre związki chemiczne, atomy, jony mogą być zarówno kwasami, jak i zasadami, w zależności od innych substancji, z którymi reagują. Np.", "cząsteczka wody jest dawcą pary elektronowej jest więc zasadą, a jon wodorowy akceptorem pary elektronowej, więc jest kwasem.", "Jon chlorkowy jest zasadą ponieważ użycza pary elektronowej, a \\( AlCl_3 \\) jest kwasem ponieważ jest akceptorem tej pary. Podsumowując, pojęcie kwasu może być definiowane na kilka sposobów w zależności od teorii. Teorie te wzajemnie się uzupełniają. To czy substancja jest kwasem zależy od środowiska w którym się znajduje. Zmiana rozpuszczalnika, dodatek innych elektrolitów modyfikuje zarówno moc kwasu a nawet samą kwasowość cząsteczki."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 576, "subject": "Prawo rozcieńczeń Ostwalda", "paragraphs": ["Słaby elektrolit \\( AB \\), którego stężenie wynosi \\( c \\) ulega dysocjacji zgodnie z równaniem:", "Stopnień dysocjacji \\( \\alpha \\) podaje nam jaka część cząsteczek wprowadzonych do roztworu jest zdysocjowana. Liczba cząsteczek niezdysocjowanych będzie wyrażona poprzez \\( (1-\\alpha) \\). Zatem stężenia każdego z jonów są równe: \\( [A^+] = \\alpha c \\) \\( [B^-] = \\alpha c \\) A stężenie cząsteczek niezdysocjowanych będzie równe: \\( [AB] = (1-\\alpha) c \\) Stała dysocjacji dla słabego elektrolitu AB ma postać:", "Równanie to wiąże stopień dysocjacji \\( \\alpha \\) ze stężeniem roztworu \\( c \\) i stałą dysocjacji \\( K_d \\). Przy danym stężeniu, w stałej temperaturze, im większa jest stała dysocjacji \\( K_d \\), tym większy jest stopień dysocjacji \\( \\alpha \\). Dla niezbyt rozcieńczonych słabych elektrolitów stopień dysocjacji jest bardzo mały i możemy w przybliżeniu przyjąć, że \\( 1-\\alpha ≈1 \\). Prawo rozcieńczeń Ostwalada przyjmuje wtedy postać uproszczoną:", "Stopień dysocjacji słabego elektrolitu jest wtedy odwrotnie proporcjonalny do pierwiastka kwadratowego jego stężenia w roztworze. Prawo rozcieńczeń Ostawalda ma zastosowanie do niezbyt stężonych roztworów słabych elektrolitów."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 577, "subject": "Dysocjacja wielostopniowa", "paragraphs": ["Kwasy wieloprotonowe dysocjują wielostopniowo. Przykładem może być kwas ortofosforowy(V), którego dysocjacja zachodzi trójstopniowo:", "Dla każdego etapu dysocjacji wartość stałej dysocjacji jest inna:", "\\( K_1 =\\frac {[\\ce{H^+}][\\ce{H_2PO_4^-}]}{[\\ce{H_3PO_4}]} = 2,3 · 10^{-2} \\)", "\\( K_2 =\\frac {[\\ce{H^+}][\\ce{HPO_4^{2-}}]}{[\\ce{H_2PO4^-}]} = 1,6 · 10^{-7} \\)", "\\( K_3 =\\frac {[\\ce{H^+][PO_4^{3-}}]}{[\\ce{HPO_4^{2-}}]} = 1,4 · 10^{-12} \\)", "Stała dysocjacji całkowitej \\( \\ce{K_{H_3PO_4}} \\), równa się iloczynowi stałych dysocjacji wszystkich etapów:", "\\( K_{\\ce{H_3PO_4}} =\\frac {[\\ce{H^+}]^3[\\ce{PO_4^{3-}}]}{[\\ce{H_3PO_4}]} = K_1· K_2· K_3 = (2,3 · 10^{-2}) · (1,6 · 10^{-7}) · (1,4 · 10^{-12}) = 5,1 · 10^{-21} \\)", "Pierwsza stała dysocjacji \\( K_1 \\) odpowiada odszczepieniu pierwszego jonu wodorowego (protonu) i jest zawsze największa. W kolejnych stopniach dysocjacji jony wodorowe odszczepiają się od jonów ujemnych i dlatego mają mniejsze wartości. Zatem w roztworze kwasu ortofosforowego(V) znajdują się niezdysocjowane cząsteczki \\( \\ce{H_3PO_4} \\), jony \\( \\ce{H^+} \\), jony \\( \\ce{H_2PO4^-} \\) (najliczniejsze), jony \\( \\ce{HPO_4^{2-}} \\) i jony \\( \\ce{PO_4^{3-}} \\) (najmniej liczne). Podobnie kwas siarkowy(VI) ulega dysocjacji stopniowej, jest on kwasem mocnym więc jest całkowicie zdysocjowany na jony:", "W związku z tym w roztworze kwasu znajdują się jony \\( \\ce{H^+} \\), \\( \\ce{HSO_4^-} \\) i \\( \\ce{SO_4^{2-}} \\).", "Również zasady wielowodorotlenowe (wielokwasowe) dysocjują stopniowo. W pierwszym etapie odszczepia się jedna grupa wodorotlenowa, w kolejnym następna. Dla zasady wapniowej \\( \\ce{Ca(OH)_2} \\) dysocjacja przebiega następująco:", "Dla każdego z tych etapów można wyznaczyć stałą dysocjacji. Zawsze stała dysocjacji etapu pierwszego jest większa od stałej dysocjacji etapu drugiego \\( K_1 > K_2 \\).", "Sole dysocjują jednostopniowo z wyjątkiem wodorosoli, które również ulegają dysocjacji stopniowej:", "Zatem, w roztworze \\( \\ce{NaH_2PO_4} \\) znajduja się jony: \\( \\ce{H^+} \\), \\( \\ce{Na^+} \\), \\( \\ce{H_2PO_4^-} \\), \\( \\ce{HPO_4^{2-}} \\), \\( \\ce{PO_4^{3-}} \\)."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 578, "subject": "Iloczyn rozpuszczalności", "paragraphs": ["Jeśli mamy sól trudnorozpuszczalną, np: \\( M_nR_m \\) , to jeśli wprowadzimy ją do wody, zdysocjuje tylko niewielka ilość cząsteczek tej soli. Zdecydowana większość tej substancji pozostanie w formie cząsteczkowej (obserwujemy to jako osad nierozpuszczony w roztworze):", "W rzeczywistości w roztworze cały czas zachodzą reakcje rozpuszczania i wytrącania osadu, ale ani ogólne stężenie roztworu ani ilość osadu nie ulegają zmianie. Ustala się zatem równowaga dynamiczna pomiędzy formą cząsteczkową w osadzie a jonami w roztworze. Stałą równowagi tej reakcji możemy zapisać wzorem:", "Stężenie cząsteczek \\( M_nR_m \\) w nasyconym roztworze jest praktycznie stałe, bo roztwór pozostaje w równowadze z osadem. Zatem przekształcamy równanie ( 2 ), tak aby wartości stałe były po jednej stronie:", "Powyższy iloczyn jest wartością stałą dla danej substancji w stałych warunkach ciśnienia i temperatury i nosi nazwę iloczynu rozpuszczalności. Iloczyn rozpuszczalności ma jednostkę charakterystyczną dla danego równania, dlatego na ogół jej nie zapisujemy.", "Iloczyn rozpuszczalności jest miarą rozpuszczalności danej substancji. Jeżeli iloczyn stężeń jonowych trudno rozpuszczalnego elektrolitu w roztworze jest większy niż iloczyn rozpuszczalności tego elektrolitu:", "\\( [M^{m+}]^n[R^{n-}]^m > I_r \\)", "To z roztworu wytrąca się osad, do momentu aż nie osiągnie iloczynu rozpuszczalności (roztwór nasycony). Jeżeli iloczyn stężeń jonowych trudno rozpuszczalnego elektrolitu w roztworze jest mniejszy niż iloczyn rozpuszczalności tego elektrolitu:", "\\( [M^{m+}]^n[R^{n-}]^m < I_r \\)", "Substancja jest rozpuszczona całkowicie (brak osadu) i mamy wtedy roztwór nienasycony.", "Niekiedy można uzyskać roztwory o stężeniach większych niż wynosi rozpuszczalność danej substancji w roztworze (przekroczony iloczyn rozpuszczalności). Roztwory takie noszą nazwę roztworów przesyconych. Są one układami nierównowagowymi i termodynamicznie nietrwałymi. Roztwory takie będą dążyć do powrotu do równowagi i z biegiem czasu wytrąci się z nich osad."], "definitions": [{"name": "Definicja 1: Iloczyn rozpuszczalności", "content": "Iloczyn rozpuszczalności \\( I_r \\) to iloczyn stężeń jonów danej substancji w roztworze nasyconym.\n\n\n(4)\n\n\t\t\t\t\t\t\t\t\\( I_r = [M^{m+}]^n[R^{n-}]^m \\)\n\ngdzie:\n \\( [M^{m+}] \\) - stężenie kationów\n \\( [R^{n-}] \\) - stężenie anionów\n \\( n, m \\) - współczynniki stechiometryczne\n\n"}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 579, "subject": "Iloczyn rozpuszczalności a rozpuszczalność", "paragraphs": ["Iloczyn rozpuszczalności charakteryzuje rozpuszczalność stałego elektrolitu w danej temperaturze. Znając \\( I_R \\) można wyznaczyć maksymalną ilość substancji jaką możemy rozpuścić w danej objętości i temperaturze.", "Dla przykładu wyznaczymy stężenie molowe soli w nasyconym roztworze trudno rozpuszczalnej soli o wzorze ogólnym \\( M_nR_m \\). Sól rozpuszcza się zgodnie z równaniem:", "Iloczyn rozpuszczalności tej soli jest równy:", "Jeżeli przez \\( S \\) oznaczymy rozpuszczalność molową substancji \\( M_nR_m \\), to stężenia poszczególnych jonów wynoszą: \\( [M^{m+}] = nS \\) \\( [R^{n-}] = mS \\) Wzór na iloczyn rozpuszczalności przyjmuje postać:", "Przekształcając powyższe równanie możemy obliczyć rozpuszczalność molową:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 580, "subject": "Autodysocjacja", "paragraphs": ["Autodysocjacja jest to rodzaj dysocjacji elektrolitycznej, która zachodzi w czystym związku chemicznym. Autodysocjacji ulegają niektóre rozpuszczalniki o budowie polarnej. Cząsteczka rozpada się pod wpływem innych cząsteczek tego samego związku tworząc odpowiednie kationy i aniony. Właściwości te ułatwiają lub wręcz umożliwiają rozpad na jony innych związków chemicznych (np. soli, kwasów, zasad), najczęściej przez solwatację. Autodysocjacji cząsteczek rozpuszczalnika polega na przeniesieniu protonu z jednej cząsteczki do drugiej, w wyniku czego otrzymujemy jony:", "Iloczyn stężeń obu jonów powstających w wyniku autodysocjacji nosi nazwę iloczynu jonowego.", "Przykłady autodycsocjacji cieczy o budowie polarnej:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 581, "subject": "Autodysocjacja wody", "paragraphs": ["Woda ulega częściowo autodysocjacji zgodnie z równaniem:", "Otrzymujemy w wyniku tej reakcji jon hydroniowy (uwodniony kation wodorowy) i jon wodorotlenowy. Na Rys. 1 przedstawiono tworzenie jonu hydroniowego.", "Dla uproszczenia pominiemy tworzenie jonu hydroniowego i przedstawimy reakcję autodysocjacji wody w sposób uproszczony:", "Stała dysocjacji wody wyrażona jest równaniem:", "Stężenia jonów wodorowych \\( [\\ce{H^+}] \\) i jonów \\( [\\ce{OH-}] \\) są sobie równe. Ponieważ stopień dysocjacji wody jest niewielki to stężenie cząsteczek niezdysocjowanych \\( [\\ce{H_2O}] \\) jest równe całkowitej liczbie cząsteczek. Jest to zatem liczba moli wody w \\( 1 dm^3 \\) wody (przyjmując,że gęstość wody wynosi \\( 1 g/cm^3 \\), \\( 1 dm^3 \\) waży \\( 1000g \\)):", "Podstawiając do równania:", "\\( \\frac {[\\ce{H^+}][\\ce{OH^-}]}{55,56} = 1,8 · 10^{-16} \\)", "\\( [\\ce{H^+}][\\ce{OH^-}] = 55,56 · 1,8 ·10^{-16} = 10^{-14} \\)", "\\( [\\ce{OH^-}][\\ce{H^+}]=10^{-14} \\)", "Iloczyn stężeń jonów \\( [\\ce{H^+}] \\) i \\( [\\ce{OH^-}] \\) jest nazywany iloczynem jonowym wody. Ponieważ iloczyn jonowy wody ma wartość \\( 10^{-14} \\), a stężenia jonów \\( [\\ce{OH^-}] \\) i \\( [\\ce{H^+}] \\)powstałe w wyniku dysocjacji są jednakowe, to w czystej wodzie: \\( [\\ce{OH^-}] = [\\ce{H^+}] = 10^{-7} \\)."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 582, "subject": "Skala kwasowości pH", "paragraphs": ["Stężenia jonów \\( [\\ce{H^+}] \\) i \\( [\\ce{OH^-}] \\) są sobie równe tylko w czystej wodzie i wynoszą \\( 10^{-7} \\frac {mol}{dm^3} \\). W roztworach kwasów, zasad, czy soli stężenia te są różne, ale zawsze zachowana jest stałość iloczynu jonowego wody. W celu wyrażenia kwasowości lub zasadowości roztworu używa się pojęcia pH (tzw. Współczynnik Sӧrensena).", "Gdy \\( \\ce{pH} = 7 \\) to roztwór jest obojętny \\( \\ce{pH} > 7 \\) to roztwór jest zasadowy \\( \\ce{pH} < 7 \\) to roztwór jest kwasowy.", "W podobny sposób możemy zdefiniować \\( \\ce{pOH} \\).", "Po zlogarytmowaniu iloczynu jonowego wody:", "Otrzymamy:", "Suma wykładników jonów wodorowych i wodorotlenowych w roztworach wodnych zawsze wynosi 14."], "definitions": [{"name": "Definicja 1: \\( \\ce{pH} \\)", "content": " \\( \\ce{pH} \\) jest to wykładnik jonów wodorowych i jest równy ujemnemu logarytmowi dziesiętnemu ze stężenia jonów wodorowych.\n\n\n\n\t\t\t\t\t\t\t\t\\( \\ce{pH} = \\text{-log} [\\ce{H^+}] \\)\n\n"}, {"name": "Definicja 2: \\( \\ce{pOH} \\)", "content": " \\( \\ce{OH} \\) jest to wykładnik jonów wodorotlenowych i jest równy ujemnemu logarytmowi dziesiętnemu ze stężenia jonów wodorotlenowych.\n\n\n\n\t\t\t\t\t\t\t\t\\( \\ce{pOH} = \\text{-log} [\\ce{OH^-}] \\)\n\n"}, {"name": "Definicja 3: \\( \\ce{pH} \\) roztworu \\( \\ce{NH_4OH} \\)", "content": "Obliczyć \\( \\ce{pH} \\) 0,1 M roztworu \\( \\ce{NH_4OH} \\), dla którego stopień dysocjacji wynosi \\( 1\\% \\).\n\nRozwiązanie:\n\n\n\t\t\t\t\t\t\t\t\\( \\ce{NH_4OH} = \\ce{NH_4^ +} + \\ce{OH^-} \\)\n\n\n \\( [\\ce{OH^-}] = C_M · \\alpha · n = 0.1 \\frac {mol}{dm^3} · 0,01 · 1 = 0,001 \\frac {mol}{dm^3} \\)\n\n \\( \\ce{pOH} = \\text{-log} [\\ce{OH^-}] = \\text{-log} 10^{-3} = 3 \\)\n\n \\( \\ce{pH} = 14 - \\ce{pOH} = 14 - 3 = 11 \\)\n\nOdp. \\( \\ce{pH} \\) tego roztworu wynosi 11.\n\n"}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 583, "subject": "Hydroliza soli", "paragraphs": ["Hydroliza jest reakcją odwrotną do reakcji zobojętniania:", "Hydrolizie ulegają tylko te sole, których jony mają zdolność przyjmowania lub oddawania protonów w środowisku wodnym. Należą do nich: - sole mocnych kwasów i słabych zasad, - sole słabych kwasów i mocnych zasad, - sole słabych kwasów i słabych zasad.", "Sole mocnych kwasów i mocnych zasad nie hydrolizują, ich jony w środowisku wodnym nie przyjmują i nie oddają protonów. Podczas rozpuszczania w wodzie soli mocnych kwasów i mocnych zasad ani jony \\( \\ce{H^+} \\), ani jony \\( \\ce{OH^-} \\) pochodzące od cząsteczki wody nie są wiązane przez jony soli. Sole tej grupy nie ulegają hydrolizie, a ich roztwory wykazują odczyn obojętny (pH = 7). Według teorii Brönsteda hydroliza jest procesem proteolizy w którym tworzy się mocna zasada \\( \\ce{OH^-} \\) lub mocny kwas \\( \\ce{H^+} \\) \\( \\ce{(H_3O^+)} \\), dlatego roztwór przestaje być obojętny."], "definitions": [{"name": "Definicja 1: Hydroliza", "content": "Hydroliza jest to reakcja jonów soli z cząsteczkami wody. W wyniku tej reakcji z cząsteczki wody uwalnia się jon wodorowy (hydroniowy) lub jon hydroksylowy. Prowadzi to do zakwaszenia lub alkalizacji roztworu."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 584, "subject": "Hydroliza soli mocnych kwasów i słabych zasad", "paragraphs": ["Tego rodzaju sole hydrolizują w roztworach wodnych powodując odczyn kwasowy. Na przykład chlorek amonu jest solą pochodzącą od mocnego kwasu chlorowodorowego \\( \\ce{HCl} \\) i słabej zasady amonowej. Po rozpuszczeniu tej soli w wodzie zachodzi reakcja :", "lub", "Tworzący się w wyniku hydrolizy wodorotlenek amonu jest słabą zasadą, a więc słabo zdysocjowaną na jony. Kwas chlorowodorowy jest natomiast silnie zdysocjowany na jony i znajdujące się w roztworze jony \\( \\ce{H^+} \\) nadają mu odczyn kwasowy (pH < 7).", "Stała równowagi dla tej reakcji wynosi:", "Jeżeli obie strony równania pomnożymy przez stężenie cząsteczek wody \\( [\\ce{H_2O}] \\), to otrzymamy stałą hydrolizy:", "Jeżeli licznik i mianownik pomnożymy przez \\( [\\ce{OH^-}] \\) to otrzymamy:", "To wyrażenie na stałą hydrolizy przybiera postać:", "Można zatem powiedzieć, że stała hydrolizy dla soli pochodzącej od mocnego kwasu i słabej zasady jest stosunkiem iloczynu jonowego wody \\( K_w \\) do stałej dysocjacji słabej zasady \\( K_{zas} \\).", "Stała hydrolizy rośnie im zasada słabsza."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 585, "subject": "Hydroliza soli słabych kwasów i mocnych zasad", "paragraphs": ["Tego rodzaju sole hydrolizują w roztworach wodnych powodując odczyn zasadowy. Na przykład octan sodu jest solą pochodzącą od mocnej zasady \\( \\ce{NaOH} \\) i słabego kwasu octowego. Po rozpuszczeniu tej soli w wodzie zachodzi reakcja :", "lub", "Tworzący się w wyniku hydrolizy kwas octowy jest słabym kwasem, a więc jest słabo zdysocjowany na jony. Zasada sodowa jest natomiast silnie zdysocjowana i znajdujące się w roztworze jony \\( \\ce{H^+} \\) nadają mu odczyn zasadowy (pH > 7).", "Stała równowagi dla tej reakcji wynosi:", "Jeżeli obie strony równania pomnożymy przez stężenie cząsteczek wody \\( [\\ce{H_2O}] \\), które jest wartością stałą, to otrzymamy stałą hydrolizy:", "Jeżeli licznik i mianownik pomnożymy przez \\( [\\ce{H^+}] \\) to otrzymamy:", "To wyrażenie na stałą hydrolizy przybiera postać:", "Można zatem powiedzieć, że stała hydrolizy dla soli pochodzącej od mocnej zasady i słabego kwasu jest określona wzorem:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 586, "subject": "Hydroliza soli słabych kwasów i słabych zasad", "paragraphs": ["Sole pochodzące od słabych kwasów i słabych zasad w roztworze wodnym ulegają hydrolizie. Odczyn wodnych roztworów tych soli może byc słabo kwasowy, słabo zasadowy lub obojętny. Zależy to od mocy kwasu i zasady, które powstały w wyniku hydrolizy. Przykładem omawianych soli jest cyjanek amonu. W roztworze wodnym jest on zdysocjowany na jony, które następnie reagują z cząsteczkami wody. Woda reaguje z anionem soli \\( \\ce{CN^-} \\), czyli zasadą w teorii Brönsteda, pełniąc rolę kwasu, jednocześnie woda reaguje z kationem soli pełniąc rolę zasady:", "Sumarycznie równanie hydrolizy można przedstawić:", "Stała równowagi dla tej reakcji:", "jeżeli licznik i mianownik pomnozymy przez iloczyn jonowy wody \\( [\\ce{H^+}][\\ce{OH^-}] \\) otrzymamy:", "ponieważ:", "\\( K_{\\ce{HN_4OH}}=\\frac{[\\ce{NH_4^+}][\\ce{OH^-}]}{[\\ce{NH_4OH}]} \\); \\( K_{\\ce{HCN}}=\\frac{[\\ce{H+}][\\ce{CN-}]}{[\\ce{HCN}]} \\); \\( K_w = [\\ce{H^+}][\\ce{OH^-}] \\)", "Wzór na stałą hydroliza dla soli słabego kwasu i słabej zasady ma postać:", "Jaki jest odczyn takiej soli, jest uzależnione od względnych wartości stałych dysocjacji \\( K_w \\) i \\( K_{zas} \\). Gdy zasada z której powstałą sól jest mocniejsza niż kwas, roztwór wodny tej soli jest zasadowy. Jeżeli kwas jest mocniejszy, odczyn jest kwasowy.", "Dla omawianego kwasu i zasady stałe dysocjacji wynoszą: \\( K_{\\ce{NH_4OH}} = 1.8·10^{-5} \\); \\( K_{\\ce{HCN}} = 4·10^{-10} \\). Ponieważ wartość stałej dysocjacji wodorotlenku amonu jest większa od stałej dysocjacji kwasu cyjanowodorowego, więc wolne jony \\( \\ce{OH^-} \\) pochodzące od zdysocjowanego w większym stopniu \\( \\ce{NH_4OH} \\) nadają temu roztworowi charakter słabo alkaliczny."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 7. Chemia roztworów", "subject_id": 587, "subject": "Roztwory buforowe", "paragraphs": ["Dodatek niewielkiej ilości mocnego kwasu czy zasady do czystej wody powoduje wyraźną zmianę pH. Często zachodzi konieczność prowadzenia danej reakcji w środowisku o założonym pH. Do utrzymania stałej kwasowości środowiska stosuje się mieszaniny zwane roztworami buforowymi.", "Mechanizm działania roztworów buforowych wynika z zawartości w nich jonów, które stanowią pułapki wiążące jony wodorowe lub wodorotlenowe. Jako przykład rozważymy bufor octanowy, który jest mieszaniną kwasu octowego \\( \\ce{CH_3COOH} \\) i octanu sodu i \\( \\ce{CH_3COONa} \\). Octan sodu jest mocnym elektrolitem, więc jest całkowicie zdysocjowany na jony:", "Kwas octowy jest kwasem słabym, równowaga dysocjacji opisana jest równaniem", "I odpowiada jej stała dysocjacji kwasu:", "W wyniku słabej dysocjacji kwasu octowego możemy przyjąć, że całkowite stężenie jonów \\( \\ce{CH_3COO^-} \\) określone jest przez stężenie jonów pochodzących z dysocjacji soli, które równe jest stężeniu soli \\( c_s \\). Duże stężenie jonów \\( \\ce{CH_3COO^-} \\), staje się przyczyną obniżenia stężenia jonów \\( \\ce{H^+} \\) i stopień dysocjacji kwasu obniża się, bo musi być zachowana stała wartość \\( K_k \\). Pozwala to przyjąć, że stężenie niezdysocjowanych cząsteczek \\( [\\ce{CH_3COOH}] \\) jest praktycznie równe całkowitemu stężeniu tego kwasu \\( c_k \\). Możemy zatem napisać, że:", "Po zlogarytmowaniu otrzymujemy:", "Stąd:", "gdzie: \\( c_s \\) - stężenie soli \\( c_k \\) - stężenie kwasu", "Wzór ten wyraża pH roztworu buforowego. Ponieważ roztwór buforowy stanowi mieszaninę jonów \\( \\ce{CH_3COO^-} \\), \\( \\ce{Na^+} \\) i niezdysocjowanych cząsteczek \\( \\ce{CH_3COOH} \\). Dodatek niewielkiej ilości mocnego kwasu wprowadza do roztworu jony \\( [\\ce{H^+}] \\). Jony te będą natychmiast wiązane przez jony \\( \\ce{CH_3COO^-} \\) na niezdysocjowany w tych warunkach kwas octowy \\( \\ce{CH_3COOH} \\).", "Nie powodują więc wzrostu kwasowości roztworu. Wprowadzając mocną zasadę, dostarczamy jony \\( \\ce{OH^-} \\), które będą wiązane w niezdysocjowane cząsteczki wody przez jony \\( \\ce{H^+} \\) pochodzące ze słabej dysocjacji kwasu octowego.", "Podobnie zachowuje się bufor amonowy, który jest przykładem buforu będącego mieszaniną słabej zasady \\( \\ce{NH_4OH} \\) i soli słabej zasady z mocnym kwasem \\( \\ce{NH_4Cl} \\). Sól jest całkowicie zdysocjowana na jony, natomiast stała dysocjacji dla zasady dana jest równaniem:", "Zasada amonowa w mocnym elektrolicie \\( \\ce{NH_4Cl} \\) jest praktycznie niezdysocjowana i możemy przyjąć,że \\( [\\ce{NH_4^+}] = c_s \\), stężenie niezdysocjowanych cząsteczek \\( [\\ce{NH_4OH}] = c_z \\). Wówczas otrzymujemy zależność:", "stąd", "ta zależność daje nam sposób obliczania pH buforu będącego mieszaniną słabej zasady i soli tej zasady z mocny kwasem. W tym przypadku w roztworze mamy cząsteczki \\( \\ce{NH_4OH} \\) oraz jony i \\( \\ce{NH_4^+} \\) i \\( \\ce{Cl^-} \\). Dodatek kwasu lub zasady prowadzi do reakcji:", "W obu omawianych przypadkach zmiana pH roztworu wynikająca z dodatku mocnego kwasu lub zasady, wynika ze zmiany stosunku stężenia \\( \\frac {c_z}{c_s} \\) lub \\( \\frac {c_k}{c_s} \\). Jeżeli ilość dodanego kwasu czy zasady wywołuje niewielką zmianę tych stężeń, całkowita zmiana pH będzie niewielka. Aby zmienić pH o jednostkę trzeba stosunek tych stężeń zmienić aż dziesięciokrotnie. Zdolność roztworu buforowego do utrzymania w przybliżeniu stałej kwasowości roztworu charakteryzowana jest tzw. pojemnością buforową. Pojemność buforowa jest to liczba gramorównoważników mocnego kwasu lub mocnej zasady, która dodana do \\( 1 dm^3 \\) roztworu buforowego zmienia jego pH o jednostkę."], "definitions": [{"name": "Definicja 1: Roztwory buforowe", "content": " roztwory, które utrzymują stałą wartość pH pomimo wprowadzania niewielkich ilości kwasów lub zasad, lub podczas rozcieńczania . Są to mieszaniny roztworów słabych kwasów i soli tych kwasów z mocnymi zasadami lub mieszaniny roztworów słabych zasad i soli tych zasad z mocnymi kwasami."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 669, "subject": "Elektrochemia - Wprowadzenie", "paragraphs": ["Elektrochemia ma charakter interdyscyplinarny i zajmuje się badaniem procesów utleniania i redukcji zachodzących na elektrodach, metalach, stopach będących w kontakcie z elektrolitem. Dział elektrochemii zajmujący się badaniem procesów zachodzących na granicy faz elektroda/elektrolit nazywamy elektrodyką. Z kolei część elektrochemii zwana joniką zajmuję się badaniem właściwości roztworów elektrolitów rozpuszczonych w wodzie, rozpuszczalnikach bezwodnych, mieszanych i stopionych solach. Jonika zajmuje się głównie badaniem procesów transportu jonów w roztworach elektrolitów spowodowanym gradientem pola elektrycznego lub gradientem stężenia.", "Elektrochemia stosowana: Procesy elektrolizy są wykorzystywane w laboratoriach naukowych, a także w przemyśle do produkcji czystych metali, gazów, obróbki elektrochemicznej powierzchni metali i stopów. Procesy katodowej redukcji są używane do wytwarzania powłok galwanicznych na metalach i stopach. Procesy anodowego roztwarzania są natomiast wykorzystywane do elektrochemicznego polerowania, elektrobarwienia lub wytwarzania warstw tlenkowych na powierzchni metali i stopów. Elektrochemia zajmuje się konstrukcją urządzeń tzw. ogniw paliwowych, które wytwarzają energię elektryczną w sposób ciągły dzięki dostarczaniu paliwa. Urządzenia służące do magazynowania energii chemicznej, która jest przekształcana w energię elektryczną nazywane są bateriami lub akumulatorami.", "Wykorzystana literatura: Części e-podręcznika poświęcona elektrochemii została opracowana na podstawie następujących pozycji: 1. Adolf Kisza, Elektrochemia I, Jonika, Wydawnictwo Naukowo Techniczne Warszawa 2000 2. Adolf Kisza, Elektrochemia II, Elektrodyka, Wydawnictwo Naukowo Techniczne Warszawa 2001 3. Peter William Atkins, Chemia Fizyczna, Wydawnictwo Naukowe PWN Warszawa 2001 4. Chemia dla inżynierów, praca zbiorowa pod redakcją Jacka Banasia i Wojciecha Solarskiego, Akademia Górniczo-Hutnicza im. St. Staszica w Krakowie, Kraków 2000, Ośrodek Edukacji Niestacjonarnej"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 588, "subject": "Reakcje utleniania, redukcji i reakcje elektrochemiczne", "paragraphs": ["Reakcje chemiczne podczas których pierwiastki zmieniają stopień utlenienia nazywamy reakcjami utleniania-redukcji lub reakcjami redox. W procesach chemicznych reakcje utleniania i redukcji zachodzą w tym samym czasie i w tym samym miejscu np. reakcja utlenienia żelaza (Fe) w kontakcie z tlenem z powietrza. Błyszcząca, wypolerowana płytka żelaza w kontakcie z powietrzem z czasem matowieje na skutek zachodzących na jej powierzchni reakcji redox. Żelazo ulega utlenieniu i tworzy się tlenek żelaza(II), który następnie w wyniku dalszego utleniania żelaza przechodzi w tlenek żelaza(III). Natomiast tlen \\( \\ce{O_{2}} \\) ulega redukcji. Stopień utlenienia żelaza wzrasta ze stopnia 0 do \\( \\ce{Fe^{+2}} \\) a następnie do \\( \\ce{Fe^{+3}} \\), czyli żelazo ulega utlenieniu, natomiast stopień utlenienia tlenu maleje ze stopnia 0 do stopni \\( \\ce{O^{-2}} \\)a więc tlen ulega redukcji. \\( \\ce{Fe + \\frac{1}{2}O_{2}= FeO} \\) W procesach elektrochemicznych reakcje utlenienia i redukcji zachodzą na różnych elektrodach (w różnych miejscach). Są to reakcje redox zachodzące w ogniwach i elektrolizerach. W ogniwach elektrochemicznych, na katodzie zachodzą reakcje redukcji, natomiast na anodzie zachodzą reakcje anodowego utleniania. Rys. 1 przedstawia schemat ogniwa elektrochemicznego, w którym katodą jest elektroda miedziana natomiast anodą jest elektroda żelazna. Obie te elektrody są zanurzone w roztworze kwasu siarkowego(VI).", "W ogniwie tym zachodzą następujące reakcje: na anodzie zachodzi reakcja utleniania żelaza (reakcja ( 1 ) ), a na katodzie reakcja redukcji jonów wodorowych (reakcja ( 2 ) ).", "W procesie elektrochemicznym reakcje utleniania i redukcji zachodzą w różnych miejscach (na różnych elektrodach). Jak pokazano na Rys. 1 podczas utleniania elektroda ulega roztwarzaniu, jony metalu przechodzą do roztworu, a uwolnione elektrony przemieszczają się do drugiej elektrody (katody), gdzie są złużywane w procesie redukcji. W ogniwach na katodzie zachodzą reakcje redukcji, a na anodzie reakcje utleniania. Najczęściej spotykane reakcje zachodzące na katodach są to reakcje redukcji tlenu i wodoru, a także reakcje redukcji jonów metali. Reakcje redukcji tlenu i wodoru nazywane są reakcjami depolaryzacji tlenowej (reakcja ( 5 ) ) i wodorowej (reakcja ( 2 ) ). Poniżj podane są przykładowe reakcje katodowej redukcji ( ( 3 ) - ( 6 ) ):", "Rekacja reukcji jonów metalu (reakcja ( 3 ) ) jest wykorzystywana do otrzymywania podczas elektroosadzania metalicznych powłok. Reakcja ( 6 ), reakcja redukcji czasteczek wody zachodzi na katodzie w elektrolitach obojętnych lub zasadowych. Reakcje anodowe są to reakcje utleniania metalu, jonów metali lub jonów niemetali. Równania ( 7 )-( 9 ) podają przykładowe reakcje anodowego utleniania.", "Anodowa reakcja utleniania cząsteczek wody (reakcja ( 8 ) ) zachodzi w elektrolitach kwasowych i obojętnych."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 590, "subject": "Elektrody odniesienia", "paragraphs": ["Potencjał elektrody zanurzonej w roztworze elektrolitu możemy zmierzyć jedynie poprzez pomiar siły elektromotorycznej ogniwa (SEM), składającego się z elektrody badanej i elektrody odniesienia zwanej elektrodą wskaźnikową lub wzorcową. Potencjał elektrody odniesienia zanurzonej w roztworze elektrolitu jest stały i nie ulega zmianom w czasie. Potencjały standardowych elektrod odniesienia są znane. Znając potencjał elektrody odniesienia (wskaźnikowej) i wartość SEM ogniwa, możemy obliczyć wartość potencjału elektrochemicznego elektrody badanej. Pomiaru potencjału elektrod dokonujemy przy użyciu różnych elektrod odniesienia takich jak: standardowa elektroda wodorowa \\( {Pt}{/}\\ce{{H_{2}}, \\ce{{H^{+}}}} \\), nasycona elektroda kalomelowa \\( \\ce{{Hg}, {Hg_{2}Cl_{2}}{/}{Cl^{-}}} \\), nasycona elektroda chlorosrebrowa \\( \\ce{{Ag}}, \\ce{{AgCl}}{/}\\ce{{Cl^{-}}} \\), elektroda tlenkowo-rtęciowa \\( \\ce{{Hg}}, \\ce{{HgO}{/}{O^{2-}}} \\), elektroda siarczano-rtęciowa \\( \\ce{{Hg}}, \\ce{{Hg_{2}SO_{4}}{/}{SO_{4}^{2-}}} \\). W warunkach standardowych: T = 298 K, \\( \\ce{p_{H_2}} \\) = 1013 hPa, pH = 0, potencjał elektrody wodorowej został przyjęty za równy 0 V. Potencjał nasyconej elektrody kalomelowej względem elektrody wodorowej wynosi 0,241 V, elektrody chlorosrebrowej 0,222 V, elektrody tlenkowo-rtęciowej 0,097 V, a elektrody siarczanowo-rtęciowej 0,614 V. Elektroda wodorowa należy do grupy elektrod zwanych elektrodami gazowymi pierwszego rodzaju. Zbudowana jest ona z blaszki platynowej pokrytej czernią platynową zanurzoną w roztworze kwasu solnego i omywana jest gazowym wodorem pod ciśnieniem 1013 hPa. W praktyce do pomiaru potencjału, jako elektrody odniesienia stosuje się elektrody kalomelową, chlorosrebrową, które są stosowane w środowiskach zawierających jony chlorkowe. Elektroda tlenkowo-rtęciowa jest stosowana do pomiaru potencjału w środowiskach alkalicznych. Elektrody odniesienia można podzielić na dwie grupy: elektrody I rodzaju i elektrody II rodzaju. Elektrody I rodzaju Elektrodami I rodzaju są metale zanurzone w roztworze elektrolitu zawierającego jony tego metalu np. elektroda miedziana zanurzona w roztworze siarczanu(VI) miedzi \\( \\ce{{Cu}{/}{Cu^{2+}}} \\). Do tej grupy zalicza się również elektrody gazowe np. standardową elektrodę wodorową \\( \\ce{{Pt}{/}{H_{2}}, \\ce{{H^{+}}}} \\). Elektrodami pierwszego rodzaju są również elektrody redoks, w których metal szlachetny np. platyna jest zanurzony w roztworze elektrolitu, w którym zachodzi reakcja redoks \\( {Pt}{/}\\ce{{Fe^{2+}}, \\ce{{Fe^{3+}}}} \\).", "Rys. 1 przedstawia schemat elektrody wodorowej. 1 - blacha platynowa 2 - gazowy wodór 3 - roztwór kwasu solnego 4 - zbiornik blokujący dostęp tlenu 5 - naczynie z elektrolitem Elektrody II rodzaju Elektrodą drugiego rodzaju jest układ składający się z metalu pokrytego trudno rozpuszczalną solą tego metalu i zanurzony w roztworze elektrolitu zawierającym aniony soli pokrywającej metal. Przykładem takiej elektrody jest elektroda chlorosrebrowa, w której drut srebrny pokryty jest chlorkiem srebra i zanurzony jest w wodnym roztworze chlorku potasu. Potencjał takiej elektrody zależy od stężenia jonów chlorkowych znajdujących się w roztworze elektrolitu.", "Rys. 2 przedstawia schemat elektrody kalomelowej. W elektrodzie tej, metaliczna rtęć pokryta jest kalomelem i zanurzona w wodnym nasyconym roztworze chlorku potasu. Potencjał tej elektrody odniesienia podobnie jak elektrody chloro srebrnej zależy od stężenia jonów chlorkowych."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 591, "subject": "Pomiar potencjału elektrodowego", "paragraphs": ["Bezwzględnej wartości potencjału elektrody zanurzonej w roztworze elektrolitu nie można zmierzyć. Jedynie można wykonać pomiar różnicy potencjałów między dwiema elektrodami w ogniwie (SEM – siły elektromotorycznej ogniwa). Jeśli chcemy zmierzyć potencjał elektrody, to należy zbudować ogniwo w którym jedna elektroda jest elektrodą odniesienia (elektroda o znanym i stałym niezmieniającym się w czasie potencjale), a drugą jest elektroda badana. Rys. 1 przedstawia schemat ogniwa za pomocą którego możemy zmierzyć potencjał elektrody cynkowej zanurzonej w roztworze siarczanu(VI) cynku. Jako elektrodę odniesienia użyto nasyconą elektrodę chlorosrebrową, której potencjał wynosi 0,222 V względem standardowej elektrody wodorowej. Zanurzenie metalu w roztworze zawierającym jego jony powoduje rozpoczęcie dwóch procesów. Elektroda cynkowa będzie ulegać roztwarzaniu i jony cynku będą przechodzić do roztworu. Drugi proces jest związany z jonami cynku znajdującymi się w roztworze, które zaczną pobierać elektrony w powierzchni cynku i osadzać się na powierzchni elektrody cynkowej. Jeśli szybkości obu tych procesów zrównają się, na powierzchni elektrody cynkowej ustali się stan równowagi, co spowoduje naładowanie się elektrody cynkowej do pewnego potencjału, który będzie można zmierzyć jedynie za pomocą ogniwa."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 589, "subject": "Potencjał elektrochemiczny", "paragraphs": ["Metal zanurzony w roztworze elektrolitu posiada określony potencjał związany z procesami elektrochemicznymi zachodzącymi na jego powierzchni. Procesy elektrochemiczne zachodzące na elektrodach zależą od zjawisk zachodzących na granicy faz elektroda (metal)/elektrolit. Zanurzenie metalu w elektrolicie prowadzi z czasem do ustalenia się stanu równowagi i do segregacji ładunków na granicy faz, która jest odpowiedzialna za różnicę potencjałów w obszarze międzyfazowym. Elektrony opuszczając elektrodę sprawiają, że powierzchnia metalu jest dodatnio naładowana względem roztworu. Z roztworu ujemnie naładowane jony zmierzają a kierunku metalu. Prowadzi to, do segregacji ładunków i do powstania podwójnej warstwy elektrycznej na granicy metal/elektrolit. Strukturę elektrycznej warstwy podwójnej przedstawia Rys. 1.", "Na ładunek dodatni znajdujący się w pewnej odległości od elektrody działa pewien potencjał kulombowski, który zmienia się w zależności od odległości od elektrody ( Rys. 2 ). W roztworze potencjał maleje wraz ze wzrostem odległości ładunku od powierzchni elektrody. Blisko powierzchni elektrody (około 100 nm) wartość potencjału jest stała i jest ona nazywana potencjałem Volty. Jeśli ładunek dotrze do wnętrza metalu, to potencjał działający na niego jest stały i nazywany potencjałem Galvaniego. Różnica potencjałów między potencjałem Galvaniego i potencjałem Volty jest nazywana potencjałem powierzchniowym. Z kolei różnica potencjałów między potencjałem wewnątrz metalu a potencjałem wewnątrz roztworu jest nazywana różnicą potencjału Galvaniego i odpowiada potencjałowi elektrody znajdującej się w roztworze elektrolitu."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 592, "subject": "Szereg elektrochemiczny metali", "paragraphs": ["Standardowy potencjał elektrochemiczny metalu jest to potencjał elektrody metalowej zanurzonej w roztworze elektrolitu, który zawiera jony tego metalu. Potencjał ten jest zmierzony względem elektrody wodorowej w warunkach standardowych. Standardowy potencjał elektrochemiczny jest potencjałem równowagowym i odnosi się do reakcji równowagowej danej równaniem ( 1 ).", "Reakcja ( 1 ) jest reakcją anodowego utleniania metalu. Wartości potencjałów standardowych metali określają ich aktywność chemiczną. Metal posiadający niski potencjał standardowy (bardziej ujemny) jest metalem aktywnym chemicznie i łatwo ulega utlenianiu. Natomiast metale posiadające dodatnie potencjały standardowe łatwo ulegają redukcji. Metal bardziej aktywny zanurzony w roztworze elektrolitu zawierającego jony metalu bardziej szlachetnego (mniej aktywnego), wpypiera z tego roztworu jony metalu o wyższym potencjale standardowym. Na przykład cynk zanurzony w roztworze siarczanu(VI) miedzi powoduje wypieranie jonów miedzi z roztworu i osadzanie się metalicznej miedzi na elektrodzie cynkowej zgodnie z równaniem reakcji ( 2 ).", "W Tabela 1 znajdują się standardowe potencjały dla reakcji elektrochemicznych, w których reagenty znajdują się w roztworze (nie występują w postaci stałej). Wartości potenciałów znajdujących się w Tabela 2 określają zdolności utleniające lub redukujące substancji znajdujących się w roztworze. Jeśli standardowy potencjał elektrochemiczny danej reakcji jest bardziej dodatni, to oznacza, że reagenty biorące udział w tej reakcji posiadają wyższe zdolności utleniające."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 593, "subject": "Równanie Nernsta", "paragraphs": ["Równanie Nernsta pozwala obliczyć potencjał odwracalny metalu zanurzonego w roztworze elektrolitu zawierającego jony tego metalu. W takim przypadku między czystym metalem, a jego jonami w roztworze ustala się równowaga, zgodnie z równaniem reakcji ( 1 ).", "Korzystając z równania Nernsta możemy obliczyć potencjał elektrochemiczny metalu zanurzonego w roztworze jego jonów. Aktywność \"a\" substancji utlenionej i zredukowanej jest miarą oddziaływania tej substancji z cząsteczkami rozpuszczalnika oraz innymi jonami, substancjami obecnymi w roztworze. Aktywność jest iloczynem stężenia substancji i współczynnika aktywności \\( a=c*f \\). W roztworach rozcieńczonych, gdzie oddziaływania między jonami są bardzo słabe, współczynnik aktywności jest równy jedności, natomiast aktywność jest równa stężeniu danej substancji.", "R - stała gazowa (8,31 \\( \\frac{J}{mol*K} \\)) T - temperatura bezwzględna wyrażona w stopniach Kelvinach n - liczba elektronów wymienionych w procesie elektrodowym F - stała Faradaya 96 500 C \\( a_{utl} \\)- aktywność formy utlenionej \\( a_{red} \\) - aktywność formy zredukowanej Jeśli aktywność formy utlenionej jest równa aktywności formy zredukowanej, wówczas potencjał elektrochemiczny metalu jest równy potencjałowi standardowemu \\( E=E^{0} \\). Jeśli reakcją elektrodową jest reakcją czystego metalu z jego jonami, wówczas równanie Nernsta przyjmuje uproszczona postać ( 3 ).", "Jeśli aktywność jonów metalu w roztworze jest równa jedności, to potencjał równowagowy jest nazywany potencjałem standardowym metalu."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 594, "subject": "Elektroliza", "paragraphs": ["Procesy elektrochemiczne, które zachodzą na elektrodach w ogniwie elektrolitycznym spowodowane przepływem prądu elektrycznego dostarczonego z zewnętrznego źródła prądu stałego nazywamy elektrolizą. Procesy elektrolizy są stosowane do otrzymywania gazów (np. tlenu, wodoru, chloru), metali alkalicznych, aluminium, elektrorafinacji miedzi. Elektroliza jest wykorzystywana również w galwanotechnice (miedziowanie, cynkowanie, srebrzenie). Metale takie jak: sód, aluminium, magnez są otrzymywane w procesie elektrolizy stopionych soli.", "Elektroliza znajduje zastosowanie nie tylko do otrzymywania metali, ale jest również wykorzystywana do pokrywania np. stopów powłokami metalicznymi, powłokami tlenkowymi, które mają za zadanie nadać im specyficzne właściwości takie jak lepszą odporność na korozję, odporność na ścieranie, wyższą twardość. Procesy elektrolityczne pozwalają na otrzymanie produktów np. metali lub gazów o wysokiej czystości, których nie można uzyskać stosując inne metody technologiczne."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 596, "subject": "Elektroliza wody", "paragraphs": ["Elektroliza wody jest to proces rozkładu wodnego roztworu kwasu lub zasady na wodór i tlen, zachodzący w elektrolizerze pod wpływem przyłożonego napięcia. Wodór wydziela się na katodzie z godnie z równaniem reakcji ( 1 ):", "Natomiast tlen wydziela się na anodzie w procesie utleniania jonów wodorotlenowych zgodnie z równaniem ( 2 ):", "Sumaryczną reakcją elektrolizy wody przedstawia równanie ( 3 ):", "Elektroliza wody pozwala na otrzymanie bardzo czystego wodoru i tlenu w warunkach przemysłowych i laboratoryjnych. Jest to proces tani, który może zachodzić zarówno w roztworach kwasowych jaki i zasadowych. W elektrolizerach, jako elektrody używane do elektrolizy wody, znajdują zastosowanie zazwyczaj elektrody stalowe lub niklowe. Rys. 1 przedstawia schemat elektrolizera używanego do elektrolizy wody."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 595, "subject": "Elektroliza stopionego NaCl", "paragraphs": ["Rys. 1 przedstawia schemat elektrolizera używanego do otrzymywania metalicznego sodu. W stopionym chlorku sodu zanurzone są dwie elektrody: grafitowa katoda i stalowa anoda.", "Temperatura stopionej soli, która zawiera kationy sodu i aniony chlorkowe, wynosi około osiemset stopni Celcjusza. Pod wpływem przepływu prądu elektrycznego w elektrolizerze zachodzą następujące reakcje: Na katodzie (elektroda stalowa) zachodzi proces redukcji jonów sodu do metalicznego sodu:", "Na anodzie (elektroda grafitowa) zachodzi reakcja utleniania jonów chlorkowych do gazowego chloru.", "Podczas elektrolizy jony chlorkowe wędrują w kierunku anody i tam ulegają utlenieniu oddając elektrony. Z kolei jony sodu wędrują w kierunku katody, gdzie ulegają redukcji. Sumaryczną reakcję zachodzącą w elektrolizerze przedstawia poniższe równanie."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 597, "subject": "Otrzymywanie aluminium", "paragraphs": ["Czysty glin jest otrzymywany na drodze elektrolizy tlenku glinu rozpuszczonego w kriolicie \\( \\ce{Na_{3}AlF_{6}} \\), który oprócz tlenku glinu zawiera także fluorki glinu i wapnia. Elektroliza aluminium jest prowadzona po stopieniu kriolitu w temperaturze około \\( 950^{0}C \\) i przy gęstości prądu około \\( 0,5 \\frac{A}{cm^{2}} \\). Podczas elektrolizy na katodzie zachodzi reakcja redukcji jonów glinu, a dokładnie jonów tetrafluoroglinianowych, które powstają podczas topienia elektrolitu. Z kolei na grafitowych anodach zachodzi reakcja utleniania jonów tetrafluorodioksoglinianowych, co prowadzi do powstania tlenku węgla(IV). Równania ( 1 ) i ( 2 ) przedstawiają reakcje redukcji i anodowego utleniania zachodzące podczas elektrolizy aluminium.", "Sumaryczna reakcja elektrolizy aluminium, to rozkład tlenku glinu z udziałem węgla, reakcja ( 3 ).", "Rys. 1 przedstawia schemat elektrolizera używanego do produkcji aluminium."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 598, "subject": "Prawa elektrolizy Faraday'a", "paragraphs": ["m - masa substancji wydzielonej na elektrodzie podczas elektrolizy \\( k=\\frac{M}{n*F} \\)- równoważnik elektrochemiczny M - masa molowa wydzielonego jonu n - liczba elektronów przeniesionych w reakcji elektrodowej F - stała Faradaya (F = 96500 C) t - czas trwania elektrolizy I - prąd przepływający podczas elektrolizy", "\\( m_{1}, m_{2} \\) - masy substancji 1 i substancji 2 wydzielone na elektrodach \\( k_{1}, k_{2} \\) - równoważniki elektrochemiczne substancji 1 i substancji 2"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 599, "subject": "Szybkość reakcji elektrochemicznej, równowaga elektrochemiczna", "paragraphs": ["Równanie ( 1 ) przestawia elektrochemiczną reakcję odwracalną.", "W równaniu tym \"O\" i \"R\"oznaczają formę utlenioną i zredukowaną, natomiast \\( n_{utl} \\) oznacza liczbę moli formy utlenionej, a \\( n_{red} \\) oznacza liczbę moli formy zredukowanej. Liczba elektronów wymienionych w reakcji elektrochemicznej wynosi \"n\". Jeśli reakcja przebiega w prawą stronę (stała szybkości tej reakcji jest k1) jest to reakcja redukcji (reakcja katodowa). Reakcja przebiegająca w odwrotnym kierunku (stała szybkości reakcji k2) jest reakcją utleniania (reakcja anodowa). W warunkach równowagi szybkości obu reakcji katodowej i anodowej się zrównują. Czyli reakcja przebiegająca w prawo zachodzi z taką samą szybkością jak reakcja przebiegająca w lewo. W przypadku reakcji elektrochemicznych ich szybkość jest definiowana jako zmiana masy elektrody zachodząca w czasie (równanie ( 2 ) ).", "Masę substancji wydzielonej na elektrodzie można obliczyć z I prawa Faradaya. Łącząc równanie na szybkość reakcji elektrochemicznej z I prawem Faraday otrzymujemy równanie ( 3 ).", "v - szybkość reakcji elektrochemicznej m - masa substancji wydzielona na elektrodzie F - stała Fradaya n - liczba elektronów wymieniona w reakcji elektrodowej M - masa molowa substancji wydzielonej na elektrodzie i - prąd przepływający podczas reakcji elektrochemicznej Równanie ( 4 ) wskazuje, że prąd przepływający przez granicę elektroda/elektrolit jest proporcjonalny do szybkości reakcji elektrochemicznej zachodzącej na elektrodzie. W stanie równowagi elektrochemicznej szybkości reakcji katodowej i anodowej są sobie równe co do wartości bezwzględnej. Prąd przy którym wartości prądów katodowych i anodowych są równe nazywany jest prądem wymiany i oznaczony jest symbolem \\( i^{0} \\)."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 600, "subject": "Ogniwa elektrochemiczne", "paragraphs": ["Ogniwo elektrochemiczne jest to układ składający się dwóch różnych elektrod zanurzonych w tym samym elektrolicie lub dwóch takich samych elektrod zanurzonych w różnych elektrolitach. Układ elektroda metaliczna zanurzona w elektrolicie jest nazywany półogniwem. Jeśli elektrody są zanurzone w różnych elektrolitach, to elektrolity te są połączone kluczem elektrolitycznym. Klucz elektrolityczny zapobiega mieszaniu się elektrolitów obu półogniw, ale umożliwia wymianę jonów między nimi. Elektroda, która wykonana jest z metalu posiadającego wyższy potencjał elektrochemiczny nazywana jest katodą, natomiast elektroda, której potencjał elektrochemiczny jest niższy nazywana jest anodą. Różnica potencjałów mierzona między dwoma półogniwami ogniwa otwartego, czyli ogniwa przez które nie płynie prąd elektryczny, nazywana jest siłą elektromotoryczną ogniwa. Ogniwo przez które nie płynie prąd mówimy, że znajduje się ono w stanie równowagi. Źródłem siły elektromotorycznej są reakcje przebiegające w półogniwach.", "Ogniwa elektrochemiczne można podzielić na dwie grupy: 1) Ogniwa galwaniczne są to ogniwa, w których reakcje elektrochemiczne zachodzące na elektrodach przebiegają spontanicznie, co powoduje przepływ prądu przez ogniwo. Na anodzie (elektroda ujemna) zachodzi proces utleniania, a uwalniane w nim elektrony przemieszczają się od anody w kierunku katody (elektroda dodatnia) i tam są zużywane w reakcji redukcji. W ogniwie galwanicznym energia chemiczna jest zamieniana na energię elektryczną. 2) Ogniwa elektrolityczne (elektrolizery) są to ogniwa, w których przypływ elektronów między elektrodami jest wymuszony przez zewnętrzne źródło prądu podłączone do ogniwa. Powoduje to przebieg reakcji utleniania i redukcji na elektrodach.", "Ogniwa galwaniczne dzielimy na: Ogniwa pierwotne, które po wyczerpaniu nie nadają się do dalszego użytkowania (baterie nieodnawialne, np. ogniwo Leclanchego). Ogniwa wtórne, które można regenerować poprzez ładowanie np. akumulatory. Ogniwo paliwowe jest to urządzenie, które pozwala na ciągłą przemianę energii chemicznej w energię elektryczną lub cieplną. Urządzenia te mogą produkować energię w sposób ciągły, poprzez elektrochemiczne spalanie dostarczonych paliw takich jak. np. wodór, metan. Ogniwo paliwowe pracuje aż do wyczerpania paliwa. Ogniwa paliwowe w przeciwieństwie do akumulatorów nie magazynują energii elektrycznej."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 601, "subject": "Ogniwo Daniella", "paragraphs": ["Ogniwo Daniella jest odwracalnym ogniwem galwanicznym. Elektroda miedziana jest zanurzona w roztworze siarczanu(VI) miedzi, a elektroda cynkowa jest zanurzona w roztworze siarczanu(VI) cynku. Oba roztwory są połączone kluczem elektrolitycznym, który zapewnia przepływ jonów między półogniwami, ale uniemożliwia mieszanie się roztworów elektrolitów. Elektrody są połączone drutem, który zapewnia przepływ elektronów od anody w kierunku katody. Schemat ogniwa Daniella przedstawia Rys. 1.", "W ogniwie tym elektroda cynkowa jest anodą i na niej zachodzi reakcja utleniania cynku, natomiast elektroda miedziana jest katodą i na niej zachodzi reakcja redukcji jonów miedzi. Podczas reakcji utleniania zachodzącej na anodzie, jony cynku przechodzą do roztworu, natomiast elektrony uwolnione w reakcji utlenienia przemieszczają się przewodnikiem elektrycznym od anody w kierunku katody. Na elektrodzie miedzianej dostarczone elektrony są konsumowane w reakcji redukcji jonów miedzi do metalicznej miedzi. Reakcje zachodzące na anodzie i katodzie w ogniwie Daniella przedstawiają równania ( 1 ) i ( 2 ).", "Różnica potencjałów między potencjałem katody i anody jest nazywana siłą elektromotoryczną ogniwa (SEM). W warunkach równowagowych, kiedy przez ogniwo nie płynie prąd elektryczny, siłę elektromotoryczną ogniwa można obliczyć z równania Nernsta. Znając stężenia obu elektrolitów, obliczmy z wzoru Nernsta standardowe potencjały dla miedzi i cynku. Różnica tych potencjałów jest siłą elektromotoryczną ogniwa Daniella ( ( 3 ) )."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 602, "subject": "Ogniwo paliwowe metanolowe", "paragraphs": ["W ogniwie metanolowym jako paliwo używany jest roztwór metanolu w wodzie, który jest dostarczany do anody. Na anodzie zachodzi utlenianie metanolu i wody w wyniku czego powstają jony wodorowe (protony) i tlenek węgla(IV). Następnie jony wodorowe są transportowane przez membranę elektrolityczną do katody. Równocześnie elektrony uwolnione podczas procesu utleniania na anodzie wędrują w kierunku katody. Z kolei na katodzie protony i elektrony reagują z dostarczanymi z zewnątrz atomami tlenu, tworząc wodę.", "Schemat ogniwa paliwowego metanolowego podany jest na Rys. 1.", "Membrana elektrolityczna jest zbudowana materiału o nazwie Nafion. Jest to syntetyczny kopolimer tetrafluoroetenu i perfluorowanego eteru oligowinylowego zakończonego silnie kwasową resztą sulfonową. Membrana jest pokryta porowatą platyną pełniącą funkcje katalizatora. Z kolei anoda pokryta jest dwoma katalizatorami platyną i rutenem, które przyspieszają rozkład metanolu (Pt) i wody (Ru). W ogniwie tym, czysty metanol nie może być stosowany jako paliwo ze względu na to, że przechodzi on na drodze osmozy przez membranę w kierunku katody. Do zalet metanolowego ogniwa paliwowego należy: niska temperatura eksploatacji, bezpieczna praca, tanie paliwo i łatwe do transportu. Wadami ogniwa metanolowego są: niskie parametry prądowo-napięciowe w porównaniu do ogniwa wodorowego, wysoka toksyczność metanolu i jego zdolność do wywoływania korozji materiałów metalicznych, ponadto wydzielanie się tlenku węgla IV i wody utrudnia stosowanie tego typu ogniw w układach zamkniętych."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 603, "subject": "Ogniwo wodorowo - tlenowe", "paragraphs": ["Ogniwo wodorowo-tlenowe jest ogniwem paliwowym, w którym elektrolitem jest stężony wodny roztwór wodorotlenku potasu. Roztwór elektrolitu znajduje się pod ciśnieniem w przedziale od 20 do 40 atmosfer, a temperatura elektrolitu wynosi 200 stopni Celcjusza. W ogniwie tym jako elektrody są używane porowate płyty niklu, które są wytwarzane poprzez prasowanie proszku niklu. W ogniwie wodorowo-tlenowym zachodzą następujące reakcje: Na katodzie zachodzi reakcja redukcji tlenu ( ( 1 ) ):", "Na anodzie reakcja utleniania wodoru ( ( 2 ) ):", "Sumaryczna reakcja ( ( 3 ) ) zachodząca w ogniwie wodorowo-tlenowym jest reakcją egzotermiczną i samorzutną.", "Zaletą ogniwa wodorowo-tlenowego jest duża gestość prądu wymiany reakcji z wodorem. Schemat ogniwa wodorowo-tlenowego jest przedstawiony na Rys. 1."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 604, "subject": "Akumulator ołowiowy", "paragraphs": ["Akumulator ołowiowy zbudowany jest z dwóch elektrod: ołowiowej i elektrody ołowiowej pokrytej tlenkiem ołowiu \\( \\ce{PbO2} \\) Obie elektrody są zanurzone w roztworze kwasu siarkowego(VI) \\( \\ce{H2SO4} \\). Schemat akumulatora ołowiowego można przedstawić następująco \\( {{(-)}\\ce{Pb, PbSO_{4}}}{//}\\ce{{H_{2}SO_{4}}}{//}\\ce{{PbO_{2}}, Pb(+)} \\). Na elektrodzie ujemnej zachodzi reakcja utleniania ołowiu i tworzenie się siarczanu VI ołowiu \\( \\ce{PbSO4} \\) zgodnie z następującą reakcją:", "Na elektrodzie ołowiowej, która pokryta jest tlenkiem ołowiu(IV) – (elektroda dodatnia), zachodzi reakcja redukcji ołowiu i ołów z +4 stopnia utlenienia przechodzi na +2. Reakcja ta zachodzi z udziałem kwasu siarkowego, co prowadzi do tworzenia się nierozpuszczalnej soli siarczanu(VI) ołowiu(II):", "Reakcja zachodząca w akumulatorze ołowiowym jest sumą reakcji elektrodowych i reakcją odwracalną. Przebiega ona zgodnie z poniższym równaniem:", "Podczas rozładowania akumulatora (poboru prądu) reakcja ( 3 ) w akumulatorze biegnie w prawo, natomiast podczas ładowania, reakcja biegnie w lewo. Rys. 1 przedstawia schemat akumulatora ołowiowego."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 8. Elektrochemia", "subject_id": 605, "subject": "Korozja elektrochemiczna", "paragraphs": ["Korozja elektrochemiczna jest to samorzutny, nieodwracalny proces niszczenia metalu lub stopu spowodowany jego oddziaływaniem ze środowiskiem. Degradacja metali i stopów zachodzi na skutek ich kontaktu z wilgotnym powietrzem, wodą np. wodą morska, wodami śródlądowymi, glebą. Korozja metali zachodzi również w wysokich temperaturach (np. w energetyce). Najbardziej popularnym typem korozji jest korozja elektrochemiczna, która jest spowodowana powstawaniem ogniw korozyjnych. Metale aktywne, mające ujemny potencjał standardowy (szereg napięciowy metali) ulegają samorzutnemu roztwarzaniu w środowisku zawierającym jony wodorowe i przechodzą do roztworu w postaci jonów zgodnie z równaniem reakcji:", "Jony metalu przechodząc do roztworu powodują powstanie ujemnego ładunku na powierzchni metalu. Metal, np. żelazo będąc w kontakcie z wilgocią lub wodą ulega roztwarzaniu, a jony żelaza przechodząc do roztworu wodnego reagują z obecnymi w nim jonami wodorotlenkowymi tworząc nierozpuszczalny osad wodorotlenku żelaza (II). Jony wodorowe obecne w roztworze zużywają elektrony obecne na powierzchni metalu, co prowadzi do wydzielania gazowego wodoru (reakcja ( 2 ) ).", "Gazowy wodór opuszcza powierzchnię metalu, co powoduje przesunięcie reakcji rozpuszczania metalu w prawo (reakcja ( 1 ) ). Dzięki temu korozja może biec aż do wyczerpania jednego z reagentów. Wydzielenie się wodoru jest związane z konsumpcją elektronów na powierzchni metalu, co powoduje jego polaryzację. Korozja przebiegająca z wydzielaniem gazowego wodoru jest nazywana korozją z depolaryzacją wodorową. Zużywanie elektronów na powierzchni metalu poprzez jony wodorowe powoduje jego dalsze roztwarzanie, czyli korozję. Depolaryzatorem jest również tlen rozpuszczony w wodzie. Cząsteczki tlenu znajdujące się w wodzie zużywają elektrony obecne na powierzchni metalu, co prowadzi do powstawania jonów wodorotlenowych (reakcja ( 3 ) ). Reakcja ta zachodzi w środowiskach obojętnych i zasadowych. Korozja zachodząca z udziałem tlenu, nazywana jest korozją z depolaryzacją tlenową.", "Depolaryzatorami mogą być nie tylko jony wodoru i cząsteczki tlenu, ale wszystkie układy oksydacyjno-redukcyjne o wyższym potencjale standardowym od potencjału standardowego korodującego metalu. W związku z tym depolaryzatorami bardzo często są jony metali szlachetnych. Charakterystyczną cechą procesów korozji zachodzącej z depolaryzacją tlenową jest zjawisko pasywacji metali. Pasywacja metali polega na pokrywaniu się powierzchni metalu warstwą tlenku, który utrudnia jego rozpuszczanie. Pewne metale wykazują bardzo duże powinowactwo do tlenu i bardzo łatwo ulegają pasywacji. Do takich metali należą: \\( \\ce{Al, Cr, Ni, Ti, Mo, Ta} \\). Metale te są stosowane jako dodatki stopowe, które podnoszą odporność na korozję stopów. Rys. 1 przedstawia krzywe polaryzacji dla metalu ulegającemu aktywnemu roztwarzaniu (aktywnej korozji, krzywa czerwona) i dla metalu ulegającego pasywacji (krzywa zielona). W przypadku metalu aktywnego ze wzrostem potencjału prąd anodowy wzrasta. W przypadku metalu ulegającego pasywacji, w obszarze anodowym ze wzrostem potencjału, metal ulega utlenianiu, co przejawia się wzrostem prądu i obecnością piku anodowego. Następnie jony metalu przechodzące do roztworu reagują z cząsteczkami wody, co prowadzi do tworzenia się tlenków na powierzchni metalu. Prąd anodowy gwałtownie spada i osiąga stabilną wartość, co na krzywej polaryzacyjnej widoczne jest jako plateau (zielona krzywa, Rys. 1 ). Prąd anodowy odpowiadający plateau jest nazywany prądem pasywacji.", "W obszarze między punktami A-B zachodzi anodowe roztwarzanie metalu (korozja), który pokrywa się warstwą tlenkową, co prowadzi do blokowania jego powierzchni. Na krzywej polaryzacyjnej przejawia się to spadkiem gęstości prądu i osiągnięciem stabilnej i niskiej wartości prądu w pewnym zakresie potencjałów, obszar między punktami C-D jest nazywany obszarem pasywnym. Przy odpowiednio wysokich wartościach potencjałów następuje przebicie warstwy pasywnej i rozpuszczanie metalu nazywane transpasywnym roztwarzaniem. Podatność metalu na korozję w pewnych warunkach można przewidzieć na podstawie wykresów Pourbaix. Rys. 2 przedstawia wykres Pourbaix dla żelaza. Obszary znajdujące się między liniami ciągłymi wskazują, że w tym zakresie potencjałów i pH dany jon czy związek jest trwały. Na podstawie tych wykresów można określić w jakim zakresie potencjałów i pH dany metal jest odporny na korozję.", "Z diagramu Pourbaix widać, że żelazo nie ulega korozji przy niskich wartościach potencjałów w szerokim obszarze pH, a także przy wysokich wartościach potencjałów, ale przy wartościach pH powyżej 7 (zielony obszar na Rys. 2 ). Diagramy Pourbaix są bardzo użyteczne ponieważ pozwalają przewidywać w jakich warunkach metale są odporne na korozję. Polaryzując żelazo do niskich wartości potencjałów, zapewniamy mu odporność na korozję zarówno w środowisku kwasowym jak i zasadowym. Jest to wykorzystywane w ochronie katodowej dużych konstrukcji stalowych np. rurociągów."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 606, "subject": "Wprowadzenie do chemii organicznej", "paragraphs": ["Chemia organiczna jest dziedziną chemii, która obejmuje badania naukowe dotyczące struktury, właściwości fizycznych i chemicznych oraz reakcji związków naturalnych i syntetycznych, w stanie gazowym, ciekłym lub stałym, a także w postaci czystej, roztworach i mieszaninach, których szkielet składa się z atomów węgla (C) kowalencyjnie połączonych ze sobą lub z atomami innych pierwiastków chemicznych, najczęściej atomów tlenu (O), azotu (N), siarki (S) lub fosforu (P) i halogenków (grupa XVII w Układzie Okresowym Pierwiastków). W nowoczesnej chemii organicznej zakres wiązanych pierwiastków chemicznych rozciąga się także na grupy I, II, XIII – XVI, w tym na metale alkaliczne (np. lit (Li), sód (Na) i potas (K)), metale ziem alkalicznych (np. magnez (Mg ), metaloidy (np. bor (B) i krzem (Si)) i inne metale (np. glin (Al) i cyna (Sn)) oraz metale przejściowe (np. cynk (Zn), miedź ( Cu), pallad (Pd), nikiel (Ni), kobalt (Co), tytan (Ti), chrom (Cr), itd.).", "Związkami zawierającymi węgiel nie sklasyfikowanymi jako organiczne są tlenek węgla(II) ( \\( \\text{CO} \\) ), tlenek węgla(IV) ( \\( \\text{CO}{_2} \\) ), węgliki, węglany i cyjanki.", "Wykorzystana literatura Części e-podręcznika dotycząca chemii organicznej została opracowana w oparciu o następujące pozycje:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 607, "subject": "Nomenklatura związków organicznych", "paragraphs": ["Nomenklatura IUPAC jest używana do tworzenia nazw związków organicznych.", "Każda część nazwy związku organicznego dostarcza użytecznych informacji na temat budowy związku.", "Przy tworzeniu nazw związków organicznych należy:"], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 608, "subject": "Właściwości związków organicznych", "paragraphs": ["Właściwości fizyczne związków organicznych można opisać w sposób ilościowy i jakościowy. Temperatury topnienia i wrzenia, które identyfikują związki organiczne i podają kluczowe informacje na temat ich czystości, oraz współczynnik załamania światła dostarczają ilościowej informacji na temat związku. Z drugiej strony, zapach, konsystencja, rozpuszczalność i kolor opisują związki organiczne w sposób jakościowy.", "Wiązania kowalencyjne występują zazwyczaj pomiędzy atomami węgla w związkach organicznych. Dla każdego z tych atomów węgla, 4 jest numerem walencyjnym. Dzięki temu, atomy węgla są zdolne do tworzenia (wiązań podwójnych i potrójnych), które zwiększają stopień nienasycenia związku organicznego. Ze względu na zdolność wiązania się atomów węgla przez trwałe wiązania chemiczne (katenacja), większość związków organicznych jest zbudowana z pierścieni lub łańcuchów węglowych o różnej długości i kształcie. Zdolność ta wynika z charakteru niepolarnego wiązania pomiędzy atomami węgla. Rozkład elektronów pomiędzy tymi dwoma pierwiastkami chemicznymi zależy od tych samych wartości ich elektroujemności (2,55) i nie powoduje powstawania elektrofilu.", "Większość związków organicznych topi się, sublimuje lub rozkłada się w temperaturze powyżej 300°C. Rozpuszczalność związków organicznych zależy od struktury węglowej, obecności różnych i typu rozpuszczalnika. Na przykład, obojętne związki organiczne są zazwyczaj mniej rozpuszczalne w środowisku wodnym aniżeli w rozpuszczalnikach organicznych. Wyjątkiem od tej reguły są związki wykazujące charakter jonowy (np. sole kwasów karboksylowych, czwartorzędowe sole amoniowe, aminokwasy i niektóre związki o małej masie cząsteczkowej (np. kwas octowy ( \\( \\ce{CH}{_3}{-}\\ce{COOH} \\)) lub formaldehyd ( \\( \\ce{H}{-}\\ce{COH} \\)). Inne związki organiczne rozpuszczają się w czystych rozpuszczalnikach organicznych (np. metanolu ( \\( \\ce{CH}_{3}\\ce{-OH} \\)), toluenie ( \\( \\ce{C}{_6}\\ce{H}{_5}{-}\\ce{OH} \\)), itp. lub w ich mieszaninach.", "Większość związków organicznych tworzy szereg homologiczny. Przykładowo, Węglowodory-Rys. 2 przedstawia szereg homologiczny najprostszych węglowodorów."], "definitions": [{"name": "Definicja 1: Elektrofil", "content": "... to grupa atomów lub cząsteczka charakteryzująca się niedomiarem elektronów, które mogą zostać przyjęte w odpowiednich warunkach."}, {"name": "Definicja 2: Szereg homologiczny", "content": "... jest to szereg związków chemicznych o tym samym wzorze sumarycznym, których struktura zmienia się o pojedynczy identyczny parametr, taki jak długość łańcucha węglowego ( \\( {-}\\ce{CH}_{2}{-} \\) )."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 609, "subject": "Izomeria związków organicznych", "paragraphs": ["Izomery, które różnią się sposobem lub kolejnością wiązań chemicznych są nazywane izomerami strukturalnymi lub izomerami konstytucyjnymi. Na przykład metoksyetan ( \\( \\ce{CH}_{3}\\ce{-O-CH}_{2}\\ce{CH}_{3} \\)) jest izomerem strukturalnym propanolu ( \\( \\ce{CH}{_3}\\ce{CH}{_2}\\ce{CH}{_2}\\ce{OH} \\)). Ten typ izomerii obejmuje:", "Izomery, które różnią się układem atomów w przestrzeni nazywane są stereoizomerami. Ten typ izomerii obejmuje: izomerię geometryczną związków o podwójnym wiązaniu, izomerię geometryczną podstawionych związków pierścieniowych, izomerię konformacyjną związków pierścieniowych i izomerię optyczną. Izomeria geometryczna występuje, gdy dwa atomy węgla połączone wiązaniem podwójnym są podstawione dwoma różnymi atomami lub grupami atomów lub gdy dwa różne atomy lub grupy atomów są przyłączone do pierścienia związku. Atomy lub grupy atomów znajdują się w pozycji \\( {cis} \\), gdy leżą po tej samej stronie płaszczyzny odniesienia przechodzącej przez wiązanie podwójne lub płaszczyzny odniesienia pierścienia. Gdy atomy lub grupy atomów leżą po przeciwnych stronach wyżej wspomnianych płaszczyzn odniesienia przyjmują one pozycję \\( {trans} \\). Płaszczyzna odniesienia jest płaszczyzną przechodzącą przez atomy związane podwójnie, prostopadłą do płaszczyzny, w której leżą te atomy i atomy bezpośrednio przyłączone do nich ( Rys. 2A). W związkach cyklicznych płaszczyzna odniesienia jest płaszczyzną, w której leży szkielet pierścienia (lub jest położony w przybliżeniu) ( Rys. 2B).", "Większość związków organicznych jest chiralna.", "Chiralność w związkach organicznych objawia się faktem, że cząsteczka początkowa i jej odbicie lustrzane nie są identyczne. To znaczy, cząsteczka początkowa i jej odbicie lustrzane nie mogą zachodzić na siebie w wyniku translacji i rotacji w przestrzeni. Cząsteczki chiralne występują w postaci dwóch izomerów optycznych zwanych enancjomerami. Pary enancjomerów są często określane jako \"praworęczne\" (R–) i \"leworęczne\" (L–) ( Rys. 3 ). W celu określenia typu enancjomeru (L– lub R–), podstawniki przyłączone do asymetrycznego atomu węgla należy ustawić w kolejności malejącej liczby atomowej (np. w kwasie 2-chloropropanowym: \\( \\ce{-Cl} > \\ce{-COOH} > \\ce{-CH_3} > \\ce{-H} \\), gdzie znak \">\" oznacza \"ma pierwszeństwo przed\"). Następnie, cząsteczkę modelową należy obserwować od strony przeciwnej względem podstawnika wskazanego, jako ostatni (najlżejszy) (np. w kwasie 2-chloropropanowym: \\( \\ce{-H} \\)). Później, należy wyznaczyć kierunek idąc od pierwszego podstawnika (o najwyższej liczbie atomowej) do podstawnika ostatniego, najlżejszego. Kierunek wyznaczony zgodny z kierunkiem ruchu wskazówek zegara daje izomer R–, podczas gdy kierunek przeciwny do kierunku ruchu wskazówek zegara określa izomer L–. Gdy dwa różne podstawniki różnią się tylko masą atomową, cięższy podstawnik ma pierwszeństwo. Jeżeli centrum chiralne jest związane z dwoma, trzema lub czterema identycznymi atomami (to znaczy z atomem węgla np. w \\( \\ce{-COOH} \\) i \\( \\ce{-CH}{_3} \\) ) to należy porównać masy atomowe kolejnych atomów związanych z tym atomem węgla (np. O i H ⇒ O (w \\( \\ce{-COOH} \\) ) > H (w \\( \\ce{-CH}{_3} \\) ))."], "definitions": [{"name": "Definicja 1: Izomeria", "content": "... polega na zjawisku, że różne związki chemiczne mające ten sam wzór cząsteczkowy różnią się od siebie sposobem lub kolejnością wiązań chemicznych lub też rozmieszczeniem przestrzennym atomów."}, {"name": "Definicja 2: Chiralność", "content": "... jest spowodowana obecnością w strukturze cząsteczki przynajmniej jednego atomu węgla (chiralnego lub asymetrycznego), który ma wszystkie podstawniki różne."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 610, "subject": "Rzędowość atomów", "paragraphs": ["Rzędowość atomu jest podawana tradycyjnie za pomocą cyfr rzymskich, tj. \\( \\text{1}{^o}\\text{−} \\) (atom pierwszorzędowy), \\( \\text{2}{^o}\\text{−} \\) (atom drugorzędowy), \\( \\text{3}{^o}\\text{−} \\) (atom trzeciorzędowy) i \\( \\text{4}{^o}\\text{−} \\) (atom czwartorzędowy) (zob. Rys. 1 )."], "definitions": [{"name": "Definicja 1: Rzędowość atomu", "content": " ... to liczba określająca ile atomów węgla o typu sp³ jest przyłączona do konkretnego atomu związku organicznego. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 611, "subject": "Hybrydyzacja", "paragraphs": ["Znajomość orbitali zhybrydyzowanych pozwala przewidzieć liczbę i kierunek zlokalizowanych wiązań chemicznych w teorii wiązań walencyjnych.", "Aby określić geometrię cząsteczki związku organicznego i właściwości wiązań atomowych występujących w tych związkach należy rozważyć zachowanie się elektronów walencyjnych, które są związane z atomem węgla i które uczestniczą w tworzeniu czterech wiązań chemicznych. W stanie podstawowym węgiel ma cztery elektrony walencyjne, które zajmują jeden orbital atomowy \\( \\text{2s} \\) i dwa orbitale atomowe \\( \\text{2p} \\) (zgodnie z i ) (zob. Rys. 1 ).", "W stanie wzbudzonym jeden z dwóch elektronów na orbitalu atomowym \\( \\text{2s} \\) zostaje przeniesiony na trzeci pusty orbital atomowy \\( \\text{2p} \\). W rezultacie, każdy z czterech elektronów walencyjnych węgla zajmuje pojedynczo cztery orbitale atomowe. W zależności od liczby wiązań utworzonych pomiędzy dwoma sąsiadującymi atomami węgla, orbital atomowy \\( \\text{2s} \\) miesza się liniowo z trzema (wiązanie pojedyncze \\( \\ce{C-C} \\)), dwoma (wiązanie podwójne \\( \\ce{C=C} \\)) lub jednym (wiązanie potrójne \\( \\ce{C\\bond{#}C} \\)) orbitalem atomowym \\( \\text{2p} \\) tego samego atomu węgla dając orbitale zhybrydyzowane w liczbie równej liczbie orbitali atomowych biorących udział w mieszaniu. Orbitale zhybrydyzowane są skierowane w pewne kierunki zadane (zob. ).", "W przypadku wiązania pojedynczego \\( \\ce{C-C} \\), orbital atomowy \\( \\text{2s} \\) z jednym elektronem niesparowanym każdego atomu węgla miesza się liniowo z trzema orbitalami atomowymi \\( \\text{2p} \\), z których każdy posiada po jednym elektronie niesparowanym, dając cztery orbitale zhybrydyzowane typu \\( \\text{sp}{^3} \\) ( Rys. 2(A)). Te cztery orbitale zhybrydyzowane typu \\( \\text{sp}{^3} \\), każdy zajęty przez jeden elektron niesparowany, są zwrócone w kierunku naroży tetraedru (kąt pomiędzy dwoma sąsiednimi orbitalami zhybrydyzowanymi typu \\( \\text{sp}{^3} \\) wynosi 109,5°). Następnie jeden z orbitali zhybrydyzowanych typu \\( \\text{sp}{^3} \\) jednego atomu węgla nakłada się czołowo (nakładanie \\( \\sigma \\)) z jednym orbitalem zhybrydyzowanym typu \\( \\text{sp}{^3} \\) drugiego atomu węgla. W wyniku tego nakładania powstaje jeden orbital molekularny wiążący ( \\( \\sigma \\)), o energii niższej niż energia wyjściowych orbitali zhybrydyzowanych typu \\( \\text{sp}{^3} \\), zajęty przez dwa sparowane elektrony (wiązanie pojedyncze \\( \\ce{C-C} \\)) i jeden orbital molekularny niewiążący ( \\( \\sigma \\)* ), o energii wyższej niż energia wyjściowych orbitali zhybrydyzowanych typu \\( \\text{sp}{^3} \\). Pozostałe trzy orbitale zhybrydyzowane typu \\( \\text{sp}{^3} \\) nakładają się czołowo na orbitale atomowe lub orbitale zhybrydyzowane atomów sąsiednich. Bardzo dobrze znanym przykładem hybrydyzacji typu \\( \\text{sp}{^3} \\) jest etan (zob. Rys. 3 ).", "W przypadku wiązania podwójnego \\( \\ce{C=C} \\), orbital atomowy \\( \\text{2s} \\) atomu węgla, który jest zajęty przez elektron niesparowany miesza się liniowo z dwoma orbitami atomowymi \\( \\text{2p} \\) (każdy ma jeden elektron niesparowany) tego samego atomu węgla dając trzy orbitale zhybrydyzowane typu  \\( \\text{sp}{^2} \\) zwrócone w kierunkach naroży trójkąta równoramiennego (kąty pomiędzy orbitalami zhybrydyzowanymi typu \\( \\text{sp}{^2} \\) są równe 120°) ( Rys. 2(B)), podczas gdy trzeci orbital atomowy \\( \\text{2p} \\) tego atomu węgla pozostaje niezmieniony. Następnie, jeden orbital zhybrydyzowany typu \\( \\text{sp}{^2} \\), posiadający niesparowany elektron, jednego atomu węgla nakłada się czołowo (nakładanie \\( \\sigma \\)) z jednym orbitalem zhybrydyzowanym typu \\( \\text{sp}{^2} \\), posiadającym również jeden elektron niesparowany, drugiego atomu węgla dając jeden orbital molekularny wiążący (orbital molekularny \\( \\sigma \\)) z dwoma elektronami sparowanymi (wiązanie pojedyncze \\( \\ce{C-C} \\); wiązanie \\( \\sigma \\)) i jeden pusty orbital molekularny niewiążący ( \\( \\sigma \\)* ). Pozostałe dwa orbitale zhybrydyzowane typu \\( \\text{sp}{^2} \\) nakładają się na orbitale atomowe lub orbitale zhybrydyzowane sąsiednich atomów, podczas gdy niezmienione orbitale atomowe \\( \\text{2p} \\), posiadające po jednym niesparowanym elektronie, obu atomów węgla nakładają się bocznie (nakładanie \\( \\pi \\)) tworząc jeden orbital molekularny wiążący (orbital molekularny \\( \\pi \\)) zawierający dwa sparowane elektrony (drugie wiązanie w wiązaniu podwójnym \\( \\ce{C=C} \\), wiązanie \\( \\pi \\)) i jeden pusty orbital molekularny niewiążący ( \\( \\pi \\)* ). Bardzo dobrze znanym przykładem takiej hybrydyzacji jest eten (zob. Rys. 4 ).", "W przypadku wiązania potrójnego \\( \\ce{C\\bond{#}C} \\), dla obu atomów węgla orbital atomowy \\( \\text{2s} \\) i jeden orbital atomowy \\( \\text{2p} \\), z których każdy zajęty jest przez niesparowany elektron, ulegają kombinacji liniowej dając po dwa orbitale zhybrydyzowane typu \\( \\text{sp} \\), które leżą na linii prostej (kąt pomiędzy orbitalami zhybrydyzowanymi typu \\( \\text{sp} \\) jest równy 180°) ( Rys. 2(C)). Pozostałe dwa orbitale atomowe \\( \\text{2p} \\) obu atomów węgla pozostają niezmienione. Następnie, jeden orbital zhybrydyzowany typu \\( \\text{sp} \\) , zajęty przez niesparowany elektron, jednego atomu węgla nakłada się czołowo (wiązanie \\( \\sigma \\)) z jednym orbitalem zhybrydyzowanym typu \\( \\text{sp} \\), zawierającym także jeden elektron niesparowany, drugiego atomu węgla dając jeden orbital molekularny wiążący \\( \\sigma \\), zajęty przez dwa elektrony sparowane (jedno wiązanie w wiązaniu potrójnym) i jeden niezajęty orbital molekularny antywiążący ( \\( \\sigma \\)* ). Drugi orbital zhybrydyzowany typu \\( \\text{sp} \\)  obu atomów węgla nakłada się czołowo z orbitalami atomowymi lub zhybrydyzowanymi atomów sąsiednich. Natomiast, dwa niezmienione orbitale atomowe \\( \\text{2p} \\), każdy zajęty przez elektron niesparowany, jednego atomu węgla nakładają się bocznie na dwa niezmienione orbitale atomowe \\( \\text{2p} \\), każdy zajęty przez elektron niesparowany, drugiego atomu węgla. To znaczy, orbital atomowy \\( \\text{2p}{_x} \\) pierwszego atomu węgla nakłada się bocznie z orbitalem atomowym \\( \\text{2p}{_x} \\) drugiego atomu węgla, a orbital atomowy \\( \\text{2p}{_y} \\) pierwszego atomu węgla nakłada się bocznie z orbitalem atomowym \\( \\text{2p}{_y} \\) drugiego atomu węgla, w wyniku czego powstają dwa orbitale molekularne wiążące (drugie i trzecie wiązanie w wiązaniu potrójnym \\( \\ce{C\\bond{#}C} \\), dwa wiązania \\( \\pi \\)), z których każda jest zajęty przez dwa elektrony sparowane oraz dwa orbitale molekularne antywiążące ( \\( \\pi \\)* ). Bardzo dobrze znanym przykładem takiej hybrydyzacji jest etyn (zob. Rys. 5 )."], "definitions": [{"name": "Definicja 1: Hybrydyzacja", "content": "... jest teorią, która dla związków chemicznych wprowadza termin liniowo mieszanych orbitali atomowych (orbitali zhybrydyzowanych), które posiadają określone energie, kształty, itp. różne od tych dla orbital atomowych."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 612, "subject": "Klasyfikacja związków organicznych", "paragraphs": ["Istnieje wiele klas związków organicznych (zob. Rys. 1 ), które można podzielić na mniejsze podklasy w oparciu o ich skład i podobne właściwości. Wśród nich cztery główne kategorie, takie jak: , , i występują w organizmach żywych. Węglowodory znajdujące się w ropie naftowej powstały w wyniku rozkładu materii organicznej. , , i ich analogi cykliczne oraz są przykładami różnych typów węglowodorów. Węglowodory, w których jeden atom wodoru został zastąpiony grupą funkcyjną, np. grupą hydroksylową, aminową i karbonylową nazywane są ."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 613, "subject": "Węglowodory", "paragraphs": ["Łańcuchy węglowodorowe w węglowodorach są formowane za pomocą szeregu wiązań kowalencyjnych pomiędzy atomami węgla oraz węgla i wodoru. Łańcuchy te mogą zawierać różną liczbę wiązań pojedynczych, podwójnych i potrójnych (patrz Hybrydyzacja) (Rys. 1(A)); dla uproszczenia atomy H w łańcuchach węglowodorów zostały pominięte). Na tej podstawie można wyróżnić trzy ogólne klasy węglowodorów alifatycznych (z greckiego \"aleiphar\" oznacza \"tłuszcz\"; otrzymane w XIX w. w wyniku chemicznej degradacji tłuszczów lub olejów). Należą do nich, odpowiednio, alkany, alkeny i alkiny (nazywane też alkynami). Na Rys. 2 przedstawiono najprostsze ich przykłady. Łańcuchy węglowodorowe mogą być długie lub krótkie. Na przykład, etan ma tylko dwa atomy węgla w cząsteczce (Rys. 1(B)), natomiast dekan ma dziesięć atomów węgla. Łańcuchy zwierające większą liczbę atomów węgla mogą tworzyć struktury liniowe lub rozgałęzione, co przedstawiono na Rys. 1(D). Różnorodność struktur węglowodorowych wynika także z możliwości tworzenia pierścieni (węglowodory cykliczne). Pierścienie o różnych rozmiarach mogą zawierać gałęzie lub zawierać wiązania podwójne (Rys. 1(C)). Pierścienie zawierające naprzemiennie występujące wiązania pojedyncze i podwójne, zwane pierścieniami aromatycznymi, są wyjątkowo stabilne i przyjmują kształt płaski (Rys. 1(E)). Wchodzą one w skład arenów (otrzymane w XIX w. w wyniku chemicznej degradacji niektórych przyjemnie pachnących ekstraktów roślinnych). Rys. 2 przedstawia przykłady najprostszych węglowodorów (Właściwości związków organicznych-Szereg homologiczny) należących do wyżej wspomnianych klas związków.", "Powyższa klasyfikacja węglowodorów pozwala na powiązanie cech strukturalnych z właściwościami związków, jakkolwiek nie wymaga przypisania konkretnego węglowodoru do jednej rodziny związków. W rzeczywistości cząsteczki węglowodorów zawierają jednostki strukturalne charakterystyczne dla dwóch lub więcej rodzin węglowodorów. Na przykład, węglowodór zawierający zarówno podwójne wiązanie węgiel-węgiel, jak i pierścień benzenowy, wykazuje pewne właściwości charakterystyczne dla alkenów, a inne właściwości charakterystycznych dla arenów.", "Alkany są nazywane nasyconymi węglowodorami, podczas gdy alkeny, alkiny i węglowodory aromatyczne są uważane za nienasycone węglowodory."], "definitions": [{"name": "Definicja 1: Węglowodory", "content": "... to związki organiczne, które w swojej strukturze zawierają wyłącznie czterowartościowe atomy węgla wysycone wodorem."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 614, "subject": "Właściwości ogólne węglowodorów", "paragraphs": ["Większość węglowodorów obecnych na Ziemi występuje w gazie ziemnym i ropie naftowej, gdzie rozkładające się substancje organiczne zapewniają obfitość węgla i wodoru, które w wyniku kondensacji mogą tworzyć pozornie nieograniczenie rozmaite łańcuchy węglowodorowe. Są one zatem podstawą paliw ropopochodnych (uwalniają dużą ilość energii podczas spalania) i smarów, gdzie występują w . Służą one także jako surowce do produkcji tworzyw sztucznych, włókien, rozpuszczalników, gum, materiałów wybuchowych i chemikaliów przemysłowych. Wiele węglowodorów jest obecnych w drzewach i roślinach, na przykład w postaci pigmentów zwanych karotenami, które np. występują w marchwi i zielonych częściach roślin. Wspomnieć należy, iż bakterie żyjące w glebie i bakterie obecne w jelitach termitów, czy przeżuwaczy produkują metan.", "Właściwości fizyczne i , na ogół, są podobne do właściwości lub zawierających taką samą liczbę atomów węgla w cząsteczce. Alkiny wykazują wyższe temperatury wrzenia aniżeli alkany lub alkeny, ponieważ pole elektryczne alkinu (ze zwiększoną liczbą słabo związanych elektronów \\( \\pi \\)) ulega łatwo zniekształceniu, co powoduje wytworzenie silnych sił przyciągania pomiędzy cząsteczkami.", "Węglowodory to gazy (np. metan i propan), ciecze (np. heksan i benzen), woski, niskowrzące substancje stałe (np. naftalen), ciała stałe (bitum) lub (np. polietylen i polistyren).", "Węglowodory są niepolarne i hydrofobowe. Węglowodory nienasycone i aromatyczne są słabo rozpuszczalne w wodzie (np. rozpuszczalność toluenu w wodzie wynosi ~ 500 mg/L), natomiast węglowodory nasycone są nierozpuszczalne w wodzie.", "Większość węglowodorów charakteryzuje się gęstością mniejszą niż gęstość wody (1,0 g/ml), a zatem pływają na wodzie.", "Większość węglowodorów spala się nad płomieniem.", "Alkeny są dużo bardziej reaktywne niż alkany. Charakterystyczną reakcją alkanów jest substutucja (zob. reakcja substytucja ). Natomiast alkeny i alkiny ulegają reakcji addycji (zob. reakcja addycji ) do wiązania podwójnego lub potrójnego. Natomiast, areny ulegają reakcjom substytucji elektrofilowej (zob. rysunek substutucji elektrofilowej )."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 615, "subject": "Izomeria węglowodorów", "paragraphs": ["Strukturalnie węglowodory zostały podzielone na liniowe (atomy węgla tworzą strukturę liniową; np. heksan (zob. Rys. 1; dla uproszczenia pominięto atomy H w łańcuchach węglowodorów) i rozgałęzione (w przypadku węglowodorów o łańcuchu zawierającym liczbę atomów węgla C-n > 3; zwykle chiralny szkielet węglowy odgałęzia się w jednym lub więcej kierunkach; np 2-metylopentan, 3-metylopentan, 2,2-dimetylobutan i 2,3-dimetylobutan). Związki o tym samym wzorze sumarycznym, ale różnej budowie szkieletu znane są jako izomery szkieletowe (izomery szkieletowe heksanu przedstawia Rys. 1 )."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 616, "subject": "Alkany", "paragraphs": ["Alkany są niepolarne i przyciągają się do siebie bardzo słabymi siłami van der Waalsa. Są nierozpuszczalne w wodzie i rozpuszczalne w eterach, benzenie i innych rozpuszczalnikach organicznych. Mieszają się ze sobą bez ograniczeń. Ich temperatura wrzenia wzrasta wraz ze wzrostem długości łańcucha węglowego. Najwyższe temperatury topnienia i wrzenia mają alkany o łańcuchu liniowym. Temperatury wrzenia i temperatury topnienia maleją dla alkanów o łańcuchach rozgałęzionych. W temperaturze pokojowej, w fazie gazowej występują cztery pierwsze alkany (metan, etan, propan i butan). Alkany zawierające od 5 do 16 atomów węgla w strukturze są cieczami. Wyższe alkany są ciałami stałymi.", "Alkany są chemicznie pasywne. Nie odbarwiają wody bromowej (nasycony roztwór wodny bromu o stężeniu około 3,6 g/100 g) i nie ulegają utlenieniu pod wpływem roztworu manganianu(VII) potasu \\( (\\ce{KMnO}{_4} \\)). Niższe parafiny nie ulegają reakcji nitrowania, podczas gdy wyższe alkany podczas tej reakcji ulegają degradacji. Są łatwopalne. W obecności tlenu molekularnego \\( (\\ce{O}{_2} \\) ) alkany ulegają spaleniu wytwarzając parę wodną, tlenek węgla(IV) \\( (\\ce{CO}{_2} \\)) i ciepło \\( (\\text{Q} \\)). Tak więc, spalanie alkanów jest przykładem egzotermicznej reakcji chemicznej. W zależności od ilości dostępnego \\( \\ce{O}{_2} \\) alkany ulegają całkowitemu (reakcja ( 1 ) ), połowicznemu ( 2 ) lub niekompletnemu ( 3 ) spalaniu:", "Alkany reagują z halogenkami ( 4 ) (reakcja substytucji). Reakcja ta odbywa się przy udziale energii świetlnej ( \\( {h} \\) \\( \\nu \\) ). Jest to reakcja substytucji wolnorodnikowej:", "Alkany ulegają reakcjom odwodornienia ( 5 ), sulfonowania ( 6 ) i chlorosulfonowania ( 7 ):"], "definitions": [{"name": "Definicja 1: Alkany (parafiny)", "content": " ... to nasycone węglowodory; są najprostszym rodzajem węglowodorów. Ich szkielet składa się wyłącznie z atomów węgla połączonych ze sobą i wysyconych atomami wodoru. Ogólny wzór niecyklicznych alkanów można przedstawić za pomocą wzoru \\( \\ce{C}{_n}\\ce{H}{_2}{_n}{_+}{_2} \\). "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 617, "subject": "Alkeny", "paragraphs": ["Rotacja względem wiązania podwójnego jest niekorzystna. Dlatego też alkeny tworzą raczej stabilne stereoizomery (zob. ). Alkeny niecykliczne z jednym wiązaniem podwójnym można opisać wzorem \\( \\ce{C}{_n}\\ce{H}{_2}{_n} \\).", "Temperatura wrzenia każdego alkenu jest niższa, ale zbliżona do temperatury wrzenia alkanu o tej samej liczbie atomów węgla w cząsteczce. Temperatury topnienia alkenów zależą od upakowania cząsteczek. Alkeny o regularnym upakowaniu mają wyższe temperatury topnienia niż cząsteczki o tym samym wzorze strukturalnym, ale słabszej sile dyspersji. Nie przewodzą energii elektrycznej i są lżejsze od wody. Są niepolarne i nierozpuszczalne w wodzie. Jednakże są generalnie rozpuszczalne w rozpuszczalnikach organicznych (niepolarnych). Eten, propen i buten występują w postaci bezbarwnych gazów. Alkeny o liczbie atomów węgla w cząsteczce od 5 do 18 są cieczami, a wyższe alkeny są ciałami stałymi.", "Alkeny, ze względu na niestabilność wiązania podwójnego, są bardziej reaktywne niż odpowiadające im alkany. Ulegają reakcjom spalania całkowitego (reakcja ( 1 ) ), utleniania ( 2 ), polimeryzacji ( 3 ), uwodornienia ( 4 ) i addycji ( 5 )."], "definitions": [{"name": "Definicja 1: Alkeny", "content": " ... to nienasycone węglowodory; posiadają co najmniej jedno pomiędzy atomami węgla w cząsteczce. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 619, "subject": "Alkiny", "paragraphs": ["Te niecykliczne związki z jednym wiązaniem potrójnym mają ogólny wzór \\( \\ce{C}{_n}\\ce{H}{_{2n-2}} \\).", "Alkiny są niepolarne, słabo rozpuszczalne w rozpuszczalnikach polarnych i nierozpuszczalne w wodzie. Jednak dobrze rozpuszczają się w rozpuszczalnikach organicznych. Mają nieco wyższe temperatury wrzenia w porównaniu do odpowiadających im alkanów i alkenów.", "Alkiny są bardziej reaktywne niż odpowiadające im alkeny. Uczestniczą w reakcjach: całkowitego spalania (reakcja ( 1 ) ), uwodnienia ( 2 ), utleniania ( 3 ), uwodornienia ( 4 ) i addycji ( 5 )."], "definitions": [{"name": "Definicja 1: Alkiny (alkyny)", "content": " ... to nienasycone węglowodory; mają co najmniej jedno między atomami węgla w cząsteczce, co przyczynia się do znacznej siły wiązania, liniowości i kwasowości tych związków."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 620, "subject": "Węglowodory pierścieniowe", "paragraphs": ["Ogólny wzór sumaryczny nasyconych węglowodorów zawierających jeden pierścień w strukturze związku to \\( \\ce{C}{_n}\\ce{H}{_2}{_n} \\). Nie wszystkie atomy pierścienia węglowodoru cyklicznego leżą w płaszczyźnie. Cyklopentan i wszystkie wyższe węglowodory cykliczne występują jako związki z \"pierścieniami pofałdowanymi\", które charakteryzują się elastycznością i wykazują tendencję do wyginania. Tendencja ta wynika z typu \\( \\text{sp}{^3} \\) atomów węgla, która wymusza przyjęcia kształtu tetraedrycznego; tj. kiedy orbitale zhybrydyzowane typu \\( \\text{sp}{^3} \\) sąsiednich atomów węgla zachodzą na siebie czołowo tworząc pierścień to utworzony pierścień wygina się w górę i w dół. Idealnym przykładem węglowodoru cyklicznego z pofałdowanym pierścieniem jest cykloheksan (zob. Rys. 1; dla uproszczenia atomy H w pierścieniu cykloheksanu zostały pominięte).", "Węglowodory cykliczne są niepolarne i mają właściwości fizyczne podobne do węglowodorów liniowych zawierających taką samą liczbą atomów węgla w cząsteczce. Są to związki nierozpuszczalne w wodzie, za wyjątkiem cyklopropanu. Ich temperatury topnienia i wrzenia są trochę wyższe niż temperatury dla ich odpowiedników o strukturze liniowej.", "Cykloalkany wykazują reaktywność podobną do reaktywności alkanów liniowych, za wyjątkiem cyklopropanu i cyklobutanu. Cyklopropan i cyklobutan są znacznie bardziej reaktywne niż inni członkowie tej klasy związków ze względu na występowanie dużych naprężeń w pierścieniu, co wynika z faktu, iż kąty między wiązaniami w tych pierścieniach (odpowiednio, 60° i 90°) są mniejsze w porównaniu z kątem wynikającym z hybrydyzacji typu \\( \\ce{sp}{^3} \\) atomów węgla (109,5°). W tej sytuacji, siły odpychania pomiędzy wiążącymi parami elektronowymi łączącymi atomy węgla są duże, co czyni wiązania łatwiejszymi do zerwania."], "definitions": [{"name": "Definicja 1: Węglowodory pierścieniowe", "content": "... (cykliczne) składają się z jednego lub więcej pierścieni węglowych, do których są przyłączone atomy wodoru."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 618, "subject": "Areny", "paragraphs": ["W pierścieniu aromatycznym atomy węgla (lub inne atomy) łączą się ze sobą za pomocą występujących naprzemiennie. Ten sposób wiązania prowadzi do powstania tak zwanej chmury elektronowej (system elektronów \\( \\pi \\) w liczbie 4n+2 (gdzie n oznacza liczbę atomów w pierścieniu)) zlokalizowanej powyżej i poniżej płaszczyzny pierścienia aromatycznego. To sprawia, że areny są wyjątkowo stabilne. Są one często opisywane z pomocą struktur rezonansowych Kekulégo (z pojedynczymi i podwójnymi wiązaniami) lub za pomocą chmury elektronowej zdelokalizowanej nad wszystkimi atomami węgla w pierścieniu płaskim. Najprostszym arenem jest benzen ( Rys. 1 ), który w pierścieniu zawiera sześć atomów węgla.", "Związki aromatyczne są zwykle niepolarne i nierozpuszczalne w wodzie. Są mniej reaktywne niż alkeny. Ta niska reaktywność sprawia, że są użyteczne jako rozpuszczalniki dla związków niepolarnych.", "Areny ulegają reakcjom substytucji elektrofilowej ( Rys. 2 ), w których pierścień aromatyczny pełni rolę nukleofila (grupa atomów lub cząsteczka będąca donorem elektronów). W reakcjach tych, bogaty w elektrony pierścień aromatyczny tworzy wiązanie z elektrofilem ( \\( \\ce{E}{^+} \\) ), który zastępuje atom wodoru w pierwotnej strukturze pierścienia aromatycznego. W reakcjach tych zostaje zachowany układ \\( \\pi \\)-elektronów, a tym samym aromatyczny charakter pierścienia benzenowego. Dlatego produkty elektrofilowej reakcji substytucji charakteryzują się wysoką stabilnością. Przykładami reakcji substytucji elektrofilowej są: fluorowcowanie, nitrowanie, sulfonowanie, etylowanie i reakcje Friedela-Craftsa.", "Podstawniki już przyłączone do pierścienia benzenowego (np. grupa –OH w fenolu ( \\( \\ce{C}{_6}\\ce{H}{_5}{–}\\ce{OH} \\))) wpływają na regioselektywność i szybkość reakcji substytucji elektrofilowej. Z tego względu, podstawniki pierścienia aromatycznego zostały podzielone na te, które kierują inne podstawniki w pozycje \\( {orto}{–} \\) / \\( {para}{–} \\) pierścienia aromatycznego i te kierujące w pozycję \\( {meta}{–} \\) ( Rys. 3 ), jak również na te, które aktywują (stabilizują kationy pośrednie przez oddawanie elektronów, poprzez efekt indukcyjny lub rezonansowy, do układu \\( \\pi \\)-elektronowego pierścienia) lub dezaktywują pierścień aromatyczny przez co, odpowiednio, zwiększają lub zmniejszają szybkość reakcji.", "Grupy posiadające wolne pary elektronów (np. grupa \\( {–}\\ce{NH}{_2} \\) w anilinie lub grupa \\( {–}\\ce{OH} \\) w fenolu) są silnie aktywującymi podstawnikami kierującymi inne podstawniki w pozycje  \\( {orto}{–} \\) / \\( {para}{–} \\) pierścienia aromatycznego. Podstawniki alkilowe i arylowe (np. grupa \\( {–}\\ce{OCH}{_3} \\) w metoksybenzenie) aktywują słabo pierścień aromatyczny i niezbyt silnie dyskryminują wprowadzenie kolejnego podstawnika w pozycję \\( {meta}{–} \\) pierścienia aromatycznego. Halogenki są także grupami kierującymi kolejny podstawnik w pozycje \\( {orto}{–} \\) / \\( {para}{–} \\) pierścienia aromatycznego. Jednakże, ponieważ są bardziej elektroujemne niż atom węgla to wyciągają elektrony z układu \\( \\pi \\)-elektronowego pierścienia. Z tego względu należą one do podstawników dezaktywujących. Grupy nie będące halogenkami, a mające atomy bardziej elektroujemne niż atom węgla (np. \\( {–}\\ce{COOH} \\), \\( {–}\\ce{COH} \\), \\( {–}\\ce{COR} \\), \\( {–}\\ce{SO}{_3}\\ce{H} \\), \\( {–}\\ce{CN} \\) lub \\( {–}\\ce{NO}{_2} \\) ) są podstawnikami dezaktywującymi kierującymi kolejne podstawniki w pozycję \\( {meta}{–} \\) pierścienia aromatycznego."], "definitions": [{"name": "Definicja 1: Areny", "content": " ... nazywne też arylami lub węglowodorami aromatycznymi są to związki, które zawierają co najmniej jeden pierścień aromatyczny w strukturze. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 621, "subject": "Halogenki węglowodorów", "paragraphs": ["Wiele właściwości fizykochemicznych halogenków węglowodorów jest dość zbliżona do tych, które charakteryzują proste . Są trwałymi dipolami. Są to związki niepolarne, nierozpuszczalne w wodzie i zdolne do rozpuszczania innych halogenków węglowodorów oraz prostych węglowodorów. W miarę wzrostu liczby atomów węgla w cząsteczce ich temperatura wrzenia wzrasta.", "Charakteryzują się wyższymi temperaturami wrzenia niż odpowiadające im . Mono podstawione halogenki węglowodorów mogą być gazami, podczas gdy dwu-, trzy- i cztery- podstawione halogenowe pochodne metanu są cieczami w temperaturze pokojowej.", "Wielokrotnie podstawione halogenki węglowodorów ulegają reakcjom utleniania w obecności tlenu molekularnego i ciepła (reakcja ( 1 ) ) oraz biorą udział w reakcjach utleniania metabolitów ( 2 ) katalizowanych przez ludzkie cytochromy.", "„Aktywowane” halogenki węglowodorów ulegają reakcji nukleofilowego przemieszczenia w obecności nukleofili oraz reakcji eliminacji w obecności zasad.", "Chlorowe pochodne węglowodorów, związane z pewnymi problemami środowiskowymi i zdrowotnymi, mają szeroki zakres zastosowań, jako: środki owadobójcze (np. dichlorodifenylotrichloroetan (DDT), dichlorodifenylodichloroetan (DDD), heksachlorocyklopentadien (chlordan), heksachlorocyklopentadien (aldryna)), herbicydy (np. kwas 2,4-dichlorofenoksyoctowy (2,4-D) i kwas 2,4,5-trichlorofenoksyoctowy (2,4,5-T)) oraz płyny dielektryczne w transformatorach elektrycznych (np. polichlorowane bifenyle (PCB)). Chlorofluorowęglowodory (freony) są szeroko stosowane w chłodnictwie i klimatyzacji."], "definitions": [{"name": "Definicja 1: Halogenki węglowodorów", "content": " ... to węglowodory zawierające jeden lub więcej atomów fluorowca (Cl, F, Br lub I) w cząsteczce. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 622, "subject": "Pochodne węglowodorów", "paragraphs": ["Związki powstałe w wyniku podstawienia protonu fluorowcem ( \\( {-}\\ce{X} \\) ) nazywane są halogenkami węglowodorów ( Rys. 1 ). Pochodne powstałe przez wprowadzenie grupy hydroksylowej \\( ({-}\\ce{OH}) \\) lub aminowej \\( ({–}\\ce{NH}{_2}) \\) w miejsce protonu są nazywane, odpowiednio, alkoholami lub fenolami i aminami. Pochodne węglowodorów pochodzące od podstawienia protonu grupą kwasową \\( ({–}\\ce{C(}{=}\\ce{O)}{-}\\ce{OH}) \\) są nazywane kwasami karboksylowymi. Estry, halogenki kwasowe, amidy, czy aldehydy są związkami pochodzącymi od kwasów karboksylowych, w których  grupa hydroksylowa została podstawiona odpowiednimi grupami atomów, takimi jak: \\( {-}\\ce{OR} \\) (gdzie: R− oznacza grupę alkilową lub arylową), \\( {-}\\ce{X} \\), \\( {-}\\ce{NR}{_2} \\), czy \\( {-}\\ce{H} \\) ( Rys. 2 ).", "Jedną z głównych przyczyn klasyfikacji związków chemicznych za pomocą ich grup funkcyjnych jest to, iż podział ten odzwierciedla zachowanie chemiczne tych związków. Należy przez to rozumieć, że reakcje związków chemicznych i w pewnym stopniu ich właściwości fizyczne zależą od natury grup funkcyjnych. Jest to związane z faktem, iż wiele reakcji organicznych obejmuje przekształcenie grupy funkcyjnej związku chemicznego, w czasie których pozostaje niezmieniona reszta cząsteczki. Na przykład, alkohole można przekształcić w halogenki organiczne, etery, czy aminy bez zmiany struktury łańcucha węglowodorowego. Ponadto, można oczekiwać, że dowolny związek chemiczny posiadający określoną grupę funkcyjną będzie ulegał reakcjom charakterystycznym dla tej grupy funkcyjnej.", "W organizmach żywych i materii organicznej powszechnie występują także związki siarkoorganiczne i fosforoorganiczne, które zawierają w swojej strukturze wiązania, odpowiednio, węgiel-siarka i węgiel-fosfor. Na przykład, tiole są odpowiednikami alkoholi w strukturze, których atom tlenu grupy hydroksylowej został zastąpiony atomem siarki \\( ({−}\\text{SH}) \\). Podobnie tioestry i tioetery są analogami, odpowiednio, estrów i eterów ( Rys. 3 )."], "definitions": [{"name": "Definicja 1: Pochodne węglowodorów", "content": "... są to węglowodory w strukturze, których jeden lub więcej protonów zostało podstawionych przez inny atom(y) lub grupę(y) atomów (grupa(y) funkcyjna), która nadaje związkowi chemicznemu charakterystyczne właściwości oraz określa przynależność do danej klasy związków chemicznych. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 623, "subject": "Aminy", "paragraphs": ["Na podstawie liczby grup przyłączonych do azotu można wyodrębnić aminy pierwszorzędowe ( \\( 1^{\\circ} \\)−), drugorzędowe ( \\( 2^{\\circ} \\)−) i trzeciorzędowe ( \\( 3^{\\circ} \\)−). W \\( 1^{\\circ} \\)–aminach tylko jedna grupa alkilowa jest związana z atomem azotu. Tak więc, wzór amin pierwszorzędowych ma postać \\( \\ce{R}{-}\\ce{NH}{_2} \\). W \\( 2^{\\circ} \\)– i \\( 3^{\\circ} \\)–aminach, odpowiednio, dwie lub trzy grupy alkilowe podstawiają atomy wodoru w amoniaku. Oznacza to, że wzory amin drugo– i trzeciorzędowych są następujące: \\( \\ce{R}{_2}{-}\\ce{NH} \\) i \\( \\ce{R}{_3}{-}\\ce{N} \\). Azot związany z czterema grupami alkilowymi nazywa się \\( 4^{\\circ} \\)–kationem amoniowym (np. bromek tetrametyloamoniowy \\( (\\ce{(CH}{_3}\\ce{)}{_4}\\ce{N}{^+}\\ce{Br}{^-}) \\).", "Dzięki obecności wiązań wodorowych, sił van der Waalsa i oddziaływań dipol-dipol temperatury wrzenia amin pierwszorzędowych są wyższe niż cząsteczek innych związków zawierających taką samą liczbę elektronów. Temperatury wrzenia amin drugorzędowych są nieco niższe (ze względu na słabsze oddziaływania dipol-dipol) niż temperatury wrzenia odpowiadających  im amin pierwszorzędowych, mających taką samą liczbę elektronów w cząsteczce. W przypadku amin trzeciorzędowych nie ma atomów wodoru przyłączonych bezpośrednio do atomu azotu. Dlatego aminy trzeciorzędowe nie tworzą wiązań wodorowych, a ich temperatury wrzenia są znacznie niższe niż te obserwowane dla amin drugorzędowych.", "Proste aminy są bardzo dobrze rozpuszczalne w wodzie i wykazują zapach podobny do zapachu amoniaku. Wraz ze wzrostem długości łańcuchów węglowodorowych amin ich rozpuszczalność maleje, a zapach przypomina zapach ryby. Aminy alifatyczne są rozpuszczalne w rozpuszczalnikach organicznych.", "Aminy reagują jako zasady w obecności rozcieńczonych kwasów, wody i jonów miedzi(II) (reakcja ( 1 ) ) oraz jako nukleofile w reakcjach z różnorodnymi elektrofilami (np. , , sulfonianem alkilu \\( (\\ce{R}{-}\\ce{SO}{_2}\\ce{OH}) \\) ( 2 ). Ponadto, ulegają one głównie reakcjom alkilowania ( 3 ) oraz jeśli są one aminami \\( 1^{\\circ} \\)−  ( Rys. 1 ) lub \\( 3^{\\circ} \\)− ( Rys. 2 ) reagują z chlorkiem benzenosulfonylu \\( (\\ce{C}{_6}\\ce{H}{_5}\\ce{SO}{_2}\\ce{Cl}) \\). Reakcja ta prowadzi do otrzymania rozpuszczalnej w wodzie soli kwasu sulfonamidowego (próba Hinsberga)."], "definitions": [{"name": "Definicja 1: Aminy", "content": " ... to pochodne amoniaku \\( (\\ce{NH}{_3}) \\), w strukturze którego jeden lub więcej atomów wodoru zastąpiono grupą alkilową lub arylową \\( (\\ce{R}{-}) \\). "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 624, "subject": "Alkohole", "paragraphs": ["Biorąc pod uwagę rzędowość atomu węgla, do którego jest przyłączona grupa hydroksylowa można wyróżnić alkohole pierwszorzędowe ( \\( 1^{\\circ} \\)–), drugorzędowe ( \\( 2^{\\circ} \\)–) i trzeciorzędowe ( \\( 3^{\\circ} \\)–). W alkoholach \\( 1^{\\circ} \\)– grupa hydroksylowa jest przyłączona do atomu węgla, który tworzy wiązanie chemiczne tylko z jednym atomem węgla. W alkoholach \\( 2^{\\circ} \\)– i \\( 3^{\\circ} \\)– grupa hydroksylowa jest przyłączona do atomu węgla, który tworzy wiązania chemiczne z, odpowiednio, dwoma lub trzema sąsiadującymi atomami węgla.", "Ponieważ grupa hydroksylowa alkoholi sprzyja powstawaniu wiązań wodorowych pomiędzy atomem tlenu jednej cząsteczki alkoholu, a atomem wodoru grupy hydroksylowej innej cząsteczki alkoholu, temperatury wrzenia tych związków są względnie wysokie. Wraz z wydłużeniem łańcucha węglowego alkoholu temperatura wrzenia i rozpuszczalność w niepolarnych rozpuszczalnikach wzrasta. Jednakże maleje rozpuszczalność w rozpuszczalnikach polarnych dla alkoholi o dłuższych łańcuchach. Również lotność alkoholi maleje gwałtownie wraz ze wzrostem ich masy cząsteczkowej.", "Alkohole ulegają reakcjom odwodornienia (reakcja ( 1 ) ), estryfikacji ( 2 ), a jeśli są to alkohole \\( 1^{\\circ} \\)– lub \\( 2^{\\circ} \\)– również reakcjom utleniania. Produktami utleniania przy pomocy zakwaszonego roztworu dichromianu(VI) sodu \\( (\\ce{Na}{_2}\\ce{Cr}{_2}\\ce{O}{_7}) \\) lub potasu \\( (\\ce{K}{_2}\\text{Cr}{_2}\\text{O}{_7}) \\) są , i . Alkohole pierwszorzędowe, w zależności od warunków reakcji, utleniają się do aldehydów ( 3 ) lub poprzez aldehydy do kwasów karboksylowych ( 4 ). Alkohole drugorzędowe są utleniane do ketonów ( 5 ). Ponadto, alkohole mogą zostać przekształcane w alkoholany ( Rys. 1 i sole ( 6 )."], "definitions": [{"name": "Definicja 1: Alkohole", "content": " ... to związki, w których jeden lub więcej atomów wodoru zastąpiono grupą hydroksylową \\( ({-}\\text{OH}) \\). Tak więc, ogólny wzór alkoholi ma postać \\( \\ce{R}{-}\\ce{OH} \\)."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 625, "subject": "Etery", "paragraphs": ["Dwa atomy węgla \\( (\\alpha \\)–węgle) przyłączone do bardziej elektroujemnego atomu tlenu są bardziej kwasowe, niż atomy węgla w węglowodorach i mniej kwasowe niż atomy wodoru znajdujące się w pozycjach \\( \\alpha \\) względem grupy karbonylowej w ketonach lub aldehydach.", "Dzięki wygiętej strukturze wiązania \\( \\ce{C}{-}\\ce{O}{-}\\ce{C} \\) (kąt \\( 104^{\\circ} \\)) etery wykazują słaby moment dipolowy. Jednakże ta słaba polarność nie wpływa znacząco na temperatury wrzenia eterów, które są podobne do temperatur wrzenia o podobnej masie cząsteczkowej i znacznie niższe od temperatur wrzenia izomerycznych (np. \\( 98^{\\circ} C \\) dla n-heptanu, \\( 100^{\\circ} C \\) dla eteru metylopentylowego i \\( 157^{\\circ} C \\) dla heksanolu). Są rozpuszczalne w wodzie, a ich rozpuszczalność jest podobna do rozpuszczalności odpowiadających im alkoholi. Eter dimetylu \\( (\\ce{CH}{_3}{-}\\ce{O}{-}\\ce{CH}{_3}) \\) i eter metylowo-etylowy \\( (\\ce{CH}{_3}{-}\\ce{O}{-}\\ce{CH}{_2}\\ce{CH}{_3}) \\) są gazami. Wyższe etery są cieczami. Są powszechnie stosowane w farbach, perfumach, olejach lub woskach. Niektóre z nich mają właściwości narkotyczne, znieczulające i przeciwbólowe. Dioksyny natomiast są toksyczne.", "Etery są względnie niereaktywne. Wiązanie eterowe jest odporne na działanie zasad, jak również na działanie czynników utleniających i redukujących. Wiązanie \\( \\ce{C}{-}\\text{O} \\) może zostać rozszczepione pod działaniem mocnych kwasów (reakcja ( 1 ) ).", "Ciekawym przykładem eterów są epoksydy.", "Najważniejszym epoksydem jest tlenek etylenu, który jest otrzymywany na skalę przemysłową w wyniku katalitycznego utleniania etylenu tlenem molekularnym w powietrzu. Wiązanie \\( \\ce{C}{-}\\ce{O} \\) w epoksydach ulega pod wpływem zasad i kwasów katalitycznemu rozpadowi łatwiej niż wiązanie \\( \\ce{C}{-}\\ce{O} \\) obecne w strukturze większych eterów cyklicznych (patrz Rys. 2 reakcja (2)). Jest to związane z obecnością naprężeń w trójczłonowym pierścieniu. Reakcjami charakterystycznymi dla epoksydów są te, których produktem są związki zawierające dwie grupy funkcyjne. W reakcji epoksydów z wodą tworzą się diole ( Rys. 2 reakcja (3)), podczas gdy produktem reakcji z alkoholami są związki, które są zarówno eterami, jak i alkoholami ( Rys. 2 reakcja (4)). Epoksydy reagują także ze związkami Grignarda ( Rys. 2 reakcja (5) ).", "Innym ciekawym przykładem eterów są etery koronowe.", "W niektórych eterach koronowych atomy tlenu można zastąpić atomami azotu w celu utworzenia kryptandów. Nazwy eterów koronowych są tworzone przez podanie zarówno całkowitej liczby atomów w pierścieniu, jak i liczby atomów tlenu (lub azotu). Na przykład, eter 12-korona-4 ma postać 12-członowego pierścienia zawierającego 4 atomy tlenu. Najbardziej znanych przedstawicieli eterów koronowych przedstawiono na Rys. 3. Posiadają one centralnie umieszczoną, wystarczająco dużą wnękę, aby przyjąć kation metalu (np. \\( \\ce{K}{^+} \\)), który jest stabilizowany przez oddziaływanie z wolnymi parami elektronów zlokalizowanymi na atomach tlenu eteru koronowego (solwatacja).", "Etery koronowe rozpuszczają substancje jonowe w rozpuszczalnikach organicznych i są zdolne do solwatowania konkretnych kationów o różnej wielkości."], "definitions": [{"name": "Definicja 1: Etery", "content": " ... w swojej strukturze zawierają atom tlenu połączony z dwoma grupami węglowodorowymi \\( (\\ce{R}{-} \\) i \\( \\ce{R^{\\prime}}{-}) \\). Ogólny wzór eterów ma zatem postać: \\( \\ce{R}{-}\\ce{O}{-}\\ce{R^{\\prime}} \\)."}, {"name": "Definicja 2: Epoksydy", "content": "... są klasą związków organicznych, które zawierają w swojej strukturze pierścień oksiranu (tlenek etylenu (patrz Rys. 1 ), dzięki czemu wykazują wyjątkowe właściwości. "}, {"name": "Definicja 3: Etery koronowe", "content": " ... to etery cykliczne, które zawierają kilka (np. 4, 5 lub więcej) atomów tlenu w pierścieniu, oddzielonych od siebie dwoma atomami węgla \\( ({-}\\ce{O}{-}\\ce{C}{-}\\ce{C}{-}\\ce{O}{-}) \\). Ogólny wzór eterów koronowych ma postać \\( \\ce{(OCH}{_2}\\ce{CH}{_2}\\ce{)}{_n} \\)."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 626, "subject": "Związki karbonylowe", "paragraphs": ["Ogólny wzór związków karbonylowych przyjmuje postać: \\( \\text{R}{-}\\text{C(}{=}\\text{O)}{-}\\ce{A} \\), gdzie: −A oznacza np. grupę \\( {-}\\ce{NH}{_2} \\), \\( {-}\\ce{OH} \\), \\( {-}\\ce{Cl} \\), \\( {-}\\ce{H} \\) lub \\( {-}\\ce{OR} \\).", "Ta grupa funkcyjna, obecna w wielu związkach aromatycznych, nadaje związkom zapach i smak. Jest grupą funkcyjną aldehydów, ketonów, kwasów karboksylowych, amidów, estrów i halogenków kwasowych."], "definitions": [{"name": "Definicja 1: Związki karbonylowe", "content": "... są związkami organicznymi, które w swojej strukturze zawierają grupę funkcyjną złożoną z atomu węgla związanego wiązaniem podwójnym z atomem tlenu \\( (\\ce{C}{=}\\ce{O}) \\). "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 627, "subject": "Aldehydy i ketony", "paragraphs": ["W temperaturze pokojowej aldehydy (za wyjątkiem metanalu i etanalu) i ketony są cieczami. Ich temperatury wrzenia są wyższe niż temperatury wrzenia węglowodorów o podobnej wielkości i wzrastają wraz ze wzrostem liczby atomów węgla w łańcuchu. Zarówno aldehydy, jak i ketony są cząsteczkami wysoko polarnymi. Nie tworzą wiązań wodorowych ze sobą, ponieważ nie mają atomów wodoru przyłączonych bezpośrednio do atomu tlenu grupy karbonylowej. Proste aldehydy i ketony są rozpuszczalne w wodzie. Rozpuszczalność większych aldehydów i ketonów spada wraz z długością łańcucha węglowego.", "Grupa karbonylowa aldehydów zazwyczaj jest bardziej reaktywna niż grupa karbonylowa ketonów. Ketony ulegają reakcjom odwodnienia ( 1 ), utleniania ( 2 ) i redukcji w określonych warunkach reakcji, które dają pożądane produkty. To znaczy, redukcja Clemmensena ( 3 ) lub redukcja przy wykorzystaniu anionu wodorku daje produkt w postaci anionu alkoholanowego, który po protonowaniu przekształca się w odpowiedni alkohol. Aldehydy są redukowane do alkoholi pierwszorzędowych ( 4 ), podczas gdy ketony do alkoholi drugorzędowych ( 5 ). Inne główne reakcje obejmujące aldehydy i ketony to reakcje: z 2,4-dwunitrofenylo -hydrazyną (zob. Rys. 1 ), z aminami pierwszo– i drugorzędowymi, których produktami reakcji są, odpowiednio, iminy ( 6 ) i enaminy ( 7 ), z hydrazyną tworząc hydrazony, które w reakcji z zasadą i pod wpływem ciepła są przekształcane w alkany (redukcja Wolffa-Kishnera) ( 8 ), z alkoholami otrzymując hemiacetale ( 9 ) i acetale ( 10 ) oraz z wodorowęglanem ( 11 ), wodorosiarczynem(IV) sodu ( 12 ), wodą ( 13 ) i reagentami metaloorganicznymi, które pozwalają na tworzenie wiązań C–C ( 14 ).", "Reakcja z odczynnikiem Tollensa umożliwia stwierdzenie obecności aldehydu ( 15 ). Wynik dodatni pojawia się w postaci charakterystycznego \"lustra srebrnego\", które osadza się na wewnętrznej powierzchni naczynia reakcyjnego."], "definitions": [{"name": "Definicja 1: Aldehydy", "content": "\n... są związkami karbonylowymi, w cząsteczkach których węgiel karbonylowy jest związany z dwoma atomami wodoru \\( (\\ce{HC(=O)H}) \\) lub atomem wodoru i atomem węgla podstawnika węglowodorowego \\( \\ce{R-(RC(=O)H)} \\) (zob. Pochodne węglowodorów-Rys. 2 )."}, {"name": "Definicja 2: W ketonach", "content": "... dwa podstawniki węglowodorowe są przyłączone do atomu węgla grupy karbonylowej \\( (\\ce{RC(}{=}\\ce{O)R}) \\) (zob. Pochodne węglowodorów-Rys. 2 ). "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 628, "subject": "Kwasy karboksylowe", "paragraphs": ["Ze względu na hybrydyzację typu \\( \\ce{sp}{^2} \\) atomów węgla i tlenu w grupie karbonylowej oraz sprzężeniu jednej wolnej pary elektronowej na atomie tlenu grupy hydroksylowej z układem  \\( \\pi \\)-elektronów grupy karbonylowej o kształcie trygonalnym, grupa ta jest płaska. Ponieważ proton hydroksylowy jest odszczepiany łatwo, kwasy karboksylowe są silnymi kwasami. Podstawniki elektroujemne znajdujące się w pobliżu grupy karboksylowej zwiększają kwasowość. Temperatury wrzenia kwasów karboksylowych są wyższe niż te dla alkoholi mających podobną masę cząsteczkową i wzrastają wraz ze wzrostem wielkości cząsteczki. Temperatura topnienia liniowych kwasów karboksylowych, o parzystej liczbie atomów węgla w cząsteczce, jest wyższa niż temperatury topnienia sąsiednich kwasów karboksylowych, zawierających nieparzystą liczbę atomów węgla w cząsteczce. Kwasy karboksylowe są polarne. Charakteryzują się niemal taką samą rozpuszczalnością, jak odpowiadające im alkohole. Pierwsze cztery kwasy karboksylowe są rozpuszczalne w wodzie, kwas pentanowy rozpuszcza się częściowo w wodzie, ale wyższe homologi są praktycznie nierozpuszczalne. Wszystkie kwasy karboksylowe rozpuszczają się dobrze w eterach i alkoholach. Zapach alifatycznych niższych kwasów karboksylowych zmienia się od zapachu ostrego i drażniącego (np. kwasy mrówkowy i octowy) do zapachu wyraźnie nieprzyjemnego (np. kwasy butanowy, pentanowy i heksanowy). Kwasy karboksylowe mające większą liczbę atomów węgla w szkielecie, ze względu na niską lotność, nie wykazują intensywnego zapachu.", "Reakcjami najbardziej charakterystycznymi, w które wchodzą kwasy karboksylowe są reakcje: podstawienia hydroksylowego atomu wodoru (podstawienie elektrofilowe na tlenie) (reakcja ( 1 ) ), podstawienia grupy hydroksylowej, której produktem jest chlorek acylu ( 2 ), amid ( 3 ) lub bezwodnik ( 4 ) oraz reakcje estryfikacji ( 5 ), tworzenia soli w reakcji z zasadami ( 6 ) i redukcji do alkoholi ( 7 ).", "Ciekawymi przykładami kwasów karboksylowych o długich nasyconych lub nienasyconych łańcuchach węglowodorowych (od 10 do 30 atomów węgla) są kwasy tłuszczowe (zob. Rys. 1 ), które można podzielić na nasycone (w cząsteczce łańcucha występują wyłącznie wiązania pojedyncze) i nienasycone (obecne jest jedno lub więcej wiązań podwójnych pomiędzy atomami węgla). Nienasycony kwas tłuszczowy może istnieć jako izomer \\( {cis}{–} \\) lub \\( {trans}{–} \\) (zob. Izomeria związków organicznych-Rys. 2 ).", "Kwasy tłuszczowe są niepolarne, ze względu na niepolarny charakter długiego łańcucha węglowodorowego. Nasycone kwasy tłuszczowe, ze względu na raczej liniową strukturę łańcucha węglowego, umożliwiającą bliższe oddziaływania pomiędzy cząsteczkami, wykazują wyższe temperatury topnienia niż nienasycone kwasy tłuszczowe. Temperatury topnienia rosną wraz ze wzrostem masy cząsteczkowej."], "definitions": [{"name": "Definicja 1: Kwasy karboksylowe", "content": "... są związkami, których grupa funkcyjna jest zbudowana z grup karbonylowej i hydroksylowej przyłączonych do karbonylowego atomu węgla \\( ({–}\\ce{C(}{=}\\ce{O)}{–}\\ce{OH}) \\). Ogólny wzór kwasów karboksylowych ma postać: \\( \\ce{R}{–}\\ce{COOH} \\)."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 629, "subject": "Amidy", "paragraphs": ["Podobnie, jak w przypadku grupy karboksylowej, wiązanie amidowe jest płaskie. Amidy są związkami obojętnymi. Najprostszy amid, metanoamid, jest cieczą w temperaturze pokojowej. Pozostałe amidy są ciałami stałymi. Mają dość wysokie temperatury topnienia. Proste amidy są rozpuszczalne w wodzie.", "Amidy ulegają hydrolizie w warunkach kwasowych (reakcja ( 1 ) ) i alkalicznych ( 2 ) i redukują się do amin \\( 1^{\\circ} \\)−, \\( 2^{\\circ} \\)− i \\( 3^{\\circ} \\)− pod wpływem tetrahydroglinianu litu ( \\( \\ce{LiAlH}{_4} \\) ) ( 3 ). Amidy pierwszorzędowe w reakcji z chlorkiem tionylu ( \\( \\ce{SOCl}{_2} \\)) są przekształcane w nitryle ( 4 )."], "definitions": [{"name": "Definicja 1: Amidy", "content": "... są pochodnymi kwasów karboksylowych, których grupa hydroksylowa została zastąpiona przez grupę aminową \\( ({-}\\ce{NH}{_2}) \\) lub podstawioną grupę aminową \\( ({-}\\ce{NR}{_2} \\), gdzie: \\( \\ce{R}{-} \\) oznacza podstawnik węglowodorowy lub proton). Oznacza to, że amidy posiadają grupę \\( {-}\\ce{C(}{=}\\ce{O)}{-}\\ce{N}{<} \\), jako grupę funkcyjną. Ogólny wzór amidów ma postać: \\( \\ce{R}{-}\\ce{C(}{=}\\ce{O)}{-}\\ce{NR}{_2} \\)."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 630, "subject": "Estry", "paragraphs": ["Estry wykazują wyraźny i charakterystyczny zapach (np. octan etylu \\( (\\ce{CH}{_3}\\ce{C(}{=}\\ce{O)}{-}\\ce{O}{-}\\ce{CH}{_2}\\ce{CH}{_3}) \\) ma zapach gruszki, a octan 3-metylobutylu \\( (\\ce{CH}{_3}\\ce{C(}{=}\\ce{O)}{-}\\ce{O}{-}\\ce{CH}{_2}\\ce{CH}{_2}\\ce{CH(CH}{_3}\\ce{)}{_2}) \\) ) wykazuje zapach banana). Estry proste mają temperatury wrzenia zbliżone do temperatur wrzenia aldehydów i ketonów o takiej samej liczbie atomów węgla w strukturze i niższe niż te wykazywane przez homologiczne kwasy karboksylowe. Są polarne i rozpuszczalne w wodzie. Rozpuszczalność estrów maleje wraz ze wzrostem długości łańcucha. Dlatego też tłuszcze (ciała stałe, temperatury topnienia powyżej temperatury pokojowej, łańcuchy nasycone), oleje (ciecze, temperatury topnienia poniżej temperatury pokojowej) oraz estry o skomplikowanym długim łańcuchu węglowym są nierozpuszczalne w wodzie.", "Estry proste, podobnie do amidów, ulegają hydrolizie w środowisku wodnym lub w rozcieńczonych kwasach (reakcja ( 1 ) ) i zasadach ( 2 ). Estry złożone hydrolizują dając mydło (zob. Rys. 1 )."], "definitions": [{"name": "Definicja 1: Estry", "content": "... są pochodnymi kwasów karboksylowych, w których atom wodoru został podstawiony grupą węglowodorową. Tak więc, ogólny wzór estrów przyjmuje postać: \\( \\ce{R}{-}\\ce{C(}{=}\\ce{O)}{-}\\ce{O}{-}\\ce{{R^{\\prime}}} \\)."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 631, "subject": "Halogenki kwasowe", "paragraphs": ["Związki te mogą zostać zsyntetyzowane z odpowiednich kwasów karboksylowych według reakcji opisanej równaniem Kwasy karboksylowe-( 2 ).", "Halogenki kwasowe, ze względu na brak możliwości tworzenia wiązań wodorowych, mają temperatury wrzenia i topnienia niższe od tych dla odpowiednich kwasów karboksylowych i alkoholi, ale wyższe niż odpowiednie temperatury dla alkanów o podobnym rozmiarze cząsteczki. Są one nierozpuszczalne w wodzie, gdyż reagują z nią dając kwasy karboksylowe i halogenki wodoru.", "Halogenki kwasowe są bardzo reaktywne, przy czym halogenki aromatycznych kwasów karboksylowych są mniej reaktywne niż halogenki alifatycznych kwasów karboksylowych. W każdej reakcji halogenków kwasowych, atom halogenku zostaje podstawiony dowolną grupą funkcyjną (reakcja ( 1 ) )."], "definitions": [{"name": "Definicja 1: Halogenki kwasowe", "content": "... są pochodnymi kwasów karboksylowych, w których grupa hydroksylowa została zastąpiona atomem fluorowca. Ich ogólny wzór ma postać \\( \\text{R}{–}\\text{C(}{=}\\text{O)}{–}\\text{X} \\) (gdzie: X oznacza F, Cl, Br lub I)."}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 632, "subject": "Węglowodany", "paragraphs": ["Rys. 1 przedstawia najczęściej spotykane sacharydy. W zależności od liczby jednostek cukru \\( (\\ce{C}{_6}\\ce{H}{_{10}}\\ce{O}{_5}) \\), które je tworzą sacharydy zostały podzielone na: monocukry (zbudowane z pojedynczej jednostki cukru), dicukry (powstałe przez połączenie dwóch jednostek cukru), oligocukry (składają się ze stosunkowo niewielkiej liczby jednostek cukru) i policukry (w ich skład wchodzi wiele połączonych ze sobą cząsteczek cukru).", "Sacharydy są materiałem odżywczym (np. maltoza, laktoza i rafininoza) i budulcowym (np. celuloza i hemiceluloza). Polisacharydy służą także, jako magazyny energii (np. skrobia i glikogen). Ryboza jest ważnym składnikiem koenzymów, takich jak: ATP, FAD i NAD oraz kwasu rybonukleinowego (RNA) (zob. Kwasy nukleinowe ). Dezoksyryboza jest elementem składowym kwasu dezoksyrybonukleinowego (DNA) (zob. Kwasy nukleinowe ). Część węglowodanów pełni funkcje transportowe (np. sacharoza w roślinach oraz glukoza w organizmach zwierzęcych) lub modyfikują działanie białek. Na przykład, heparyna hamuje krzepnięcie krwi.", "Sacharydy, z uwagi na fakt, że każdy atom węgla tworzący łańcuch węglowodanowy jest asymetryczny i może przyjąć dwie konfiguracje (D– i L–) (zob. Izomeria związków organicznych-Rys. 3 ), za wyjątkiem pierwszego i ostatniego atomu węgla, występują w wielu formach izomerycznych. Konformację D– lub L– określa się w oparciu o orientację asymetrycznego atomu węgla położonego najdalej od grupy karbonylowej. W standardowej projekcji Fischera, jeśli grupa hydroksylowa znajduje się po prawej stronie łańcucha węglowego, cząsteczką jest D–węglowodanem ( Rys. 1 ), w przeciwnym razie jest to węglowodan L–.", "Sacharydy występują zwykle w dwóch postaciach: postaci otwartej łańcuchowej, charakterystycznej dla liniowych monocukrów (zob. Rys. 2 kolumny A–B) oraz w postaci pierścienia zamkniętego ( Rys. 2 C–E), w którym grupa karbonylowa w aldehydzie lub ketonie reaguje z grupą hydroksylową dając hemiacetal (reakcja Aldehydy i ketony-( 9 ) ). Podczas przejścia cukru z postaci liniowej do postaci cyklicznej, atom węgla karbonylu (anomeryczny) może przyjąć dwie możliwe konformacje. A zatem, atom tlenu karbonylu może znaleźć się powyżej lub poniżej płaszczyzny pierścienia węglowodanu. Otrzymana para stereoizomerów nazywa się anomerami. W \\( \\alpha \\)–anomerze, grupa hydroksylowa na anomerycznym atomie węgla (atom węgla podstawiony grupą hydroksylową i grupą alkoksylową) jest zlokalizowana po przeciwnej stronie ( \\( {trans} \\) ) pierścienia cukru względem grupy \\( {–}\\ce{CH}{_2}\\ce{OH} \\) ( Rys. 2 D). W anomerze \\( \\beta \\), zarówno grupa \\( {–}\\ce{CH}{_2}\\ce{OH} \\), jak i anomeryczna grupa hydroksylowa znajdują się po tej samej stronie ( \\( {cis} \\) ) płaszczyzny pierścienia cukru ( Rys. 2 E).", "Sacharydy klasyfikuje się w zależności: od liczby atomów węgla w cząsteczce (np. tetrozy, pentozy, heksozy i heptozy), od ich złożoności (mono–, dwu– (gdy dwie cząsteczki cukru wiążą się za pomocą wiązania glikozydowego, które łączy atom C1 sacharydu z grupą \\( {–}\\ce{OR} \\), \\( {–}\\ce{SR} \\), \\( {–}\\ce{SeR} \\), \\( {–}\\ce{NH}{_2} \\) lub \\( {–}\\ce{CR}{_3} \\) )), od typu grupy funkcyjnej (aldozy (posiadają aldehydowe lub acetylowe grupy funkcyjne) i ketozy (posiadają ketonowe lub acetylowe grupy funkcyjne) lub od reaktywności (redukujące (reakcja z odczynnikiem Tollensa (reakcja Aldehydy i ketony-( 15 ) ), Benedicta lub Fehlinga) i nie redukujące (nie utlenione)) ( Rys. 1 i Rys. 2 ).", "Produktem reakcji monosacharydów z alkoholem w obecności katalizatora kwasowego jest glikozyd (zob. Rys. 3 ).", "Woda bromowa utlenia aldozy, ale nie ketozy. Produkt utleniania grupy aldehydowej cukru do kwasu karboksylowego nazywa się kwasem aldonowym, podczas gdy produkt utleniania grup funkcyjnych na obu końcach łańcucha aldozy do kwasów karboksylowych nazywa się kwasem aldarowym ( Rys. 4 ).", "Sacharydy przy użyciu nadmiaru 2,4-dinitrorfenylohdrazyny tworzą osazony ( Rys. 5 ).", "Redukcja aldoz przy użyciu borowodorku sodu daje alkohole cukrowe, których zakończenia łańcuchów są identyczne (reakcja ( 1 ) ).", "Ketozy i aldozy mogą zostać przemienione w związki homologiczne zawierające mniejszą lub większą liczbę atomów w cząsteczce. Degradacja Ruffa pozwala skrócić łańcuch sacharydów o jeden atom węgla (reakcja ( 2 ) ), podczas gdy synteza Kiliani-Fischera wydłuża łańcuch cukru o jeden atom węgla (reakcja ( 3 ) )."], "definitions": [{"name": "Definicja 1: Węglowodany (cukry, sacharydy)", "content": "... to najbardziej liczna klasa związków organicznych; składają się z łańcucha węglowodorowego, o różnej długości, nasyconego atomami wodoru i tlenu (w formie grup hydroksylowych i karbonylowych, a czasami mostków hemiacetalowych) o stosunku atomów H:O wynoszącym 2:1. Ich ogólny wzór ma postać \\( \\ce{C}{_m}\\ce{(H}{_2}\\ce{O)}{_n} \\) (wyjątkiem jest dezoksyryboza \\( \\ce{C}{_5}\\ce{H}{_{10}}\\ce{O}{_4} \\)). "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 633, "subject": "Kwasy nukleinowe", "paragraphs": ["Nukleotydy to estry nukleozydów i kwasu fosforowego (zob. Rys. 1 ). Nukleozydy składają się z zasady azotowej ( Rys. 2 ) i 5–węglowego (dezoksyrybozy w DNA lub rybozy w RNA).", "Znanych jest pięć zasad azotowych: adenina (skrót A), guanina (G), tymina (T), uracyl (U) i cytozyna (C) (zob. Rys. 2 ). Adenina i guanina należą do zasad purynowych, podczas gdy tymina, uracyl i cytozyna są zasadami pirymidynowymi. Cztery z tych zasad (A, G, U i C) występują w strukturze RNA. Natomiast, zasady azotowe G, A, T i C występują w obu niciach DNA. Dwie nici DNA są utrzymywane razem poprzez wiązania wodorowe utworzone pomiędzy zasadami azotowymi obu nici. Wiązania wodorowe tworzą się pomiędzy atomami azotu lub tlenu, a atomami wodoru zasad azotowych sąsiednich nici. Te dwa nici biegną w kierunkach przeciwnych do siebie nawzajem. Dlatego są one antyrównoległe. Dezoksyryboza lub ryboza, poprzez atomy węgla 3'-końca i 5'-końca, łączą się z grupami fosforowymi za pomocą wiązań fosforodiestrowych. Pierścień pentozy jest przyłączony do zasady azotowej za pomocą wiązania N-glikozydowego, które obejmuje atom azotu pierścienia nukleotydowego (N-1 dla pirymidyn i N-9 dla puryn) i atom węgla C-1 pierścienia pentozy.", "Komórki wszystkich organizmów żywych zamieszkujących Ziemię zawierają DNA i RNA. Kwasy DNA i RNA przechowują informacje genetyczne organizmu i pośredniczą w syntezie białek zgodnie z zasadami kodu genetycznego. Mogą one również pełnić funkcję enzymów."], "definitions": [{"name": "Definicja 1: Kwasy nukleinowe", "content": "... kwas dezoksyrybonukleinowy dwuniciowy (DNA) i kwas rybonukleinowy jednoniciowy (RNA), są biopolimerami zbudowanymi z nukleotydów. "}]} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 634, "subject": "Aminokwasy, peptydy i białka", "paragraphs": ["Znanych jest 20 aminokwasów białkowych. Są one przedstawione na Rys. 1. Rysunek ten podaje także nazwy aminokwasów oraz ich oznaczenia 3− i 1−literowe.", "Na podstawie powyższego rysunku można stwierdzić, iż aminokwasy zawierają w swojej strukturze atomy: C, H, O i N. Cysteina i metionina zawierają w swych strukturach dodatkowo atom S. Ogólny wzór aminokwasów ma postać: \\( \\ce{NH}{_2}{–}\\ce{CH(}{–}\\ce{R)}{–}\\ce{COOH} \\), gdzie: \\( \\ce{R}{–} \\) oznacza łańcuch boczny aminokwasu (zob. Rys. 2 ).", "Łańcuchy boczne aminokwasów są różne pod względem strukturalnym i chemicznym. Niektóre z nich wykazują strukturę rozgałęzioną (np. w Ala i Val) lub strukturę liniową (np. w Met i Lys), a inne mają struktury pierścieniowe (np. Pro i Phe) (zob. Rys. 1 ). Aminokwasy można podzielić na trzy grupy: niepolarne, polarne i naładowane elektrycznie. Łańcuch boczny aminokwasów niepolarnych jest hydrofobowy, a zatem nie może tworzyć wiązań wodorowych z cząsteczkami wody. Łańcuch boczny aminokwasów polarnych zawiera grupę funkcyjną zdolną do tworzenia wiązań wodorowych z wodą i z innymi aminokwasami. Natomiast, aminokwasy elektrycznie naładowane zawierają zdeprotonowaną grupę funkcyjną kwasów karboksylowych w obojętnym pH roztworu (aminokwasy kwasowe) lub grupę funkcyjną zawierającą azot z dodatnim ładunkiem w naturalnym pH roztworu (aminokwasy zasadowe).", "W zależności od pH roztworu aminokwasy mogą występować w czterech formach:", "Aminokwasy są krystalicznymi ciałami stałymi. Ich temperatury topnienia są zaskakująco wysokie (200 – 300 °C). Ulegają rozpadowi zanim ulegną stopieniu. W pH roztworu równym 7 zwykle występują one w postaci jonu obojnaczego (jonu z ładunkiem ujemnym i ładunkiem dodatnim), nie posiadając całkowitego ładunku elektrycznego, co jest spowodowane wewnętrznym przeniesieniem protonu z grupy karboksylowej do grupy aminowej. Na ogół aminokwasy są rozpuszczalne w wodzie i nierozpuszczalne w niepolarnych rozpuszczalnikach organicznych. Ich rozpuszczalność w wodzie różni się w zależności od rozmiaru i charakteru łańcucha bocznego. Dzięki obecności w strukturze tetraedrycznego i chiralnego atomu węgla (α–węgiel), każdy aminokwasy (z wyjątkiem glicyny) występuje w dwóch konformacjach L– i D–. Wszystkie naturalnie występujące aminokwasy mają konfigurację L–.", "Aminokwasy wiążą się ze sobą tworząc dimery i polimery o różnej długości łańcucha i różnym składzie. W zależności od liczby reszt aminokwasowych w łańcuchu polimeru, polimery te dzielą się na peptydy i białka. Peptydy zawierają około 50 aminokwasów w strukturze. Natomiast, białka zawierają w jednym lub większej liczbie łańcuchów większą liczbę reszt aminokwasowych.", "W peptydach i białkach aminokwasy łączą się ze sobą płaskimi wiązaniami peptydowymi utworzonymi w wyniku reakcji kondensacji pomiędzy grupą kwasu karboksylowego jednego aminokwasu, a grupą aminową następnego aminokwasu (zob. Rys. 3 ). Aminokwas posiadający nieprzereagowaną aminową grupę funkcyjną jest pierwszym aminokwasem na \"końcu aminowym\" polimeru. Podczas gdy, aminokwas posiadający nieprzereagowaną grupę funkcyjną karboksylową stanowi ostatni aminokwas w sekwencji polimeru (\"koniec karboksylowy\"). W innych reakcjach grupa karboksylowa aminokwasów i ich polimerów reaguje dając amidy aminokwasów ( Rys. 4 ), estry (zob. reakcja Kwasy karboksylowe-( 5 ) ), podstawione amidy (zob. reakcja Kwasy karboksylowe-( 3 ) ), sole Rys. 5 oraz w przypadku cysteiny jest tworzony mostek dwusiarczkowy (–S–S–) ( Rys. 6 ). Z drugiej strony, grupa aminowa aminokwasów ulega reakcji acylowania ( Rys. 7 ).", "Liczba, rodzaj i kolejność reszt aminokwasowych w łańcuchu peptydowym/białkowym określają jego pierwotną strukturę (struktura pierwszorzędowa), co zwykle powoduje wytworzenie specyficznych struktur dwu- i trójwymiarowych. Struktura dwuwymiarowa (struktura drugorzędowa) odnosi się do regularnie powtarzających się struktur lokalnych, które są utrzymywane wyłącznie za pomocą wiązań wodorowych tworzących się pomiędzy grupami amidowymi i karbonylowymi wiązań peptydowych. Najczęstszymi przykładami struktur dwuwymiarowych są: \\( \\alpha \\)-helisa (prawoskrętna spirala) (zob. Rys. 8, kolor czerwony), \\( \\beta \\)-kartka (układ przestrzenny reszt aminokwasowych w łańcuchu polipeptydowym podobny do kawałka papieru złożonego jak akordeon) ( Rys. 8, kolor niebieski), zwrotna (łańcuch polipeptydowy zmienia kierunek biegu) i struktura nieuporządkowana (struktury przypadkowe) ( Rys. 8, kolor purpurowy). Struktura trzeciorzędowa opisuje ogólny kształt/upakowanie pojedynczego łańcucha białkowego, który jest stabilizowany przez oddziaływania nielokalne, mostki solne, wiązania wodorowe i mostki disiarczkowe ( Rys. 8, kolor żółty). Natomiast, wzajemne pozycjonowanie się wielu łańcuchów białkowych względem siebie w przestrzeni jest określone przez strukturę czwartorzędową białka."], "definitions": []} {"field": "Chemia", "coursebook": "Chemia ogólna", "chapter": "Rozdział 9. Chemia organiczna i chemia polimerów", "subject_id": 635, "subject": "Polimery", "paragraphs": ["Nazewnictwo polimerów na ogół opiera się na nazwie monomeru wchodzącego w skład polimeru. Polimery, które zawierają tylko jeden rodzaj monomeru ( \\( \\ce{A} \\) ) są nazywane homopolimerami (zob. Rys. 1 ). Mogą one zostać przedstawione w sposób następujący: \\( {-}\\ce{[A}{-}\\ce{A}{-}\\ce{A}{-}\\ce{A}{-}\\ce{A}{-}\\ce{A]}{-} \\). Nazwę tych polimerów tworzy się przez umieszczenie przedrostka 'poli−' przed nazwą monomeru, z którego zbudowany jest polimer. Na przykład, polistyren to nazwa polimeru wytworzonego z monomeru styrenu (winylobenzenu). Natomiast polimery zawierające dwa lub więcej typów monomerów ( \\( \\ce{A} \\) i \\( \\ce{B} \\) ) są znane jako kopolimery. Mogą one zostać zapisane w sposób następujący: \\( {-}\\ce{[A}{-}\\ce{B}{-}\\ce{A}{-}\\ce{B}{-}\\ce{A}{-}\\ce{A]}{-} \\). Ich nazwy tworzy się przez podanie nazw monomerów połączonych prefiksem ‘−co−‘ z przedrostkiem 'poli−', np. kopolimer styrenu i arrylonitrylu nosi nazwę poli(styren-co-akrylonitryl).", "Polimery można podzielić na polimery syntetyczne, naturalne i modyfikowane. Do naturalnych polimerów (biopolimerów) zalicza się (np. jedab, kolagen, czy keratyna), (np. celuloza – główny składnik drewna i papieru, skrobia, czy glikogen) i  (DNA i RNA), a także szelak, ambra, wełna, jedwab i kauczuk naturalny. Natomiast lista syntetycznych polimerów obejmuje: tworzywa sztuczne, elastomery (ciała stałe o właściwościach gumo-podobnych), gumę (szkielet węglowy utworzony z monomerów węglowodorowych), silikony (szkielet przemiennego atomu krzemu i tlenu), włókna, materiały stałe o właściwościach pośrednich, żele lub lepkie płyny. Jednakże wiele ważnych handlowo polimerów syntetyzuje się przez chemiczną modyfikację naturalnie występujących polimerów. Przykładem jest reakcja celulozy z kwasem azotowym, w wyniku której powstaje nitroceluloza oraz tworzenie wulkanizowanej gumy przez ogrzewanie naturalnego kauczuku w obecności siarki. Sposoby modyfikowania polimerów obejmują utlenianie, sieciowanie i zamykanie.", "Niezwykle ważną cechą polimerów jest ich architektura (struktura) i kształt, które opisują sposób odchylenia od prostego, liniowego (tzn. nie rozgałęzionego) łańcucha, który przyjmuje większość polimerów. Polimer liniowy składa się z identycznych jednostek ułożonych jedna za drugą i połączonych w długi łańcuch, nazywany szkieletem ( Rys. 1 ). Szkielet polimeru liniowego nie musi być prosty i sztywny. Następuje bowiem rotacja względem pojedynczych wiązań pomiędzy atomami w szkielecie polimeru. Polimer taki ma jeden początek i jeden koniec. Natomiast częsteczka polimeru rozgałęzionego składa się z łańcucha głównego z jednym lub większą liczbą łańcuchów bocznych lub rozgałęzień. A zatem szkielet polimeru rozgałęzionego ma dodatkowe początki i wiele końców wzdłuż łańcucha. Rodzaje rozgałęzionych polimerów obejmują: polimery gwiaździste, polimery grzebieniowe, polimery szczotkowe, polimery dendronizowane, polimery drabinkowe i dendrymery. Istnieją również dwuwymiarowe polimery, które składają się z topologicznie płaskich merów.", "Reakcja chemiczna, która prowadzi do łączenia się wielu monomerów w łańcuch związany kowalencyjnie lub sieć jest nazywana reakcją polimeryzacji (polimeryzacją) (zob. Rys. 2 ). Podczas procesu polimeryzacji z każdego monomeru może dojść do utraty pewnych grup atomów lub też nie. Wyróżnia się zatem polimery addycyjne (zob. Tabela 1 ), w których cząsteczki monomeru wiążą się ze sobą bez utraty grup atomów oraz polimery kondensacyjne (zob. Rys. 3 ), w których zazwyczaj dwa różne monomery łączą się ze sobą z utratą niewielkiej grupy atomów, najczęściej wody. Większość poliestrów i poliamidów (nylon) należy do tej klasy polimerów.", "Struktura polimeru wpływa na wiele jego właściwości fizycznych, takich jak np.: lepkość roztworu, lepkość stopu, rozpuszczalność w różnych rozpuszczalnikach i temperatura zeszklenia. Duża masa cząsteczkowa polimerów w stosunku do związków małocząsteczkowych nadaje im także unikalne właściwości fizyczne, do których należą: wytrzymałość, lepkość, sprężystość, czy tendencja do tworzenia szkieł i struktur półkrystalicznych, a nie kryształów. Na przykład, wraz ze wzrostem długości łańcucha, temperatury topienia i wrzenia polimerów rosną szybko. Odporność na uderzenia również wzrasta wraz z długością szkieletu, podobnie jak lepkość lub odporność na przepływ polimeru w stanie stopionym. Zwiększenie długości łańcucha prowadzi także do zmniejszenia ruchliwości łańcucha oraz zwiększenia wytrzymałości i podwyższenia temperatury zeszklenia. Jest to wynikiem wzrostu oddziaływań (np. Van der Waalsa) pomiędzy łańcuchami polimeru o zwiększonej długości łańcucha. Na ogół wytrzymałość na rozciąganie wzrasta wraz z długością łańcucha polimeru i sieciowaniem łańcuchów polimerowych. Różne grupy boczne w polimerze (np. \\( {-}\\ce{NH}{_2} \\) lub \\( {>}\\ce{C}{=}\\ce{{O}} \\)) sprzyjają tworzeniu się wiązań jonowych i wodorowych pomiędzy łańcuchami własnymi polimeru. To z kolei prowadzi do zwiększenia wytrzymałości polimeru na rozciąganie i do podwyższenia jego temperatury topnienia.", "Polimery odgrywają istotną i wszechobecną rolę w życiu codziennym. Przedmioty codziennego użytku, takie jak np. opakowania czy materiały budowlane stanowią  połowę wszystkich syntezowanych polimerów. Tekstylia, obudowy urządzeń elektronicznych, płyty CD, części samochodowe i wiele innych artykułów jest także wykonywanych z polimerów. Niektóre produkty, takie jak kleje (np. żywice epoksydowe) zawierają monomery, które mogą być polimeryzowane przez użytkownika podczas ich zastosowania. Jedna czwarta odpadów stałych z domów to tworzywa sztuczne. Tylko część z nich można poddać recyklingowi. Polimery, takie jak: PMMA (poli(metakrylan metylu) i HEMA (poli(metakrylan 2-hydroksyetylu) są stosowane w laserach polimerowych."], "definitions": [{"name": "Definicja 1: Polimery", "content": "... należą do związków organicznych, których cząsteczka (makrocząsteczka) jest zbudowana z wielu mniejszych, powtarzających się, uporządkowanych w sposób regularny jednostek zwanych monomerami, połączonych kowalencyjnymi wiązaniami chemicznymi, które tworzą długie łańcuchy, czasami z rozgałęzieniami lub sieciowaniem pomiędzy łańcuchami. Wiele monomerów (zob. Tabela 1 i Rys. 3 ) to lub inne cząsteczki zawierające w swojej strukturze nienasycone wiązania podwójne. "}]} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "", "subject_id": 1444, "subject": "Informacje o e-podręczniku \"Podstawy chemii nieorganicznej - układ okresowy\"", "paragraphs": ["E-podręcznik opracowano w ramach Zintegrowanego Programu Rozwoju Akademii Górniczo-Hutniczej w Krakowie. Projekt współfinansowany ze środków Europejskiego Funduszu Społecznego w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014-2020. Oś III Szkolnictwo wyższe dla gospodarki i rozwoju, Działanie 3.5 Kompleksowe programy szkół wyższych."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "", "subject_id": 1429, "subject": "Wprowadzenie", "paragraphs": ["Chemia nieorganiczna zajmuje się badaniem właściwości chemicznych wszystkich pierwiastków oraz ich związków. W roku 1869 rosyjski uczony Dmitrij Mendelejew sformułował prawo okresowości, które było podstawą zbudowania układu okresowego pierwiastków. Układ okresowy skonstruowany przez Mendelejewa pozwalał na przewidywanie właściwości chemicznych pierwiastków jeszcze nieodkrytych za jego życia. Pierwiastki, które odkryto w późniejszym okresie potwierdziły słuszność prawa podanego przez tego uczonego.", "Prawo to w czasach Mendelejewa nie miało logicznego wyjaśnienia. Dopiero po odkryciu struktury atomu, prawo okresowości nabrało fizycznego znaczenia. W pierwszej połowie XX wieku odkrycia naukowców takie jak: 1) odkrycie jądra atomu przez Ernesta Rutherforda w 1911 roku, 2) odkrycie zależności między liczbą atomową, a strukturą powłok elektronowych, przez Henry’ego Moseleya w 1913 roku, pozwoliły na wyjaśnienie, dlaczego właściwości chemiczne pierwiastków zależą od miejsca zajmowanego w układzie okresowym. Najistotniejszym osiągnięciem chemii na początku XX wieku było zastosowanie osiągnięć mechaniki kwantowej do zrozumienia własności chemicznych pierwiastków oraz ich zdolności do tworzenia wiązań chemicznych. Połączenie zasady nieoznaczoności Wernera Heisenberga (1927) z zakazem Pauliego (1924) oraz równaniem Schrödingera (1927) doprowadziło do powstania teorii orbitali atomowych. Następnie rozwinięto teorię orbitali cząsteczkowych, które w dużym stopniu umożliwiły wyjaśnienie, jak powstają wiązania chemiczne. Na podstawie dotychczasowych osiągnięć chemii, wiadomo, że numer okresu w układzie okresowym odpowiada numerowi powłoki walencyjnej atomu. Natomiast to ile pierwiastków znajduje się w jednym okresie, wynika z liczby orbitali atomowych na powłoce walencyjnej. Każdy orbital atomowy może być zapełniony maksymalnie dwoma elektronami. Na przestrzeni czasu kryteria podziału chemii na chemię organiczną i nieorganiczną ewoluowały. Na granicy chemii nieorganicznej i organicznej znajduje się chemia związków kompleksowych (koordynacyjnych) i chemia związków metaloorganicznych. Związki te odgrywają ogromną rolę w katalizie wielu reakcji chemicznych prowadzonych na skalę przemysłową. Obecnie zgodnie z ustaleniami Międzynarodowej Unii Chemii Czystej i Stosowanej (IUPAC) przyjmuje się następującą definicję związku nieorganicznego.", "Substancje nieorganiczne są to zarówno pierwiastki chemiczne, jak i ich związki, rudy metali, minerały, stopy metali. Właściwości chemiczne pierwiastka zależą od jego położenia w układzie okresowym1. Przedmiotem badań chemii nieorganicznej są: klasyfikacja związków nieorganicznych, badanie ich struktury, właściwości oraz reakcji chemicznych, w jakie one wchodzą. Klasyfikacja związków nieorganicznych obejmuje takie grupy związków jak: tlenki, kwasy, wodorotlenki, sole, związki kompleksowe 2. Podręcznik „Podstawy chemii nieorganicznej – układ okresowy” jest kontynuacją i uzupełnieniem wiedzy zawartej w podręczniku Chemia Ogólna. Jest on poświęcony głównie charakterystyce pierwiastków znajdujących się w poszczególnych grupach układu okresowego. Omówiono w nim podstawowe zagadnienia, takie jak:", "Omówiono również zjawiska powierzchniowe (adsorpcja, energia powierzchniowa, napięcie powierzchniowe). Kilka modułów poświęconych jest omówieniu budowy, właściwości związków koordynacyjnych oraz ich zastosowaniu w przemyśle, medycynie, chemii. Jeden z rozdziałów w tym podręczniku przedstawia zagadnienia dotyczące podstaw radiochemii. W poszczególnych modułach wyjaśniono, co to są izotopy radioaktywne, jak następuje rozpad promieniotwórczy jąder atomowych, jak powstają szeregi promieniotwórcze, co to są reakcje łańcuchowe. Opisano również zastosowania izotopów radioaktywnych w przemyśle, medycynie. Jeden z rozdziałów podręcznika poświęcono wybranym technikom często używanym do badania związków nieorganicznych zarówno w stanie stałym, ciekłym jak i gazowym. Badania składu chemicznego i struktury związków nieorganicznych wykonuje się za pomocą różnych technik badawczych. Do określenia struktury związków nieorganicznych stosuje się przede wszystkim metody badań: spektroskopowe, dyfrakcyjne, rezonansowe, a także badania właściwości magnetycznych i dielektrycznych."], "definitions": [{"name": "Definicja 1: Związek nieorganiczny", "content": "Związek nieorganiczny jest to substancja chemiczna, w cząsteczce której nie występuje wiązanie chemiczne węgiel–wodór."}]} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku s", "subject_id": 1398, "subject": "Pierwiastki bloku s", "paragraphs": ["Blok s układu okresowego obejmuje pierwiastki grup 1 i 2, których elektrony walencyjne są opisane funkcją falową zwaną orbitalem s ( Rys. 1 ). Są to: wodór, litowce (lit, sód, potas, rubid, cez i frans), berylowce (beryl, magnez, wapń, stront, bar, rad) oraz hel, który leży w grupie 18, ale posiada wyłącznie dwa elektrony na orbitalu s. Ogólną konfigurację elektronową tych pierwiastków można zapisać jako \\( ns \\). Jeżeli pierwiastek posiada tylko jeden elektron walencyjny, zapis ma postać \\( ns^1 \\), natomiast jeżeli posiada dwa elektrony walencyjne - \\( ns^2 \\).", "Pierwiastki bloku s, za wyjątkiem wodoru i helu, które są gazami, wykazują charakter metaliczny.", "Metale są to pierwiastki, które występują wyłącznie na dodatnich stopniach utlenienia - tworzą kationy. Metaliczny charakter rośnie w miarę przesuwania się w dół grupy pierwiastków w układzie okresowym. Dzieje się tak, ponieważ elektrony wraz ze wzrostem promienia atomowego są coraz słabiej przyciągane przez dodatnie jądro i coraz łatwiej je oderwać (maleje energia jonizacji). W warunkach standardowych występują w postaci stałej, za wyjątkiem rtęci, która w tych warunkach jest cieczą (temperatura topnienia -38,83 °C). Właściwości fizyczne i chemiczne metali związane są z obecnością wiązania metalicznego w kryształach metali.", "Zdolność do swobodnego przemieszczania się elektronów w krysztale metalicznym powoduje, że metale są bardzo dobrymi przewodnikami prądu elektrycznego oraz ciepła.", "Wiązka światła ( Rys. 2 ) docierająca do powierzchni metalu zostaje odbita we wszystkich kierunkach, dając charakterystyczny efekt połysku metalicznego.", "Występującymi w sieci metalicznej oddziaływaniami można wytłumaczyć także takie cechy metali, jak twardość czy ciągliwość. Metale tworzą tlenki występujące w stanie stałym. Mają one charakter zasadowy, w reakcji z wodą dają wodorotlenki. W solach metale występują na początku związku, zastępując wodór z kwasów.", "Podsumowując, metale ( Rys. 3 ) charakteryzują się następującymi cechami:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku s", "subject_id": 1399, "subject": "Wodór", "paragraphs": ["Wodór jest pierwszym pierwiastkiem w grupie pierwszej bloku s ( Rys. 1 ). Jest to pierwiastek szczególny, ponieważ jest najprostszym z możliwych, zbudowanym wyłącznie z jednego protonu i jednego elektronu. Z tego względu został mu poświęcony osobny moduł. Pozostałe pierwiastki grupy pierwszej omówiono w module Litowce.", "Wodór jest najbardziej rozpowszechnionym pierwiastkiem we wszechświecie. Większość gwiazd składa się głównie z wodoru - synteza jądrowa wodoru do helu (temperatura > 10 000 000 K) jest głównym źródłem energii gwiazd. Wodór występuje również w obłokach międzygwiezdnych. Na Ziemi śladowe ilości wolnego wodoru ( \\( H_2 \\)) są obecne w powietrzu (5x \\( 10^{-5} \\) \\( \\% \\) obj.). W pobliżu powierzchni ziemi wodór stanowi 0,9 \\( \\% \\) obj. w górnych warstwach atmosfery i gazie wulkanicznym. Wodór w stanie związanym stanowi 0,87 \\( \\% \\) masowych (15,4 \\( \\% \\) atomowych) wszystkich pierwiastków. Związany z tlenem (w wodzie) stanowi 11,25 \\( \\% \\) masy Ziemi. Wodór w postaci węglowodorów i ich pochodnych występuje w paliwach kopalnych, takich jak węgiel i ropa.", "W skali laboratoryjnej wodór otrzymuje się:", "W Tabela 1 podano najważniejsze dane dotyczące wodoru.", "Pierwiastkowy wodór jest bezbarwnym gazem bez zapachu i smaku, słabo rozpuszczalnym w wodzie, ponad 14 razy lżejszym od powietrza. Rozpuszcza się w metalach: palladzie, platynie, niklu, żelazie, powoduje korozję wodorową (pękanie wodorowe). Został skroplony po raz pierwszy w 1883 roku przez profesorów Uniwersytetu Jagiellońskiego: chemika Karola Olszewskiego i fizyka Zygmunta Wróblewskiego.", "W temperaturze pokojowej wodór jest niezbyt aktywny, jego potencjał normalny \\( E_0 \\) = 0 V. Jako potencjał normalny przyjmuje się potencjał, jaki wykazuje pierwiastek będący w równowadze z jonami własnymi o aktywności równej 1, w warunkach normalnych T = 273K, p = 101 325 Pa. Spala się w tlenie (w temperaturze powyżej 720 K wybuchowo). W podwyższonych temperaturach jest silnym reduktorem:", "Wodór jednoatomowy „in statu nascendi” (łac. w chwili tworzenia) charakteryzuje się czasem półtrwania 0,3-0,5s i jest bardzo aktywny chemicznie.", "Najważniejszym związkiem wodoru jest tlenek wodoru \\( H_2O \\), czyli woda (nazwa systematyczna wg IUPAC – oksydan). Cząsteczka wody zawiera jeden atom tlenu i dwa atomy wodoru połączone wiązaniami kowalencyjnymi. Jest to w warunkach standardowych przezroczysta, pozbawiona smaku i zapachu ciecz, w stanie stałym występuje jako lód i śnieg, w stanie gazowym - para wodna. Jest doskonałym rozpuszczalnikiem o właściwościach polarnych. Jest niezbędna do przetrwania dla wszystkich znanych form życia na Ziemi. Występuje w oceanach, które pokrywają 70,8 \\( \\% \\) powierzchni globu, w rzekach, jeziorach, lodowcach, atmosferze (chmury, para wodna). Niektóre związki chemiczne zawierają cząsteczki wody w swojej budowie (hydraty). Zawartość wody w postaci związanej w strukturze minerałów w płaszczu Ziemi może przekraczać łączną zawartość wody w oceanach nawet dziesięciokrotnie.", "Woda wzbogacona w cząsteczki zawierające deuter zamiast protu ( \\( D_2O \\) lub \\( HDO \\)) nazywana jest ciężką wodą. Właściwości chemiczne ciężkiej wody są prawie takie same, jak zwykłej wody. Jest stosowana jako moderator w reaktorach jądrowych, ponieważ ma zdolność spowalniania szybkich neutronów. W normalnej wodzie występuje naturalnie ok. 115 ppm (part per million - 1 cząsteczka na milion) tlenku deuteru. Można go uzyskać poprzez wielokrotne odwirowywanie lub w procesie elektrolizy, podczas której prot, jako lżejszy i poruszający się szybciej od deuteru, wydziela się jako pierwszy na katodzie. Średnio ze 100 tys. litrów wody można otrzymać około 1 litra ciężkiej wody.", "Wodór w związkach nieorganicznych występuje w:", "Kwasach \\( H_nR \\) beztlenowych i tlenowych", "Przykłady kwasów beztlenowych: \\( HF, HCN, H_2S \\).", "Przykłady kwasów tlenowych: \\( HNO_2, H_2SO_4, H_3PO_4, H_2CO_3 \\).", "Wodorotlenkach \\( Me(OH)_n \\) .", "Przykłady wodorotlenków \\( KOH, Ca(OH)_2, Al(OH)_3, Ti(OH)_4 \\).", "Wodorkach – wodorki w zależności od tego, z jakim pierwiastkiem łączy się wodór, możemy podzielić na wodorki typu soli, kowalencyjne i międzywęzłowe.", "Wodorki typu soli – to związki tworzące sieci jonowe, powstają w wyniku reakcji wodoru z litowcami i berylowcami (prócz berylu i magnezu) w podwyższonej temperaturze.", "Przykłady wodorków typu soli : \\( LiH, NaH, KH, CaH_2,SrH_2 \\). W reakcji z wodą wydzielają wodór gazowy.", "Wodorki kowalencyjne – produkty syntezy wodoru z niemetalami, wodorki kowalencyjne mogą mieć różny charakter.", "Przykłady wodorków kowalencyjnych: \\( H_2O, H_2S, HF, HCl, CH_4, SiH_4, NH_3, PH_3 \\).", "Wodorki metaliczne (międzywęzłowe) – produkty syntezy wodoru z metalami bloków d i f, ciała stałe składające się z sieci krystalicznej z wbudowanymi w przestrzenie międzywęzłowe atomami wodoru. Połączenia te są niestechiometryczne.", "Przykłady wodorków metalicznych: \\( PdH_{0,6}, TiH_{1,73}, ZrH_{1,92} \\)."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku s", "subject_id": 1400, "subject": "Litowce", "paragraphs": ["Do grupy litowców zaliczamy pierwiastki pierwszej grupy układu okresowego, leżące poniżej wodoru: lit, sód, potas, rubid, cez oraz frans ( Rys. 1 ).", "Tabela 1 prezentuje wielkości charakterystyczne dla litowców.", "Najbardziej rozpowszechnionym litowcem w przyrodzie jest sód (2,6 \\( \\% \\)), który występuje w skaleniach typu \\( Na[AlSi_3O_8] \\) [1], w złożach soli kamiennej, wodach mórz i oceanów w postaci \\( NaCl \\) oraz azotanie (V) sodu \\( NaNO_3 \\) – saletrze chilijskiej. Potas występuje w przyrodzie prawie równie często, jak sód (2,4 \\( \\% \\)), podobnie jak Na najczęściej w postaci chlorku \\( KCl \\) – sylwinu [2]. Lit (0,00065 \\( \\% \\)) występuje w postaci glinokrzemianów, jak spodumen \\( LiAl[Si_2O_6] \\), czy w fosforanach, jak ambligonit \\( LiAl(PO_4)F \\). Rubid (0,028 \\( \\% \\)) występuje w ilości 0,3 \\( \\% \\) do 3,5 \\( \\% \\) w lepidolicie \\( K(Li,Al)_3(Al,Si,Rb)_4O_10(F,OH)_2 \\) [3].", "Litowce otrzymywane są w procesie elektrolizy. Ponieważ potencjał normalny litowców jest niższy niż wodoru – nie można otrzymać ich z roztworów wodnych, z racji tego, że jako pierwszy redukowany jest wodór. Dlatego litowce otrzymuje się podczas elektrolizy stopionych soli, np. sód – ze stopionego, bezwodnego chlorku sodu:", "Litowce są miękkimi metalami o małej gęstości, o srebrzystobiałej barwie i połysku po przekrojeniu (są tak miękkie, że można je kroić nożem – Rys. 2 ).", "W wysokiej temperaturze, np. w płomieniu palnika, związki litowców wyparowują, a ich pary pobudzone do świecenia zabarwiają płomień palnika w charakterystyczny dla siebie sposób. Wynika to z faktu, że niski potencjał jonizacyjny litowców umożliwia łatwe wzbudzenie elektronów z niższych na wyższe poziomy energetyczne. Wzbudzone elektrony wracając na niższe poziomy wypromieniowują kwant energii o określonej długości światła, co obserwuje się jako zabarwienie płomienia palnika. Lit barwi płomień na kolor karminowy, sód – żółty, potas – fioletowy, rubid – fioletowo-czerwony, cez – niebieski. Cecha ta została wykorzystana do identyfikacji litowców metodą płomieniową. Rys. 3 przedstawia kolory płomieni.", "Litowce posiadają tylko jeden elektron na powłoce walencyjnej i bardzo łatwo go oddają, co powoduje, że są pierwiastkami bardzo aktywnymi chemicznie. Reagują z tlenem z powietrza:", "W podwyższonych temperaturach łączą się z wodorem:", "Reagują gwałtownie z fluorowcami do halogenków:", "Ogrzewane z gazowym amoniakiem dają amidki:", "Gwałtownie reagują z wodą:", "\\( Na_2O_2 \\) nadtlenek sodu – silnie utleniający, stosowany do oczyszczania powietrza w okrętach podwodnych i aparatach tlenowych:", "\\( NaOH \\) wodorotlenek sodu (dawniej zwany sodą kaustyczną) – biała krystaliczna substancja, żrący, silnie higroskopijny, stosowany do produkcji mydła, barwników organicznych, sztucznego jedwabiu, otrzymywania celulozy z drewna, środek neutralizujący. \\( KOH \\) wodorotlenek potasu – silnie higroskopijny, stosowany do produkcji mydła w płynie, w syntezach organicznych, do otrzymywania dwuchromianu i nadmanganianu potasu, pochłaniania \\( CO_2 \\) z powietrza:", "\\( NaCl \\) chlorek sodu (sól kuchenna) – materiał wyjściowy do przemysłowej produkcji sodu, środek spożywczy, roztwór 0,9 \\( \\% \\) (sól fizjologiczna) stosowany w medycynie. \\( KCl \\) chlorek potasu (sylwin) – nawóz mineralny. \\( Na_2CO_3 \\) węglan sodu (soda) – służy do produkcji szkła, proszków do prania, zmiękczania wody, stosowany w przemyśle papierniczym i farbiarskim. \\( NaHCO_3 \\) wodorowęglan sodu, kwaśny węglan sodowy (soda oczyszczona) – proszek do pieczenia, spulchnia ciasto poprzez wydzielanie tlenku węgla (IV) zgodnie z reakcją", "\\( NaNO_3 \\) azotan (V) sodu (saletra chilijska), \\( KNO_3 \\) azotan (V) potasu (saletra indyjska) – nawozy mineralne, stosowane w produkcji prochu strzelniczego."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku s", "subject_id": 1401, "subject": "Berylowce", "paragraphs": ["Do grupy berylowców zaliczamy pierwiastki drugiej grupy układu okresowego: beryl, magnez wapń, stront, bar, rad ( Rys. 1 ).", "Tabela 1 zawiera najważniejsze dane dotyczące berylowców.", "Beryl obecny w przyrodzie na ilości 0,0006 \\( \\% \\), tworzy nieliczne i rzadkie minerały: glinokrzemiany np. \\( Be_3Al_2[Si_6O_{18}] \\) (beryl), zabarwiony śladową ilością chromu beryl to kamień szlachetny – szmaragd [1].", "Magnez, którego ilość w skorupie ziemskiej określono na 2,1 \\( \\% \\), występuje w wielu minerałach: najczęściej w krzemianach \\( (Mg, Fe)_2SiO_4 \\) (oliwin), \\( Mg_6(OH)_8(Si_4O_{10}) \\) (serpentyn), \\( Mg_3(OH)_2 (Si_4O_{10}) \\)(talk) oraz w węglanach, siarczanach i chlorkach: \\( MgCO_3 \\) (magnezyt), \\( CaCO_3 \\cdot MgCO_3 \\) (dolomit), \\( KCl \\cdot MgSO_4 \\cdot 3H_2O \\) (kainit), \\( KCl \\cdot MgCl_2 \\cdot 6H_2O \\) (karnalit), \\( MgSO_4 \\cdot H_2O \\) (kizeryt), \\( MgSO_4 \\), a także w chlorofilu – zielonym barwniku roślin (mieszanina 3:1 chlorofilu a i b).", "Wapń jest najbardziej rozpowszechnionym berylowcem (ok. 3,63 \\( \\% \\)) ( Rys. 2 ), występuje w krzemianach i glinokrzemianach, w postaci węglanu \\( CaCO_3 \\) (kalcyt), jako wapień, marmur i kreda, bezwodnego siarczanu \\( CaSO_4 \\) (anhydryt) oraz w formie uwodnionej \\( CaSO_4 \\cdot 2H_2O \\) (gips, odmiana drobnokrystaliczna – alabaster), we fluorkach \\( CaF_2 \\) (fluoryt), w fosforanach \\( Ca_3(PO_4)_2 \\) (fosforyt), \\( Ca_3(PO_4)_2 \\cdot 2Ca(Cl, F)_2 \\) (apatyt). Hydroksyapatyt - \\( 3Ca_3(PO_4)_2 \\cdot Ca(OH)_2 \\) jest głównym składnikiem kości i zębów.", "Stront i bar występują w siarczanach \\( SrSO_4 \\) (celestyn), \\( BaSO_4 \\) (baryt) oraz węglanach \\( SrCO_3 \\) (stroncjanit), \\( BaCO_3 \\) (witeryt). Rad został odkryty w 1898 roku przez Marię Skłodowską-Curie ( Rys. 3 ) podczas przeróbki blendy smolistej – rudy uranu. Za odkrycie radu (oraz polonu) Maria Skłodowska-Curie została uhonorowana nagrodą Nobla z chemii w 1911 roku [2].", "Beryl jest twardym, kruchym metalem w powietrzu pokrywającym się warstwą tlenku. Związki berylu są silnie trujące. Pozostałe berylowce to miękkie, lekkie metale o srebrzystym połysku. Podobnie, jak litowce, niektóre berylowce zabarwiają płomień na charakterystyczny kolor, np. Mg spala się jaskrawym, białym płomieniem, wapń barwi płomień na kolor ceglasto-czerwony, stront na karminowo-czerwony, a bar na zielony ( Rys. 4 ). Zjawisko charakterystycznego zabarwienia płomienia można wykorzystywać do wykrywania tych pierwiastków w związkach.", "Berylowce są aktywne chemicznie. Magnez spala się w powietrzu jaskrawo białym płomieniem:", "Pozostałe reagują z tlenem z powietrza w temperaturze pokojowej:", "Reagują z kwasami:", "Ba reaguje z wodą równie gwałtownie, jak litowce:", "Wapń i pozostałe berylowce reagują z wodą niezbyt szybko.", "\\( BeO \\) tlenek berylu – (temperatura topnienia \\( 2800 K \\)) wchodzi w skład cermetów (cermetale – spieki metaloceramiczne) stosowanych do budowy silników odrzutowych, gdyż nie zmieniając swych właściwości mogą pracować w temperaturze nawet do \\( 2300K \\). \\( MgO \\) tlenek magnezu – stosowany do wyrobu cementów, lek na nadkwasotę, zmieszany ze stężonym roztworem chlorku magnezu - \\( MgCl_2 \\) stanowi cement Sorela. \\( CaO \\) tlenek wapnia (wapno palone) – otrzymywany w procesie prażenia węglanu wapnia (kamienia wapiennego) w reakcji z wodą (gaszenie wapna) przechodzi w wodorotlenek wapnia \\( Ca(OH)_2 \\) (wapno gaszone) – składnik zapraw murarskich i cementów, służy także do zmiękczania wody kotłowej, jako mleko wapienne (zawiesina w wodzie) stosowany jako biała farba.", "\\( CaCO_3 \\) węglan wapnia – krystaliczna substancja służy m.in. do wyrobu kredy do pisana i pasty do zębów, surowiec do otrzymywania wapna palonego. \\( Ca(HCO_3)_2 \\) wodorowęglan wapnia – nadaje wodom mineralnym dobry smak, powoduje przemijającą twardość wody. \\( CaC_2 \\)węglik wapnia (karbid) – reaguje z wodą dając etyn (acetylen):", "środek redukujący w hutnictwie metali ciężkich, służy do produkcji acetylenu dla potrzeb spawalnictwa, dawniej jako źródło światła w przenośnych lampach karbidówkach oraz w latarniach morskich. \\( CaF_2 \\) fluorek wapnia – topnik w metalurgii (produkcja aluminium), dodatek do emalii, surowiec do produkcji fluorowodoru:", "\\( CaSO_4 \\cdot 2H_2O \\) siarczan (VI) wapnia – gips stosowany w budownictwie i medycynie. \\( BaSO_4 \\) siarczan (VI) baru – wypełniacz masy papierowej, kontrast do wypełniania żołądka i jelit w badaniach rentgenowskich. Pozostałe związki baru są silnie trujące."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1402, "subject": "Pierwiastki bloku d", "paragraphs": ["Do pierwiastków bloku d zaliczamy pierwiastki z grup od 3 do 12 układu okresowego ( Rys. 1 ).", "Pierwiastki bloku d są również zwane metalami przejściowymi (wg IUPAC każdy pierwiastek z częściowo wypełnioną powłoką d jest zaliczany do metali przejściowych). Pierwiastki te nie wykazują skrajnie zmiennych właściwości chemicznych, tak jak ma to miejsce w bloku p. Pierwiastki te wykazują znaczne podobieństwa zarówno w grupach jak i w okresach, a wszystkie mają wspólny zestaw charakterystycznych właściwości związanych z częściowo obsadzonym przez elektrony orbitalem d [1].", "Rozważając 4 okres bloku d, od lewej strony do prawej, elektrony obsadzają kolejne orbitale typu \\( d \\). Istnieją dwa wyjątki: chrom i miedź, w których jeden elektron z orbitalu \\( s \\) przeskakuje na orbital \\( d \\) ( Tabela 1 ).", "Jest to związane z tym, że orbitale n \\( s \\) i (n-1) \\( d \\) w tych pierwiastkach mają bardzo zbliżoną energię. W 4, 5 i 6 okresie pierwiastki grup 8-10 wykazują duże podobieństwa, dlatego nazwano je triadami. Blok d będziemy zatem mogli sklasyfikować następująco: Grupa 3 – skandowce, Grupa 4 – tytanowce, Grupa 5 – wanadowce, Grupa 6 – chromowce, Grupa 7 – manganowce, Triada żelazowców: Fe, Co, Ni, Triada platynowców lekkich: Ru, Rh, Pd, Triada platynowców ciężkich: Os, Ir, Pt, Grupa 11 – miedziowce, Grupa 12 – cynkowce.", "Metale przejściowe wykazują wiele cech wspólnych:", "Zmienność stanów utlenienia charakterystyczna dla pierwiastków przejściowych związana jest z niepełnym obsadzeniem orbitala typu d. Orbital typu d jest zapełniany w taki sposób, że stopnie utlenienia różnią się od siebie jednością, np. \\( \\ce{Fe^{2+}} \\), \\( \\ce{Fe^{3+}} \\). Jest to sprzeczne ze zmiennością stopni utlenienia w pierwiastkach nieprzejściowych, gdzie stany utlenienia dla tego samego pierwiastka różnią się o 2 jednostki, np. \\( \\ce{Pb^{2+}} \\) i \\( \\ce{Pb^{4+}} \\).", "Metale przejściowe tworzą dużą liczbę związków o wyraźnych i żywych barwach ( Tabela 2 ). Barwy związków są związane z przeskokami elektronów d na wyższe poziomy energetyczne i emisją kwantów promieniowania z zakresu widzialnego podczas powrotu na poziomy podstawowe.", "Kolejną charakterystyczną właściwością metali przejściowych jest tworzenie związków kompleksowych. Atom lub jon metalu przejściowego zajmuje miejsce centralne i jest otoczony przez ligandy [1]. Budowa związków kompleksowych została szczegółowo opisana w rozdziale Związki kompleksowe."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1415, "subject": "Skandowce", "paragraphs": ["Skandowce to 3 grupa układu okresowego ( Rys. 1 ), przypisana do bloku \\( d \\).", "Należą do niej skand i itr, natomiast nie ma zgodności w literaturze co do pozostałych pierwiastków. Wg zaleceń IUPAC do tej grupy zaliczamy lutet i lorens. Historycznie do tej grupy zaliczano lantan i aktyn, co nadal jest powszechnie spotykane w podręcznikach [1], [2]. Często możemy spotkać się z pewnym kompromisem pomiędzy dwiema głównymi opcjami, polegającym albo na zmniejszeniu grupy do skandu i itru, albo na włączeniu lantanowców i aktynowców do grupy trzeciej. Na potrzeby tego podręcznika w niniejszym module zostaną omówione skand i itr, natomiast lutet i lorens zostaną omówione odpowiednio w rozdziałach Lantanowce i Aktynowce.", "Skand i itr są związane z lantanowcami i występują wspólnie z nimi. Można je znaleźć w śladowych ilościach w wielu minerałach. Skand w minerałach takich jak: gadolinit, euksenit i tortweityt \\( \\ce{Sc_2Si_2O_7} \\). Itr występuje w skorupie ziemskiej w postaci minerałów: monocytu – mieszanej soli kwasu fosforowego i kilku lantanowców, bastnazytu i ksenotymu \\( \\ce{YPO_4} \\) [2].", "Skandowce są otrzymywane jako produkt uboczny przy otrzymywaniu innych metali. Obydwa pierwiastki są syntezowane z ich minerałów, po przeprowadzeniu we fluorek, który następnie redukuje się wapniem [3], [4].", "Wszystkie skandowce są srebrzystymi, dość miękkimi metalami, a ich twardość wzrasta wraz z liczbą atomową. Mają podobne temperatury topnienia ( Tabela 1 ). W porównaniu z większością metali, nie są zbyt dobrymi przewodnikami ciepła i elektryczności ze względu na małą liczbę elektronów dostępnych do wiązania metalicznego [5].", "Wszystkie skandowce występują na +3 stopniu utlenienia. Są metalami aktywnymi, szybko matowieją na powietrzu, pokrywając się pasywną warstwą tlenkową. Pod względem właściwości chemicznych przypominają magnez, są łatwopalne. Wióry skandu palą się na powietrzu jaskrawożółtym płomieniem. Skandowce reagują z wodą w wydzieleniem wodoru, jednak z biegiem czasu reakcja ulega zahamowaniu na skutek pasywacji. Metal pokrywa się nierozpuszczalną warstwą wodorotlenku, która blokuje dostęp cząsteczek wody do powierzchni.", "Skandowce prawie nie tworzą związków kompleksowych, jedynie skand wykazuje skłonność do tworzenia kompleksów, głównie z fluorkami: \\( \\ce{[ScF_6]^{3-}} \\) i \\( \\ce{[ScF_4]^{-}} \\). Itr wykazuje bardzo duże podobieństwo do lantanowców, dużo większe niż skand. Jego reaktywność chemiczna jest taka sama jak lantanowców, jedną z niewielu różnic jest to, że występuje na +3 stopniu utlenienia, podczas gdy wartościowość lantanowców może być inna niż III.", "\\( \\ce{Sc_2O_3} \\) tlenek skandu (III) – wykorzystywany do syntezy innych związków skandu. \\( \\ce{Sc(NO_3)_3} \\) azotan (V) skandu – stosowany w powłokach optycznych, katalizatorach, ceramice elektronicznej i przemyśle laserowym. \\( \\ce{Y_2O_3} \\) tlenek itru (III) – stosowany do stabilizacji sześciennej formy cyrkonii w jubilerstwie. Jest potencjalnym materiałem laserowym. Stop \\( Al20Li20Mg10Sc20Ti30 \\) – jest wytrzymały jak tytan, lekki jak glin i twardy jak materiały ceramiczne."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1416, "subject": "Tytanowce", "paragraphs": ["Pierwiastki nazywane tytanowcami znajdują się w IV grupie układu okresowego. W grupie tytanowców znajdują się takie pierwiastki jak: tytan, cyrkon, hafn i rutherford ( Rys. 1 ).", "Tytan, cyrkon i hafn występują w przyrodzie głównie w minerałach skałotwórczych. Wśród tytanowców, tytan jest pierwiastkiem najbardziej rozpowszechnionym na kuli ziemskiej. Zajmuje on dziesiąte miejsce pod względem rozpowszechnienia spośród wszystkich pierwiastków. Cyrkon zajmuje dwudzieste miejsce pod względem rozpowszechnienia, natomiast hafn jest rzadkim pierwiastkiem, a rutherford nie występuje naturalnie na Ziemi. Do najważniejszych rud tytanu należą: ilmenit \\( \\ce{FeTiO_3} \\) i rutyl \\( \\ce{TiO_2} \\). Związki te są odporne na działanie wody i czynników atmosferycznych. Cyrkon występuje w przyrodzie w postaci \\( \\ce{ZrSiO_4} \\) (cyrkon) i \\( \\ce{ZrO_2} \\) (baddeleit). Minerały te są pierwotnymi produktami krystalizacji magmy. Hafn występuje jako domieszka w minerałach cyrkonowych. Tytanowce otrzymuje się podczas redukcji chlorków tytanu, cyrkonu i hafnu za pomocą metalicznego sodu, magnezu lub wapnia. Redukcję chlorków tytanowców należy przeprowadzać w atmosferze ochronnej, czyli w obecności gazu ochronnego np. argonu albo helu. Na skalę techniczną tytan i cyrkon otrzymuje się stosując metodę Krolla, w której na parę chlorków tytanu lub cyrkonu działa na stopiony magnez. W takich warunkach zachodzą następujące reakcje ( 1 ) i ( 2 ).", "Metal otrzymany w powyższym procesie jest następnie przetapiany w łukowym piecu elektrycznym w atmosferze gazu ochronnego. Metale takie jak hafn i cyrkon zwykle występują razem, aby je rozdzielić stosuje się destylację frakcjonowaną mieszaniny chlorków cyrkonu i hafnu z trichlorkiem fosforylu, \\( \\ce{POCl_3} \\). Cyrkon i hafn można również rozdzielić wykorzystując różnice w rozpuszczalności niektórych związków tych pierwiastków (frakcjonowana krystalizacja) lub rozdziału można dokonać także za pomocą chromatografii kolumnowej. W przypadku chromatografii wykorzystywane są różnice w zdolności adsorpcji chlorków obu metali na różnych adsorberach [1].", "Tytan, cyrkon i hafn są srebrzystobiałymi metalami. Metale te mają wysokie temperatury topnienia ( Tabela 1 ).", "Tytanowce w kontakcie z atmosferą zawierającą tlen ulegają pasywacji, na ich powierzchni powstaje warstwa tlenków o grubości kilku nanometrów. Zjawisko pasywacji sprawia, że w temperaturze pokojowej tytanowce są mało aktywne chemicznie. W podwyższonych temperaturach, tytanowce reagują z takimi pierwiastkami jak tlen, azot i węgiel, tworząc tlenki, azotki i węgliki. Tytan, cyrkon i hafn roztwarzają się w roztworach kwasu fluorowodorowego, tworząc łatwo rozpuszczalne w wodzie związki kompleksowe (sześciofluorotytaniany (IV)). Metale te mają zdolność odwracalnego pochłaniania wodoru. W temperaturze powyżej 570 K, tytan pochłania wodór, powstaje szary wodorek \\( \\ce{TiH_2} \\), który jest trwałym związkiem w atmosferze powietrza. Tytanowce w związkach chemicznych mogą występować na stopniach utlenienia +2, +3 i +4, ale najtrwalszym stopniem utlenienia wszystkich tytanowców jest +4.", "Tytanowce tworzą tlenki, sole i związki z fluorowcami. Wszystkie tytanowce tworzą z tlenem trwałe tlenki, w których metal występuje na +4 stopniu utlenienia. Tlenek tytanu IV ( \\( \\ce{TiO_2} \\)) tworzy trzy odmiany polimorficzne: dwie odmiany tetragonalne rutyl i anataz oraz jedną odmianę rombową brukit. W strukturze przestrzennej rutylu, każdy jon tytanu jest otoczony 6 jonami tlenkowymi. Jest on trudnotopliwy i odporny na działanie kwasów i zasad. Tytan tworzy również tlenki na niższych stopniach utleniania takie jak: \\( \\ce{TiO} \\), \\( \\ce{Ti_2O_3} \\). Tlenki te powstają w reakcji między \\( \\ce{TiO_2} \\), a metalicznym tytanem. Reakcja taka ( 3 ) zachodzi w temperaturze 1900 K.", "Tlenek cyrkonu IV ( \\( \\ce{ZrO_2} \\)) podobnie jak rutyl jest substancją trudnotopliwą. Tlenki cyrkonu i hafnu \\( \\ce{ZrO_2} \\) i \\( \\ce{HfO_2} \\) pod względem chemicznym są bardziej odporne niż rutyl ( \\( \\ce{TiO_2} \\)). Tytanowce tworzą uwodnione tlenki, które powstają w reakcji soli tytanowców z wodorotlenkami litowców, reakcja ( 4 ).", "Tlenki tytanowców ogrzewane w wysokich temperaturach z tlenkami innych metali reagują dając jako produkt reakcji związki nazywane tytanianami, cyrkonianami albo hafnianami. Najbardziej popularnymi tytanianami są tytanian IV wapnia ( \\( \\ce{CaTiO_3} \\)) (tzw. perowskit) oraz tytanian IV baru ( \\( \\ce{BaTiO_3} \\)). Rys. 2 przedstawia strukturę perowskitu, gdzie każdy atom tytanu jest otoczony 6 atomami tlenu, tworząc wokół niego ośmiościan.", "W sieci perowskitu nie można wyróżnić osobnych jonów \\( \\ce{TiO_3^{2-}} \\), tak jak ma to miejsce w solach kwasów tlenowych, dlatego tytaniany są określane jako podwójne tlenki, a nie jako sole. Ogrzewanie tlenków tytanu IV, cyrkonu IV i hafnu IV ze stężonym kwasem siarkowym VI prowadzi do tworzenia się tlenosiarczanu VI tytanu \\( \\ce{TiO*SO_4} \\) oraz siarczanów VI cyrkonu i hafnu \\( \\ce{Zr(SO_4)_2} \\), \\( \\ce{Hf(SO_4)_2} \\). Sole te rozpuszczają się w wodzie i ulegają hydrolizie. Tytanowce bardzo łatwo reagują z halogenowcami tworząc halogenki takie jak: \\( \\ce{TiCl_4} \\), \\( \\ce{TiCl_3} \\), \\( \\ce{ZrCl_4} \\), \\( \\ce{ZrF_4} \\). Chlorki tytanowców powstają podczas ogrzewania tlenków tytanowców z węglem w atmosferze gazowego chloru. W reakcji chlorku tytanu IV z bezwodnym fluorowodorem powstaje fluorek tytanu IV, reakcja ( 5 )."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1417, "subject": "Wanadowce", "paragraphs": ["Pierwiastki V grupy układu okresowego takie jak wanad, niob, tantal i dubn nazywane są wanadowcami ( Rys. 1 ).", "W przyrodzie najbardziej rozpowszechnionymi wanadowcami są wanad i niob. Wanad zajmuje 23 miejsce pod względem rozpowszechnienia w przyrodzie. Występuje on w postaci takich minerałów jak: patronit \\( \\ce{VS_4} \\), wanadynit \\( \\ce{Pb_5(VO_4)_3Cl} \\) oraz karnotyt \\( \\ce{K(UO_2)VO_4*1,5H_2O} \\). Karnotyt jest minerałem, który stanowi zarówno rudę uranu, jak i wanadu. Niob i tantal występują razem w postaci minerału o wzorze \\( \\ce{(Fe, Mn)(Ta, Nb)_2O_6} \\). Jeśli w minerale tym ilość niobu przeważa nad ilością tantalu, to taki minerał nazywany jest kolumbitem (niobitem), natomiast jeśli mamy więcej tantalu niż niobu, to minerał ten nazywamy tantalitem. Dubn w przyrodzie nie występuje, jest to pierwiastek radioaktywny otrzymywany sztucznie.", "W celu otrzymania wanadu, rudę wanadu poddaje się prażeniu z dodatkiem chlorku sodu lub węglanu IV sodu, co prowadzi do powstania wanadanu III sodu \\( \\ce{(NaVO_3)} \\), który następnie jest wymywany wodą. Roztwór ten zakwasza się, strąca się czerwony osad poliwanadanów, następnie strąca się \\( \\ce{NH_4VO_3} \\), który przeprowadza się podczas ogrzewania (T=700 K) w tlenek \\( \\ce{V_2O_5} \\). Wanad otrzymuje się podczas redukcji tlenku wanadu V \\( \\ce{(V_2O_5)} \\) wapniem lub glinem w ochronnej atmosferze argonu.", "Otrzymywanie niobu i tantalu jest trudne, ponieważ oba pierwiastki pod względem właściwości chemicznych są do siebie bardzo podobne, a ponadto występują razem w tym samym minerale. Z tego powodu konieczne jest ich rozdzielenie, a następnie przeprowadzenie redukcji odpowiednich tlenków niobu lub tantalu.", "Podczas rozdzielania obu metali tantalit lub niobit stapia się z \\( \\ce{NaOH} \\) lub \\( \\ce{Na_2CO_3} \\), a następnie przeprowadza się ługowanie za pomocą kwasu fluorowodorowego lub przeprowadza się chlorowanie stopionej mieszaniny. Zabieg ten prowadzi do otrzymania rozpuszczalnych w wodzie związków niobu i tantalu, które następnie poddane są ekstrakcji z roztworu wodnego.", "Tantal ekstrahuje się z roztworu słabo kwaśnego, niob z roztworu silnie kwaśnego poprzez wytrząsanie tych roztworów z ketonem metylowo-izobutylowym. Związki otrzymane podczas ekstrakcji przeprowadza się do tlenków \\( \\ce{Nb_2O_5} \\) i \\( \\ce{Ta_2O_5} \\), które następnie redukuje się do metalu za pomocą węgla lub sodu [1].", "Wanadowce są metalami ciężkimi o szarej barwie, ciągliwymi i trudnotopliwymi (temperatury topnienia powyżej 2000 K) ( Tabela 1 ).", "Wanadowce pod względem chemicznym są mało aktywne, a ich aktywność chemiczna maleje ze wzrostem liczby atomowej pierwiastka. Wanadowce w temperaturze pokojowej wykazują dużą odporność na działanie wielu kwasów, a także na działanie roztworów mocnych zasad.", "Niob i tantal roztwarzają się w kwasie fluorowodorowym. Wanad w temperaturze otoczenia roztwarza się w stężonych kwasach azotowym V, siarkowym VI i fluorowodorowym. Wysoka odporność wanadowców na działanie kwasów w temperaturze pokojowej jest spowodowana pasywacją tych metali. Metale te w wysokich temperaturach reagują z wodorem, azotem, węglem tworząc wodorki, azotki i węgliki o strukturze międzywęzłowej.", "W podwyższonej temperaturze wanadowce w kontakcie z powietrzem tworzą tlenki. Wanadowce tworząc związki chemiczne mogą występować na stopniach utlenienia od -1 do +5. Stopień utlenienia +5 jest najtrwalszym stopniem utlenienia wszystkich wanadowców. Na najniższych stopniach utlenienia wanad występuje w związkach kompleksowych takich jak np. \\( \\ce{[Nb(CO)_4(C_5H_5)]} \\), \\( \\ce{[V(CO)_6]^-} \\). Dla wielu związków wanadu przy przejściu od stopnia utlenienia +2 do +5 zmienia się charakter związku z jonowego na kowalencyjny. Tlenki wanadowców na +5 stopniu utlenienia są amfoteryczne (zob. e-podręcznik \"Chemia ogólna\", rozdział Tlenki ).", "Należy podkreślić, że właściwości chemiczne niobu i tantalu są bardzo podobne, promienie atomowe tych pierwiastków nieznacznie się różnią ( Tabela 1 ). Takie podobieństwo stwarza duże trudności przy rozdzielaniu tych pierwiastków. Niewielki wzrost promienia atomowego tantalu w porównaniu do promienia atomowego niobu jest pewnym odstępstwem od prawa okresowości. Zgodnie z prawem okresowości w grupie ze wzrostem liczby atomowej pierwiastka rośnie promień atomowy.", "Do najważniejszych związków chemicznych wanadowców zaliczamy tlenki, siarczki, sole, kwasy oraz związki z fluorowcami. Wanad na niższych stopniach utlenienia tworzy następujące tlenki \\( \\ce{VO} \\) (czarny o strukturze chlorku sodu), \\( \\ce{V_2O_3} \\) (czarny o strukturze korundu), \\( \\ce{VO_2} \\) (ciemnoniebieski o zdeformowanej strukturze rutylu). Tlenki \\( \\ce{VO} \\) i \\( \\ce{V_2O_3} \\) mają właściwości zasadowe, a tlenki \\( \\ce{VO_2} \\) i \\( \\ce{V_2O_5} \\) mają właściwości amfoteryczne. Niob i tantal tworzą na +4 stopniu utlenienia następujące tlenki \\( \\ce{NbO_2} \\) i \\( \\ce{TaO_2} \\). Tlenki wanadowców, w których metal jest na +5 stopniu utlenienia są najtrwalsze. Tlenek wanadu V \\( \\ce{(V_2O_5)} \\) jest pomarańczowym proszkiem, słabo rozpuszczalnym w wodzie i jest związkiem silnie trującym. Kryształy tlenku wanadu (V) wykazują bardzo dobrą łupliwość. Właściwość ta jest związana ze strukturą krystalograficzną tlenku wanadu (V). Rozmieszczenie atomów tlenu wokół atomu wanadu przedstawia Rys. 2.", "Jeden z atomów tlenu jest słabiej związany z atomem wanadu, co powoduje, że w sieci przestrzennej tlenku wanadu V tworzą się warstwy wanadowo-tlenowe, pomiędzy którymi działają słabe siły. Takie słabe oddziaływanie między warstwami powoduje, że w kierunku równoległym do tych warstw (płaszczyzn) kryształy tlenku wanadu V wykazują dużą łupliwość. Wodne roztwory tlenku wanadu V mają słabo kwaśny odczyn, co świadczy o tym, że jest on tlenkiem kwasowym i w reakcji z wodą tworzy kwas wanadowy.", "Otrzymanie kwasu wanadowego w czystej postaci jest trudne, ponieważ zagęszczenie wodnego roztworu tlenku wanadu prowadzi do otrzymania substancji zawierającej zmienną zawartość wody, która jest określana jako uwodniony tlenek wanadu. Zabarwienie wodnych roztworów zawierających jony wanadowe zależy od pH ( Rys. 3 ).", "W roztworach silnie alkalicznych pH >12 występują jony \\( \\ce{[VO_4]^{3-}} \\), a roztwory te są bezbarwne. W bezbarwnych roztworach alkalicznych pH ≤ 9, występują jony \\( \\ce{[V_2O_7]^{4-}} \\) i \\( \\ce{[V_4O_{13}]^{6-}} \\). W roztworach, które zawierają jony silnie skondensowane następuje zmiana barwy na żółtą przechodzącą w ciemnopomarańczową. W roztworach silnie kwaśnych pH ≤ 2 występuje jon \\( \\ce{[VO_2]^+} \\), a roztwór ma zabarwienie bladożółte.", "Niob i tantal tworzą tlenki \\( \\ce{Nb_2O_5} \\) i \\( \\ce{Ta_2O_5} \\), które mają właściwości amfoteryczne. Tlenki podczas stapiania z \\( \\ce{NaOH} \\) lub \\( \\ce{Na_2CO_3} \\) tworzą niobiany i tantalany. Zakwaszenie wodnych roztworów tych soli powoduje wydzielenie uwodnionych tlenków nazywanych kwasem niobowym lub kwasem tantalowym.", "Wanadowce tworzą związki chemiczne z siarką i fluorowcami. Podczas ogrzewania tlenku wanadu V ( \\( \\ce{V_2O_5} \\)) w parach \\( \\ce{CS_2} \\) powstaje siarczek wanadu III \\( \\ce{(V_2S_3)} \\). Wanad może również tworzyć takie siarczki jak: \\( \\ce{VS_2} \\), \\( \\ce{VS_3} \\), \\( \\ce{VS_4} \\).", "Niob i tantal tworzą siarczki \\( \\ce{NbS_2} \\), \\( \\ce{TaS_2} \\), które mają strukturę warstwową. Z fluorem wanad tworzy fluorek wanadu V \\( \\ce{(VF_5)} \\). Z chlorem wanad tworzy chlorki takie jak: \\( \\ce{VCl_4} \\) ciecz o barwie brunatnoczerwonej, \\( \\ce{VCl_3} \\) ciało stałe o barwie czerwonej, \\( \\ce{VCl_2} \\) ciało stałe o barwie zielonej. Niob i tantal tworzą fluorki \\( \\ce{NbF_5} \\) i \\( \\ce{TaF_5} \\), a także tlenochlorki \\( \\ce{NbOCl_3} \\) i \\( \\ce{TaOCl_3} \\). Wanad z kwasem siarkowym VI tworzy sól siarczan VI wanadu III \\( \\ce{V_2(SO_4)_3} \\)."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1418, "subject": "Chromowce", "paragraphs": ["Do grupy chromowców zaliczamy pierwiastki 6 grupy układu okresowego: chrom, molibden, wolfram i seaborg ( Rys. 1 ).", "W Tabela 1 podano najważniejsze właściwości chromowców.", "Chrom występuje w przyrodzie w ilości 0,02 \\( \\% \\), zawartość molibdenu wynosi 0,00015 \\( \\% \\), natomiast wolframu 0,00016 \\( \\% \\). Seaborg jest pierwiastkiem nietrwałym, pierwszy raz otrzymano go w 1974 roku w Berkeley (USA) [1]. Odkrycie to potwierdzono w Dubnej (ZSRR, obecnie Rosja). Chrom w przyrodzie występuje w postaci chromitu \\( FeCr_2O_4 \\) oraz krokoitu \\( PbCrO_4 \\). Cr(III) można znaleźć w minerałach glinu i niektórych glinokrzemianach, zielony kolor szmaragdów oraz czerwony rubinów to zasługa niewielkiej ilości chromu. Molibden występuje w postaci siarczku - molibdenitu \\( MoS_2 \\) oraz molibdenianów: wulfenitu \\( PbMoO_4 \\) i powellitu \\( CaMoO_4 \\). Wolfram w przyrodzie tworzy głównie wolframiany, jak wolframit \\( (Fe,Mn)WO_4 \\) i szelit \\( CaWO_4 \\).", "Chrom otrzymuje się najczęściej w postaci ferrochromu w wyniku redukcji chromitu węglem:", "Molibden uzyskuje się z siarczku po wstępnym wyprażeniu w powietrzu:", "a następnie redukcji tlenku wodorem w temperaturze 800-1400K:", "Wolfram otrzymuje się podobnie, jak molibden, po wstępnej przeróbce przez redukcję tlenku wodorem:", "Metaliczny chrom jest błękitno-białym metalem, bardzo odpornym na korozję ( Rys. 2 ). Molibden jest srebrzystobiałym wysokotopliwym metalem o wysokiej twardości.", "Wolfram w formie metalicznej ma ciemnoszare zabarwienie. Metal ten wykazuje najwyższą temperaturę topnienia spośród wszystkich pierwiastków. W temperaturze bliskiej 0K staje się nadprzewodnikiem.", "Związki chromu na różnych stopniach utlenienia różnią się zabarwieniem ( Rys. 3 ).", "Chrom jest metalem odpornym na korozję na skutek pasywacji tlenkiem chromu (III) w reakcji z tlenem z powietrza", "Mo również ulega pasywacji.", "Dzięki pasywacji jest odporny na działanie tlenu, wody, zasad, kwasów, a nawet wody królewskiej.", "\\( FeCr_2O_4 \\) chromit, posiada silne własności diamagnetyczne, stosowany był jako aktywna warstwa w taśmach magnetycznych. Sole Cr(III) i Cr(VI) są wykorzystywane w fotochemii i technikach kolorymetrycznych. \\( Cr_2O_3 \\) tlenek chromu (III) (zieleń chromowa) jest używany jako pigment, służy do barwienia szkła i szkliwa. \\( K_2SO_4·Cr_2(SO_4)_3 ⋅24H_2O \\) ałun chromowo-potasowy stosowany jest w przemyśle garbarskim. \\( PbCrO_4 \\) chromian ołowiu jest używany jako żółta farba mineralna, właśnie temu pigmentowi zawdzięczają kolory \"Słoneczniki\" Van Gogha, [2]. \\( K_2Cr_2O_7 \\) dwuchromian potasu rozpuszczony w stężonym kwasie siarkowym (chromianka) ma silne właściwości utleniające. ( Rys. 5 )", "\\( WC \\) węglik wolframu dzięki wysokiej twardości służy do wyrobu materiałów ściernych i narzędzi - jest głównym składnikiem widii (wiertła widiowe), ze względu na wysoką twardość i ciężar właściwy znalazł zastosowanie w pociskach przeciwpancernych z utwardzanym rdzeniem."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1419, "subject": "Manganowce", "paragraphs": ["Do grupy manganowców zaliczamy pierwiastki 7 grupy układu okresowego: mangan, technet, ren oraz bohr ( Rys. 1 ).", "W Tabela 1 przedstawiono wybrane właściwości manganowców.", "Mangan występuje w przyrodzie w ilości 0,02 \\( \\% \\). Technet (gr. technos – sztuczny) jest pierwszym pierwiastkiem otrzymanym sztucznie (1937 rok). Ren występuje w naturze w ilości śladowej ok. \\( 10^{-7}% \\) \\( \\% \\). Bohr jest nietrwały, został odkryty w 1976 roku w Dubnej (ZSRR, obecnie Rosja), odkrycie potwierdzono w 1981 roku w Darmstadt (RFN, obecnie Niemcy). Mangan tworzy liczne minerały stanowiące zwykle zanieczyszczenia rud żelaza: brausztyn \\( MnO_2 \\) występujący w piroluzycie, hausmanit \\( Mn_3O_4 \\), braunit \\( Mn_2O_3 \\) oraz manganit \\( MnO⋅OH \\). Technet nie występuje naturalnie na Ziemi, stwierdzono jednak jego obecność w widmie niektórych czerwonych olbrzymów. Ren zwykle towarzyszy rudom manganu.", "Mangan otrzymuje się przez redukcję dwutlenku manganu węglem:", "oraz przez redukcję tlenku glinem", "Ren uzyskuje się poprzez redukcję tlenku wodorem:", "Tc otrzymywany jest sztucznie w procesie rozbijania neutronami jąder uranu lub bombardowania lekkimi jądrami izotopów niobu lub molibdenu.", "Metaliczny mangan jest ciemnym, twardym i kruchym materiałem ( Rys. 2 ).", "Ren – w formie czystej – pierwiastek ten jest srebrzystym błyszczącym metalem o dużej twardości. Po wyżarzeniu staje się miękki i kowalny.", "Mangan jest bardzo reaktywny, zapala się w powietrzu i reaguje z wodą tworząc wodorotlenek. Jego własności są zbliżone do metali alkalicznych. Związki manganu mają całą skalę barw ( Rys. 3 ), w zależności od wartościowości Mn.", "Ren – ze względu na dodatni potencjał standardowy – zaliczany jest do metali szlachetnych.", "\\( KMnO_4 \\) nadmanganian potasu (manganian (VII), ( Rys. 4 ) – posiada silne własności bakteriobójcze i grzybobójcze, jest stosowany do odkażania wody oraz w walce z pasożytami skóry.", "\\( MnO_2 \\) tlenek manganu (IV), Rys. 5 – stosowany jako katalizator utleniania \\( CO \\) do \\( CO_2 \\) w maskach gazowych."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1420, "subject": "Żelazowce", "paragraphs": ["Pierwiastki takie jak żelazo, kobalt, nikiel znajdujące się w układzie okresowym w czwartym okresie w grupach 8, 9 i 10 nazywane są żelazowcami ( Rys. 1 ).", "Pierwiastki te pomimo, że znajdują się w różnych grupach wykazują bardzo podobne właściwości fizyczne i chemiczne. Żelazowce są metalami wykazującymi dobrą ciągliwość i kowalność. Występują na +2 i +3 stopniu utlenienia, chociaż w pewnych związkach żelazo może występować nawet na +6 stopniu utlenienia. Właściwości fizyczne i chemiczne żelazowców są przedstawione w Tabela 1.", "Żelazowce występują w związkach chemicznych najczęściej na +2 lub +3 stopniu utlenienia. Pierwiastki te mogą również występować na niższych i wyższych niż +2 i +3 stopniach utlenienia. Poniżej podano przykładowe jony kompleksowe i związki, w których żelazowce występują nawet na ujemnych stopniach utlenienia [1]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1421, "subject": "Żelazo", "paragraphs": ["Żelazo jest najbardziej rozpowszechnionym i najważniejszym metalem użytkowym wśród żelazowców ( Rys. 1 ).", "Pod względem rozpowszechnienia w skorupie ziemskiej zajmuje ono czwarte miejsce wśród wszystkich pierwiastków. Najważniejszymi rudami żelaza są: magnetyt \\( \\ce{Fe_3O_4} \\), hematyt \\( \\ce{Fe_2O_3} \\), limonit \\( \\ce{Fe_2O_3*xH_2O} \\), syderyt \\( \\ce{FeCO_3} \\) i piryt \\( \\ce{FeS_2} \\). Na skalę przemysłową żelazo otrzymuje się poprzez redukcję rud tlenkowych koksem. Produktem takiej redukcji jest żelazo zawierające ok. 4 \\( \\% \\) węgla, nazywane surówką. Produkcję surówki przeprowadza się w urządzeniu nazywanym wielkim piecem (schemat wielkiego pieca przedstawia Rys. 2 ). Wielki piec o pojemności około kilku tysięcy metrów sześciennych jest ładowany od góry przez gardziel, w której warstwowo wprowadza się rudę żelaza i koks. Do rudy żelaza dodawane są materiały nazywane topnikami, które razem z zanieczyszczeniami pochodzącymi z rudy utworzą w piecu żużel będący mieszaniną krzemianów wapnia, glinu, żelaza i manganu.", "Jeśli topione rudy żelaza zawierają związki mające charakter kwaśny np. \\( \\ce{SiO_2} \\), wówczas do rud żelaza jako topników używa się związków o charakterze zasadowym np. wapna palonego. Jeśli zanieczyszczenia mają charakter zasadowy, to jako topników używa się substancji o charakterze kwaśnym np. skalenie. W dolnej części pieca znajdują się dysze, za pomocą których wdmuchiwane jest powietrze, które następnie jest ogrzewane do temperatury około 1100 K. Temperatura w najgorętszych częściach wielkiego pieca dochodzi do 1900 K. Doprowadzone gorące powietrze powoduje spalanie koksu (węgla) i powstaje tlenek węgla II \\( \\ce{CO} \\), który redukując rudę żelaza utlenia się do tlenku węgla IV \\( \\ce{CO_2} \\). Tlenek węgla IV napotykając kolejną warstwę koksu ulega redukcji i powstaje tlenek węgla II \\( \\ce{CO} \\).", "Procesy utleniania i redukcji zachodzące w poszczególnych warstwach w piecu są przedstawione na Rys. 2. Redukcja tlenkowych rud żelaza rozpoczyna się w temperaturze 700 K prowadząc do powstania tlenku żelaza II, który następnie w wyższych temperaturach jest redukowany do metalicznego żelaza. Na powierzchni metalicznego żelaza powstaje warstwa żużla, która chroni go przed utlenieniem tlenem znajdującym się w wdmuchiwanym do pieca powietrzu. Metaliczne żelazo spływa na dno pieca i stąd, co pewien czas jest spuszczane.", "Surówka uzyskana w wielkim piecu nie jest czystym żelazem, ponieważ zawiera ona do 4 \\( \\% \\) węgla, do 3 \\( \\% \\) krzemu, do 6 \\( \\% \\) manganu, do 2 \\( \\% \\) fosforu oraz do 0,05 \\( \\% \\) siarki. Podczas powolnego chłodzenia surówki wydziela się węgiel w postaci grafitu, a surówka przybiera szarą barwę. Jeśli chłodzenie surówki zachodzi szybko, to węgiel reaguje z żelazem tworząc węglik \\( \\ce{Fe_3C} \\) tzw. cementyt, a surówka jest biała. Duża zawartość manganu, a mała zawartość krzemu sprzyja powstawaniu surówki białej. Surówka szara nadaje się tylko do produkcji odlewów, natomiast surówka biała poddana jest obróbce mającej na celu wytworzenie stali. Obróbka surówki białej polega na odwęglaniu surowego żelaza metodą konwerterową lub metodą Siemensa i Martina.", "Do konwertora wdmuchiwane jest powietrze, następuje reakcja węgla z tlenem znajdującym się w powietrzu, co prowadzi do usunięcia węgla z żelaza. Wdmuchiwanie powietrza powoduje również częściowe usuwanie z surówki krzemu, fosforu, manganu i węgla. W procesie konwertorowym zachodzi prawie całkowite odwęglanie żelaza, co nie jest korzystne, ponieważ żelazo zawierające bardzo małe ilości węgla jest miękkie i nie nadaje się do celów użytkowych. W takiej sytuacji do odwęglonej surówki dodaje się białą surówkę, aby wzbogacić ją w węgiel na takim poziomie, aby mogła być następnie zastosowana do dalszej przeróbki.", "W metodzie Siemensa i Martina stopiona surówka znajdująca się w komorze pieca jest pokryta warstwą żużla. W komorze nad surówką spalany jest gaz generatorowy, dzięki wprowadzeniu nadmiaru tlenu. Doprowadzone powietrze do komory pieca osiąga w nim temperaturę około 2000 K. Odwęglanie surówki następuje za pomocą żużla utlenionego przez gorące gazy. Żużel taki reaguje z węglem znajdującym się w surówce i powoduje jej odwęglenie. Żelazo można otrzymać również redukując tlenki żelaza wodorem. W zależności od temperatury, w jakiej przeprowadza się proces redukcji tlenków żelaza otrzymuje się żelazo piroforyczne samorzutnie zapalające się w powietrzu lub mniej reaktywne żelazo wstępujące w postaci gąbczastej otrzymywane w temperaturze powyżej 800 K. Żelazo można również otrzymać na drodze elektrochemicznej. Otrzymane taką metodą jest kruche ze względu obecność rozpuszczonego w nim wodoru [1].", "Ferryt jest to roztwór stały węgla w żelazie \\( {\\alpha} \\). Zawartość węgla w ferrycie nie przekracza 0,03 \\( \\% \\). Austenit jest to roztwór stały węgla w żelazie \\( {\\gamma} \\). Zakres temperatur i zawartość węgla, przy których austenit jest fazą trwałą przedstawia pole \\( {\\gamma}{-Fe} \\) (austenit) widoczne na Rys. 3. Cementyt jest to węglik żelaza \\( \\ce{Fe_3C} \\). Cementyt jest związkiem endotermicznym, który w temperaturach poniżej 1300 K ulega rozkładowi. Ledeburyt jest mieszaniną dwóch faz austenitu i cementytu. Ledeburyt nazywany jest eutektykiem. Bezpośrednio po zakrzepnięciu żelazo występuje w postaci austenitu. Zakres trwałości austenitu przedstawia obszar \\( {\\gamma}{-Fe} \\) (austenit) ( Rys. 3 ). Podczas powolnego oziębiania austenitu następuje jego przemiana w ferryt. Ponieważ w austenicie można rozpuścić znacznie większe ilości węgla niż w ferrycie, to przemianie austenitu w ferryt towarzyszy rozpad austenitu na ferryt i cementyt ( \\( \\ce{Fe_3C} \\)). Mieszanina ferrytu i cementytu jest nazywana perlitem. Przy bardzo szybkim chłodzeniu austenitu następuje przechłodzenie roztworu stałego węgla w żelazie, sieć przestrzenna austenitu ulega deformacji i powstaje nowa faza nazywana martenzytem. Martenzyt jest fazą bardzo twardą. Hartowanie stali polega na szybkim oziębianiu zakrzepłego żelaza, dzięki czemu uzyskuje się materiał twardy i o dużej wytrzymałości [2].", "Powierzchnia czystego żelaza w kontakcie z powietrzem matowieje, ponieważ na skutek reakcji żelaza z tlenem z powietrza powstaje na jego powierzchni warstwa tlenkowa (warstwa pasywna). Żelazo w kontakcie z roztworami elektrolitów ulega korozji. Produktami korozji są wodorotlenki, tlenki, węglany i inne sole. Produkty korozji zależą od właściwości środowiska, z którym żelazo ma kontakt. W wysokich temperaturach żelazo w obecności tlenu ulega utlenianiu tworząc magnetyt \\( \\ce{Fe_3O_4} \\). Magnetyt powstaje również w reakcji żelaza z parą wodną w podwyższonych temperaturach. Żelazo reaguje z kwasami mineralnymi, podczas tej reakcji następuje wydzielanie wodoru. W rozcieńczonym roztworze kwasu azotowego V powstają sole żelaza (II), a w stężonym kwasie azotowym V powstają sole żelaza (III). W silnie stężonym kwasie azotowym V, żelazo ulega pasywacji. Powstająca warstwa tlenkowa (pasywna) jest oporna na działanie kwasów nie wykazujących właściwości redukujących. Warstwa pasywna obecna na powierzchni żelaza może zostać zniszczona poprzez działanie na nią kwasem o właściwościach redukujących np. kwasem solnym (HCl).", "W związkach chemicznych żelazo występuje najczęściej na +2 lub na +3 stopniu utlenienia. W reakcji z tlenem, żelazo tworzy następujące tlenki: tlenek żelaza (II) \\( \\ce{FeO} \\), tlenek żelaza (III) \\( \\ce{Fe_2O_3} \\) oraz tlenek żelaza (II, III) \\( \\ce{Fe_3O_4} \\).", "Tlenek żelaza (II) \\( \\ce{FeO} \\) występuje w postaci czarnego proszku, który jest otrzymywany podczas wysokotemperaturowego rozkładu szczawianu żelaza (II) w atmosferze beztlenowej. Tlenek ten jest trwały w temperaturze wyższej niż 848 K.", "Tlenek żelaza (III) występuje w postaci dwóch odmian alotropowych: \\( {\\alpha} \\ce{-Fe_2O_3} \\) i \\( {\\gamma} \\ce{-Fe_2O_3} \\). Heksagonalna odmiana α nie wykazuje właściwości ferromagnetycznych, a odmiana \\( {\\gamma} \\) regularna płasko centrowana jest ferromagnetyczna.", "Właściwości ferromagnetyczne wykazuje również tlenek żelaza (II, III) \\( \\ce{Fe_3O_4} \\) nazywany magnetytem. Tlenek ten jest odporny na działanie kwasów i związków działających utleniająco. Tlenek żelaza (III) \\( \\ce{Fe_2O_3} \\), podczas spiekania w wysokich temperaturach z tlenkami innych metali, tworzy tlenki mieszane nazywane ferrytami np. \\( \\ce{LiFeO_2} \\), \\( \\ce{K_2FeO_4} \\).", "Żelazo tworzy dwa wodorotlenki: wodorotlenek żelaza (II) \\( \\ce{Fe(OH)_2} \\) i wodorotlenek żelaza (III) \\( \\ce{Fe(OH)_3} \\). Wodorotlenek żelaza (II) strąca się w postaci białego osadu, który w kontakcie z powietrzem ulega utlenieniu zmieniając barwę od białej poprzez szarozieloną, aż do czerwonobrunatnej. Wodorotlenek żelaza (III) strąca się w postaci czerwonobrunatnego osadu i wykazuje on właściwości słabo zasadowe.", "Żelazo w reakcji z siarką tworzy dwa rodzaje siarczków \\( \\ce{FeS} \\) i \\( \\ce{FeS_2} \\). Siarczek żelaza (II) powstaje jako czarny osad, krystalizuje w układzie heksagonalnym. \\( \\ce{FeS_2} \\) występuje w przyrodzie jako minerał o nazwie piryt. Tworzy on żółte kryształy o metalicznym połysku.", "Żelazo w reakcji z fluorowcami tworzy chlorki \\( \\ce{FeCl_2} \\), \\( \\ce{FeCl_3} \\), fluorki \\( \\ce{FeF_2} \\) i \\( \\ce{FeF_3} \\).", "Żelazo w reakcji z licznymi kwasami tlenowymi tworzy sole takie jak np.: siarczan żelaza (II) \\( \\ce{FeSO_4} \\), siarczan żelaza (III) \\( \\ce{Fe_2(SO_4)_3} \\), azotan żelaza (II) \\( \\ce{Fe(NO_3)_2} \\), azotan żelaza (III) \\( \\ce{Fe(NO_3)_3} \\), węglan żelaza (II) \\( \\ce{FeCO_3} \\). Ponadto pierwiastek ten może tworzyć liczne związki kompleksowe, w których żelazo może występować nawet na ujemnych stopniach utlenienia."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1422, "subject": "Kobalt i nikiel", "paragraphs": ["Kobalt i nikiel są metalami znajdującymi się w 9 i 10 grupie układu okresowego ( Rys. 1 ).", "Do najważniejszych minerałów, w których występuje kobalt należą: smaltyn \\( \\ce{CoAs_2} \\), kobaltyn \\( \\ce{CoAsS} \\). Na skalę przemysłową kobalt otrzymuje się z rud miedzi i żelaza zawierających kobalt. Kobalt można otrzymywać również na drodze elektrolizy z roztworów jego soli. Nikiel występuje w przyrodzie w postaci następujących minerałów: pentlandyt \\( \\ce{(FeNi)S} \\), chloantyt \\( \\ce{NiAs_2} \\), gersdorfit \\( \\ce{NiAsS} \\). Nikiel o dużej czystości otrzymuje się w metodzie Monda. Na zanieczyszczony nikiel działamy tlenkiem węgla (II) \\( \\ce{CO} \\) w temperaturze 350 K, co prowadzi do powstania gazowego karbonylku niklu \\( \\ce{Ni(CO)_4} \\), który następnie w temperaturze około 450 K ulega rozkładowi na czysty nikiel i \\( \\ce{CO_2} \\).", "Właściwości chemiczne i fizyczne kobaltu oraz niklu są do siebie bardzo zbliżone. Oba te metale są ciągliwe, kowalne, topią się w wysokich temperaturach, a w temperaturze pokojowej są ferromagnetyczne. Temperatura Curie, przy której zachodzi utrata właściwości ferromagnetycznych wynosi dla kobaltu 1379 K, a dla niklu 636 K. Metale te nie ulegają korozji w kontakcie z wilgotnym powietrzem, są one bardziej odporne chemicznie niż żelazo. W reakcji z kwasami mineralnymi kobalt i nikiel tworzą sole, w których metale te występują na +2 stopniu utlenienia. W reakcji ze stężonym kwasem azotowym (V) oba metale ulegają pasywacji.", "Kobalt i nikiel tworzą tlenki: \\( \\ce{CoO} \\) i \\( \\ce{NiO} \\), w których metale te występują na +2 stopniu utlenienia. Tlenki te wykazują odstępstwa od składu stechiometrycznego, chrakteryzujące się mniejszą zwartością metalu niż wynika to ze stechiometrii związku. Elektroobojętność sieci przestrzennej tych tlenków jest zapewniona dzięki obecności w niej trójwartościowych jonów kobaltu i niklu \\( \\ce{Co^{3+}} \\) i \\( \\ce{Ni^{3+}} \\).", "Tlenki o składzie stechiometrycznym otrzymuje się podczas rozkładu wodorotlenków lub węglanów kobaltu i niklu w próżni. Działając na roztwory soli niklu i kobaltu wodorotlenkiem sodu wytrąca się jasno zielony wodorotlenek niklu \\( \\ce{Ni(OH)_2} \\) i różowy wodorotlenek kobaltu \\( \\ce{Co(OH)_2} \\). Działając na wodorotlenki kobaltu i niklu silnym związkiem utleniającym np. \\( \\ce{H_2O_2} \\), wodorotlenki utleniają się do uwodnionych tlenków: \\( \\ce{CoO_2*xH_2O} \\) i \\( \\ce{NiO_2*xH_2O} \\). Odwodnienie uwodnionych tlenków prowadzi do tworzenia się \\( \\ce{Co_3O_4} \\) i \\( \\ce{NiO} \\). Tlenek \\( \\ce{Co_3O_4} \\) zawiera kobalt na +2 i +3 stopniu utlenienia.", "Tlenki kobaltu i niklu w procesie prażenia z tlenkami innych metali, podobnie jak tlenki żelaza, tworzą tlenki mieszane. Podczas prażenia tlenku kobaltu z tlenkiem glinu powstaje niebieski spinel \\( \\ce{CoAl_2O_4} \\) (błękit Thenarda). Prażenie tlenku kobaltu z tlenkiem cynku daje zieleń Rinmanna ( \\( \\ce{ZnCoO_4} \\)).", "Działając siarkowodorem na wodne roztwory soli kobaltu i niklu strącają się czarne krystaliczne osady siarczków kobaltu i niklu \\( \\ce{CoS} \\) i \\( \\ce{NiS} \\). Kobalt i nikiel tworzą również siarczki bogatsze w siarkę typu \\( \\ce{CoS_2} \\) i \\( \\ce{NiS_2} \\) tworzące sieć przestrzenną pirytu oraz siarczki o sieci typu spineli \\( \\ce{Co_3S_4} \\) i \\( \\ce{Ni_3S_4} \\).", "Wodne roztwory soli kobaltu dwuwartościowego są różowe, a soli niklu są zielone. Barwy te pochodzą od uwodnionych jonów kompleksowych kobaltu i niklu \\( \\ce{[Co(H_2O)_6]^{2+}} \\) oraz \\( \\ce{[Ni(H_2O)_6]^{2+}} \\), które są obecne w wodnych roztworach soli tych metali. Odwodnione sole kobaltu są niebieskie, natomiast sole niklu żółte lub brunatne. Podczas bezpośredniej syntezy kobaltu i niklu z chlorem w podwyższonej temperaturze powstają chlorki kobaltu i niklu \\( \\ce{CoCl_2} \\) i \\( \\ce{NiCl_2} \\). Uwodnione siarczany, azotany, węglany kobaltu i niklu są najczęściej spotykanymi solami tych pierwiastków. Kobalt tworzy także sole, które zawierają ten metal na +3 stopniu utlenienia np. fluorek kobaltu (III) \\( \\ce{CoF_3} \\), siarczan kobaltu (III) \\( \\ce{Co_2(SO_4)_3} \\).", "Kobalt i nikiel mają nieobsadzone w pełni elektronami orbitale atomowe i dzięki temu tworzą liczne związki kompleksowe. Związki kompleksowe kobaltu trójwartościowego są bardziej trwałe niż połączenia kompleksowe kobaltu dwuwartościowego [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1423, "subject": "Platynowce", "paragraphs": ["Do grupy platynowców zaliczamy pierwiastki od 8 do 10 grupy układu okresowego, leżące poniżej żelazowców: ruten, rod, pallad, osm, iryd i platynę ( Rys. 1 ). Dzieli się je na dwie triady: platynowce lekkie i platynowce cięższe.", "Tabela 1 przedstawia wybrane właściwości platynowców.", "Łączna zawartość platynowców w przyrodzie wynosi ok. \\( 10^{-6} \\) \\( \\% \\) [1]. Platynowce występują najczęściej jako zanieczyszczenia siarczkowych i arsenkowych rud niklu i miedzi. Własne rudy tworzy wyłącznie platyna: sperylit – arsenek platyny (VI) \\( PtAs_2 \\), kuperyt – siarczek platyny (II) \\( PtS \\) oraz braggit – \\( (Pt,Pd,Ni)S \\).", "Platynowce z minerałów otrzymuje się poprzez przeróbkę szlamu po elektrolitycznym otrzymywaniu niklu. Dużą część platynowców uzyskuje się poprzez recykling katalizatorów samochodowych za pomocą cyjanków.", "Toksyczność cyjanków spowodowała, że odchodzi się od tej metody w stronę rozpuszczania platynowców w wodzie królewskiej (mieszanina stężonych kwasów solnego i azotowego (V) z dodatkiem silnych utleniaczy, jak woda utleniona oraz chlorany sodu [2]).", "Platynowce są szarobiałymi, lśniącymi (oprócz niebieskoszarego osmu), twardymi i kruchymi metalami o wysokich temperaturach topnienia. Zaliczane są do metali szlachetnych, ponieważ wykazują wysokie potencjały standardowe. Pallad i platyna posiadają zdolność rozpuszczania wodoru – w temperaturze pokojowej, mogą rozpuścić objętość wodoru 350-850 razy większą od własnej objętości. Wynika to z faktu, że niewielkich rozmiarów cząsteczki wodoru mogą lokować się w przestrzeniach pomiędzy ogromnymi, w porównaniu do nich, atomami Pd lub Pt. Platyna ( Rys. 2 ) wykazuje najniższe nadnapięcie wydzielania wodoru (przechodzenia wodoru ze stanu jonowego do pierwiastkowego), wynoszące <0,4V w środowisku kwaśnym [3].", "Platynowce są pierwiastkami mało aktywnymi chemicznie. Nie reagują samorzutnie z tlenem. Roztwarzają się w wodzie królewskiej, reagują z halogenowcami, cyjankami i silnymi zasadami.", "Metaloorganiczny związek platyny – cisplatyna \\( PtCl_2(NH_3)_2 \\)wykazuje silne działanie cytostatyczne. Stosowana jest jako lek w chemioterapii wielu rodzajów raka: jądra, płuc, pęcherza moczowego, jajników, szyjki macicy, nowotworów w obrębie głowy i szyi oraz czerniaka złośliwego. Karboplatyna ( Rys. 4 ) – kompleksy platyny dwuwartościowej, również stosowana jest w chemioterapii. Karboplatyna jest ogólnie lepiej tolerowana przez pacjentów niż cisplatyna."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1424, "subject": "Miedziowce", "paragraphs": ["Miedziowce to 11 grupa układu okresowego ( Rys. 1 ). Zaliczamy do niej miedź, srebro, złoto i roentgen.", "Miedź, srebro i złoto występują naturalnie w przyrodzie w postaci pierwiastków. Były znane już w starożytności. Prawdopodobnie były to pierwsze trzy odkryte pierwiastki [1]. Roentgen jest pierwiastkiem o nieznanych właściwościach, ponieważ otrzymano niewiele atomów tego pierwiastka [2]. Miedź tworzy liczne minerały:", "Srebro występuje w postaci rodzimej lub minerałów \\( \\ce{Ag_2S} \\) argentyt, \\( \\ce{Ag_3SbS_3} \\) pirargiryt, \\( \\ce{AgCl} \\) chlorargiryt, stanowiących zanieczyszczenie rud miedzi i ołowiu. Złoto występuje w postaci rodzimej, tworząc żyły w skałach magmowych. W bardzo dużym rozdrobnieniu złoto również występuje w złożach pirytów, może występować w postaci związanej w minerale sylwanit \\( \\ce{AuAgTe_4} \\).", "Miedź otrzymuje się przez wyprażanie i utlenienie rudy siarczkowej [4]:", "Następnie surową miedź poddaje się oczyszczeniu metodą elektrolityczną ( Rys. 2 ).", "Srebro i złoto obecne w urobku górniczym przeprowadza się w cyjankowe związki kompleksowe [5]:", "Następnie złoto i srebro wydziela się działaniem cynku:", "Wszystkie pierwiastki 11 grupy są metalami. Srebro ma barwę srebrzystą, a miedź i złoto są żółte. Charakteryzują się najwyższym przewodnictwem ciepła i prądu elektrycznego, ciągliwością, kowalnością i połyskiem metalicznym. Właściwości fizyczne miedziowców zostały zebrane w Tabela 1.", "Miedziowce mają całkowicie zapełnioną powłokę \\( d \\), a wiązanie metaliczne jest zdominowane przez elektrony z powłoki \\( s \\). W miedzi wiązanie metaliczne nie ma charakteru kowalencyjnego i jest stosunkowo słabe. Wyjaśnia to niską twardość i wysoką ciągliwość miedzi. Jeżeli do sieci krystalicznej miedzi wprowadzimy dużą liczbę defektów, takich jak granice ziaren, dyslokacje, to będzie utrudnione przemieszczenie materiału pod przyłożonym naprężeniem, a tym samym zwiększy się jego twardość. Dlatego miedź drobnokrystaliczna, drobnoziarnista ma większą wytrzymałość, niż postacie monokrystaliczne. Srebro i złoto można walcować w folie o grubości tysięcznych części milimetra.", "Miedziowce są mało reaktywne chemicznie. Miedź jest metalem półszlachetnym, natomiast srebro i złoto są metalami szlachetnymi. W szeregu napięciowym metale są umiejscowione za wodorem, mają zatem dodatnie potencjały normalne. Konfiguracja elektronowa powłok walencyjnych \\( (n-1)d^{10} ns^1 \\) sugeruje, że występować powinny jako pierwiastki jednowartościowe. W rzeczywistości często dochodzi do zaangażowania elektronów orbitali \\( d \\) i powstawania związków także dwu- i trójwartościowych. Srebro tworzy głównie związki jednowartościowe, miedź dwuwartościowe, a złoto najczęściej występuje jako trójwartościowe.", "Miedź w związkach występuje na I i II stopniu utlenienia, tworzy również związki kompleksowe. W wilgotnym powietrzu okrywa się zasadowym węglanem miedzi (II) \\( \\ce{Cu_2(OH)_2CO_3} \\), zwanym patyną. Pod wpływem tlenu pokrywa się powierzchniowo tlenkiem miedzi (I) \\( \\ce{Cu_2O} \\), który nadaje jej charakterystyczne czerwone zabarwienie. Oba powyższe procesy chronią miedź przed dalszym wpływem czynników atmosferycznych. Srebro nie ulega działaniu tlenu atmosferycznego, natomiast utlenia je ozon. Srebro w związkach występuje na I stopniu utlenienia. Jego powierzchnia czarnieje, gdy reaguje z siarkowodorem zawartym w powietrzu:", "Miedziowce nie wypierają wodoru z kwasów, wchodzą w reakcję tylko z kwasami utleniającymi. Miedź reaguje z kwasem azotowym (V) zarówno rozcieńczonym jak i stężonym, srebro reaguje z gorącymi kwasami, natomiast złoto roztwarza się tylko w wodzie królewskiej (mieszanina kwasu azotowego (V) i chlorowodorowego w stosunku 1:3).", "Roztwory wodne soli miedzi (I) są intensywnie zielone, a roztwory soli miedzi (II) intensywnie niebieskie. Złoto nie ulega zmianom w atmosferze powietrza, ani w temperaturze pokojowej, ani podwyższonej. Reaguje z wodą królewską (kwas solny + kwas azotowy (V)), która przeprowadza go w kwas tetrachlorozłotowy \\( \\ce{HAuCl_4} \\).", "Wszystkie miedziowce tworzą tlenki, miedź i srebro zarówno na +1 jak i na +2 stopniu utlenienia, natomiast złoto na +3 stopniu utlenienia. Roztwory wodne soli miedzi(I) są intensywnie zielone, a roztwory soli miedzi(II) intensywnie niebieskie. \\( Cu(OH)_2 \\) wodorotlenek miedzi (II) rozpuszcza celulozę – stosowany przy wyrobie sztucznego jedwabiu. \\( CuSO_4 \\) siarczan miedzi (II) ma własności odkażające, a bezwodny ma silne własności higroskopijne i jest stosowany do suszenia rozpuszczalników. \\( AgCl \\) chlorek srebra, \\( AgBr \\) bromek srebra wykorzystuje się w fotografii, do produkcji emulsji światłoczułych. Pod wpływem naświetlania ulegają one powolnemu rozkładowi na pierwiastki. Wydzielanie się srebra metalicznego powoduje, że preparaty stopniowo ciemnieją i przybierają barwę od jasnofioletowej do czarnej. \\( AgNO_3 \\) azotan (V) srebra – środek antyseptyczny (lapis). \\( Ag_2O \\) tlenek srebra (I) – stosowany jako katoda w bateriach do zegarków. \\( \\ce{HAuCl_4} \\) kwas chlorozłotowy – otrzymuje się podczas roztwarzania złota w wodzie królewskiej. Wszystkie miedziowce tworzą liczne związki kompleksowe. Związki złota są stosowane jako środek leczniczy w reumatoidalnym zapaleniu stawów."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku d", "subject_id": 1425, "subject": "Cynkowce", "paragraphs": ["Cynkowce to 12 grupa układu okresowego ( Rys. 1 ). Zaliczamy do niej: cynk, kadm, rtęć i kopernik.", "Spośród tej grupy pierwiastków tylko cynk jest uważany za znacznie rozpowszechniony w skorupie ziemskiej. Pierwsze trzy występują naturalnie w postaci siarczków lub węglanów, natomiast kopernik nie występuje w naturze, został zsyntezowany w laboratorium. Cynk występuje w minerałach takich jak blenda cynkowa \\( ZnS \\) (struktura regularna), wurcyt \\( ZnS \\) (struktura heksagonalna) oraz smitsonit \\( ZnCO_3 \\). Kadm występuje jako zanieczyszczenie rud cynku w postaci \\( CdS \\) grenokitu, który towarzyszy rudom cynku. Rtęć występuje w postaci \\( HgS \\) cynobru.", "Zn otrzymuje się na drodze pirometalurgicznej [1] poprzez wyprażanie rudy siarczkowej:", "a następnie, redukcji tlenku cynku węglem:", "Cynk surowy zawiera wiele zanieczyszczeń (takich jak ołów, żelazo, kadm), dlatego poddaje się go rafinacji. Jednym ze sposobów rafinacji cynku jest frakcjonowana destylacja. Cynk również otrzymuje się na drodze hydrometalurgicznej [1], poprzez wstępne prażenie i rozpuszczenie rudy w rozcieńczonym kwasie siarkowym (VI), a następnie poddanie roztworu elektrolizie. Podczas procesu na anodzie otrzymuje się cynk, a na katodzie tlen: A: \\( \\ce{Zn^{2+} + 2e^- \\rightarrow Zn} \\) K: \\( \\ce{H_2O} \\rightarrow \\ce{1/2 O_2 + 2H^+ + 2e} \\) co można zapisać całościowo:", "W tym procesie otrzymuje się cynk o większej czystości. Jest to proces bardziej ekonomiczny niż proces pirometalurgiczny. Kadm otrzymuje się jako produkt uboczny metalurgii cynku. Jest on bardziej lotny niż cynk, więc przechodzi szybko do odbieralnika, w którym osadzają się pyły cynkowe. Po rozpuszczeniu pyłów, kadm wydziela się na drodze elektrolitycznej. Rtęć otrzymuje się poprzez ogrzewanie siarczku rtęci w strumieniu powietrza i kondensacji par rtęci.", "Proces ten przebiega w dwóch etapach. W pierwszym siarczek przeprowadza się w tlenek:", "a w kolejnym etapie następuje rozkład tlenku do metalicznej rtęci:", "Inną metodą otrzymywania rtęci jest ogrzewanie siarczku w obecności reduktora. Reduktorem może być żelazo:", "Zanieczyszczenia metalami szlachetnymi usuwa się przez destylację rtęci w próżni.", "Wszystkie pierwiastki z 12 grupy układu okresowego są metalami i mają najniższe temperatury topnienia wśród wszystkich metali przejściowych ( Tabela 1 ). Cynk i kadm o zabarwieniu niebiesko białym, są ciągliwe, miękkie i plastyczne. Rtęć o kolorze srebrzystobiałym jest jedynym metalem, który występuje w stanie ciekłym w warunkach standardowych. W porównaniu z innymi metalami jest słabym przewodnikiem ciepła, ale dobrym przewodnikiem elektryczności. Podczas gdy cynk odgrywa ważną rolę w biochemii organizmów żywych, kadm i rtęć są wysoko toksyczne [2]. Kadm ma działanie kancerogenne, uszkadza nerki, powoduje anemię i choroby kostne (osteoporozę) [3], jest zaliczany do groźnych dla zdrowia metali ciężkich [4], [5]. Cynk jest jednym z mikroelementów, bierze udział w mineralizacji kości, gojeniu się ran, wpływa na pracę systemu odpornościowego, wydzielanie się insuliny i stężenie witaminy A oraz cholesterolu, wpływa na regulację ciśnienia krwi i rytmu serca. Sole cynku (II) w dużych ilościach są rakotwórcze. Rtęć w temperaturze pokojowej jest srebrzystobiałą lśniącą cieczą ( Właściwości rtęci ). Pary rtęci działają toksycznie na organizm – powodują uszkodzenie systemu nerwowego. Rtęć ma wysoki potencjał standardowy, co oznacza, że zachowuje się jak metal szlachetny. W temperaturze pokojowej, rtęć rozpuszcza większość metali tworząc amalgamaty.", "Konfigurację elektronów walencyjnych cynkowców można przedstawić następująco: \\( (n – 1)d^{10}ns^2 \\). Ze względu na całkowicie wypełnioną podpowłokę \\( d \\), elektronami walencyjnymi są praktycznie tylko dwa elektrony podpowłoki \\( s \\). Elektrony podpowłoki \\( d \\) zachowują się jak elektrony rdzenia i nie biorą udziału w wiązaniu chemicznym [2]. Pierwiastki te występują w związkach głównie na +2 stopniu utlenienia. Wszystkie cynkowce tworzą kompleksy z udziałem nieobsadzonych orbitali \\( p \\) ostatniej powłoki. Kompleksów nie tworzy jedynie rtęć jednowartościowa. Cynk i kadm mają potencjały normalne ujemne, rtęć ma potencjał normalny dodatni (+0,8V).", "Cynk należy do bardzo reaktywnych metali. Na powietrzu ulega pasywacji, pokrywając się cienką warstewką zasadowego węglanu. Spala się w powietrzu niebieskozielonym płomieniem dając biały tlenek \\( \\ce{ZnO} \\). Z kwasów wypiera wodór przechodząc w odpowiednią sól.", "Rozpuszcza się w roztworach ługu tworząc cynkany (pochodne kwasu cynkowego):", "lub w formie nieuwodnionej: \\( \\ce{Na_2ZnO_2} \\).", "Kadm spala się w powietrzu, tworząc bezpostaciowy brązowy tlenek kadmu \\( \\ce{CdO} \\). Reaguje z kwasami tworząc odpowiednie sole i wypierając wodór:", "Rtęć jest pierwiastkiem odpornym chemicznie. Nie reaguje z kwasami beztlenowymi i rozcieńczonymi tlenowymi. Reaguje z kwasem azotowym (V), stężonym siarkowym (VI) i wodą królewską. Rozcieńczony kwas azotowy z nadmiarem rtęci daje azotan rtęci (I):", "Rtęć reaguje z siarką, dlatego też siarka jest używana do pochłaniania rtęci w przypadku rozlania.", "\\( ZnO \\) tlenek cynku (biel cynkowa) – stosowany jako dodatek do farb i lakierów oraz jako wypełniacz i stabilizator gumy i tworzyw sztucznych. \\( \\ce{CdO} \\) tlenek kadmu - używany do produkcji elektrod w bateriach niklowo-kadmowych [6]. \\( CdS \\) siarczek kadmu – żółta farba malarska, jako fotoprzewodząca powłoka powierzchniowa w bębnach do fotokopiarek [5]. \\( CdSe \\) selenek kadmu – stosowany jako czerwony pigment.", "Rtęć w związkach występuje na +1 i +2 stopniu utlenienia. Większość związków rtęci (I) zawiera dimeryczny kation \\( \\ce{Hg_2^{2+}} \\) z wiązaniem metal–metal. \\( Hg_2Cl_2 \\) chlorek rtęci (I) (kalomel) – stosowany jest w lecznictwie, do wyrobu elektrod, jako środek ochrony roślin [6]. Głównym stopniem utlenienia rtęci w przyrodzie jest Hg (II). Wszystkie cztery chalogenki rtęci są znane. Najpopularniejszy \\( HgCl_2 \\) chlorek rtęci (II) – służy jako katalizator w syntezie organicznej, w metalurgii oraz jako środek dezynfekujący. Znane są również związki rtęci z tlenowcami. Najważniejszy z nich \\( \\ce{HgS} \\) siarczek rtęci (II) jest stosowany jako pigment. \\( \\ce{HgO} \\) tlenek rtęci (II) stosowany jako lek przeciwbakteryjny i przeciw pasożytniczy w dermatologii i okulistyce. \\( \\ce{HgSe} \\) selenek rtęci (II) i \\( \\ce{HgTe} \\) tellurek rtęci (II) oraz ich pochodne znane jako półprzewodniki przydatne jako materiały do detektorów podczerwieni. Sole Hg (II) tworzą z amoniakiem różnorodne związki kompleksowe, np. \\( \\ce{[Hg(NH_3)_2]Cl_2} \\) chlorek diamina rtęci (II) znany jako \"topliwy osad\" [7]; \\( \\ce{K_2[HgI_4]} \\) tetrajodortęcian (II) potasu stosowany jako odczynnik chemiczny (odczynnik Nesslera) do wykrywania jonów amonowych lub do wykrywania aldehydów i ketonów jako zanieczyszczeń eteru dietylowego. \\( Hg(CNO)_2 \\) piorunian rtęci – ma zastosowanie do wyrobu spłonek i detonatorów."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1426, "subject": "Pierwiastki bloku p", "paragraphs": ["Blok p układu okresowego ( Rys. 1 ) stanowią pierwiastki grup 13-18 (oprócz helu), których elektrony walencyjne opisane są funkcją falową nazywaną orbitalem typu p. Są to:", "Orbital p może opisywać maksymalnie sześć elektronów, więc pierwiastki bloku p mają ogólną konfigurację elektronową od \\( ns^2np^1 \\) do \\( ns^2np^6 \\). Wśród pierwiastków należących do bloku p znajdują się zarówno metale, półmetale (metaloidy), jak i pierwiastki niemetaliczne. Ogólne właściwości metali zostały omówione w rozdziale opisującym Pierwiastki bloku s.", "Niemetale Niemetale, w przeciwieństwie do metali, nie wykazują wyraźnych cech charakterystycznych. Należą do nich: wodór, węgiel, azot, fosfor, tlen, siarka, selen, wszystkie halogeny (fluor, chlor, brom, jod i astat) oraz gazy szlachetne (neon, argon, krypton, ksenon). Większość niemetali, w normalnych warunkach, występuje w postaci gazowej, brom jest cieczą, natomiast węgiel, fosfor, siarka, selen, jod i astat są ciałami stałymi o niskiej gęstości. Niemetale występujące w postaci gazowej (z wyjątkiem pierwiastków grupy 18-tej), a także ciekły brom i stały jod występują w postaci cząsteczek dwuatomowych ( Rys. 2 ).", "Metaloidy Metaloidy, zwane również półmetalami, to pierwiastki chemiczne o właściwościach pośrednich między metalicznymi i niemetalicznymi. Należą do nich: antymon, arsen, bor, glin, german, krzem i tellur. Metaloidy, tak jak metale, mają błyszczącą powierzchnię w stanie stałym i wysoką temperaturę topnienia. Chociaż wykazują gorszą przewodność elektryczną i cieplną typową dla metali, to jednak wyższą niż dla niemetali i dlatego są stosowane w materiałach półprzewodnikowych. Ich właściwości chemiczne są również pośrednie. Z jednej strony wykazują szereg cech niemetali (np. tworzą dość mocne kwasy nieorganiczne), z drugiej – posiadają szereg cech charakterystycznych dla metali (dodatni stopień utlenienia, skłonność do tworzenia raczej zasad, niż kwasów oraz zdolność do tworzenia związków kompleksowych) ( Rys. 3 ).", "Podsumowując, niemetale wykazują następujące cechy:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1403, "subject": "Borowce", "paragraphs": ["Borowce to pierwiastki 13 grupy układu okresowego ( Rys. 1 ). Zaliczamy do niej bor, glin, gal, ind, tal oraz nihon.", "Bor występuje w skorupie ziemskiej w postaci minerałów, głównie boranów. Najczęściej spotykanym związkiem jest boraks \\( Na_2B_4O_7 \\) lub kwas borowy \\( H_3BO_3 \\), który występuje w wulkanicznych wodach źródłowych [1]. Glin jest najbardziej rozpowszechnionym metalem w skorupie ziemskiej. Występuje w postaci glinokrzemianów, takich jak kaolinit \\( [Al_4(OH)_8][Si_4O_{10}] \\), sylimanit \\( Al_2SiO_5 \\), ortoklaz \\( K[AlSi_3O_8] \\) itp.; a także w kriolicie \\( Na_3[AlF_6] \\), gibbsycie \\( Al(OH)_3 \\), granicie, bazalcie (skały magmowe) oraz korundzie \\( Al_2O_3 \\) (rubin, szafir). Gal występuje w ilościach śladowych w boksycie, kaolinicie i rudach cynku. Ind oraz tal występują w niewielkich ilościach w minerałach zawierających cynk, żelazo, ołów i miedź. Własne minerały talu: lorandyt \\( TlAsS_2 \\), hutchinsonit \\( (Tl, Ag)_2Pb(AsS_2)_4 \\) są rzadkie. Nihon jest pierwiastkiem syntetycznym [2].", "Bor otrzymuje się przez redukcję tlenku boru magnezem [3]:", "Kolejnym sposobem otrzymywania boru jest redukcja chlorku lub bromku boru wodorem w łuku elektrycznym [4]:", "oraz rozkład termiczny jodku boru w temperaturze 1100-1300 K:", "Glin otrzymuje się metodą Halla z rudy boksytowej, po wstępnej przeróbce do \\( \\ce{Al_2O_3} \\), a następnie poprzez jego elektrolizę w stopionym kriolicie \\( \\ce{Na_3AlF_3} \\). Na Rys. 2 przedstawiono aparaturę do elektrochemicznej produkcji glinu, która zawiera serię węglowych anod. Katodę natomiast stanowią węglowe wykładziny, którymi wyłożona jest wanna elektrolityczna [3].", "Na katodzie otrzymuje się ciekły metal, a na anodzie tlen: K: \\( \\ce{4Al^{3+} + 12e^- \\rightarrow 4Al} \\) A: \\( \\ce{6O^{2-} - 12e^- \\rightarrow 3O_2} \\) Gazowy tlen reaguje z materiałem anody, co daje reakcję wtórną: \\( \\ce{3O_2 + 4C \\rightarrow 2CO + 2CO_2} \\).", "Gal na skalę przemysłową otrzymuje się z boksytu jako produkt uboczny przy produkcji cynku i aluminium. Ind otrzymuje się przez redukcje tlenku indu wodorem lub przez elektrolizę roztworu soli indu. Tal otrzymuje się jako produkt uboczny przy przeróbce pirytów, metaliczny powstaje w wyniku elektrolizy stopionego TlCl, czy węglik krzemu [5].", "Właściwości fizyczne borowców zostały zebrane w Tabela 1.", "Bor jest jedynym niemetalem w 13 grupie układu okresowego. Posiada wiele odmian alotropowych. Odmiany amorficzne w postaci brązowego proszku lub czarnego szkliwa oraz krystaliczne czarne o wysokiej twardości (9 w skali Mohsa) kryształy odporne chemicznie [1]. Ma silną tendencję do tworzenia wiązań kowalencyjnych. Jego wyjątkowo złożona chemia strukturalna wynika z konfiguracji elektronowej powłoki walencyjnej \\( 2s^2 2p^1 \\), która daje o jeden elektron walencyjny mniej, niż liczba orbitali w powłoce walencyjnej. Proste związki takie jak \\( BCl_3 \\) mają niepełny oktet elektronowy i są silnymi kwasami Lewisa [3]. Bor kompensuje sobie niedobór elektronów tworząc klastry z wiązaniem wielocentrowym [6].", "Pozostałe pierwiastki grupy 13 są metalami. Glin jest kowalnym, ciągliwym, dającym się łatwo rozwalcować srebrzystym metalem. Posiada bardzo duże powinowactwo do tlenu, w związku z czym utlenia się na powietrzu, ulegając pasywacji. Czysty glin ma słabą odporność mechaniczną, dlatego wprowadza się dodatki stopowe, aby ją poprawić.", "Gal jest twardym i kruchym metalem o kolorze srebrzystobiałym. Topi się w temperaturze 29,76 \\( ^oC \\) i trzymany w dłoni zamienia się w ciecz (zob. Właściwości fizykochemiczne galu ). Ind i tal są plastycznymi, srebrzystymi metalami. Są tak miękkie, że można kroić je nożem. Gal jest metalem nietoksycznym, ale też nie pełni żadnej funkcji biologicznej. Ind podobnie jak cyna podczas zginania wydaje trzaski spowodowane łączeniem kryształów [7].", "Tal z wyglądu przypomina ołów. Ma niską temperaturę topnienia i matowieje na powietrzu do niebiesko-szarego tlenku. Zarówno tal pierwiastkowy, jak i jego związki są wysoce toksyczne i należy unikać bezpośredniego kontaktu ze skórą. Charakterystycznym objawem zatrucia jest łysienie poprzedzone czernieniem mieszków włosowych [8].", "Nihon jest najcięższym pierwiastkiem 13 grupy, o właściwościach silnie radioaktywnych, badania nad jego właściwościami trwają [9].", "Bor jest pierwiastkiem mało aktywnym chemicznie. Nie działa na niego wrzący kwas solny i fluorowodorowy, natomiast rozpuszcza się w gorącym stężonym kwasie azotowym przechodząc w kwas ortoborowy. Pod względem chemicznym przypomina węgiel i krzem, gdyż tworzy borowodory – analogi do węglowodorów i krzemowodorów. Borowodory o ogólnych wzorach: \\( B_nH_{n+4} \\) lub \\( B_nH_{n+6} \\) są substancjami toksycznymi, o nieprzyjemnym zapachu. Diboran \\( B_2H_6 \\) i tetraboran \\( B_4H_{10} \\) są łatwopalnymi gazami. Diboran samorzutnie zapala się w powietrzu wydzielając dwukrotnie więcej ciepła, niż spalanie takiej samej masy węglowodorów [10]. Bor z metalami tworzy borki \\( M_nB_m \\), które charakteryzują się dużą odpornością na czynniki chemiczne, wysokimi temperaturami topnienia (na ogół powyżej 2300 K), a w niektórych przypadkach także dobrym przewodnictwem elektrycznym.", "Glin (aluminium) na powietrzu szybko utlenia się tworząc na powierzchni warstwę pasywną \\( Al_2O_3 \\). Pomimo, że posiada bardzo niski potencjał standardowy, nie ulega korozji atmosferycznej. W postaci pyłu po podgrzaniu wykazuje silne właściwości piroforyczne (ulega samozapaleniu). Spala się bardzo intensywnym białym płomieniem z wydzieleniem dużej ilości energii. Reaguje z rozcieńczonymi kwasami wypierając wodór:", "W reakcji ze stężonym kwasem \\( \\ce{H_2SO_4} \\) i \\( \\ce{HNO_3} \\), czyli w reakcji z kwasami utleniającymi powstaje pasywna warstewka tlenku glinu.", "Jeżeli do reakcji użyjemy gorących kwasów, warstwa pasywna zostaje rozpuszczona i reakcja przebiegnie zgodnie z równaniem ( 5 ). Glin ma właściwości amfoteryczne, roztwarza się w mocnych zasadach :", "Glin wykazuje bardzo duże powinowactwo do tlenu, do tego stopnia, że metaliczny glin łączy się również z tlenem zawartym w tlenkach wielu metali. Mieszanina sproszkowanego glinu z tlenkiem żelaza (tzw. termit), po zapoczątkowaniu reakcji za pomocą lokalnego podgrzania wydziela tak duże ilości ciepła, że wytwarzane w tych warunkach wolne żelazo ulega stopieniu:", "Gal podobnie jak glin jest amfoteryczny i roztwarza się zarówno w kwasach, jak i zasadach.", "Gal reaguje z tlenem, tworząc tlenek \\( Ga_2O_3 \\), dopiero w wyższych temperaturach. Gal z innymi metalami tworzy spontaniczne stopy, dlatego przechowuje się go w pojemnikach polietylenowych. Gal i ind tworzą związki na +3 i +1 stopniu utlenienia, jednak te ostatnie nie są stabilne w roztworach wodnych [11]. Ind i tal nie mają właściwości amfoterycznych, roztwarzają się tylko w kwasach, przy czym tal przechodzi na +1 stopnień utlenienia:", "Ind reaguje z wodą dając nierozpuszczalny \\( In(OH)_3 \\), który jest amfoteryczny. Tal w przeciwieństwie do pozostałych metali 13 grupy tworzy stabilne związki zarówno na +1 jak i +3 stopniu utlenienia [11]. Ogrzewany tal ulega działaniu tlenu i powstaje mieszanina tlenków \\( Tl_2O \\) i \\( Tl_2O_3 \\). Chemia talu to głównie układy redoks \\( Tl(I) \\leftrightarrow Tl(III) \\).", "\\( \\ce{Na_2B_4O_7} \\) boraks – znalazł zastosowanie przy wyrobie szkła jako dodatek do masy szklanej, do wyrobu szkliw i emalii. \\( \\ce{H_3BO_3} \\) kwas ortoborowy – zwany potocznie kwasem bornym – służy do produkcji boraksu, jako nawóz oraz lekki środek dezynfekujący. W przemyśle spożywczym stosowany jako środek konserwujący. \\( \\ce{B_nH_{n+4}} \\) lub \\( \\ce{B_nH_{n+6}} \\) borany (borowodory) – dawniej stosowane jako paliwo rakietowe, zaniechane z powodu trujących produktów reakcji. Cechą charakterystyczną boranów jest duża liczba reakcji, w których jedne borany przechodzą w drugie. Pozwala to na zbudowanie chemii boranów, gdzie produktem wyjściowym jest \\( \\ce{B_2O_6} \\). Spośród halogenków boru największe znaczenie ma fluorek \\( \\ce{BF_3} \\). Stanowi on ważny katalizator w reakcjach polimeryzacji związków organicznych. W wysokich temperaturach bor z metalami tworzy borki. Borki metali wykazują dużą odporność na czynniki chemiczne, wysokie temperatury topnienia, charakteryzują się również dobrym przewodnictwem elektrycznym. Znalazły zatem zastosowanie do wyrobu elektrod pracujących w wysokich temperaturach i do budowy dysz do rakiet [4]. \\( \\ce{Al_2O_3} \\) trójtlenek glinu (alumina) – występuje w dwóch odmianach:", "Tlenek glinu z bardzo rozwiniętą powierzchnią jest stosowany jako nośnik katalizatora [11]. \\( \\ce{AlCl_3} \\) chlorek glinu – stosowany jako katalizator w wielu syntezach organicznych [11]. \\( \\ce{Al(OH)_3} \\) wodorotlenek glinu – stosowany jako środek zobojętniający kwas, znajduje zastosowanie w uzdatnianiu wody do picia, produkcji szkła i ceramiki oraz do impregnacji tkanin. \\( \\ce{LiAlH_4} \\) tetrahydroglinian litu – silny środek redukujący w chemii organicznej. Glinokrzemiany – stosowane do produkcji ceramiki. \\( \\ce{GaAs} \\) arsenek galu – drugi po krzemie najczęściej stosowany materiał w mikro- i optoelektronice oraz technice mikrofalowej. Procesory oparte na \\( GaAs \\) mogą pracować z częstotliwościami przekraczającymi 250 GHz. Sole galu takie jak azotan \\( \\ce{Ga(NO_3)_3} \\), cytrynian galu, czy maltolan galu pełnią rolę markerów chorobowych, są stosowane w terapii nowotworowej lub jako leki w chorobach zakaźnych [13]. Związki indu na +1 stopniu utlenienia nie są powszechne. Znane są halogenki indu (I), które są barwne, jedynie InF fluorek indu jest niestabilnym gazem. Tlenek indu (III) jest amfoteryczny. Znane są również organiczne związki indu, jak \\( \\ce{(CH_3)_3In} \\) trimetyloind stosowany do wytwarzania materiałów półprzewodnikowych. Związki talu na +3 stopniu utlenienia nie są stabilne. Znane są związki o mieszanej wartościowości, takie jak \\( \\ce{Tl_4O_3} \\) i \\( \\ce{Tl_2Cl_4} \\), które zawierają tal zarówno na +1 jak i +3 stopniu utlenienia. Związki talu na +1 stopniu utlenienia wykazują się stabilnością. \\( \\ce{Tl_2SO_4} \\) siarczan talu był używany jako zabójca gryzoni i mrówek, ponieważ jest bezwonny i bez smaku. Jednak używanie produktu jest zabronione ze względu na wysoką toksyczność. \\( \\ce{TlBr} \\) bromek talu i \\( \\ce{TlI} \\) jodek talu są stosowane jako materiały optyczne na podczerwień. \\( \\ce{Tl_2O} \\) tlenek talu jest używany do produkcji szkieł o wysokim współczynniku załamania światła."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1404, "subject": "Węglowce", "paragraphs": ["Do grupy węglowców zaliczamy pierwiastki grupy 14 układu okresowego: węgiel, krzem, german, cynę, ołów i flerow (zob. najważniejsze dane charakteryzujące węglowce w Tabela 1 ).", "Ze względu na wyjątkowość dwóch pierwszych przedstawicieli tej grupy: węgla i krzemu, zostaną one omówione w osobnych rozdziałach (zob. Węgiel i Krzem ). Pozostałym węglowcom zostanie poświęcony dodatkowy rozdział (zob. Inne węglowce )."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1405, "subject": "Węgiel", "paragraphs": ["Węgiel ( Rys. 1 ) występuje w przyrodzie przede wszystkim w postaci tlenku węgla (IV) CO2 (0,03 \\( \\% \\) objętościowych powietrza). W litosferze można go znaleźć pod postacią węglanów takich, jak: \\( CaCO_3 \\) (wapień, marmur, kreda), magnezyt \\( MgCO_3 \\), dolomit \\( CaCO_3·MgCO_3 \\), czy syderyt \\( FeCO_3 \\). Jednakże przede wszystkim węgiel jest głównym budulcem całej materii ożywionej oraz w złożach pochodzenia biologicznego: węgiel kamienny, ropa naftowa, gaz ziemny. W stanie wolnym występuje w niewielkich ilościach w postaci grafitu i diamentu.", "Węgiel znany jest od starożytności. Prawie do końca XX wieku znane były jego dwie podstawowe odmiany alotropowe: grafit i diament.", "Grafit jest zbudowany z płaszczyzn składających się z połączonych ze sobą pierścieni benzenowych. Ponieważ w benzenie występują zdelokalizowane elektrony, mogą one przemieszczać się po całej płaszczyźnie grafitu – z czego wynika zjawisko przewodzenia prądu elektrycznego. Płaszczyzny połączonych pierścieni benzenowych są od siebie odsunięte, mogą się względem siebie przesuwać co sprawia, że grafit jest kruchy.", "Diament ma budowę przestrzenną, zbudowany jest z połączonych ze sobą pierścieni cykloheksanu o strukturze krzesełkowej, co sprawia, że jest jedną z najtwardszych, znanych nam substancji. Brak wolnych elektronów, które mogłyby być nośnikami ładunku, powoduje, że diament jest izolatorem – nie przewodzi prądu. Rys. 2 i Rys. 3 przedstawiają struktury benzenu, cykloheksanu oraz modele kulkowe grafitu i diamentu.", "W roku 1985 odkryto nową przestrzenną odmianę alotropową węgla – fuleren, przestrzenną bryłę składającą się 60 atomów węgla [1]. Niedługo później odkryto nanorurki węglowe oraz nanorurki wielościenne – podłużne struktury o bardzo interesujących właściwościach [2]. Wiek XXI to cała seria odkryć nowych form węgla. W roku 2004 stwierdzono, że pojedyncza warstwa grafitu – grafen – ma specyficzne właściwości, przewodzi prąd tak, jak grafit, a jednocześnie jest elastyczna [3]. Kilka lat później zsyntezowano, wykryty wcześniej w meteorytach i pyle międzygwiezdnym, opisany teoretycznie, karbin – łańcuch składający się atomów węgla połączonych wiązaniami wielokrotnymi (=C=C=C=) lub (–C \\( \\ce{\\bond{#}} \\)C–C \\( \\ce{\\bond{#}} \\)C–), co pozwala na poruszanie się elektronów wzdłuż łańcucha, czyli przewodzenie. Ponadto karbin może być skręcany podobnie, jak nici DNA, co daje bardzo ciekawe perspektywy zastosowania go jako sztucznych tkanek [4]. Ostatnio odkrytą odmianą alotropową węgla jest karbon C18 – 18-to atomowa cykliczna struktura, która ma właściwości półprzewodnikowe [5]. Rys. 4 przedstawia historię odkryć odmian alotropowych węgla.", "Węgiel pierwiastkowy jest stosunkowo nieaktywny w warunkach pokojowych. W standardowej temperaturze i pod standardowym ciśnieniem jest odporny na wszystkie najsilniejsze utleniacze. W podwyższonych temperaturach reaguje z tlenem z powietrza, tworząc tlenki. Reaguje również z tlenkami metali powodując ich redukcję do pierwiastkowego metalu. Ta egzotermiczna reakcja jest stosowana w przemyśle metalurgicznym:", "Chemia związków węgla to ogromna, liczona w milionach, liczba odkrytych i zsyntezowanych związków organicznych. Ich podział został omówiony w podręcznikach Chemia ogólna oraz Podstawy chemii polimerów. Z każdym rokiem ich liczba rośnie, ponieważ wciąż są syntezowane nowe związki.", "Poniżej przedstawiono najważniejsze związki nieorganiczne węgla. \\( CO \\) tlenek węgla (II), czad – bezwonny, bezbarwny, palny, silnie trujący gaz (w hemoglobinie zajmuje miejsce cząsteczki tlenu). Węgiel stosowany jest w metalurgii jako reduktor:", "W obecności węgla aktywnego, jako katalizatora, tworzy fosgen – duszący gaz bojowy, zastosowany po raz pierwszy w czasie I wojny światowej:", "Mieszanina \\( CO \\) i \\( H_2 \\) jest surowcem wyjściowym do produkcji syntetycznej benzyny. \\( CO \\) jako ligand tworzy kompleksowe karbonylki \\( M_1[M_2(CO)_n] \\)", "\\( CO_2 \\) tlenek węgla (IV), dwutlenek węgla – bezbarwny, bezwonny, niepalny gaz, gaz cieplarniany, który zatrzymuje przy powierzchni ziemi część ciepła docierającego ze Słońca, dzięki czemu możliwy jest rozwój fauny i flory. Nadmiar \\( CO2 \\) w atmosferze ziemskiej, wytwarzany poprzez zintensyfikowaną działalność człowieka (przemysł, rolnictwo), powoduje globalne ocieplenie, czyli nasilenie efektu cieplarnianego. \\( CO_2 \\) w reakcji z wodą tworzy słaby kwas węglowy:", "\\( CO_2 + H_2O \\rightarrow H_2CO_3 \\)", "\\( M_2(CO_3)n \\) węglany – najczęściej spotykane minerały (wapienie, dolomity). \\( M(HO_3)n \\) wodorowęglany – sole mineralne powodujące twardość wody, nadające przyjemny smak wodzie mineralnej. \\( CS_2 \\) dwusiarczek węgla – substrat w syntezie CCl4, oraz sztucznego jedwabiu. \\( HCN \\) cyjanowodór (kwas pruski) bardzo toksyczny gaz, składnik migdałów, ziemia okrzemkowa nasycona cyjanowodorem – Cyklon B był używany w hitlerowskich obozach koncentracyjnych do uśmiercania więźniów. \\( NaCN \\) cyjanek sodu stosowany w ekstrakcji złota i srebra oraz galwanotechnice (powstają kompleksowe cyjanki metali ciężkich). \\( SiC \\) węglik krzemu (karborund) o twardości zbliżonej do diamentu stosuje się jako materiał szlifierski. \\( TiC \\) węglik tytanu (II) stosuje się do pokrywania ostrzy do skrawania metali. \\( WC \\) węglik wolframu ma najwyższą (6000 °C) temperaturę wrzenia spośród znanych związków, wykazuje bardzo wysoką twardość, używa się go w narzędziach tnących, pociskach, wygładzarkach i łożyskach, jako tańszą i bardziej odporną na działanie temperatury alternatywę diamentu."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1427, "subject": "Krzem", "paragraphs": ["Krzem ( Rys. 1 ) jest drugim, po tlenie co do częstości występowania, pierwiastkiem w przyrodzie. Jego zawartość w litosferze wynosi 27,7 \\( \\% \\). Występuje najczęściej w postaci glinokrzemianów: kaolinitu \\( [Al_4(OH)_8][Si_4O_{10}] \\), silimanitu \\( Al_2SiO_5 \\), albitu \\( Na[AlSi_3O_8] \\), ortoklazu \\( K[AlSi_3O_8] \\), a także w postaci tlenku krzemu (IV) \\( SiO_2 \\) – krzemionki (piasku) oraz kwarcu. Wiele kamieni szlachetnych i półszlachetnych składa się głównie z tlenku krzemu (IV), są to: agat, ametyst, jaspis, krzemień, krzemień pasiasty – minerał występujący wyłącznie na terenie Polski, kryształ górski, karneol, morion, onyks i opal.", "Przemysłowo krzem najczęściej otrzymuje się poprzez redukcję tlenku krzemu węglem:", "Monokrystaliczny krzem pierwiastkowy, o wysokiej czystości otrzymuje się metodą Czochralskiego. Otrzymywanie monokryształu ( Rys. 2 ) polega na stopieniu kawałków krzemu, a następnie powolnym i stopniowym wyciąganiu z roztopionego materiału zarodka krystalicznego, w sposób zapewniający kontrolowaną i stabilną krystalizację na jego powierzchni. Uzyskany w ten sposób monokryształ ma taką samą orientację krystalograficzną, jak zarodek krystalizacji.", "Krzem elementarny tworzy szaroczarne, silnie błyszczące kryształy, podobne w strukturze do grafitu. Wykazuje własności półprzewodnikowe. Półprzewodniki krzemowe domieszkuje się atomami pierwiastków o wyższej lub niższej wartościowości niż Si, poziom domieszkowania wynosi ok. 1 atom domieszki na 100 000 atomów krzemu. W przypadku wprowadzenia do sieci krystalicznej Si pierwiastka o wyższej wartościowości, np. As lub P, nadmiarowe elektrony przemieszczają się po sieci krystalicznej. Półprzewodnik taki nazywamy półprzewodnikiem typu n (półprzewodnik elektronowy). W przypadku domieszkowania pierwiastkiem o niższej wartościowości, np. B, który ma tylko 3 elektrony, brakuje jednego elektronu do utworzenia wiązań ze wszystkimi sąsiednimi atomami krzemu. Powstaje wtedy luka elektronowa, którą może zapełnić elektron przeskakując z atomu Si z czterema wiązaniami. Luka (dziura) elektronowa \"wędruje\" dalej po krysztale Si. Takie przewodnictwo nazywamy przewodnictwem typu p (dziurowym). Rys. 3 prezentuje obydwa rodzaje przewodzenia.", "Krzem, podobnie jak węgiel, tworzy łańcuchy -Si-Si-, -Si-O-Si- oraz -Si-N-Si. Istnieje dość liczna (około 300 tys.) grupa takich związków.", "W temperaturze pokojowej krzem jest obojętny, wiąże się tylko z fluorem. W wyższych temperaturach reaguje z wieloma metalami – azotem, chlorem i tlenem atmosferycznym – tworząc z nim warstewkę dwutlenku krzemu (krzemionki). Jest praktycznie nierozpuszczalny we wszystkich kwasach. Wyjątek stanowi tu tylko mieszanina kwasu azotowego i fluorowodorowego. Łatwo rozpuszcza się w gorących ługach tworząc krzemiany.", "\\( SiO_2 \\) – tlenek krzemu (IV), kwarc, stosowany przy produkcji materiałów ściernych, w przemyśle ceramicznym, szklarskim ( Rys. 5 ), budowlanym, optycznym, w elektronice (piezokwarc, wyświetlacz ciekłokrystaliczny), do wyrobu detergentów, farb, pasty do zębów, kamieni ozdobnych. Amorficzny przechłodzony ciekły \\( SiO_2 \\) tworzy szkło.", "\\( SiC \\) – węglik krzemu, zwany karborundem ze względu na swoją twardość, która zawiera się pomiędzy twardością diamentu i korundu ( \\( Al_2O_3 \\)). Oprócz wytwarzania papierów ściernych o różnej gradacji, stosowany jest do pokrywania powierzchni ciernych pracujących w wysokich temperaturach (powierzchni bocznych cylindrów silników, osłon termicznych w pojazdach kosmicznych itp.). W czystej postaci (moissanit) jest niekiedy wykorzystywany do produkcji biżuterii jako kamień ozdobny. Jednym z najnowszych zastosowań węgliku krzemu jest produkcja tranzystorów mikrofalowych [1]. \\( H_{2n}Si_mO_{2m+n} \\) kwasy krzemowe i ich sole – krzemiany.", "Krzemiany stanowią ponad 90 \\( \\% \\) skał tworzących skorupę ziemską, w przyrodzie występuje około pięciuset minerałów z tej grupy. Są to krystaliczne lub amorficzne związki składające się z głównie z krzemu i tlenu. Głównym motywem strukturalnym krzemianów są tetraedry zbudowane z atomu Si znajdującego się w środku i otoczonego czterema atomami O umieszczonymi na wierzchołkach. Czworościany utworzone przez \\( SiO_4 \\) mogą łączyć się narożami. Powstają w ten sposób łańcuchy ( Rys. 6 ), które wiążą kationy metali przez zneutralizowanie ładunków elektrycznych.", "Złożoność struktur tetraedrycznych zależy głównie od temperatury, w jakiej powstaje minerał. W wysokiej temperaturze tworzą się izolowane czworościany (oliwiny) lub krótkie łańcuchy. W miarę spadku temperatury tworzy trójwymiarowy szkielet (kwarc). Występuje możliwość zastępowania atomów krzemu przez atomy glinu. Takie krzemiany noszą nazwę glinokrzemianów."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1406, "subject": "Inne węglowce", "paragraphs": ["Do węglowców, oprócz opisanych w innych rozdziałach (zob. Węgiel i Krzem ), zaliczamy german, cynę i ołów ( Rys. 1 ).", "Rys. 2 pokazuje przedstawia węglowce w ich postaciach metalicznych.", "German występuje jako domieszka w niektórych gatunkach węgla kamiennego. Podstawową rudą germanu jest germanit \\( Cu_3(Ge, Fe)S_4 \\). Cyna występuje w postaci kasyterytu \\( SnO_2 \\). Ołów posiada kilka znaczących minerałów: \\( PbS \\) (galena), \\( PbCO_2 \\) (cerusyt), \\( PbCrO_4 \\) (krokoit) oraz \\( PbSO_4 \\) (anglezyt).", "Współcześnie ołów jest otrzymywany z dwóch źródeł:", "Pierwszym etapem podczas pozyskiwania ołowiu z rud jest ich rozkruszenie i segregacja na zasadzie flotacji. Następnie rudy ołowiu są prażone w wysokich temperaturach do uzyskania tlenku ołowiu:", "Następnie utleniony ołów redukowany jest w piecu koksowym:", "Ostatnim etapem jest oczyszczanie uzyskanego metalu z zanieczyszczeń przez ich utlenienie podczas wytapiania.", "German – niektóre jego związki, fluorki i arsenki, wykazują własności półprzewodnikowe i elektro-luminescencyjne. Cyna posiada dwie odmiany alotropowe:", "Obydwie odmiany ( Rys. 3 ) różnią się znacznie gęstością. Powoduje to, że znaczne schłodzenie tego metalu objawia się rozpadem metalicznej cyny białej w szary proszek. Zjawisko to określane jest zarazą cynową.", "Ołów to miękki, plastyczny metal o barwie szarej. Jego związki są trujące. Na powietrzu pasywuje się i pokrywa tlenkiem.", "Metaliczny ołów pochłania promieniowanie rentgenowskie oraz promieniowanie gamma.", "\\( Ge_3N_2 \\) azotek germanu – półprzewodnik, obecnie rzadko stosowany. \\( Pb_3O_4 (PbO_2⋅2PbO) \\) minia ołowiana, tlenek diołowiu (II) i ołowiu (IV), pigment o barwie pomarańczowo-czerwonej stosowany w zabezpieczeniach antykorozyjnych ( Rys. 4 ), do kitów uszczelniających oraz w hutnictwie szkła.", "\\( Pb(N_3)_2 \\) azotek ołowiu – detonator. \\( Pb(C_2H_5)_4 \\) tetraetyloołów – środek przeciwstukowy w benzynach silnikowych, obecnie wycofany ( Rys. 5 ).", "\\( PbS \\)siarczek ołowiu (II) – półprzewodnik, fotoprzewodnik, niezwykle czuły wykrywacz promieniowania podczerwonego."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1408, "subject": "Azotowce (Azot)", "paragraphs": ["Azot to pierwszy pierwiastek grupy 15 układu okresowego ( Rys. 1 i Tabela 1 ).", "Azot jest głównym składnikiem atmosfery ziemskiej. W postaci gazowej \\( N_2 \\) stanowi 78,09 \\( \\% \\) objętościowych powietrza. W postaci związków, zwłaszcza organicznych, występuje przeważnie w organizmach żywych.", "Czysty azot, w postaci ciekłej, otrzymuje się przez frakcjonowaną destylację skroplonego powietrza. Polega ona na sprężeniu powietrza do ciśnienia ok. 6,5 atm., oczyszczaniu go z dwutlenku węgla, węglowodorów, wody i innych zanieczyszczeń. Mieszanka pozostałych gazów jest schładzana do temperatury poniżej \\( 466K (193^oC) \\). Po skropleniu mieszanina rozdzielana jest metodą destylacji na tlen, azot, argon i inne gazy szlachetne.", "Azot w warunkach standardowych jest bezbarwnym, bezwonnym, niepalnym gazem. Po raz pierwszy został skroplony w roku1883 przez dwóch profesorów Uniwersytetu Jagiellońskiego – Zygmunta Wróblewskiego i Karola Olszewskiego. Azot występuje w postaci dwuatomowych cząsteczek z potrójnym wiązaniem kowalencyjnym N≡N ( Rys. 2 ).", "\\( NH_3 \\) amoniak – jest substratem do produkcji nawozów sztucznych, materiałów wybuchowych, cyjanowodoru, tkanin syntetycznych i wielu tworzyw sztucznych. Amoniak produkuje się na szeroką skalę przemysłową metodą Habera-Boscha. Substratami są gazowy wodór i azot w obecności katalizatora:", "Głównym składnikiem katalizatora do produkcji amoniaku jest magnetyt \\( Fe_3O_4 \\), promotory zapewniające wysoką termostabilność i wytrzymałość mechaniczną katalizatora ( \\( K_2O, Al_2O_3, MgO, CaO, SiO_2 \\)) oraz metaliczne żelazo. W ostatnich latach opracowano elektrochemiczną metodę otrzymywania amoniaku:", "Energia zużywana w tym procesie jest o około 20 \\( \\% \\) mniejsza niż w procesie Habera-Boscha [1].", "\\( N_2O \\) tlenek azotu (I) (podtlenek azotu) – gaz rozweselający, dawniej stosowany jako środek usypiający, obecnie środek znieczulający w dentystyce, konserwujący dodatek do żywności E-942 (chipsy), rozpuszczalny w tłuszczach, dzięki czemu jest wykorzystywany do tworzenia piany (bitej śmietany w spray'u), stosowany w tuningu samochodowym – wtryskiwany do cylindrów zamiast tlenu, gwałtownie zwiększa szybkość spalania mieszanki. \\( NO \\) tlenek azotu (II) – jest produkowany w organizmach ssaków, ze względu na niewielkie rozmiary cząsteczki i lipofilowość (łatwość łączenia z lipidami – tłuszczami), łatwo przenika przez błony biologiczne bez pośrednictwa układów transportujących, reguluje napięcia naczyń krwionośnych i ciśnienie tętnicze krwi, hamuje agregację płytek krwi i leukocytów, pełni funkcję neuromodulatora w ośrodkowym układzie nerwowym (np. wpływa na pamięć), działa jak neurotransmiter i wpływa na motorykę przewodu pokarmowego, funkcje neuroendokrynne i lokalny przepływ krwi oraz ma wpływ na wiele mechanizmów immunologicznych. Badania z roku 2020 sugerują, że wytwarzanie tlenku azotu (II), które zachodzi podczas wdychania powietrza przez nos, pomaga zwalczać zakażenie koronawirusem, blokując jego replikację w płucach [2], [3], [4].", "\\( NaNO_2, KNO_2 \\) azotany (III) sodu i potasu są stosowane między innymi do diazowania – produkcji barwników oraz do konserwacji żywności.", "\\( HNO_3 \\) kwas azotowy (V) silny utleniacz, w mieszaninie z kwasem solnym (w stosunku 1:3) tworzy wodę królewską, roztwarzającą większość metali, także szlachetnych. Z kwasu azotowego (V) otrzymuje się sole azotany (nawozy sztuczne), estry (np. nitrogliceryna), związki nitrowe (barwniki), lakiery, tworzywa sztuczne. Służy do wykrywania białek w chemii analitycznej na drodze reakcji ksantoproteinowej, jest stosowany w przemyśle farmaceutycznym do syntezy wielu leków, do oczyszczania powierzchni metali w przemyśle spożywczym (do czyszczenia aparatów i urządzeń ze stali kwasoodpornej), trawienia obwodów drukowanych. Na skalę techniczną kwas azotowy (V) jest otrzymywany metodą kontaktową, polegającą na katalitycznym utlenianiu amoniaku tlenem z powietrza", "Tak uzyskany tlenek azotu (II) utlenia się w obecności powietrza do tlenku azotu (IV):", "Następnie powstały tlenek ulega dysproporcjowaniu w wodzie według równania:", "W reakcji powstaje kwas azotowy i kwas azotawy. Ten drugi jest nietrwały i ulega dalszemu dysproporcjowaniu:", "Tlenek azotu (II) jest ponownie utleniany i wykorzystywany w procesie ( Rys. 3 ).", "Saletry (łac. sal petre – sól skalna) ogólna, techniczna nazwa soli kwasu azotowego (V) – azotanów używanych w gospodarce. Saletry dobrze rozpuszczają się w wodzie, są łatwo przyswajalne przez rośliny, a także szybko wypłukiwane z gleby przez opady, dlatego są stosowanie głównie jako nawozy sztuczne. Są dobrymi utleniaczami, służą do produkcji materiałów wybuchowych i wyrobów pirotechnicznych. Znajdują także zastosowanie jako środki konserwujące. \\( NaNO_3 \\) saletra sodowa, saletra chilijska, jeden z ważniejszych nawozów sztucznych, służy do konserwacji mięsa (symbol E251). Stosowana jest w przemyśle szklarskim i ceramicznym, do produkcji materiałów wybuchowych, do produkcji farb, emalii, leków, jako utleniacz w pirotechnice. \\( NH_4NO_3 \\) saletra amonowa, nawóz z największą zawartością azotu wśród saletr (34 \\( \\% \\)), silny materiał wybuchowy. \\( KNO_3 \\) saletra potasowa, saletra indyjska, dawniej składnik czarnego prochu, konserwant żywności (symbol E252), stosowany do produkcji azotanu (III) potasu oraz w procesie nitrowania. \\( Ca(NO_3)_2 \\) saletra wapniowa, saletra norweska, nawóz sztuczny."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1407, "subject": "Azotowce (P, As, Sb, Bi, Mc)", "paragraphs": ["Do grupy azotowców zaliczamy pierwiastki 15 grupy układu okresowego: azot, fosfor, arsen, antymon, bizmut oraz nietrwały moskow ( Rys. 1 ).", "Azot, ze względu na jego rolę w produkcji wielu ważnych związków oraz rolę w przyrodzie został omówiony w osobnym rozdziale – Azotowce (Azot).", "Tabela 1 przedstawia najważniejsze dane dotyczące właściwości azotowców.", "Fosfor występuje w postaci minerałów – apatytów, np. \\( 3Ca_3(PO_4)_2⋅CaF_2 \\) apatytu węglanowego \\( 3Ca_3(PO_4)_2⋅CaCO_3 ⋅H_2O \\) oraz hydroksylowego \\( 3Ca_3(PO_4)_2⋅Ca(OH)_2 \\) – składników muszli, kości i zębów. Arsen występuje sporadycznie w postaci siarczków: aurypigmentu \\( As_2S_3 \\),realgaru \\( As_4WS_4 \\), arsenopirytu \\( FeAsS \\). Antymon i bizmut występują w postaci siarczków i tlenków: antymonit \\( Sb_2S_3 \\), bizmutynu \\( Bi_2S_3 \\), walentynitu \\( Sb_2O_3 \\) oraz ochry bizmutowej \\( Bi_2O_3 \\).", "Fosfor otrzymuje się przez ogrzewanie fosforanu wapnia z piaskiem i koksem bez dostępu powietrza w piecu elektrycznym w temperaturze 1570-1720 K:", "Arsen otrzymuje się z rozkładu arsenopirytu bez dostępu powietrza:", "Antymon i bizmut otrzymuje się przez prażenie siarczków, a następnie redukcję otrzymanych tlenków węglem:", "Fosfor posiada cztery odmiany alotropowe, o różnej strukturze i różnych właściwościach ( Rys. 2 i Rys. 3 ).", "Fosfor biały – zbudowany z czteroatomowych cząsteczek \\( P_4 \\), to półprzezroczyste, woskowate ciało stałe, które żółknie pod wpływem światła. Pod wpływem tlenu ulega chemoluminescencji – świeci na zielonkawo w ciemności. W kontakcie z powietrzem ulega zapłonowi przy potarciu już w temperaturze \\( 313-323K (30-40 ^oC) \\). Jest toksyczny, słabo rozpuszczalny w wodzie, rozpuszczalny w benzenie, olejach, dwusiarczku węgla i dwuchlorku dwusiarki.", "Fosfor czerwony – jest bardziej stabilny niż biały, ale mniej stabilny niż fosfor czarny. Nie jest toksyczny, ale jest mniej reaktywny niż fosfor biały, zapala się dopiero w temperaturze powyżej \\( 533K (260 ^oC) \\).", "Fosfor czarny – stabilna odmiana fosforu jest najmniej reaktywnym alotropem. Wyglądem, właściwościami i strukturą przypomina grafit, ponieważ jest czarny i łuszczący się oraz jest przewodnikiem elektryczności.", "Fosforen – pojedyncza warstwa fosforu czarnego, to grafenopodobny materiał 2D o doskonałych właściwościach transportu ładunków, transportu termicznego i właściwościach optycznych.", "Fosfor fioletowy – to kolejny półprzewodnikowy warstwowy alotrop o wyjątkowych właściwościach elektronicznych i optoelektronicznych. Stwierdzono, że fosfor fioletowy jest bardziej stabilny, niż fosfor czarny [1].", "Arsen – stalowoszare, bardzo kruche, krystaliczne, półmetaliczne ciało stałe; matowieje na powietrzu, a po podgrzaniu szybko utlenia się do tlenku arsenu ( \\( As_2O_3 \\)). Arsen i jego związki są trujące.", "Antymon – jest biało-niebieskim, kruchym półmetalem. Sb i jego związki są toksyczne. Rozpuszcza się tylko w stężonym kwasie solnym i siarkowym.", "Bizmut – jest rzadkim metalem o różowawym zabarwieniu ( Rys. 4 ). Podobnie jak ołów, dobrze ekranuje promieniowanie gamma. Jego związek z manganem (MnBi) jest trwałym magnesem.", "\\( Ca(H_2PO_4)_2 \\) diwodorofosforan (V) wapnia – główny składnik nawozów sztucznych – superfosfatów, w proszkach do pieczenia, jako suplement diety – źródło wapnia w żywności oraz jako stabilizator tworzyw sztucznych. \\( NaH_2PO_4 \\) diwodorofosforan (V) sodu – składnik buforu fosoforanowego o pH 5,7 do 8,0. \\( Na_3PO_4 \\) fosforan (V) sodu – składnik proszków do prania, służy do zmiękczania wody, regulator kwasowości (E339) oraz substancja wzbogacająca żywność w fosfor, składnik nawozów fosforowych. \\( As_2O_3 \\) tlenek arsenu (III), arszenik, dawniej służył do wyrobu szkła (o zielonym zabarwieniu), emalii i farb (tzw. zieleń arszenikowa), konserwacji skór i drewna, jako trucizna na gryzonie. Obecnie wycofany z użytku."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1409, "subject": "Tlenowce (tlen, siarka)", "paragraphs": ["Tlenowcami nazywamy pierwiastki należące do 16 grupy układu okresowego. Są to: tlen, siarka, selen, tellur, polon i liwermor ( Rys. 1 ). Pierwsze dwa są typowymi niemetalami i tym pierwiastkom będzie poświęcony ten rozdział. Pozostałe pierwiastki grupy tlenowców omówiono w oddzielnym rozdziale – Tlenowce (Se, Te, Po, Lv).", "Tlen jest pierwiastkiem najobficiej występującym w skorupie ziemskiej, stanowi ok. 46 \\( \\% \\) jej masy. Wchodzi w skład minerałów, krzemianów, soli tlenowych i wody. Atmosfera zawiera 21 \\( \\% \\) cząsteczkowego tlenu. Wolny tlen występuje w przyrodzie w cząsteczkach dwuatomowych \\( \\ce{O_2} \\) i trójatomowych \\( \\ce{O_3} \\) zwanych ozonem. Ozon powstaje na skutek wyładowań elektrycznych w czasie burz oraz pod wpływem promieniowania nadfioletowego [1]. Wysokie stężenie tlenu na Ziemi jest wynikiem cyklu tlenowego. Cykl biogeochemiczny opisuje ruch tlenu pomiędzy trzema głównymi warstwami ziemi: atmosferą, biosferą i litosferą. Głównym procesem napędzającym obieg tlenu jest fotosynteza, która odpowiada za współczesną atmosferę Ziemi. Uproszczony proces fotosyntezy można zapisać równaniem ( 1 )", "W procesie fotosyntezy do atmosfery zostaje uwolniony tlen, podczas gdy oddychanie i procesy spalania usuwają go z atmosfery. W stanie równowagi produkcja i konsumpcja tlenu zachodzą w takim samym tempie. U kręgowców tlen dyfunduje przez błony w płucach do krwinek czerwonych. Hemoglobina wiąże tlen zmieniając kolor z niebieskawo-czerwonego na jasnoczerwony. Litr krwi może rozpuścić 200 \\( cm^3 \\) tlenu. Dorosły człowiek w spoczynku wdycha od 1,8 do 2,4 g tlenu na minutę [2]. Siarka występuje w stanie wolnym, tworząc rozległe złoża, jak i w postaci minerałów, głównie siarczkowych, takich jak: piryt \\( FeS \\), blenda cynkowa \\( ZnS \\), galena ołowiowa \\( PbS \\), lub siarczanowych, takich jak: gips \\( \\ce{CaSO_4 * 2H_2O} \\), anhydryt \\( \\ce{CaSO_4} \\), baryt \\( \\ce{BaSO_4} \\) itd. Siarka występuje również w przyrodzie ożywionej, jest składnikiem białka roślinnego i zwierzęcego [1].", "Tlen na skalę przemysłową otrzymuje się z powietrza lub wody. Najpopularniejszą metodą otrzymywania tlenu jest destylacja frakcyjna skroplonego powierza. Aby otrzymać tlen z powietrza należy go skroplić, a otrzymaną ciecz poddać destylacji frakcjonowanej, w wyniku czego otrzymamy dwa główne składniki powietrza – tlen i azot. Tak otrzymany tlen zawiera zwykle ok. 3 \\( \\% \\) argonu. Drogą elektrolizy wody otrzymuje się tlen o dużej czystości.", "Tlen na skalę laboratoryjną otrzymuje się podczas ogrzewania chloranu (V) potasu [3] lub manganianu (VII) potasu:", "Ozon otrzymuje się poprzez zastosowanie wyładowań elektrycznych w urządzeniach zwanych ozonatorami lub generatorami ozonu. Ze względu na to, że jest nietrwały i szybko przechodzi w tlen, nie da się go magazynować, czy dostarczać w zbiornikach. W razie zapotrzebowania, produkuje się go na miejscu. Możemy go wytwarzać na dwa sposoby, które wykorzystują zasadę, na jakiej powstaje on w naturze. Możemy go wytwarzać przy pomocy promieni ultrafioletowych, albo przy pomocy wyładowań koronowych. W obu przypadkach, energia dostarczona do cząsteczki tlenu rozszczepia ją na pojedyncze atomy tlenu, które łączą się z cząsteczkami \\( \\ce{O_2} \\) dając ozon \\( \\ce{O_3} \\). Produkcja ozonu przy pomocy promieni ultrafioletowych polega na tym, że wytworzone w lampie UV światło o długości fali 254 nm uderza w cząsteczki tlenu rozrywając wiązanie pomiędzy atomami. Tak otrzymany tlen atomowy reaguje z cząsteczką tlenu. Częściej do otrzymania ozonu stosuje się ozonatory, które wykorzystują metodę wyładowań koronowych. Symuluje ona uderzenie pioruna, który wytwarza go w przyrodzie. Ozonator wyposażony jest w elektrody wyładowań koronowych, do których doprowadza się bardzo wysokie napięcie (powyżej 3kV). Ozon generowany jest z tlenu zawartego w powietrzu [4].", "Przez cały ubiegły wiek do roku 2002 siarkę wydobywało się metoda Frasha. W tej metodzie przegrzaną wodę pompuje się do złoża w celu stopienia siarki. Następnie sprężone powietrze zawraca stopioną siarkę na powierzchnię ( Rys. 2 ).", "Tak otrzymana siarka nie wymagała dalszego oczyszczania. Jednak ze względu na ograniczoną liczbę złóż oraz wysoki koszt eksploatacji obecnie siarkę na skalę przemysłową otrzymuje się z odsiarczania spalin i paliw kopalnianych. Z tych zasobów siarka pozyskiwana jest głównie w postaci siarkowodoru. Organiczne związki siarki, które są niepożądane w ropie naftowej poddaje się wodoroodsiarczaniu, które rozrywa wiązanie węgiel–siarka:", "Następnie siarkowodór jest przekształcany w siarkę w procesie Clausa. W pierwszym etapie procesu następuje częściowe utlenienie siarkowodoru do tlenku:", "Następnie w reakcji dysproporcjonowania otrzymuje się siarkę:", "Wolną siarkę możemy również otrzymać przez redukcję tlenku siarki (IV) tlenkiem węgla (II):", "Charakter pierwiastków w grupie tlenowców zmienia się od niemetalicznego tlenu do metalicznego polonu i liwermoru. Pierwsze dwa tlen i siarka są niemetalami. Właściwości fizyczne tych dwóch tlenowców zebrano w Tabela 1.", "Tlen jest gazem, pozostałe pierwiastki są ciałami stałymi w warunkach pokojowych. W warunkach standardowych tlen jest bezwonnym, bezbarwnym gazem. Jest wykorzystywany przez złożone formy życia, np. zwierzęta w oddychaniu komórkowym. Tlen rozpuszcza się w wodzie łatwiej niż azot. Skroplony tlen ma barwę jasnoniebieską. Ciekły tlen jest substancją wysoce reaktywną i musi być przechowywany z dala od materiałów palnych. Tlen przy podwyższonym ciśnieniu parcjalnym jest toksyczny i może prowadzić do drgawek lub innych problemów zdrowotnych. Ozon jest bardzo reaktywną odmianą alotropową tlenu, który uszkadza tkankę płuc [2], jest gazem drażniącym. Pierwszymi objawami podrażnienia ozonem są kaszel, drapanie w gardle, senność i bóle głowy. Ozon jest zdolny do pochłaniania promieniowania nadfioletowego, co powoduje rozpad jego cząsteczek. Dzięki temu ozon znajdujący się w górnych warstwach atmosfery pochłania część promieniowania nadfioletowego pochodzącego od słońca, co chroni życie na Ziemi przed szkodliwymi skutkami promieniowania [1].", "Siarka w zależności od warunków może tworzyć cząsteczki o budowie łańcuchowej lub pierścieniowej. W temperaturze pokojowej trwała jest jasnożółta siarka rombowa. Cząsteczka tej siarki składa się z ośmioatomowego zygzakowatego pierścienia ( Rys. 3 ).", "Po ogrzaniu do 95,6 \\( ^oC \\) siarka rombowa ulega przemianie w siarkę jednoskośną. Dalsze ogrzewanie prowadzi do stopienia siarki, która staje się ruchliwą brązową cieczą. Oziębienie jej przez wlanie do wody powoduje, że siarka staje się plastyczna i ciągliwa, przypomina kauczuk, przechodzi w siarkę plastyczną. Siarka plastyczna składa się z łańcuchów. Siarka ma duże znaczenie biologiczne, jest pierwiastkiem niezbędnym do życia. Wchodzi w skład aminokwasów kodowanych, witamin i wielu innych związków o znaczeniu biologicznym. Wiele związków siarki ma charakterystyczny zapach, np. zapach grapefruita czy czosnku, który wywołują organiczne związki siarki. Siarkowodór nadaje charakterystyczny zapach gnijącym jajom i innym procesom biologicznym.", "Tlen jest pierwiastkiem bardzo reaktywnym i silnie utleniającym. Reaguje z każdym pierwiastkiem układu okresowego (z wyjątkiem gazów szlachetnych) tworząc tlenki. Tlen tworzy trzy typy tlenków ( 8 ):", "Ponadtlenki tworzą tylko litowce, za wyjątkiem litu i sodu. Nadtlenki tworzą litowce, z wyjątkiem litu oraz berylowce z wyjątkiem berylu, magnezu i wapnia ( Tabela 2 ).", "Tlen w temperaturze pokojowej reaguje tylko z nielicznymi pierwiastkami: z metalami alkalicznymi i białym fosforem. Gdy temperatura zostanie podwyższona, tlen reaguje prawie ze wszystkimi pierwiastkami. Reakcje spalania są to reakcje z tlenem (gwałtowne utlenianie). Tlen wchodzi zatem w reakcje z ogromną ilością związków organicznych, jaki i nieorganicznych. Procesy utleniania, które zachodzą w organizmach żywych są procesami powolnego spalania. Reakcje z tlenem, które zachodzą w organizmach żywych są katalizowane przez białka zawierające w swoim składzie żelazo i są one procesami odwracalnymi. Ozon wykazuje dużo większą aktywność niż tlen. Jest jednym z najsilniejszych znanych utleniaczy. Utlenia on większość metali (za wyjątkiem platyny, irydu i złota) do tlenków metali na najwyższym stopniu utlenienia [5]:", "Amoniak jest utleniany do azotanu amonu:", "Węgiel natomiast już w temperaturze pokojowej jest utleniany ozonem do dwutlenku węgla:", "Ozon utlenia siarczki do siarczanów:", "Ozon jest nietrwały i szybko przechodzi w tlen. Okres połowicznego rozpadu ozonu w temperaturze pokojowej wynosi 30 minut. Jeżeli ozon rozpuścimy w wodzie, której pH jest mniejsze od 7, to nie inicjuje on reakcji chemicznej i występuje w postaci cząsteczkowej. Wyższe pH wody prowadzi do rozpadu cząsteczki ozonu do wysoko reaktywnych form, takich jak wolne rodniki (np. rodnik hydroksylowy).", "Siarka w temperaturze pokojowej wykazuje słabą reaktywność chemiczną. W tych warunkach reaguje bardzo powoli z miedzią, rtęcią i srebrem.", "W temperaturze powyżej 130 \\( ^oC \\) kadm i siarka reagują wybuchowo tworząc \\( \\ce{CdS} \\). Wiele metali ogrzanych w parach siarki spala się podobnie jak w atmosferze. Spala się niebieskim płomieniem dając duszący i drażniący \\( \\ce{SO_2} \\). Siarka jest nierozpuszczalna w wodzie, ale rozpuszcza się w dwusiarczku węgla \\( \\ce{CS_2} \\) oraz w niewielkim stopniu w innych organicznych rozpuszczalnikach niepolarnych (benzen, toluen). Najczęściej występuje na +6 i +4 stopniu utlenienia, a w siarczkach na -2 stopniu utlenienia. Reaguje prawie ze wszystkimi pierwiastkami, za wyjątkiem gazów szlachetnych. Gdy siarka reaguje z łagodnymi utleniaczami w silnie kwaśnym roztworze, daje barwne polikationy siarki: \\( \\ce{S_8^{2+}} \\) – ciemnoniebieski, \\( \\ce{S_4^{2+}} \\) – żółty, \\( \\ce{S_{16}^{2+}} \\) – czerwony [6].", "Najbardziej znanym i mającym duże znaczenie związkiem tlenu jest woda \\( \\ce{H_2O} \\). Podobny skład chemiczny, ale inne właściwości ma nadtlenek wodoru \\( H_2O_2 \\), który w wysokich stężeniach ma właściwości wybuchowe. Zwykle stosuje się jego rozcieńczony roztwór, np. 3 \\( \\% \\) \\( H_2O_2 \\) to woda utleniona. Jest stosowany jako środek wybielający do włókien i papieru. Tlen tworzy wiązania chemiczne prawie ze wszystkimi pierwiastkami dając tlenki, które są bardzo rozpowszechnione w skorupie ziemskiej, np. \\( \\ce{SiO_2} \\) – krzemionka, \\( \\ce{Al_2O_3} \\) – tlenek glinu, \\( \\ce{Fe_2O_3} \\) – tlenek żelaza itp. Tlen wchodzi również w skład soli tlenowych, np. \\( \\ce{CaCO_3} \\) – węglan wapnia, \\( \\ce{MgCO_3} \\) – węglan magnezu, krzemianów, siarczanów, azotanów itp. W chemii organicznej również występuje cały szereg związków, w których występuje tlen, np. alkohole, aldehydy, ketony, etery, kwasy karboksylowe, estry i bezwodniki kwasowe. Siarka tworzy dwa tlenki \\( \\ce{SO_2} \\) i \\( \\ce{SO_3} \\), z których otrzymuje się kwas siarkowy (IV) \\( \\ce{H_2SO_3} \\) i kwas siarkowy (VI) \\( \\ce{H_2SO_4} \\) oraz siarczany. Nasycając stężony kwas \\( \\ce{H_2SO_4} \\) gazowym \\( \\ce{SO_3} \\) otrzymuje się oleum, czyli dymiący kwas siarkowy. W zależności od stężenia \\( \\ce{SO_3} \\), występują w nim jony różnych kwasów polisiarkowych. Jeżeli stosunek \\( H_2O : SO_3 \\) wynosi 1:2 to produktem jest kwas pirosiarkowy (dwusiarkowy) \\( \\ce{H_2S_2O_7} \\). Jest to substancja silnie żrąca, która z wodą daje kwas siarkowy (VI). \\( \\ce{H_2S} \\) siarkowodór – jest toksycznym gazem. \\( \\ce{CS_2} \\) dwusiarczek węgla – stosowany jako rozpuszczalnik oraz do produkcji celofanu i włókna wiskozowego. \\( \\ce{SF_6} \\) sześciofluorek siarki – jest gęstym gazem stosowanym w transformatorach wysokiego napięcia jako gaz izolacyjny. \\( \\ce{CaSO_4} \\) siarczan (VI) wapnia – stosowany jako nawóz sztuczny."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1410, "subject": "Tlenowce (Se, Te, Po, Lv)", "paragraphs": ["Tlenowcami nazywamy pierwiastki należące do 16 grupy układu okresowego. Są to: tlen, siarka, selen, tellur, polon i liwermor ( Rys. 1 ). Pierwsze dwa są typowymi niemetalami, zostały zatem omówione w osobnym rozdziale – Tlenowce (tlen, siarka). W tym module omówiono pozostałe tlenowce.", "Selen i tellur towarzyszą minerałom siarczkowym, w których zastępują siarkę.", "Polon został odkryty przez Marię Skłodowską-Curie w 1898 roku. Uczona nadała mu nazwę na cześć Polski, która była wtedy pod zaborami. Występuje on w śladowych ilościach w rudach uranowych.", "Liwermor jest pierwiastkiem otrzymanym sztucznie w reakcji syntezy jądrowej.", "Selen i tellur otrzymuje się jako produkt uboczny podczas rafinacji rud miedzi i siarki. Selen szary otrzymuje się w wyniku łagodnego ogrzewania innych odmian alotropowych, powolnego chłodzenia stopionego \\( Se \\) lub kondensacji pary selenu tuż poniżej temperatury topnienia [1]. Szlamy anodowe zawierają selenki i tellurki metali szlachetnych \\( M_2Se \\) lub \\( M_2Te \\) (gdzie \\( M = Cu, Ag, Au \\)). Następnie szlamy anodowe prażone są na powietrzu z węglanem sodu. Jony metali są redukowane do postaci metalicznej, a tellurek jest przekształcany w telluran (IV):", "Następnie telluran (IV) jest ługowany z mieszaniny wodą i w roztworze wodnym występuje jako wodorotelluran (IV). Z takiego roztworu, przy użyciu kwasu siatkowego wytrąca się \\( TeO_2 \\), podczas gdy seleniany pozostają w roztworze:", "Czysty metal otrzymuje się przez redukcję tlenku:", "Polon na skalę przemysłową otrzymuje się przez bombardowanie bizmutu neutronami, ponieważ jego ilość w skorupie ziemskiej jest bardzo mała.", "Właściwości fizyczne tlenowców z wyjątkiem tlenu i siarki zostały zebrane w Tabela 1.", "Selen występuje w trzech odmianach alotropowych. Selen otrzymywany w reakcjach chemicznych jest zwykle czerwonym amorficznym proszkiem. Gdy szybko się topi, tworzy czarną szklistą formę. Struktura czarnego selenu jest nieregularna i złożona. Składa się z polimerowych pierścieni zawierających do 1000 atomów w pierścieniu. Czarny selen jest kruchym i błyszczącym ciałem stałym. Najbardziej stabilną odmianą jest selen szary z heksagonalną siecią krystalograficzną składającą się ze spiralnych łańcuchów polimerowych. Selen szary jest półprzewodnikiem, a pozostałe odmiany alotropowe są izolatorami. Selen w śladowych ilościach jest niezbędny do poprawnego funkcjonowania komórek ludzi i zwierząt, w większych dawkach jest toksyczny [1]. Selen zapewnia prawidłowe funkcjonowanie układów enzymatycznych. Jest odpowiedzialny za tworzenie antyutleniacza, który chroni organy przed działaniem wolnych rodników. Niski poziom selenu wiąże się ze zwiększoną zachorowalnością na raka i choroby serca [2].", "Tellur posiada dwie odmiany alotropowe, krystaliczną i amorficzną. Krystaliczny tellur jest srebrzystobiałym, miękkim i kruchym metaloidem. Tellur amorficzny ma postać czarnobrązowego proszku. Tellur jest półprzewodnikiem.", "Polon i liwermor są pierwiastkami promieniotwórczymi. Polon jest silnym emiterem promieniowania alfa. Metal ten emanuje niebieską poświatą – jest to efekt wzbudzenia powietrza otaczającego próbkę polonu. Jest to metal silnie toksyczny. Cząstki alfa, które emituje niszczą strukturę tkanek.", "Aktywność chemiczna tlenowców maleje wraz ze wzrostem masy atomowej. Tlenowce są pierwiastkami bardziej aktywnymi od azotowców. Reagują bardzo szybko z litowcami, woniej z berylowcami, z metalami i powoli z metalami szlachetnymi. W reakcjach tych otrzymujemy sole: selenki, tellurki czy polonki. Właściwości chemiczne selenu zależą od odmiany alotropowej. Selen (szary) jest odporny na utlenianie powietrzem i nie reaguje z wodą, reaguje natomiast z zasadami i kwasami. Selen czerwony jest bardzo reaktywny, gwałtownie reaguje z wodą i spala się w powietrzu do tlenku selenu (IV) [1], [3].", "Selen nie reaguje z rozcieńczonymi kwasami nieuteniającymi. W reakcji z kwasem azotowym daje kwas selenowy (IV) [1]:", "Selen reaguje z halogenkami, dając halogenki selenu (I) i selenu (IV) [4]:", "Tellur w stanie stopionym działa korozyjnie na miedź, żelazo i stal nierdzewną. Jest odporny na utlenianie przez powietrze [5]. Analogicznie jak selen, tellur z kwasem azotowym daje kwas tellurowy:", "Reakcja z fluorem daje fluorek telluru (IV) i fluorek telluru (VI) [6]:", "Reaguje z chlorem, bromem i jodem dając chalogenki telluru (IV):", "Polon rozpuszcza się w stężonym kwasie solnym \\( \\ce{HCl} \\), kwasie siarkowym \\( \\ce{H_2SO_4} \\) oraz w stężonym kwasie azotowym \\( \\ce{HNO_3} \\) [7]. Reaguje z chlorem, bromem i jodem dając chalogenki polonu (IV):", "\\( \\ce{SeS_2} \\) siarczek selenu – stosowany w szamponach przeciwłupieżowych i lekach przeciwgrzybicznych. \\( \\ce{Na_2SeO_3} \\) selenian (IV) sodu – hamuje wnikanie wirusów do zdrowych komórek [2], stosowany jako środek owadobójczy. \\( \\ce{CdTe} \\) tellurek kadmu – używany do produkcji paneli fotowoltaicznych. \\( \\ce{Bi_2Te_3} \\) tellurek bizmutu – używany do konstrukcji termoogniw. Selen, tellur i polon tworzą szereg związków z fluorowcami [9]. Zebrano je w Tabela 2.", "Spośród tych związków na uwagę zasługuje czterofluorek selenu, który jest dymiącą cieczą i łatwo wstępuje w reakcje chemiczne. Znalazł zastosowanie jako środek fluorujący."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1411, "subject": "Fluorowce", "paragraphs": ["Fluorowce nazywa się halogenami lub chlorowcami, od nazwy pierwiastka najbardziej charakterystycznego dla tej grupy ( Rys. 1 ).", "Do grupy fluorowców zaliczamy pierwiastki 17-tej grupy układu okresowego: fluor, chlor, brom, jod, astat oraz tenes ( Tabela 1 ). Astat oraz tenes są pierwiastkami nietrwałymi.", "Fluor (0,0625 \\( \\% \\) litosfery) występuje w postaci minerałów takich, jak \\( CaF_2 \\) fluoryt [1], \\( Ca_5(PO_4)_3F \\) apatyt [2] i \\( Na_3[AlF_6] \\) kriolit. Chlor (0,19 \\( \\% \\)) występuje przede wszystkim w postaci chlorku sodu \\( NaCl \\) w wodach mórz i oceanów (1,9 \\( \\% \\) zawartości wód), jak również sylwinu \\( KCl \\), karnalitu \\( KMgCl_3·6H_2O \\) i kainitu \\( KMgCl(SO_4)·3H_2O \\) . Brom (0,000005 \\( \\% \\) zawartości w przyrodzie), występuje jako zanieczyszczenie piasku morskiego i soli kamiennej oraz w wodzie morskiej w formie bromku sodu \\( NaBr \\). Jod występuje w niewielkich ilościach w wodzie morskiej w postaci połączeń organicznych, jego zawartość w przyrodzie wynosi 0,00025 \\( \\% \\).", "Fluor otrzymuje się poprzez działanie kwasem siarkowym na fluoryt:", "a następnie przerabia na wolny fluor. Fluor można otrzymać także w procesie elektrolizy stopionych fluorków:", "Chlor otrzymuje się w procesie elektrolizy wodnych roztworów NaCl:", "Brom otrzymuje się wypierając go ze związków chlorem:", "Jod, podobnie jak brom, jest wypierany z roztworów przez chlor. Astat i tenes otrzymuje się wyłącznie na drodze przemian jądrowych.", "Fluor i chlor w warunkach normalnych są gazami o żółtozielonym zabarwieniu, brom jest brunatną cieczą, a jod fioletowym ciałem stałym ( Rys. 2 ). Fluorowce są trujące, ich gazy i pary drażnią drogi oddechowe.", "Fluor, chlor, brom i jod w stanie pierwiastkowym występują w postaci cząsteczek dwuatomowych: \\( F_2 \\), \\( Cl_2 \\), \\( Br_2 \\), \\( I_2 \\). Fluor jest najbardziej aktywnym chemicznie pierwiastkiem w układzie okresowym, z uwagi na najwyższą elektroujemność. Pozostałe fluorowce są nieco mniej aktywne chemicznie. Wysoka aktywność pierwiastków 17 grupy układu okresowego wynika z faktu, że posiadają na powłoce walencyjnej 7 elektronów. Do osiągnięcia konfiguracji najbliższego im gazu szlachetnego, czyli uzyskania stanu o możliwie najniższej energii, brakuje im tylko jednego elektronu. Dlatego też łatwo wchodzą w reakcje, chętnie przyjmując elektron. Jak już wcześniej wspomniano, chlor jako bardziej aktywny, wypiera ze związków mniej aktywne brom i jod. Reakcję przeprowadza się za pomocą wody chlorowej – wody nasyconej gazowym chlorem. Dla łatwiejszego zauważenia obecności bromu, czy jodu, do roztworu wprowadza się benzen, w którym to rozpuszczalniku organicznym, pierwiastki te mają bardziej intensywne barwy, niż w wodzie – jak można zauważyć na Rys. 3.", "\\( HF \\) fluorowodór – posiada ostry zapach, drażni drogi oddechowe. Ciekły powoduje trudno gojące się rany, przenika przez skórę i tkanki miękkie, atakując bezpośrednio chrząstki i kości. Stosowany do fluorowania węglowodorów, w przeróbce ropy naftowej, wytrawianiu znaków i napisów na szkle ( Rys. 4 ), wytrawiania powierzchni krzemu w obróbce półprzewodników.", "\\( HCl \\) chlorowodór – stosuje się w syntezach organicznych, mieszanina stężonych kwasów \\( HCl \\) i \\( HNO_3 \\) w stosunku 3:1 nazywana jest wodą królewską. Rozpuszcza ona metale o potencjale wyższym od wodoru (dodatnim) takie, jak złoto, srebro, platyna, pallad. \\( NaCl \\) chlorek sodu, sól kuchenna – środek do konserwacji żywności, obniżania temperatury krzepnięcia wody ( efekt krioskopowy ). \\( NaClO \\) chloran (I) sodu, dawniej podchloryn sodu – środek dezynfekujący. \\( HClO_4 \\) kwas chlorowy (VII), dawniej kwas nadchlorowy – silny utleniacz i środek wybielający, stosowany w środkach pirotechnicznych. \\( NH_2Cl \\) chloroamina – stosowana jako środek odkażający w przypadkach skażenia biologicznego, jako doraźny środek do odkażania wody pitnej, sprzętów, domostw i ich otoczenia, środek odkażający w akwarystyce. \\( CCl_4 \\) czterochlorek węgla – rozpuszczalnik używany przy ekstrakcji tłuszczów i związków organicznych z roślin, dodatek do środków czystości, rozpuszczalnik do farb i klejów, dawniej (do końca lat 80-tych XX wieku) środek gaśniczy w gaśnicach tetrowych. \\( CHCl_3 \\) chloroform - stosowany jest jako rozpuszczalnik np. przy syntezie DNA, białek, analizach środowiskowych, analizach pestycydów, chromatografii, substancja ta na początku XX wieku używana była do narkozy."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku p", "subject_id": 1412, "subject": "Helowce", "paragraphs": ["W skład grupy 18-tej zwanej helowcami lub gazami szlachetnymi, wchodzą: hel, neon, argon, krypton, ksenon, radon oraz oganeson ( Rys. 1 ).", "Do 1984 roku nie wiedziano o ich istnieniu, wtedy to Reyleigh zauważył, że czysty azot otrzymany z rozkładu związków ma mniejszą gęstość ( \\( 1,2505 g/dm^3 \\)), niż azot otrzymany z powietrza przez oddzielenie \\( O_2 \\), \\( CO_2 \\) i \\( H_2O \\) ( \\( 1,2572 g/dm^3 \\)). Po usunięciu z tej mieszaniny azotu, pozostał całkowicie nieaktywny gaz, który nazwano argonem od greckiego słowa argos (leniwy). Później wykryto w powietrzu także inne gazy szlachetne. Tabela 1 podaje najważniejsze dane dotyczące helowców.", "Hel stanowi ok. 23 \\( \\% \\) masy wszystkich pierwiastków we Wszechświecie i na Słońcu. Hel, neon, argon i ksenon występują w niewielkich ilościach w powietrzu ( Tabela 2 ).", "Podstawowym sposobem otrzymywania helowców jest destylacja frakcyjna powietrza oraz termochromatografia [1]. Krypton i radon są produktami rozpadu promieniotwórczego uranu i toru, towarzyszą zwykle złożom rud tych metali, dzięki czemu można te złoża stosunkowo łatwo wykrywać. W niezbyt masywnych gwiazdach ciągu głównego, takich jak Słońce, podstawową reakcją jest synteza jądra helu z wodoru. Ciąg reakcji jądrowych zwany jest cyklem wodorowym. W pojedynczym cyklu tworzenia 1 jądra helu z 4 protonów emitowane jest 26,7 MeV energii i jest to główne źródło energii gwiazd. Część energii jest tracona przez uchodzące neutrina (1,6 MeV). Synteza helu jest także główną reakcją termojądrową zachodzącą np. w bombie neutronowej. Siła jej wybuchu jest stosunkowo niewielka, tak jak skażenie promieniotwórcze terenu. Czynnikiem niszczącym jest promieniowanie neutronowe, zabójcze dla żywych organizmów (zob. Reakcja termojądrowa).", "Helowce są bezbarwnymi gazami bez smaku i zapachu. Skroplony hel występuje w dwóch odmianach: hel I – wykazujący cechy zwykłej cieczy oraz hel II (poniżej temp. 2,17K, pod ciśnieniem 5000 Pa) o lepkości 1000 razy mniejszej od lepkości wodoru (stan nadciekły) [2]. Podczas przepuszczania wyładowań elektrycznych przez rozrzedzone gazy emitują one charakterystyczne barwne światło, np. He – żółte, Ne – czerwone ( Rys. 2 ).", "Pierwiastki grupy 18-tej posiadają komplet elektronów na powłoce walencyjnej, co skutkuje najniższą możliwą energią. W związku z czym, nie wchodzą w reakcje, ponieważ nie mają potrzeby obniżenia energii. Najmniej aktywnym pierwiastkiem chemicznym jest hel. Pierwszym związek jednego z helowców – ksenonu otrzymano w 1962 roku. Był to heksafluoroplatynian ksenonu \\( XePtF_6 \\), powstający w reakcji \\( Xe \\) z \\( PtF_6 \\):", "Tetrafluorek ksenonu \\( XeF_4 \\) otrzymano przez ogrzewanie mieszaniny ksenonu i fluoru. Znanych jest około 40 związków ksenonu, kryptonu i radonu."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku f", "subject_id": 1428, "subject": "Pierwiastki bloku f", "paragraphs": ["Do bloku f zaliczamy pierwiastki znajdujące się pomiędzy blokiem s, a blokiem d ( Rys. 1 ). Chociaż te pierwiastki nie są uważane za część żadnej grupy, niektórzy autorzy uważają, że są one częścią 3 grupy układu okresowego – skandowców. Pierwiastki te są nazywane metalami wewnątrzprzejściowymi, ponieważ zapewniają przejście od bloku s do bloku d w 6 i 7 okresie, podobnie jak metale przejściowe bloku d zapewniają mostek przejściowy między blokiem s i p w 4 i 5 okresie.", "W literaturze spotykamy różne sposoby klasyfikacji pierwiastków tego bloku [1]. Zgodnie z zaleceniami IUPAC do lantanowców zaliczmy pierwiastki od lantanu do lutetu, a do aktynowców pierwiastki od aktynu do lorensu ( Rys. 2 ). Wtedy grupę 3 stanowi tylko skand i itr. Kolejna klasyfikacja opiera się na budowie powłok elektronowych lantanu i aktynu. Zgodnie z obsadzaniem powłok przez elektrony, skand i aktyn należą do bloku d, więc powinny należeć do skandowców. Zgodnie z tą klasyfikacją lantanowce to pierwiastki od ceru do lutetu, a aktynowce to pierwiastki od toru do lorensu [2]. Inne źródła [1], [3] do trzeciej grupy układu okresowego zaliczają lutet i lorens, co uzasadniają chemicznym podobieństwem tych pierwiastków do skandu i itru. Lantanowce zatem to pierwiastki od lantanu do iterbu, a aktynowce to pierwiastki od aktynu do nobla. Można znaleźć również informację, że lantanowce i aktynowce należą do trzeciej grupy układu okresowego, ponieważ mają podobne właściwości co skand i itr [1]. W tym podręczniku pierwiastki opisano zgodnie z rekomendacją IUPAC."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku f", "subject_id": 1413, "subject": "Lantanowce", "paragraphs": ["Lantanowce to pierwiastki 6 okresu od lantanu do lutetu ( Rys. 1 ).", "Pierwiastki te wraz z chemicznie podobnymi skandem i itrem nazywamy pierwiastkami ziem rzadkich lub metalami ziem rzadkich. Ogólnie oznaczamy je symbolem Ln w odniesieniu do dowolnego lantanowca.", "Lantanowce nie występują w przyrodzie w stanie wolnym, lecz w postaci minerałów mieszanych, z których trudno jest wyodrębnić czyste pierwiastki. Najpopularniejszym minerałem, w którym występują jest monacyt (w jego skład wchodzi lantan i kilka lantanowców). Kolejnym ważnym minerałem jest bastnezyt, zawierający węglany i fluorki Ce, Nd, La i Pr. Lantanowce razem ze skandowcami: skandem i itrem, nazywane są metalami ziem rzadkich. Pierwiastki ziem rzadkich często wchodzą wszystkie razem w skład bardzo trwałych i odpornych na wietrzenie minerałów. Promet jest jedynym lantanowcem nie występującym w przyrodzie. Wszystkie jego izotopy są promieniotwórcze [1].", "Ze względu na podobieństwo właściwości chemicznych, rozdzielanie lantanowców jest trudne i kosztowne, więc są one stosowane w technice w postaci mieszanki zwanej Mischmetall. Czyste lantanowce otrzymuje się poprzez redukcję soli chlorkowych.", "Wszystkie lantanowce z wyjątkiem jednego – lantanu są pierwiastkami bloku f ( Tabela 1 ). Są srebrzystymi metalami, stosunkowo miękkimi, a ich twardość wzrasta wraz ze wzrostem liczby atomowej.", "Związki lantanowców są najczęściej barwne ( Rys. 2 ). Związane jest to z możliwymi przejściami elektronów \\( f-f \\).", "Metale ziem rzadkich i ich związki mają niską lub umiarkowaną toksyczność. Metaliczny cer jest wysoce piroforyczny, co oznacza, że podczas szlifowania jego wióry zapalają się.", "Na właściwości chemiczne lantanowców bardzo duży wpływ ma orbital \\( f \\), który równocześnie jest czynnikiem odróżniającym je od metali przejściowych. Orbital ten znajduje się w rdzeniu atomowym, nie uczestniczy zatem w wiązaniu chemicznym. Ponieważ istnieje 7 orbitali typu \\( 4f \\), liczba niesparowanych elektronów może sięgać nawet 7. Powoduje to powstawanie dużych momentów magnetycznych w związkach lantanowców [2]. Lantanowce pod względem chemicznym są bardzo do siebie podobne. Wszystkie tworzą związki na +3 stopniu utlenienia, a niektóre dodatkowo na +2 i +4. Metale te są bardzo aktywne chemicznie. Reagują z wodą z wydzieleniem wodoru, jednak po pewnym czasie reakcja ustaje, bo powierzchnia pokrywa się warstwą nierozpuszczalnego wodorotlenku, która izoluje metal od dalszego kontaktu z wodą:", "tworzą zatem nierozpuszczalne w wodzie tlenki i wodorotlenki. Reagują z kwasami z wydzieleniem wodoru:", "Reagują z wodorem tworząc wodorki typu \\( \\ce{LnH_2} \\), a w podwyższonych temperaturach wodorki typu \\( \\ce{LnH_3} \\). Z fluorowcami dają odpowiednio fluorki, chlorki, bromki jodki (X – fluorowiec):", "Lantanowce są silnymi środkami redukującymi.", "\\( \\ce{CeO_2} \\) tlenek ceru (IV) – jest stosowany w syntezie organicznej i nieorganicznej jako utleniacz. \\( \\ce{SmI_3} \\) jodek samaru – stosowany jako efektywny reagent w reakcjach tworzenia wiązań \\( \\ce{C - C} \\). Stop \\( \\ce{Nd_2Fe_{14}B} \\) – jest najsilniejszym znanym magnesem trwałym. \\( \\ce{Nd_2O_3} \\) tlenek neodymu (III) – surowiec do produkcji szkieł neodymowych. \\( \\ce{Eu_2O_3} \\) tlenek europu (III) – stosowany jako czerwony luminofor w telewizorach i lampach fluorescencyjnych. \\( \\ce{Dy_2O_3} \\) tlenek dysprozu (III) – żółtawo-zielonkawy proszek, mający zastosowanie w ceramice, szkle, luminoforach. Jest wysoce magnetyczny, bardziej niż tlenek żelaza [7]. \\( \\ce{Dy(NO_3)_3} \\) azotan (V) dysprozu – stosowany jako katalizator. \\( \\ce{Ho_2O_3} \\) tlenek holmu (III) – stosowany jako barwnik do cyrkonu i szkła. Jest używany jako wzorzec kalibracyjny do spektrometrów optycznych [4]. \\( \\ce{Er_2O_3} \\) tlenek erbu (III) – jest jednym z najważniejszych tlenków metali ziem rzadkich stosowanych w biomedycynie [6]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Układ okresowy pierwiastków bloku f", "subject_id": 1414, "subject": "Aktynowce", "paragraphs": ["Aktynowce to pierwiastki 7 okresu – od aktynu do lorensu ( Rys. 1 ). Ogólnie oznaczamy je symbolem An w odniesieniu do dowolnego aktynowca. Często pierwiastki występujące za uranem nazywamy transuranowcami.", "Jedynie dwa aktynowce tor i uran występują w znacznych ilościach w skorupie ziemskiej. Uran występuje w blendzie smolistej \\( \\ce{U_3O_8} \\) i karnotycie \\( \\ce{KUO_2VO_4*1.5H_2O} \\). Głównym źródłem toru jest piasek monacytowy, w którym razem z innymi metalami ziem rzadkich tor występuje w postaci \\( \\ce{ThO_2} \\) [1]. Niewielkie ilości plutonu i neptunu można znaleźć w złożach uranu. Aktyn i protaktyn występują jako produkty rozpadu niektórych izotopów toru i uranu. Pozostałe są uważane za pierwiastki syntetyczne [2], [3]. Testy broni jądrowej uwolniły do środowiska sześć aktynowców cięższych od plutonu: ameryku, kiuru, berkelu, kalifornu, einsteinu i fermu [2].", "Aktynowce występujące naturalnie w przyrodzie można otrzymać przez redukcję fluorków \\( \\ce{AnF_3} \\) lub \\( \\ce{AnF_4} \\) oparami litu, magnezu, wapnia lub baru w temperaturze \\( 1100-1400 ^oC \\) [3]:", "Ponieważ aktyn trudno jest oddzielić od lantanowców, a inne aktynowce trudno wydzielić z rud uranowych, najłatwiej otrzymuje się je poprzez bombardowanie neutronami pierwiastków o niższej liczbie atomowej w reaktorze jądrowym [4]:", "Następnie aktyn oddziela się od radu przez ekstrakcję rozpuszczalnikową. Protaktyn jest wytwarzany przez reakcje jądrowe:", "Neptun otrzymuje się jako produkt uboczny w reaktorach jądrowych ze zużytych prętów paliwa jądrowego, które są wykonane z uranu.", "Strategicznie ważny pluton jest produkowany w tonach w reaktorach jądrowych. Nadmiar neutronów z rozszczepienia uranu \\( \\ce{U-235} \\) jest wychwytywany przez uran \\( \\ce{U-238} \\), co prowadzi do otrzymania plutonu:", "Aktynowce są srebrzystymi metalami stałymi w temperaturze pokojowej. Wszystkie aktynowce są radioaktywne i nie mają stabilnych izotopów. Aktyn świeci w ciemności bladoniebieskim światłem. Aktynowce to metale o wysokiej gęstości. Mają liczne odmiany alotropowe, np. pluton ma sześć odmian alotropowych. Wyjątkiem jest aktyn, który ma ich mniej. Są dość miękkie, niektóre dają się przekroić nożem. Są plastyczne i ciągliwe. Aktynowce sukcesywnie wypełniają elektronami poziom \\( 5f \\), choć wiele z nich wykazuje anomalie konfiguracyjne polegające na wypełnianiu powłoki \\( 6d \\) ( Tabela 1 ). Wiele aktynowców ma właściwości podobne zarówno do metali bloku \\( d \\), jak i bloku \\( f \\) [2], [3].", "Wszystkie cechują się dużym promieniem atomowym i wykazują szeroki zakres właściwości fizycznych. Podczas, gdy aktyn i aktynowce od ameryku do lorensu zachowują się podobnie do lantanowców, to tor, protaktyn i uran są bardziej podobne do metali przejściowych pod względem chemicznym. Neptun i pluton mają właściwości pośrednie [2].", "Na powietrzu matowieją pokrywając się tlenkami i wodorotlenkami. Samoistnie zapalają się w powietrzu szczególnie, gdy są silnie rozdrobnione (właściwości piroforyczne). Reagują z gorącą wodą z wydzieleniem wodoru oraz reagują z kwasami z wydzieleniem wodoru. Aktyn ma podobne właściwości chemiczne do lantanu i innych lantanowców, dlatego trudno jest go oddzielić podczas ekstrakcji z rud uranu. Aktynowce łączą się bezpośrednio z większością metali. Wykazują kilka stanów walencyjnych ( Rys. 2 ), więcej niż lantanowce, które w roztworach wodnych przybierają różne barwy.", "Aktynowce łatwo ulegają reakcjom jądrowym, uwalniając przy tym ogromne ilości energii. W odpowiednich warunkach reakcje jądrowe mogą stać się reakcjami łańcuchowymi.", "Znane są różne rodzaje związków aktynowców, takie jak tlenki, wodorki halogenki, czy wodorotlenki. Jednak nie znalazły one szerszego zastosowania."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Zjawiska powierzchniowe", "subject_id": 1396, "subject": "Adsorpcja", "paragraphs": ["Adsorpcja jest zjawiskiem mającym istotny wpływ na kinetykę procesów zachodzących na powierzchni ciał stałych, cieczy. Na powierzchni ciał stałych adsorbują się atomy lub cząsteczki gazów, cieczy, ciał stałych. Adsorbujące się substancje blokują powierzchnię ciała stałego częściowo lub całkowicie. Substancja, która ulega adsorpcji jest nazywana adsorbatem, a substancja, na której zachodzi proces adsorpcji nazywa się adsorbentem lub podłożem. Substancja zaadsorbowana może ulegać procesowi odwrotnemu, czyli desorpcji. Wiadomo, że substancja adsorbująca się na powierzchni ciała stałego, może tę powierzchnię pokrywać częściowo lub całkowicie [1]. W związku z tym wprowadzono pojęcie stopnia pokrycia, który określa ułamek zapełnienia powierzchni przez adsorbat.", "gdzie \\( \\ce{\\theta_i} \\) – oznacza stopień pokrycia powierzchni przez substancję „i” ulegającą adsorpcji na powierzchni adsorbatu, \\( \\ce{N_i} \\) jest to liczba zajętych centrów adsorpcyjnych, a \\( \\ce{N_0} \\) oznacza liczbę dostępnych centrów adsorpcyjnych.", "Adsorpcja może zachodzić na drodze fizycznej lub chemicznej. W przypadku adsorpcji fizycznej, między adsorbatem a podłożem oddziałują siły Van der Vaalsa, które mają duży zasięg, ale są bardzo słabe. Jeśli adsorpcja zachodzi na drodze chemicznej (chemisorpcji) to atomy, cząsteczki adsorbatu łączą się z podłożem poprzez tworzenie wiązań chemicznych. Adsorpcja substancji na powierzchni ciała stałego powoduje zmniejszenie jego energii powierzchniowej.", "Równanie izotermy Langmuira opisuje stopień pokrycia w warunkach równowagi dynamicznej, równanie ( 2 ).", "Stała K podaje stosunek stałej szybkości adsorpcji do stałej szybkości desorpcji. Adsorpcję wielowarstwową opisuje izoterma BET (izoterma Brumauera - Emmetta - Tellera), równanie ( 3 ).", "W równaniu tym \\( \\ce{c_1} \\) i \\( \\ce{c_2} \\) – są stałymi, natomiast \\( \\ce{p_i} \\)– jest to ciśnienie cząstkowe gazu ulegającego adsorpcji. Z kolei izoterma Freundlicha wykazuje logarytmiczną zależność adsorpcji od ciśnienia ( 6 ).", "Równania opisujące poszczególne izotermy są równaniami empirycznymi, które pozwalają prawidłowo opisać wyniki doświadczalne w szerokim zakresie ciśnień i stopni pokrycia powierzchni. Oczywiście żadna z opisanych izoterm adsorpcji nie jest idealna do opisu procesów adsorpcji. Ilość substancji zaadsorbowanej na powierzchni substratu zależy od temperatury. Adsorpcja jest procesem egzotermicznym, więc ze wzrostem temperatury maleje ilość substancji zaadsorbowanej na podłożu. Im wyższa temperatura tym łatwiej adsorbat ulega desorpcji. Czasami zdarza się tak, że w niskiej temperaturze adsorpcja jest niewielka, a podwyższenie temperatury zwiększa ilość zaabsorbowanej substancji. W takim przypadku mówimy o adsorpcji aktywowanej. Przykładem adsorpcji aktywowanej jest adsorpcja wodoru na niklu. Adsorpcja wodoru wzrasta ze wzrostem temperatury osiągając maksimum w temperaturze 70 K. Dalszy wzrost temperatury powoduje spadek ilości wodoru zaadsorbowanego na niklu [3]. Ilość ciepła wydzielona podczas adsorpcji fizycznej nie jest duża i przyjmuje wartości zbliżone do ilości ciepła skroplenia gazu lub pary. W przypadku chemisorpcji wydzielają się duże ilości ciepła, co jest związane z tworzeniem się wiązań chemicznych podczas adsorpcji substancji na adsorbencie."], "definitions": [{"name": "Definicja 1: Stopień pokrycia powierzchni", "content": "Stopień pokrycia powierzchni jest to stosunek liczby zajętych centrów adsorpcyjnych do liczby dostępnych centrów adsorpcyjnych. "}, {"name": "Definicja 2: Centrum adsorpcyjne", "content": "Centrum adsorpcyjne jest to obszar, na którym następuje adsorpcja adsorbatu. Centrami adsorpcji są najczęściej grupy funkcyjne (np. grupa karbonylowa, wodorotlenowa) występujące na powierzchni adsorbentów."}, {"name": "Definicja 3: Izoterma adsorpcji", "content": "W stałej temperaturze, zależność stopnia pokrycia powierzchni od aktywności adsorbującej się substancji gazowej lub ciekłej na powierzchni ciała stałego, nazywana jest izotermą adsorpcji."}]} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Zjawiska powierzchniowe", "subject_id": 1397, "subject": "Energia powierzchniowa", "paragraphs": ["Energia powierzchniowa jest wielkością charakteryzującą właściwości powierzchni ciała stałego lub cieczy. Atomy, które znajdują się na powierzchni ciała stałego lub cieczy są zawsze słabiej związane niż atomy znajdujące się w ich wnętrzu. Usunięcie atomów z powierzchni materiału jest łatwiejsze niż usunięcie atomów z jego wnętrza. Energię powierzchniową można obliczyć z wzoru ( 1 ).", "We wzorze (1) poszczególne symbole oznaczają: F – energia swobodna, G – entalpia swobodna, V – objętość, T – temperatura, A – powierzchnia ciała stałego lub cieczy, \\( {n_i} \\) – liczba moli substancji „i”.", "Metale i stopy są materiałami polikrystalicznymi, zbudowane są z ziaren, które mają różną orientację krystalograficzną. W przypadku materiałów polikrystalicznych, energia powierzchniowa zależy od orientacji krystalograficznej ziarna (kryształu). Ziarna posiadające orientację krystalograficzną, dla której energia powierzchniowa jest mała, łatwiej ulegają roztwarzaniu niż ziarna, dla których energia powierzchniowa jest duża [1]. Badania prowadzone na polikrysztale glinu i stopach aluminium wykazały, że ziarna posiadające orientację krystalograficzną (111) mają najmniejszą energię powierzchniową [2], [3], [4]. W kontakcie z elektrolitem, atomy metalu z ziaren (kryształów) posiadających małą energię powierzchniową łatwo opuszczają sieć krystalograficzną i przechodzą do roztworu w postaci jonów. Dotychczas prowadzono badania aktywności chemicznej mono- i polikryształów na różnych metalach i stopach, które wykazały, że aktywność chemiczna monokryształów zależy przede wszystkim od rodzaju metalu i charakteru środowiska.", "W polikryształach bardzo ważnymi obszarami są granice ziaren, które są miejscami oddzielającymi ziarna (kryształy) o różnej orientacji krystalograficznej. Na granicy ziaren atomy są ułożone nieregularnie, mogą pojawić się w tych miejscach obce atomy, które nie występują w sąsiadujących ze sobą ziarnach. Granice ziaren są obszarami nieciągłości w regularnej strukturze kryształu. Atomy znajdujące się na granicach ziaren są zawsze słabiej związane ze sobą niż atomy znajdujące się w obrębie ziarna. Energia powierzchniowa granic ziaren jest większa niż energia powierzchniowa ziaren. Energię granic ziaren można obliczyć z wzoru ( 2 ), gdzie \\( \\ce{\\gamma_G} \\) oznacza energię na granicy ziaren, G – entalpię swobodą, natomiast A – oznacza powierzchnię.", "W stopach na granicach ziaren zachodzi segregacja zanieczyszczeń, tworzą się fazy międzymetaliczne, wtrącenia itp. Niejednorodność granic ziaren jest przyczyną korozji międzykrystalicznej. Wysoka energia powierzchniowa granic ziaren sprawia, że są one miejscami uprzywilejowanymi, na których preferencyjnie zachodzą reakcje chemiczne lub elektrochemiczne."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Zjawiska powierzchniowe", "subject_id": 1430, "subject": "Napięcie powierzchniowe, zwilżalność", "paragraphs": ["Napięcie powierzchniowe jest to zjawisko fizyczne występujące na styku powierzchni cieczy z ciałem stałym, gazem lub inną cieczą. Zjawisko to spowodowane jest istnieniem niezrównoważonych na powierzchni cieczy sił przyciągania międzycząsteczkowego. Na cząsteczkę cieczy znajdującą się w głębi cieczy działają symetryczne siły oddziaływania międzycząsteczkowego ( Rys. 1 ). Cząsteczka znajdująca się na powierzchni cieczy doznaje działania sił międzycząsteczkowych tylko od strony cieczy. Siła wypadkowa działająca na cząsteczkę znajdującą się na powierzchni cieczy zmierza do wciągnięcia tej cząsteczki w głąb cieczy. Ciecz zachowuje się tak, jakby jej powierzchnia była pokryta elastyczną błonką, wykazującą tendencję do kurczenia się. Ze względu na występowanie napięcia powierzchniowego, ciecze wykazują tendencję do przyjmowania kształtu, któremu odpowiada najmniejsza energia. Krople wody zawsze dążą do przyjęcia kształtu kulistego. Kula jest bryłą geometryczną, która wykazuje najmniejszy stosunek powierzchni do objętości.", "Aby zwiększyć powierzchnię cieczy, należy wykonać pracę, która jest wyrażona równaniem ( 1 ).", "gdzie W – oznacza pracę wykonaną w celu zwiększenia powierzchni cieczy, A – powierzchnię cieczy, natomiast współczynnik proporcjonalności \\( \\sigma \\) nosi nazwę napięcia powierzchniowego i jest on wyrażony w \\( \\ce{[J*m^2]} \\). Miarą napięcia powierzchniowego jest praca, jaką trzeba wykonać, aby zwiększyć powierzchnię cieczy o jednostkę powierzchni [1].", "Napięcie powierzchniowe zależy od temperatury cieczy i ze wzrostem temperatury napięcie powierzchniowe maleje. Napięcie powierzchniowe cieczy można zmniejszyć poprzez dodanie do niej substancji powierzchniowo-czynnych zwanych surfaktantami (mydła, detergenty). Cząsteczka surfaktantu zbudowana jest z dwóch grup. Jedna z nich wykazuje niskie powinowactwo do rozpuszczalnika (grupa liofobowa), a druga grupa wykazuje silne powinowactwo do rozpuszczalnika (grupa liofilowa). Cząsteczki surfaktantu gromadzą się na granicy faz (np. ciecz/gaz) i każda z grup miesza się z odrębną fazą, co skutkuje zmniejszeniem napięcia powierzchniowego.", "Siły napięcia powierzchniowego mają wpływ na kształt swobodnej powierzchni cieczy. Z oddziaływaniem napięcia powierzchniowego związany jest kulisty kształt kropel wody, powstawanie menisku, tworzenie się pęcherzyków, baniek oraz wznoszenia się cieczy w cienkich rurkach zwanych kapilarami (zjawisko włoskowatości). Zakrzywienia powierzchni swobodnej cieczy występujące na granicy dwóch faz (np. cieczy i ciała stałego), spowodowanie współdziałaniem sił napięcia powierzchniowego oraz sił przylegania (adhezji) prowadzi do powstania menisku.", "Menisk wypukły powstaje, gdy siły oddziaływania między cząsteczkami cieczy i ściankami naczynia są mniejsze od sił oddziaływań samych cząsteczek cieczy. Menisk wklęsły powstaje, gdy siły oddziaływania między cząsteczkami cieczy i ściankami naczynia są większe od siły wzajemnych oddziaływań cząsteczek cieczy. W cienkich rurkach (kapilarach) menisk może spowodować podniesienie lub obniżenie słupa cieczy w zależności od kąta zwilżania. W przypadku menisku wklęsłego (ciecz zwilża ścianki naczynia) tworzącego się w cieczy znajdującej się w cienkiej szklanej rurce, słup cieczy jest podnoszony na znaczną wysokość. Jeśli ciecz nie zwilża ścianek naczynia, wówczas tworzy się menisk wypukły, a słup cieczy jest obniżany ( Rys. 2 ).", "Metody pomiaru napięcia powierzchniowego można podzielić na metody bezwzględne i metody względne. Metody bezwzględne pozwalają na bezpośredni pomiar napięcia powierzchniowego, natomiast metody względne pozwalają na wyznaczenie parametrów służących do obliczania napięcia powierzchniowego badanej cieczy i porównania ich z takimi samymi parametrami wyznaczonymi dla cieczy o znanym napięciu powierzchniowym.", "Metody bezwzględne:", "Metody względne:", "Jeśli ciało stałe łatwo pokrywa się warstwą wody, to mówi się, że posiada ono właściwości hydrofilowe (materiał łatwo zwilżalny), natomiast materiał trudno zwilżalny ma właściwości hydrofobowe. W zależności od charakteru powierzchni danego materiału, kropla wody rozpłynie się na niej, bądź pozostanie na nim zachowując swój kulisty kształt. Zdolność do zwilżania ciała stałego przez ciecz jest charakteryzowana za pomocą kąta zwilżania. Rys. 3 przedstawia kąt zwilżania dla cieczy całkowicie zwilżającej ciało stałe (a) i dla cieczy niezwilżającej powierzchni ciała stałego (b).", "Kąt zwilżania zależy od napięcia powierzchniowego występującego na granicy faz: ciało stałe (s) / ciecz (c), ciało stałe (s) / gaz (g) i ciecz (c) / gaz (g) zgodnie z równaniem ( 3 ).", "gdzie \\( \\sigma_{gs} \\) oznacza napięcie powierzchniowe na granicy gaz/ciało stałe, \\( \\sigma_{cs} \\) – napięcie powierzchniowe na granicy ciecz/ciało stałe, \\( \\sigma_{gc} \\) – napięcie powierzchniowe na granicy gaz/ciecz. Jeśli \\( cos\\theta \\) jest równy jeden, to ciecz zwilża powierzchnię ciała stałego, jeśli cos \\( cos\\theta \\) jest równy minus jeden, to ciecz nie zwilża powierzchni ciała stałego. Wartość \\( cos\\theta \\) jest nazywana współczynnikiem zwilżalności.", "Zjawisko zwilżania jest bardzo ważne w wielu procesach technologicznych, np. wytwarzania materiałów kompozytowych, nakładania powłok metalicznych. Zwilżalność odgrywa istotną rolę w korozji atmosferycznej, a także przy nanoszeniu farb, lakierów czy powłok organicznych. W celu podniesienia odporności na korozję na metalach lub stopach wytwarza się hydrofobowe powłoki, które ograniczają zwilżalność materiału przez elektrolit. Kąt zwilżania większy od zera umożliwia unoszenie się na powierzchni cieczy ciał stałych o gęstości większej od gęstości cieczy. Zjawisko to wykorzystywane jest w procesie flotacji, która polega na rozdzieleniu ciał stałych rozdrobnionych wykorzystując różnice zwilżalności. Kąt zwilżania zwiększa się podczas impregnacji tkanin, dzięki czemu uzyskują one wodoodporność."], "definitions": [{"name": "Definicja 1: Napięcie powierzchniowe", "content": "Napięcie powierzchniowe definiuje się jako siłę styczną do powierzchni cieczy, działającą na jednostkę obrzeża powierzchni cieczy ( 2 ).\n\n\t\t\t\t\t(2)\n\n\t\t\t\t\t\t\t\t\\( {\\sigma} = \\dfrac{F}{l} \\)\n\ngdzie:\nF – to siła napięcia powierzchniowego, działająca równolegle do powierzchni cieczy,\n\nl – długość odcinka, na którym działa siła."}, {"name": "Definicja 2: Zwilżalność", "content": "Zwilżalność jest właściwością materiałów, która charakteryzuje ich sposób zachowania się w kontakcie z cieczami."}]} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Związki koordynacyjne", "subject_id": 1433, "subject": "Związki koordynacyjne - wprowadzenie", "paragraphs": ["Związki kompleksowe tworzą najczęściej metale należące do bloku \\( d \\) układu okresowego. Budowa związków kompleksowych została szczegółowo opisana w module Związki kompleksowe w podręczniku Chemia Ogólna. Liczbą atomów bezpośrednio połączonych z atomem centralnym nazywamy liczbą koordynacyjną. Od wartości liczby koordynacyjnej zależy przestrzenne rozmieszczenie ligandów w kompleksach ( Tabela 1 ). Liczba koordynacyjna może przyjmować wartości od 2 do 8, jednak najczęściej są spotykane kompleksy o liczbie koordynacyjnej 4 i 6. Większe liczby koordynacyjne 9, 10 i 12 spotykane są sporadycznie [1].", "Związki kompleksowe o liczbie koordynacyjnej 2 mają strukturę liniową, a jon centralny jest zwykle jednowartościowy np. \\( \\ce{Cu^+} \\), \\( \\ce{Ag^+} \\), czy \\( \\ce{Au^+} \\). Kompleksy o liczbie koordynacyjnej 3 mają kształt płaski lub kształt piramidy trygonalnej. Liczba koordynacyjna 4 jest często spotykana w przypadku kompleksów metali bloku \\( d \\), a najczęściej spotykana w przypadku kompleksów metali bloku \\( s \\) i \\( p \\). Kompleksy te mogą wykazywać strukturę tetraedryczną lub płaską kwadratową. Kompleksy o liczbie koordynacyjnej 5 mogą przybierać kształt piramidy tetragonalnej lub bipiramidy trygonalnej. Liczba 6 jest najczęściej spotykaną liczbą koordynacyjną metali bloku \\( d \\). Kompleksy te mają kształt ośmiościanu foremnego (oktaedru). Wyższe liczby koordynacyjne są spotykane w przypadku, gdy atomy centralne mają duże rozmiary np. \\( Mo(VI) \\) czy \\( W(VI) \\).", "Ligandami mogą być zarówno obojętne cząsteczki, np. \\( \\ce{H_2O} \\), \\( \\ce{NH_3} \\), \\( \\ce{O} \\), jak i ujemne jony, np. \\( \\ce{NO_3^-} \\), \\( \\ce{SO_4^{2-}} \\), \\( \\ce{CN^-} \\), \\( \\ce{Cl^-} \\). Ligandy, których budowa pozwala na dostarczenie dwu lub więcej atomów skoordynowanych wokół atomu centralnego nazywamy ligandami chelatowymi lub kleszczowymi."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Związki koordynacyjne", "subject_id": 1434, "subject": "Teorie stosowane w chemii koordynacyjnej", "paragraphs": ["Do opisu budowy i właściwości związków kompleksowych wykorzystuje się teorie oparte na mechanice kwantowej. Najbardziej ogólną jest teoria orbitali molekularnych. Uwzględnia ona ilościowy udział w wiązaniu orbitali jonu centralnego, jak również orbitali ligandów oraz rozpatruje wszystkie elektrony cząsteczki związku koordynacyjnego.", "Teoria wiązań walencyjnych rozpatruje tworzenie się wiązań poprzez nakładanie się orbitali atomowych w wyniku czego powstają orbitale cząsteczkowe. Teoria ta wykorzystuje koncepcję hybrydyzacji orbitali atomowych.", "W przypadku związków kompleksowych, gdzie ligandami są cząsteczki amoniaku dochodzi do nakładania się orbitalu posiadającego wolną parę elektronową z pustym orbitalem typu d pochodzącym od atomu, bądź jonu centralnego.", "Teoria pola krystalicznego zakłada, że wiązanie pomiędzy centralnym kationem metalu z bloku \\( d \\) a ligandami jest wiązaniem jonowym. Rozpatruje ona wpływ pola ujemnych ligandów, które otaczają jon metalu na energię jego orbitali \\( d \\). Gdy ligandy zbliżają się do jonu centralnego to są odpychane przez elektrony jonu centralnego, które znajdują się na zapełnionych orbitalach \\( d \\). Elektrony znajdujące się w pobliżu ligandów będą miały wyższą energię niż te położone dalej. W efekcie energia pięciokrotnie zdegenerowanego orbitalu \\( d \\) ulega zmianie i dochodzi do rozszczepienia tego orbitalu na dwie grupy różniące się energią. Na podstawie licznych badań ułożono najczęściej spotykane ligandy w szereg według wzrastającej energii rozszczepienia w kompleksach wytwarzanych przez te ligandy. Szereg ten nazwano szeregiem spektrochemicznym:", "Ligandy zajmujące miejsce po lewej stronie szeregu wykazują najsłabsze pole, a co za tym idzie najsłabsze działanie rozszczepiające. Najsilniejsze działanie rozszczepiające wywierają jony cyjankowe [2]. Teoria pola krystalicznego daje wyjaśnienie dlaczego kompleksy metali przejściowych są barwne. Po rozszczepieniu zdegenerowanego orbitalu d na dwie grupy, po absorpcji fotonu jeden z elektronów może przeskoczyć na wyższy poziom energetyczny i atom ulega wzbudzeniu. Różnica energii pomiędzy atomem wzbudzonym a atomem w stanie podstawowym jest równa energii zaabsorbowanego fotonu. Zaabsorbowane mogą być tylko fotony o ściśle określonej długości fali, dlatego każdy związek posiada określone zabarwienie.", "Za pomocą powyższych teorii można zinterpretować kształt kompleksu oraz jego własności magnetyczne i własności optyczne."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Związki koordynacyjne", "subject_id": 1435, "subject": "Zastosowanie związków koordynacyjnych", "paragraphs": ["Chemia związków kompleksowych jest jednym z dynamicznie rozwijających się obszarów chemii. Mnogość kompleksów wynika z faktu, że liczne metale mogą tworzyć wiązania koordynacyjne, a różnego rodzaju ligandów również jest dużo. Związki koordynacyjne odgrywają bardzo ważną rolę w organizmach żywych. Przykładem jest hemoglobina – kompleks żelaza(II) służąca jako barwnik oddechowy, chlorofil – kompleks magnezu – biorący udział w fotosyntezie czy witamina B12.", "Związki koordynacyjne stosowane są w wielu dziedzinach. W chemii analitycznej do ustalania składu jakościowego i ilościowego danego materiału często stosuje się reakcje kompleksowania jonów. Istnieje cały dział chemii analitycznej, nazwany kompleksometrią, który obejmuje wszystkie metody miareczkowe, w których oznaczenie polega na tworzeniu się związków kompleksowych o charakterystycznych właściwościach, które są niezbędne do oznaczenia składu danej substancji. Większość metali przejściowych tworzy barwne kompleksy absorbujące promieniowanie elektromagnetyczne w zakresie UV-VIS. Dlatego kompleksy te znalazły zastosowanie w analizie chemicznej metodami spektrofotometrycznymi.", "Kompleksy jonów metali z licznymi ligandami odgrywają dużą rolę w oznaczaniu pierwiastków ze względu na dużą czułość reakcji, trwałość produktów i selektywność. Stosuje się je do wytrącania jonów metali, maskowania jonów przeszkadzających w oznaczeniach, czy ekstrakcji jonów metali z jednego rozpuszczalnika do drugiego. Największe zastosowanie w oznaczeniach miareczkowych jonów metali znalazł kwas etylenodiaminotetraoctowy (EDTA), którego anion przedstawiono w przykładzie \"Ligandy chelatowe\" modułu Związki koordynacyjne - wprowadzenie.", "Związki kompleksowe metali znajdują zastosowanie w katalizie, a ich działanie jest podobne do katalizatorów enzymatycznych, które wykazują wysoką selektywność, czyli mają zdolność wytwarzania jednego produktu reakcji z większą wydajnością. Stosuje się je do syntezy związków chemicznych o specjalnym przeznaczeniu, np. związki zapachowe, związki dla rolnictwa, leki i witaminy [2].", "Kolejnym zastosowaniem kompleksów są czujniki, które charakteryzują się dużą selektywnością i czułością. Kompleksy metali są stosowane w czujnikach gazów: tlenku azotu(II) – \\( NO \\), tlenku węgla – \\( CO \\), siarkowodoru – \\( H_2S \\), tlenu – \\( O_2 \\) czy gazów toksycznych, np. dwurdzeniowe kompleksy rodu zastosowano do produkcji czujników tlenku węgla(II). W kryminalistyce, jako detektory śladów stosuje się kompleksy cynku Zn(II), a w przypadku braku wyrazistości śladów kompleks europu Eu(III) [2].", "Kompleksy żelaza, miedzi, cynku i manganu, głównie chelatowe stosuje się w ogrodnictwie, jako składniki łatwo przyswajalnych nawozów. Charakteryzują się one dobrą rozpuszczalnością i przenikalnością przez błony komórkowe rośliny. Roślina pobiera mikroelementy nie tylko w formie jonu, ale również całego chylatu, z którego mikroelement uwalnia się powoli i jest dłużej dostępny dla rośliny. Rola ligandów chelatowych polega w tym przypadku na ochronie mikroelementu przed przejściem w trudno rozpuszczalne sole, czy przed działaniem niekorzystnych reagentów, które utrudnią przyswojenie go przez roślinę [3]. Kolejnym dużym obszarem, gdzie stosuje się związki kompleksowe jest medycyna. Kompleksowe związki platyny (II) są powszechnie stosowanymi lekami przeciwnowotworowymi, np. cisplatyna i karboplatyna stosowana w przypadku nowotworu głowy, jądra, jajnika, szyjki macicy i płuc; oksaliplatyna – w przypadku raka jelita grubego.", "Związki koordynacyjne metali stosowane są również w diagnostyce medycznej jako środek kontrastowy w celu poprawy jakości obrazu. Dobiera się go tak, aby gromadził się wybiórczo w danym narządzie. Najważniejszymi środkami kontrastowymi są kompleksy gadolinu (III), żelaza (III) w przypadku jądrowego rezonansu magnetycznego; w pozytonowej tomografii emisyjnej (PET) kompleksy technetu, gadolinu, indu, itru, cyrkonu i miedzi [2].", "Ciągle zwiększa się liczba związków kompleksowych metali stosowanych w diagnozowaniu i terapii wielu chorób. Związki kompleksowe są stosowane nie tylko w terapiach nowotworowych i obrazowaniu, ale również w cukrzycy, chorobie Alzheimera, chorobach wirusowych i bakteryjnych czy reumatyzmie."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Podstawy radiochemii", "subject_id": 1436, "subject": "Radiochemia - wprowadzenie", "paragraphs": ["Radiochemia jest to nauka z pogranicza chemii i fizyki, zajmująca się badaniem przemian chemicznych pierwiastków i substancji promieniotwórczych. Zjawisko promieniotwórczości zostało odkryte w 1896 roku przez Henriego Becquerela. Badania nad zjawiskiem promieniotwórczości były prowadzone przez Marię Skłodowską-Curie i Piotra Curie, którzy otrzymali Nagrodę Nobla w 1903 roku. W roku 1911 Maria Skłodowska-Curie otrzymała nagrodę Nobla za odkrycie radu i polonu. Pierwiastki od polonu do uranu o liczbach atomowych od 84 do 92 są promieniotwórcze. Jądra atomowe (nuklidy) pierwiastków promieniotwórczych naturalnych i sztucznych wykazują zdolność do samorzutnego rozpadu, któremu towarzyszy emisja różnego rodzaju promieniowania. Budowa jądra atomowego i podstawowe reakcje jądrowe są przedstawione w podręczniku Chemia ogólna (zob. Jądro atomowe, Reakcje jądrowe ). Szybkość rozpadu nietrwałych jąder pierwiastków promieniotwórczych jest wprost proporcjonalna do liczby nierozłożonych atomów, równanie ( 1 ).", "gdzie N – liczba nierozłożonych atomów, t – czas rozpadu promieniotwórczego, \\( {\\lambda} \\) - stała rozpadu promieniotwórczego. Przed ułamkiem znajduje się znak minus z tego względu, że liczba przedstawiająca ułamek liczby atomów nierozłożonych w czasie maleje. Czas, po jakim połowa ilości atomów izotopu promieniotwórczego ulega rozpadowi nazywany jest okresem półtrwania, \\( T_{1/_2} \\), równanie ( 2 ).", "Okres półtrwania jest wielkością charakteryzującą szybkość rozpadu promieniotwórczego i zgodnie z równaniem ( 2 ) nie zależy on od początkowej ilości izotopu promieniotwórczego. Dla izotopu radu \\( \\ce{ ^{226}_{88}Ra } \\) okres półtrwania wynosi 1622 lata, to znaczy, że po tym czasie połowa dowolnej ilości radu ulegnie rozpadowi [1]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Podstawy radiochemii", "subject_id": 1437, "subject": "Szeregi promieniotwórcze, reakcje jądrowe i termojądrowe", "paragraphs": ["Podczas rozpadu jąder pierwiastków promieniotwórczych tworzą się jądra nowego pierwiastka, które są nietrwałe i ulegają samorzutnie dalszemu rozpadowi. W ten sposób tworzą się szeregi promieniotwórcze. Wyróżniamy naturalne szeregi promieniotwórcze:", "Neptun jest pierwiastkiem promieniotwórczym otrzymywanym sztucznie. Jego izotop \\( \\ce{^{237}_{93}$Np$} \\) zapoczątkowuje szereg promieniotwórczy zwany szeregiem neptunowym. Każdy szereg promieniotwórczy zaczyna się nuklidem stosunkowo trwałym, który zanika wolniej niż pozostałe nuklidy, a kończy się nuklidem niepromieniotwórczym, który nie ulega dalszym przemianom. Te trzy szeregi promieniotwórcze kończą się trwałymi izotopami ołowiu. Na Rys. 1 przedstawiono szereg torowy.", "Szereg torowy rozpoczyna się izotopem toru \\( \\ce{^{232}$Th$} \\), a kończy stabilnym izotopem ołowiu \\( \\ce{^{208}$Pb$} \\). Liczba masowa A decyduje o tym, do jakiego szeregu promieniotwórczego należy dany nuklid. Podczas rozpadu promieniotwórczego liczba masowa zmniejsza się o 4 jednostki na skutek emisji cząstki \\( {\\alpha} \\). W szeregu torowym liczby masowe nuklidów wyrażają się liczbą 4n, gdzie n jest liczbą naturalną. W szeregu uranowo-radowym liczby masowe nuklidów wyrażają się liczbą 4n + 2, a w szeregu uranowo-aktynowym 4n + 3, natomiast w sztucznym neptunowym szeregu promieniotwórczym liczby masowe wyrażają się liczbą 4n +1.", "Rozpad promieniotwórczy dotyczy nie tylko pierwiastków, które występują w przyrodzie, ale tego typu przemiany jąder atomowych są prowadzone również w warunkach laboratoryjnych. Sztuczne przemiany promieniotwórcze pierwiastków zachodzą podczas bombardowania jąder atomowych cząstkami \\( {\\alpha} \\), neutronami, protonami, deuteronami i innymi cząstkami. Energia cząstek bombardujących jądra atomowe jest zwykle rzędu kilkudziesięciu MeV. Jądra atomowe pochłaniają energię i emitują cząstki elementarne np. protony, neutrony itp. Neutron jest cząstką, która najłatwiej dociera do jądra atomowego, ponieważ nie posiada ładunku elektrycznego i nie ulega odpychaniu elektrostatycznemu podczas zbliżania się do niego. Dzięki temu neutrony posiadające nawet niedużą energię są często używane do przeprowadzenie reakcji jądrowych.", "Reakcje jądrowe można przeprowadzić również używając jądra pierwiastków o większych liczbach atomowych i posiadających dużą energię. Podczas reakcji jądrowych przebiegających przy użyciu takich jąder powstają nowe pierwiastki oraz neutrony. Nowo powstające pierwiastki mają liczby atomowe powiększone o 3, 4, 5, 6, 7, 8, 9 lub 10 jednostek. Przykładem tego typu reakcji jądrowej jest otrzymywanie rubidu.", "Metodę tę wykorzystuje się do otrzymywania pierwiastków transuranowych.", "Przykładem reakcji termojądrowej jest łączenie się dwóch jąder deuteru ( \\( \\ce{^{2}_{1}$D$} \\)) w jedno jądro helu ( \\( \\ce{^{4}_{2}$He$} \\)). Podczas takiej reakcji wydzielają się bardzo duże ilości energii, ponieważ energia wiązania nukleonu w deuterze jest znacznie mniejsza niż energia wiązania nukleonu w jądrze helu [1]. Reakcje termojądrowe mogą zachodzić samorzutnie, ale tylko w bardzo wysokich temperaturach, np. takich jakie panują we wnętrzu gwiazd."], "definitions": [{"name": "Definicja 1: Reakcje termojądrowe", "content": "Reakcje termojądrowe zachodzą w wysokich temperaturach rzędu \\( \\ce{10^{7}} \\) - \\( \\ce{10^{8}} \\) K i polegają one na łączeniu się mniejszych jąder w większe, co prowadzi do wydzielania się bardzo dużych ilości energii."}]} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Podstawy radiochemii", "subject_id": 1438, "subject": "Rozszczepienie jąder atomowych, reakcje łańcuchowe", "paragraphs": ["Jeśli jądra atomowe są bombardowane cząstkami posiadającymi bardzo dużą energię (rzędu kilkaset MeV), wówczas następuje rozszczepienie jąder atomowych. Nietrwałe ciężkie jądra atomowe naświetlane protonami ulegają rozpadowi na dwa fragmenty o porównywalnych liczbach masowych i równocześnie następuje emisja 2 lub 3 neutronów. Neutrony powstające podczas rozszczepienia jąder atomowych są zdolne do rozszczepienia nowo powstałych jąder atomowych, które powstały z rozszczepienia jądra atomowego ciężkiego izotopu (np. \\( \\ce{^{235}_{92}$U$} \\)). Liczba neutronów, które powstają podczas rozszczepienia jąder jest znacznie większa niż liczba neutronów padających, co prowadzi do zajścia reakcji łańcuchowej w czystym izotopie uranu \\( \\ce{^{235}_{92}$U$} \\).", "W reakcji łańcuchowej wyróżniamy trzy etapy: inicjację, propagację i terminację. Reakcja łańcuchowa zachodzi wtedy, gdy proces inicjacji jest szybszy od procesu terminacji, ale znacznie szybszy od procesu propagacji. Reakcja łańcuchowa przebiega bardzo szybko i prowadzi do gwałtownego wybuchu, podczas którego uwalniane są ogromne ilości energii. Reakcję łańcuchową rozszczepienia jąder uranu \\( \\ce{^{235}_{92}$U$} \\) przedstawiono na Rys. 1.", "Reakcja łańcuchowa może zachodzić tylko w przypadku bombardowania neutronami jąder czystego izotopu uranu \\( \\ce{^{235}_{92}$U$} \\). Ruda uranu zawiera cięższy izotop uranu \\( \\ce{^{238}_{92}$U$} \\) (zawartość 99,3 \\( \\% \\)), który nie ulega rozszczepieniu pod wpływem bombardowania przez neutrony powstające podczas rozpadu izotopu \\( \\ce{^{235}_{92}$U$} \\). Dlatego też, na uranie, który jest otrzymany bezpośrednio z rudy uranowej reakcja łańcuchowa nie zachodzi. Reakcję rozszczepienia jąder izotopu uranu \\( \\ce{^{235}_{92}$U$} \\) można przeprowadzić w sposób kontrolowany i powolny unikając wybuchu. W taki sposób przeprowadza się reakcję łańcuchową rozszczepienia jąder uranu \\( \\ce{^{235}_{92}$U$} \\) w reaktorze atomowym. Podczas takiej reakcji produkowane są bardzo duże ilości energii, która jest używana do celów przemysłowych.", "W reaktorach atomowych stosuje się zwykle uran naturalny wzbogacony w izotop \\( \\ce{^{235}_{92}$U$} \\). Uran naturalny można również wzbogacić izotopem plutonu \\( \\ce{^{239}_{94}$Pu$} \\). Jądra izotopu uranu \\( \\ce{^{235}_{92}$U$} \\) ulegają rozszczepieniu pod wpływem bombardowania zarówno neutronami termicznymi, jak i neutronami prędkimi, których energia przekracza 1 MeV. Z kolei jądra izotopu uranu \\( \\ce{^{238}_{92}$U$} \\) ulegają rozszczepieniu tylko pod wpływem bombardowania neutronami prędkimi. Neutrony o energii mniejszej są pochłaniane przez jądra izotopu uranu \\( \\ce{^{238}_{92}$U$} \\). Najsilniejsze pochłanianie neutronów ma miejsce, gdy ich energia wynosi 7 eV. W celu zmniejszenia ilości pochłanianych neutronów przez izotop uranu \\( \\ce{^{238}_{92}$U$} \\) należy zmniejszyć ich energię do wartości znacznie niższych niż 7 eV, aby umożliwić zajście reakcji łańcuchowej. Spowolnienie neutronów można osiągnąć otaczając pręty uranowe moderatorami takimi, jak grafit lub ciężka woda \\( \\ce{D_{2}O} \\).", "Zastosowanie moderatorów zapewnia wystarczające stężenie neutronów w reaktorze umożliwiające kontynuację reakcji łańcuchowej. Jeśli stężenie neutronów o energii pozwalającej na zachodzenie reakcji łańcuchowej jest zbyt duże w reaktorze atomowym, wówczas wprowadza się do reaktora pręty wykonane z materiału mającego zdolność pochłaniania neutronów np. cyrkonu, hafnu. Energia powstająca w reaktorze atomowym jest odprowadzana w postaci ciepła za pośrednictwem np. gazowego helu, wody znajdującej się pod wysokim ciśnieniem. Ciepło przenoszone przez te płyny jest wykorzystywane np. do napędzania turbin parowych w elektrowniach."], "definitions": [{"name": "Definicja 1: Reakcja łańcuchowa", "content": "Reakcja łańcuchowa jest serią reakcji jądrowych zachodzących jedna po drugiej."}]} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Podstawy radiochemii", "subject_id": 1439, "subject": "Zastosowanie izotopów promieniotwórczych", "paragraphs": ["Izotopy promieniotwórcze (radioizotopy), są niestabilnymi izotopami danego pierwiastka, które ulegają samoistnemu rozpadowi. Czas, w którym połowa jąder izotopu promieniotwórczego zanika nazywa się czasem połowicznego zaniku. Izotopy promieniotwórcze różnych pierwiastków znalazły zastosowanie w przemyśle, medycynie, badaniach naukowych itp. Radioizotopy są szeroko stosowane jako wskaźniki promieniotwórcze. Izotop radioaktywny po wprowadzeniu do związku chemicznego, układu biologicznego lub fizycznego może być śledzony za pomocą aparatury wykrywającej promieniowanie, które on emituje. Przykłady zastosowania izotopów radioaktywnych:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Zastosowanie i badanie związków nieorganicznych", "subject_id": 1431, "subject": "Zastosowanie związków nieorganicznych w nanotechnologiach i energetyce", "paragraphs": ["Zmiany klimatyczne i postępująca degradacja środowiska naturalnego wymuszają konieczność przeprowadzenia zmian w gospodarce energetycznej. Dużo uwagi i prac poświęca się odnawialnym źródłom energii. Jednym z rozwiązań jest energetyka oparta na wodorze. Wodór w reakcji z tlenem uwalnia aż 143,1 \\( MJ/kg \\) energii. Największą zaletą tej reakcji jest fakt, że w jej wyniku nie trafiają do środowiska żadne zanieczyszczenia, bo jedynym produktem jest woda.", "Przetwarzanie energii wytworzonej w tej reakcji na energię elektryczną przeprowadza się w ogniwach paliwowych (zob. Ogniwo wodorowo - tlenowe ) w podręczniku Chemia ogólna. Wodór, który jest dostarczany do ogniwa paliwowego wytwarza się metodami, które nie przynoszą szkód dla środowiska naturalnego (zob. Elektroliza wody ). Kolejnym obszarem energetyki, gdzie szeroko są stosowane związki nieorganiczne, jest fotowoltaika.", "Podstawy fizyczne tego procesu zostały opisane w rozdziale 3.5 Podstawy fizyczne konwersji energii słonecznej na energię elektryczną w podręczniku Fotowoltaika. Ogniwa fotowoltaiczne mają budowę warstwową (zob. 4.1 Elementy struktury ogniw fotowoltaicznych ) w podręczniku Fotowoltaika). Warstwy te składają się z różnego rodzaju związków nieorganicznych. Ogniwa te bazują głównie na krzemie, ale również popularne są selenki miedziowo-idowo-galowe \\( Cu(In,Ga)Se_2 \\) [1], [2], siarczek kadmu \\( CdS \\) i tellurek kadmu \\( CdTe \\) [3], czy selenek molibdenu \\( MoSe \\) [4]. Jako transparentne elektrody przewodzące stosuje się tlenek indowo-cynowy, tlenek cynku, tlenek cyny [5]. W fazie badań i testów są nanorurki węglowe [6].", "Energetyka jądrowa opiera się na związkach uranu. Energię jądrową uzyskuje się w wyniku rozszczepienia jąder w reaktorach jądrowych, przy czy powstają ogromne ilości energii. Jako paliwo jądrowe stosuje się wzbogacony uran \\( U-235 \\) w postaci stałej lub w postaci roztworu \\( \\ce{UO_2(NO_3)_2} \\) – azotan uranylu lub \\( \\ce{UO_2SO_4} \\) – siarczan uranylu albo w postaci gazowej fluorek uranu (VI), \\( \\ce{UF_6} \\). Innym materiałem wykorzystywanym jako paliwo jądrowe jest pluton \\( \\ce{Pu-239} \\) [7].", "Wiele związków nieorganicznych stosuje się w postaci nanomateriałów. Nanotechnologia jest jedną z przodujących dziedzin nauki, która obecnie szybko się rozwija. Jej istotną część stanowią synteza i badania nanocząstek. Różnego rodzaju cząstki o rozmiarach nanometrycznych znajdują zastosowanie do celów badawczych, w wielu gałęziach przemysłu i coraz częściej są spotykane w życiu codziennym.", "Nanomateriały mogą być zerowymiarowe (kropki kwantowe), jednowymiarowe (nanodruty, nanopręty, nanorurki), dwuwymiarowe (cienkie warstwy), czy trójwymiarowe (np. Nanostruktury srebra ).", "Związki nieorganiczne wykorzystywane w ogniwach fotowoltaicznych, opisane powyżej są wytwarzane w postaci cienkich warstw."], "definitions": [{"name": "Definicja 1: Fotowoltaika", "content": "\nFotowoltaika – jest to dziedzina nauki, która zajmuje się transformacją światła słonecznego w energię elektryczną, wykorzystując zjawisko fotowoltaiczne.\n\n"}, {"name": "Definicja 2: Nanomateriał", "content": "\nNanomateriałem możemy nazwać taki materiał, którego przynajmniej jeden wymiar jest poniżej 100 nm. Można powiedzieć, że są to struktury pośrednie pomiędzy atomami i cząsteczkami, a materiałem makroskopowym. Materiał w skali nano często wykazuje inne właściwości, niż w skali makroskopowej.\n\n"}]} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Wybrane techniki badania struktury związków nieorganicznych", "subject_id": 1432, "subject": "Wprowadzenie do technik badawczych", "paragraphs": ["Struktura związków nieorganicznych może być badana technikami spektroskopowymi, mikroskopowymi, dyfrakcyjnymi oraz chromatograficznymi.", "Tabela 1 podaje rozwinięcia powszechnie stosowanych angielskich skrótów nazw technik pomiarowych w porządku alfabetycznym oraz ich polskich odpowiedników.", "Poszczególne techniki opisano w modułach: Techniki spektroskopowe, Chromatografia, Techniki mikroskopowe, Dyfrakcja rentgenowska."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Wybrane techniki badania struktury związków nieorganicznych", "subject_id": 1440, "subject": "Techniki spektroskopowe", "paragraphs": ["Techniki spektroskopowe stosowane w badaniu związków nieorganicznych dzieli się ze względu na rodzaj oddziaływania promieniowania elektromagnetycznego z badanym ciałem. Spektroskopia inwazyjna polega na badaniu widm powstających na skutek niszczenia struktury analizowanej substancji przez przechodzące przez nią promieniowanie, np. w procesie jonizacji.", "Spektroskopia absorpcyjna polega na analizie widma promieniowania elektromagnetycznego przechodzącego przez badaną substancję. Część promieniowania zostaje pochłonięta (zaabsorbowana) przez materię. Na podstawie analizy widma można określić budowę badanej materii. Rys. 1 przedstawia zakresy promieniowania elektromagnetycznego stosowane w technikach spektroskopowych.", "Spektroskopia emisyjna polega na przeprowadzeniu badanej substancji w stan wzbudzony (przejście do wyższego stanu energetycznego) w odpowiednim źródle energii. Źródłem promieniowania mogą być: płomień, łuk elektryczny lub wyładowania elektryczne w gazach, indukcyjnie sprzężona plazma lub plazma indukowana. Tak wzbudzona substancja emituje promieniowanie elektromagnetyczne, które zawiera charakterystyczne dla danego pierwiastka długości fal: \\( \\lambda \\)1, \\( \\lambda \\)2 ... Promieniowanie to można rozszczepić za pomocą przyrządów spektralnych i zarejestrować jako widmo liniowe, czyli zbiór linii spektralnych o określonych długościach fal. Światło emitowane przez wzbudzone atomy przypada na obszar widzialny widma (380-780 nm), bliską podczerwień (w zakresie 780-1500 nm) i próżniowy bliski ultrafiolet (w zakresie 100-380 nm). Widmo liniowe stanowi podstawę jakościowej analizy spektralnej. Analiza ilościowa opiera się na założeniu liniowej zależności między natężeniem linii emisyjnej, a zawartością danego pierwiastka w badanej próbce. Technika wymaga stosowania wzorców.", "Spektroskopia odbiciowa i rozproszeniowa polega na analizie widm powstałych w wyniku odbicia promieniowania elektromagnetycznego od powierzchni analizowanej substancji lub w wyniku rozpraszania promieniowania. Rys. 2 przedstawia różne metody spektroskopowe w zależności od rodzaju odbitego, bądź rozproszonego rodzaju cząstek/promieniowania: \\( i \\) oznacza jon, \\( e \\) - elektron, \\( \\gamma \\) - foton, \\( X-ray \\) - promieniowanie rentgenowskie.", "AAS – absorpcyjna spektroskopia atomowa może być stosowana do analizy śladowych pierwiastków. Zasada pomiaru opiera się na zjawisku absorpcji promieniowania o specyficznej długości fali przez swobodne atomy uwalniane w trakcie atomizacji np. pod wpływem temperatury lub poprzez odparowanie rozpuszczalnika. Do najważniejszych atomizerów należą: płomieniowe, elektrotermiczne i plazma niskotemperaturowa (do 4000 K). Elektrony na powłokach walencyjnych mogą zostać wzbudzone i przeskoczyć na wyższe powłoki pod wpływem źródła energii. Przejściom elektronów pomiędzy różnymi poziomami energetycznymi odpowiadają różne częstotliwości promieniowania, których zbiór stanowi charakterystyczne dla danego pierwiastka widmo atomowe (widmo liniowe). Źródłem promieniowania w spektrometrze AAS są specjalne lampy emitujące energię charakterystyczną dla danego metalu. Detektory przekształcają sygnał w wersję cyfrową. Metoda AAS jest metodą identyfikacji jakościowej i ilościowej.", "AES – spektroskopia elektronów Augera. W spektroskopii Augera wiązka elektronów jest kierowana na badaną próbkę. W wyniku oddziaływania wiązki pierwotnej z materiałem zostają wybite elektrony z wewnętrznych, leżących bliżej jądra, powłok (powłoka K). Powstałe w ten sposób wolne miejsce w powłoce (luka elektronowa) są w bardzo krótkim czasie zajmowane przez elektron z wyższej powłoki. Elektron spadając na niższą powłokę oddaje energię, która jest przekazywana innemu elektronowi z jeszcze wyższej powłoki atomowej. Dzięki tej dodatkowej energii elektron opuszcza atom, co prowadzi do kolejnej jonizacji. Wyemitowany w ostatniej fazie procesu elektron nosi nazwę elektronu Augera. Rys. 3 przedstawia porównanie zjawiska wybicia elektronu Augera oraz wybicia fotoelektronu w metodzie XPS.", "Rys. 4 przedstawia przykładowe widmo Augera.", "ESCA – metoda została opisana pod nazwą XPS/ESCA (zob. poniżej).", "FTIR – spektroskopia w podczerwieni z transformacją Fouriera. Obszar widma elektromagnetycznego pomiędzy zakresem światła widzialnego a promieniowaniem mikrofalowym nazywamy podczerwienią (IR), obszar ten można podzielić na trzy podzakresy:", "Promieniowanie elektromagnetyczne w podczerwieni, absorbowane przez cząsteczki, wzbudza nie tylko elektrony, ale powoduje także zmiany energii oscylacyjnej i rotacyjnej cząsteczki. Oscylacja to ruch periodyczny, podczas którego atomy na przemian oddalają się i przybliżają do siebie[1]. Drgania oscylacyjne w cząsteczce można podzielić na: rozciągające symetryczne lub asymetryczne – charakteryzują się rytmicznymi zmianami odległości między atomami oraz deformacyjne, w których zmianie ulega kąt między wiązaniami atomów. Rys. 5 przedstawia możliwe drgania w cząsteczce.", "Widmo składa się z pasm absorpcyjnych, charakterystycznych dla danego związku, czy grup atomów wchodzących w jego skład. Do badań w podczerwieni służą spektrofotometry optyczne, składające się ze źródła promieniowania IR, kuwety z substancją badaną i kuwety odniesienia, detektora oraz rejestratora widma. Promieniowanie polichromatyczne o natężeniu modulowanym w czasie biegnie dwoma równoległymi wiązkami przez kuwetę z odnośnikiem i substancją badaną. Po dotarciu do detektora różnica pomiędzy promieniowaniem zaabsorbowanym przez odnośnik i badaną próbkę, zostaje przetworzone przez układ komputerowy poprzez transformację Fouriera na zależność natężenia od częstotliwości. Technika FTIR-ATR (Attenuated Total Reflectance – całkowitego osłabionego odbicia) umożliwia badanie próbek bezpośrednio w postaci stałej lub ciekłej, bez wcześniejszego przygotowania. Wiązka światła podczerwonego jest przepuszczana przez kryształ ATR w taki sposób, że odbija się od powierzchni wewnętrznej będącej w kontakcie z badaną próbką. To odbicie tworzy falę zanikającą, która rozciąga się aż do próbki. Głębokość penetracji próbki wynosi zwykle od 0,5 do 2 mikrometrów, a dokładna wartość jest określona przez długość fali światła, kąt padania oraz współczynniki załamania światła dla kryształu ATR i badanego medium. Wiązka jest następnie odbierana przez detektor wychodzący z kryształu. Technika FTIR jest stosowana przede wszystkim do badań substancji organicznych i organiczno-nieorganicznych. Do identyfikacji związków nieorganicznych stosuje się najczęściej bliską podczerwień. Rys. 6 przedstawia widmo FTIR substancji nieorganicznej.", "FT-Raman – promieniowanie elektromagnetyczne, czyli strumień fotonów zderzając się z atomami/cząsteczkami, wzbudza je do pewnego wirtualnego poziomu energetycznego. Wracając do stanu podstawowego atomy/cząsteczki emitują fotony promieniowania rozproszonego. Jeżeli fotony mają taki sam pęd i energię, jak fotony padające, jest to rozpraszanie Rayleigha. Jeżeli cząsteczka zyskuje lub traci energię w wyniku zderzenia z fotonami – następuje rozpraszanie nieelastyczne Ramana. Gdy energia jest wyższa, mamy do czynienia z rozpraszaniem stokesowskim, gdy niższa – antystokesowskim. Największa intensywność widma należy do pasma rayleighowskiego, które jest większe od sąsiadujących z nim pasm ramanowskich. Z kolei pasma stokesowskie są znacznie silniejsze od antystokesowskich, dlatego zwykle rejestruje się widmo Ramana rozproszenia stokesowskiego[2]. Rys. 7 przedstawia pasma rejestrowane w spektroskopii ramanowskiej.", "Technika powierzchniowo wzmocnionego rozproszenia Ramana SERS (ang. SERS: Surface Enhanced Raman Spectroscopy) polega na pomiarze promieniowania rozproszenia Ramana cząsteczek zaadsorbowanych na powierzchni metalu. Skutkuje to znacznym wzmocnieniem mierzonego promieniowania w stosunku do klasycznego pomiaru ramanowskiego. Rys. 8 przedstawia różnicę w intensywności sygnałów rejestrowanych klasyczną techniką FT-Raman oraz SERS.", "Techniki spektroskopowe w podczerwieni i Ramana są metodami komplementarnymi. Mogą istnieć drgania aktywne w widmie IR, a nieaktywne w widmie Ramana i odwrotnie. Jednak najczęściej można zarejestrować zarówno pasma ramanowskie, jak i pasma IR tych samych grup funkcyjnych, tyle że o różnej intensywności. Spektroskopia ramanowska pozwala na badanie próbek w różnym stanie skupienia (ciekłym, stałym, gazowym).", "ICP-MS – W spektrometrii masowej sprzężonej z plazmą wzbudzaną indukcyjnie odparowanie atomów z powierzchni metalu i ich jonizacja następuje w plazmie. Następnie za pomocą spektrometru masowego wyznacza się ilości poszczególnych jonów. Metoda odznacza się niską granicą wykrywalności (duża czułość); polega na pomiarze intensywności strumienia powstałych w plazmie jonów (w temperaturze ok. 6000-10000 K). W metodzie ICP-MS wymagane jest stosowanie próbek ciekłych. Najnowocześniejszą metodą wprowadzania próbek stałych do plazmy indukcyjnie sprzężonej w układzie ICP-MS jest technika ablacji laserowej. Pozwala ona na przeniesienie niewielkiej ilości materiału z powierzchni badanego obiektu do fazy gazowej (tzw. mikropróbkowanie laserowe).", "ICP-OES – W technice optycznej spektroskopii emisyjnej do atomizacji i wzbudzenia wykorzystuje się fale radiowe o wysokiej częstotliwości, które umożliwiają wytworzenie plazmy o wysokiej temperaturze (ok. 7000K). Dzięki niej związki chemiczne rozpadają się do atomów, a następnie ulegają wzbudzeniu, po czym emitują pochłoniętą energię w postaci promieniowania elektromagnetycznego, charakterystycznego dla danego pierwiastka. Metoda polega na jednoczesnym porównaniu sygnałów badanych pierwiastków z sygnałami uzyskanymi od wzorców.", "ISS spektroskopia rozpraszania jonów została opisana razem ze spektroskopią jonów wtórnych SIMS (zob. poniżej).", "MS – spektrometria mas (MS) to technika analityczna, w której badana substancja zostaje zjonizowana, a następnie mierzy się stosunek masy jonów do ładunku. Widma spektroskopii masowej są wykorzystywane do określenia składu pierwiastkowego metali, stopów, próbek skał, półprzewodników i innych materiałów nieorganicznych, wykrywania i oznaczania pierwiastków w ilościach śladowych, czy określania składu izotopowego pierwiastków. Stosuje się różne metody jonizacji, w zależności od stanu skupienia badanej substancji [3]. Próbki stałe poddaje się bombardowaniu elektronami (EI-MS Electron Ionization) lub jonizuje przy użyciu lasera (MALDI-MS Matrix-Assisted Laser Ionization). Substancje w stanie ciekłym jonizuje się przy pomocy wspomnianej wcześniej techniki laserowej (MALDI) oraz przez rozpylanie w wysokoenergetycznym polu elektrycznym ESI-MS (Electrospray Ionization). W przypadku substancji gazowych stosuje się jonizację chemiczną CI-MS (Chemical Ionization) lub plazmą wzbudzaną indukcyjnie (ICP-MS). Rys. 9 prezentuje widmo argenku galu otrzymane techniką spektroskopii masowej.", "NMR – spektroskopia magnetycznego rezonansu jądrowego polega na wzbudzaniu spinów jądrowych znajdujących się w zewnętrznym polu magnetycznym poprzez szybkie zmiany pola magnetycznego. W technice tej rejestruje się promieniowanie magnetyczne powstające na skutek zjawiska relaksacji, czyli powrotu układu spinów jądrowych stanu równowagi termodynamicznej. W spektroskopii NMR wykorzystuje się izotopy pierwiastków o połówkowym spinie. Rys. 10 prezentuje pierwiastki, które są wykorzystywane w spektroskopii NMR, te które mogą zostać wykorzystane oraz takie, które mogą potencjalnie być wykorzystane.", "Liczba rozszczepień sygnału NMR wskazuje, ile innych atomów występuje w pobliżu atomu badanego, natomiast przesunięcie sygnałów wskazuje na to, jakie są to atomy. Rys. 11 przedstawia widmo fosforowe widmo NMR cząsteczki organiczno-nieorganicznej.", "SIMS – Zarówno w przypadku spektroskopii jonów wtórnych SIMS, jak i spektroskopii rozpraszania jonów ISS, pierwotna wiązka jonów gazu obojętnego o energii kinetycznej 0,3-10 keV, jest kierowana na powierzchnię. Kiedy jon uderza w powierzchnię, mogą wystąpić dwa zjawiska. Jon pierwotny może zostać elastycznie rozproszony przez atom powierzchniowy, co skutkuje odbiciem jonu pierwotnego, energia kinetyczna odbitego jonu pierwotnego będzie zależała od masy atomu powierzchniowego, biorącego udział w procesie rozpraszania, dostarczając w ten sposób informacji o powierzchni. W przypadku spektroskopii masy jonów wtórnych SIMS, jony pierwotne nie ulegają rozproszeniu, tylko oddziałują z warstwą powierzchniową materiału, wybijając z niej jony. Jony te, nazywane jonami drugorzędowymi (stąd określenie spektrometria mas jonów wtórnych), są ogniskowane przez soczewkę jonową w spektrometrze masowym. Wydajności jonów wtórnych wytwarzanych podczas rozpylania zarówno materiałów organicznych, jak i nieorganicznych są bardzo niskie i wynoszą 0,1 \\( \\% \\) lub mniej dla większości materiałów, przy czym większość wyrzuconych fragmentów to cząstki obojętne. Jednak nawet przy bardzo niskiej gęstości prądu jonów pierwotnych liczba wytwarzanych jonów wtórnych jest wystarczająco duża, aby otrzymać widma masowe o wystarczającej czułości.", "UV-VIS – spektroskopia w nadfiolecie i świetle widzialnym. Elektrony z powłok walencyjnych badanej substancji nieorganicznej są wzbudzane promieniowaniem elektromagnetycznym z zakresu światła widzialnego oraz nadfioletu. Wracając na niższe powłoki elektronowe emitują światło o charakterystycznej długości z tego zakresu. Pozwala to na identyfikację chemiczną substancji, a także, przy zastosowaniu roztworów wzorcowych, na analizę ilościową. Badanie odbywa się w spektrometrze UV-Vis, w którym, podobnie jak w przypadku spektrometrów w podczerwieni, równoległe wiązki światła przechodzą przez kuwetę z wzorcem i substancją badaną. Rejestruje się natężenie światła przechodzącego (zgodnie z prawem Lamberta-Beera) w zależności od długości fali światła. Rys. 12 przedstawia widmo tlenku cynku zarejestrowane w zakresie światła widzialnego i nadfiolecie.", "XPS/ESCA (zob. powyżej) – spektroskopia fotoelektronów polega na wybiciu przez foton promieniowania rentgenowskiego fotoelektronu z powłok leżących najbliżej jądra atomu (powłok K i L) ( Rys. 3 ). Energie wiązania elektronów są zależne od rodzaju atomu, a także od sposobu związania danego atomu i jego stanu walencyjnego. Oddziaływanie atomów innych pierwiastków powoduje przesunięcia poziomów energetycznych nawet na najbardziej wewnętrznych powłokach atomowych, a tym samym przesunięcia położenia pasm w widmie XPS o wartości rzędu 1 do 10 eV, zwane przesunięciami chemicznymi. Przesunięcia chemiczne pozwalają na określenie, z jakimi atomami związany jest atom danego pierwiastka lub jaki jest jego stan walencyjny. Widmo analizy XPS może służyć także do analizy ilościowej dzięki temu, że powierzchnia pod konturem pasma jest proporcjonalna do zawartości danego składnika. Analiza ciał stałych metodą spektroskopii fotoelektronów ogranicza się do cienkiej warstwy powierzchniowej, gdyż elektrony wybijane z atomów są przechwytywane w głębi fazy stałej i nie mogą wydostać się na zewnątrz. Głębokość badanej warstwy powierzchniowej sięga 0,4 do 5 nm [4]. Rys. 13 przedstawia widmo XPS powierzchni tytanu pokrytego warstwą powierzchniową zawierającą tlenki tytanu.", "XRF – fluorescencyjna spektroskopia rentgenowska jest nieniszczącą techniką analizy chemicznej materiałów poprzez pomiar fluorescencyjnego promieniowania rentgenowskiego wytwarzanego przez próbkę wystawioną na źródło promieniowania rentgenowskiego o krótkiej fali. Promieniowanie rentgenowskie wybija elektrony w atomach próbki na orbitale o wyższej energii, które wracając, emitują promieniowanie rentgenowskie o długości fali odpowiadającej różnicom poziomów energii orbitali. Różnice poziomów energii zależą od liczby atomowej pierwiastka, a zatem długość fali fluorescencyjnych promieni rentgenowskich jest charakterystyczna dla obecnych pierwiastków. Ponieważ lekkie pierwiastki wytwarzają promieniowanie rentgenowskie o dłuższych falach, które są trudne do wykrycia, technika ta jest ogólnie ograniczona do pierwiastków o liczbie atomowej 13 (Al) lub większej. XRF jest szeroko stosowana do analizy elementarnej i analizy chemicznej, szczególnie w badaniach metali, szkła, ceramiki i materiałów budowlanych, a także do badań w dziedzinie geochemii, kryminalistyki, archeologii i obiektów artystycznych, takich jak obrazy. Rys. 14 prezentuje widmo otrzymane techniką spektroskopii fluorescencyjnej stopu Fe-Cu-Cr-Co-Zn-Ni."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Wybrane techniki badania struktury związków nieorganicznych", "subject_id": 1441, "subject": "Chromatografia", "paragraphs": ["Chromatografia jest to ogólna nazwa technik polegających na rozdzieleniu substancji badanych na fazy – pojedyncze związki lub grupy związków, które następnie można analizować technikami sprzężonymi z chromatografem, np. metodą spektroskopii masowej, spektroskopii UV-Vis, itp. Chromatografia polega najczęściej na zastosowaniu podłoża, przez który migrują wraz z nośnikiem, poruszając się z różną prędkością, poszczególne związki. Mówimy wtedy, że wykazują one różne współczynniki opóźnienia (Rf). Zjawisko to pozwala na rozdzielenie mieszaniny związków na frakcje, które są następnie analizowane ze względu na skład. Nośnikiem – eluatem, może być gaz lub ciecz.", "Ze względu na rodzaj dominującego mechanizmu procesu rozdziału chromatografie możemy podzielić na:", "W zależności od rodzaju eluentu czyli substancji, w której rozpuszcza się badaną mieszaninę rozróżnia się następujące techniki chromatograficzne [2]:", "Rys. 2 przedstawia schemat działania wysokosprawnej chromatografii cieczowej (HPLC).", "Rys. 3 prezentuje schemat rozwijania chromatogramu cienkowarstwowego."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Wybrane techniki badania struktury związków nieorganicznych", "subject_id": 1442, "subject": "Techniki mikroskopowe", "paragraphs": ["Techniki mikroskopowe wykorzystują oddziaływania fali elektromagnetycznej z powierzchnią badanego materiału tworząc obraz powierzchni.", "Najczęściej stosowaną techniką jest mikroskopia optyczna. Światło skierowane na badany materiał ulega odbiciu, a następnie przechodzi przez układ optyczny złożony z wielu soczewek i przysłon dając powiększony obraz powierzchni. Rys. 1 przedstawia obraz powierzchni krzemu trawionego w roztworze DMF-LiCl.", "AFM – w mikroskopii sił atomowych bardzo cienkie ostrze (grubość ok. 1 mikrometrów, długość ok. 100 mikrometrów) wykonane z odpowiedniego materiału (np. tlenek krzemu, azotek krzemu, diament) przymocowane do dźwigni przesuwa się w bardzo małej odległości od powierzchni próbki [1]. Najbardziej wysunięte atomy ostrza oddziaływują z atomami próbki, co powoduje ugięcie dźwigni. Biorąc pod uwagę, że częstotliwość drgań atomów w ciele stałym wynosi ok. 1013 Hz, co przy masie atomów rzędu 10-25 kg daje stałą sprężystości ok. 10 N/m, wystarczy kontrolować wychylenie dźwigni o stałej sprężystości równej 1 N/m w zakresie 0,1 nm. Służą temu czujniki ugięcia dźwigni, z których najczęściej stosowane są czujniki interferometryczne i oparte na pomiarze ugięcia wiązki światła odbitego od powierzchni dźwigni (ang. beam deflection). Technika AFM pozwala otrzymać trójwymiarowy obraz badanej powierzchni w skali atomowej. Pozwala to na określenie topografii powierzchni i układu atomów w najbardziej zewnętrznej warstwie próbki. Rys. 2 przedstawia zasadę działania spektrometru AFM oraz przykładowy obraz powierzchni wykonany techniką AFM.", "SEM-EDS/EDX – W skaningowym mikroskopie elektronowym z mikroanalizatorem rentgenowskim badaną powierzchnię bombarduje się strumieniem szybkich elektronów o odpowiedniej energii. Powoduje to szereg zjawisk, między innymi wzbudzenie atomów na powierzchni próbki i emisję promieniowania rentgenowskiego, co przedstawiono na Rys. 3. Promieniowanie to jest następnie analizowane za pomocą spektrometru rentgenowskiego. Topografię badanej próbki poznaje się poprzez analizę elektronów wstecznych rozproszonych.", "Rys. 4 przedstawia zdjęcie powierzchni Si z wytrawioną charakterystyczną strukturą.", "Długość fali promieniowania, charakterystyczna dla poszczególnych pierwiastków, mówi o składzie powierzchni badanego materiału, natomiast jej intensywność – o ilości danego pierwiastka w warstwie powierzchniowej. Scyntylator przekształca energię elektronów wtórnych w impulsy świetlne, które w dalszej kolejności są wzmacniane przez fotopowielacz. Pochodzący z detektora sygnał steruje jasnością obrazu powstającego na monitorze. Rys. 5 przedstawia zdjęcie SEM z analizą EDX powierzchni tytanu.", "TEM (transmisyjna mikroskopia elektronowa) Zasada działania Transmisyjnego Mikroskopu Elektronowego (TEM) jest podobna do mikroskopu świetlnego. Główna różnica polega na tym, że mikroskopy świetlne wykorzystują promienie świetlne do ogniskowania i tworzenia obrazu, podczas gdy w mikroskopie TEM wiązka elektronowa emitowana przez działo elektronowe jest przyspieszana i odpowiednio formowana, aby uzyskać obraz. Elektrony mają krótszą długość fali niż fotony. Mechanizm mikroskopu świetlnego polega na tym, że zwiększenie rozdzielczości zmniejsza długość fali światła odbitego, podczas gdy w TEM zwiększenie rozdzielczości, zwiększa długość fali transmisji elektronu, stąd TEM ma ok. 1000 razy większą rozdzielczość od mikroskopu optycznego. Rys. 6 przedstawia zdjęcie TEM nanocząstek tlenku cynku."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii nieorganicznej – układ okresowy", "chapter": "Wybrane techniki badania struktury związków nieorganicznych", "subject_id": 1443, "subject": "Dyfrakcja rentgenowska", "paragraphs": ["Dyfrakcja rentgenowska (XRD – X-ray diffraction) Odkrycie promieni Roentgena, ich dyfrakcji przez von Laue oraz opisanie tych zjawisk w sposób matematyczny przez Braggów doprowadziły do powstania techniki XRD służącej do badania ciał stałych. W metodzie tej wykorzystuje się zjawisko uginania promieniowania elektromagnetycznego na płaszczyznach krystalicznych. Odbicie promieni rentgenowskich od pojedynczej płaszczyzny atomów jest o wiele za słabe, aby mogło zostać zaobserwowane doświadczalnie, jednak w gdy odbicia wielu następnych równoległych płaszczyzn sieciowych nałożą się na siebie -sumaryczna fala odbita będzie na tyle silna, że spowoduje wyraźnie mierzalny efekt nazywany odbiciem interferencyjnym lub odbiciem Braggów [1].", "Rys. 1 obrazuje prawo Braggów.", "Kiedy wiązka promieniowania monochromatycznego pada na nieruchomą próbkę – ulega dyfrakcji na losowo zorientowanych osiach krystalicznych. Z takiego odbicia powstaje obraz dyfrakcyjny (obraz Lauego) w postaci koncentrycznych kręgów wskutek nałożenia odbić dla możliwych orientacji kryształu. Sposób powstawania takiego obrazu został opisany w rozdziale Dyfrakcja promieni Roentgena (promieni X). Aby uzyskać ilościową informację na temat natężenia wiązki dyfrakcyjnej zamiast błony fotograficznej stosuje się liczniki scyntylacyjne, mierzy natężenie promieniowania rozproszonego i rejestruje w postaci cyfrowej. Rys. 2 prezentuje obraz Lauego oraz dyfraktogram rentgenowski.", "Opisaną technikę XRD nazywa się metodą proszkową, ponieważ stosowana jest do ciał stałych w postaci niewielkiej ilości proszków. Jest to nieniszcząca technika pozwalająca stosunkowo szybko identyfikować struktury oraz faz występujące w preparacie, określenie w sposób ilościowy koncentracji danej fazy w materiale; określenie stopnia krystalizacji materiału, rozmiarów ziaren (materiały polikrystaliczne) oraz orientacji. Badania dyfraktometryczne wykonywane są przy użyciu urządzeń zwanych dyfraktometrami. Każdy taki dyfraktometr zbudowany jest z lampy rentgenowskiej, monochromatora lub filtrów, stolika do mocowania próbek, detektora, generatora wysokiego napięcia i komputera sterującego pracą dyfraktometru."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "", "subject_id": 1082, "subject": "Informacja o e-podręczniku \"Podstawy chemii polimerów\"", "paragraphs": ["E-podręcznik opracowano w ramach Zintegrowanego Programu Rozwoju Akademii Górniczo-Hutniczej w Krakowie. Projekt współfinansowany ze środków Europejskiego Funduszu Społecznego w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014-2020. Oś III Szkolnictwo wyższe dla gospodarki i rozwoju, Działanie 3.5 Kompleksowe programy szkół wyższych."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wprowadzenie do chemii polimerów", "subject_id": 917, "subject": "Wprowadzenie - trochę historii", "paragraphs": ["Polimery są znane i wykorzystywane od czasów, w których człowiek nauczył się korzystać ze skór zwierząt i drewna, gdyż praktycznie połowa masy drewna to celuloza, czyli polimer, który nadaje twardość ścianom komórek roślinnych. Ludność neolitu (10000 lat p.n.e.) wykorzystywała rośliny i zwierzęta (źródło pożywienia, błonnika, leków, skór). Wiedza o tych zasobach była przekazywana przez przodków i dała podwaliny pod przełom w rolnictwie pasterskim i uprawnym (uprawy dzikiego lnu \\( – L. angustafolium \\)). Najwcześniejsze dowody na to, że ludzie używali dzikiego lnu jako tkaniny, pochodzą z Republiki Gruzji, gdzie w jaskini Dzudzuana znaleziono przędzone, farbowane i tkane dzikie włókna lnu, datowane na paleolit (30000 lat p.n.e.). W starożytności jedwab, wełna, bawełna i skóry – naturalne polimery – były używane do produkcji ubrań i dekoracji, podczas gdy z celulozy zawartej w trzcinie papirusowej wyrabiano papirus. Cywilizacja Majów (2000 r. p.n.e. – 1542 r. n.e.), Olmeków (1500 – 400 r. p.n.e.) i Azteków (1300 – 1521 r. n.e.) przetwarzała naturalny materiał gumowaty (płyn mleczny przypominający sok) z kauczukowca brazylijskiego na kulki do gry podobnej do koszykówki, buty wodoodporne (zostały one opisane przez hiszpańskich konkwistadorów, ale nigdy nie zostały znalezione przez archeologów) i inne przedmioty już w 1600 r. p.n.e. Wzmianki na temat materiałów naturalnych używanych jako kleje, powłoki i wypełniacze można znaleźć także w Starym Testamencie Biblii. Średniowieczni rzemieślnicy wykonywali okna do latarni z przezroczystych kawałków rogu zwierzęcego. Róg jest zbudowany z keratyny – tego samego materiału, z którego składa się skóra, włosy, pióra, paznokcie czy wełna. Miód to kolejny przykład naturalnie występujących polimerów, które od tysiącleci (6000 p.n.e.) były, są i będą wykorzystywane w życiu codziennym. Ebonit (1851 r.) lub twarda guma były pierwszymi polimerami termoutwardzalnymi. Goodyear wynalazł gumę wulkanizowaną (1839 r.; Thomas Hancock, 1843 r.), a Eduard Simon odkrył styropian (1839 r.). Alexander Parkes odkrył stałą, twardą, elastyczną i wodoodporną substancję (celuloid) po odparowaniu rozpuszczalnika fotograficznego (1856 r.), która została wykorzystana do impregnacji tkanin. Pierwszym syntetycznym tworzywem sztucznym był bakelit (Leo Baekeland, 1907 r.) wykorzystywany do wyrobów materiałów formierskich, materiałów do laminowania, wirników rozdzielacza silników, radia i telefonu Ericsson czy zabawek, które zastąpiły zabawki żeliwne i cynowe (lata 40- i 50-te XX wieku). W XIX wieku opracowywano szereg biodegradowalnych tworzyw sztucznych, które wykazują szereg unikalnych właściwości, są stosowane w szerokimi zakresie temperatur, są odporne na działanie agresywnych czynników chemicznych i światła oraz są mocne, wytrzymałe i tanie w porównaniu z innymi materiałami. Należy jednak pamiętać, iż polimery biodegradowalne istnieją od czasów Cesarstwa Rzymskiego (27 – 476 r. p.n.e.), ale w przeszłości miały ograniczone zastosowanie, głównie w medycynie. Współcześnie, polimery są związane z praktycznie każdym aspektem życia, a ich zastosowanie ogranicza ludzka wyobraźnia. Opakowania na żywność i środki chemiczne gospodarstwa domowego, butelki na wodę, włókna tekstylne, zabawki, telefony, komputery, sprzęt RTV i AGD, przewody, gniazdka elektryczne, uchwyty do garnków i patelni, bielizna termiczna, itd. zawierają polimery. Membrany do odsalania wody, aparatura medyczna, nośniki stosowane w kontrolowanym uwalnianiu leku, sztuczna skóra stosowana w inżynierii tkankowej i kosmetyce, laminaty z włókna węglowego wykorzystywane w przemyśle motoryzacyjnym, hologramy, konstrukcje ramowe stacji kosmicznych, kamizelki kuloodporne również wykorzystują polimery. Jednak, pomimo tak ogromnej różnorodności polimerów i ich wszechstronnego wykorzystania, naukowcy i inżynierowie oraz producenci i przetwórcy nieustannie manipulują składem i strukturą molekularną polimerów dążąc do poprawy właściwości fizykochemicznych i mechanicznych polimerów, a co za tym idzie rozszerzenia możliwości ich zastosowania. Polimery są zatem materiałami przeszłych, obecnych i przyszłych pokoleń.", "Pierwszym syntetycznym polimerem była nitroceluloza otrzymana w 1862 r. przez brytyjskiego chemika Alexandra Parkesa. Znalazła ona szerokie zastosowanie w przemyśle filmowym do produkcji taśmy filmowej (gdy potraktowana kamforą) oraz medycznym, jako opatrunek chirurgiczny (gdy rozpuszczona w eterze i alkoholu). Wulkanizacja (przyłączenie siarki do wiązań podwójnych węgiel-węgiel (zob. Hybrydyzacja ) do kauczuku naturalnego była następnym osiągnięciem w chemii polimerów (Friedrich Ludersdorf i Nathaniel Hayward). Jednak za ojca polimerów uznawany jest Hermann Staudinger, który wprowadził terminy kluczowe w dziedzinie polimerów, takie jak polimeryzacja i makrocząsteczki. Prowadzone przez niego badania doprowadziły do rozwoju nowoczesnych polimerów naturalnych i syntetycznych, a w 1953 r. zostały uhonorowane Nagrodą Nobla w dziedzinie chemii „za odkrycia w dziedzinie chemii makrocząsteczek”.", "Termin polimer jest powszechnie stosowany w przemyśle tworzyw sztucznych i kompozytów, jako synonim tworzywa sztucznego lub żywicy, czyli szeregu materiałów o różnych właściwościach."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wprowadzenie do chemii polimerów", "subject_id": 1078, "subject": "Podstawowe definicje", "paragraphs": ["Zwykle należy połączyć co najmniej 100 cząsteczek monomeru, aby uzyskać produkt, który ma pewne unikalne właściwości fizyczne, takie jak elastyczność, wysoka wytrzymałość na rozciąganie, czy zdolność do tworzenia włókien. Te właściwości odróżniają polimery od substancji złożonych z mniejszych i prostszych cząsteczek. Również tworzenie stabilnych kowalencyjnych wiązań chemicznych między monomerami odróżnia polimeryzację od innych procesów, takich jak krystalizacja, w której duża liczba cząsteczek agreguje pod wpływem sił międzycząsteczkowych [3].", "Monomery możemy podzielić na trzy grupy [4]: Monomery winylowe – pochodne etylenu, w którym jeden lub więcej atomów wodoru zostało zastąpionych innymi podstawnikami. Cechą charakterystyczną jest występowanie podwójnego wiązania węgiel–węgiel ( Tabela 1 ). Monomery wielofunkcyjne – zawierają dwa wiązania podwójne lub co najmniej dwie grupy funkcyjne ( Tabela 2 ). Monomery cykliczne z heteroatomami ( Tabela 3 )."], "definitions": [{"name": "Definicja 1: Polimer", "content": "Polimer – (z języka greckiego \\( poly – \\) „wiele” + \\( – mer \\) „część”) jest to związek wielkocząsteczkowy powstający w procesie polimeryzacji, w którym małe cząsteczki (monomery) reagują ze sobą i łączą się w długie makrocząsteczki podobne do łańcucha lub sieci ( Rys. 1 ). Wszystkie cząsteczki monomeru mogą być takie same lub mogą reprezentować dwa, trzy lub więcej różnych związków. Często wiele tysięcy jednostek monomeru jest włączonych w pojedynczą cząsteczkę polimeru [1], [2]."}, {"name": "Definicja 2: Kopolimer", "content": "Kopolimer – polimer, którego łańcuch zawiera dwa lub więcej merów. Polimer, który zawiera tylko jeden rodzaj merów nazywany jest homopolimerem (zob. Klasyfikacja ze względu na liczbę rodzajów monomerów )."}, {"name": "Definicja 3: Mer", "content": "Mer – najmniejsza powtarzająca się jednostka, która całkowicie opisuje strukturę chemiczną polimeru ( Rys. 1 )."}, {"name": "Definicja 4: Monomer", "content": "Monomer – związek małocząsteczkowy – surowiec wyjściowy do syntezy polimeru."}, {"name": "Definicja 5: Tworzywo sztuczne", "content": "Tworzywo sztuczne – to materiał, którego głównym składnikiem jest polimer. Oprócz polimeru w skład tworzywa wchodzą składniki pomocnicze, które mają na celu poprawę własności mechanicznych, technologicznych, czy użytkowych."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wprowadzenie do chemii polimerów", "subject_id": 910, "subject": "Nazewnictwo polimerów", "paragraphs": ["\\( Międzynarodowa \\) \\( Unia \\) \\( Chemii \\) \\( Czystej \\) \\( i \\) \\( Stosowanej \\) (IUPAC) oraz \\( Chemical \\) \\( Abstracts \\) \\( Service \\) zalecają stosowanie poniższych zasad w celu nazewnictwa polimerów i opisu ich struktur chemicznych. Natomiast szczegółowe zasady nazewnictwa można znaleźć w IUPAC Purple Book.", "Polimer jest substancją złożoną (mieszaniną) z makrocząsteczek, które nie mają całkowicie jednorodnych struktur. W tej samej próbce makrocząsteczki mogą różnić się od siebie długością łańcucha, układem strukturalnym związanym z występowaniem nieregularności w orientacji monomerów, grupach końcowych oraz w lokalizacji i długościach dowolnych rozgałęzień. Dlatego, nazewnictwo polimerów zazwyczaj stosuje się do struktur wyidealizowanych, w których mniejsze nieprawidłowości strukturalne są ignorowane.", "Polimery nazywa się stosując nazewnictwo oparte na nazwach monomerów (gdy monomer można zidentyfikować) albo na budowie chemicznej polimeru (przy udowodnionej strukturze chemicznej polimeru). Jednakże, bez względu na zastosowaną metodę nazewnictwa, wszystkie nazwy polimerów zaczynają się od przedrostka poli, po którym umieszcza się pozostałą część nazwy polimeru (tj. poli...). Nawiasy stosuje się w kolejności: \\( \\{ [()]\\} \\). Jeżeli nazwa jest jednowyrazowa i nie zawiera lokantów (tj. liczb porządkowych lub liter greckich wskazujących na położenie podstawnika lub grupy funkcyjnej) wówczas znaki zamykające można ominąć. W sytuacji niejednoznacznego odczytu nazwy znaki zamykające należy użyć; np. poli(chloroetylen) jest polimerem, a polichloroetylen może oznaczać podstawioną wielokrotnie cząsteczkę etenu ( Rys. A ). Grupy końcowe polimeru oznacza się za pomocą liter greckich, tj. \\( \\alpha \\)- (dla lewej grupy końcowej) i ω- (dla prawej grupy końcowej), jak np. \\( \\alpha \\)-chloro-ω-hydroksy-polistyren ( Rys. B ). Jeżeli nazwa polimeru może zostać odczytana dwuznacznie to w pierwszej kolejności należy podać nazwę klasy polimerów, po której wstawia się dwukropek i podaje nazwę monomeru ( Rys. C ).", "Homopolimery nazywa się zapisując nazwę monomeru po przedrostku poli. Monomery nazwa się stosując nazwy systematyczne (IUPAC) lub nazwy zwyczajowe ( Rys. 2 ).", "Kopolimery nazywa się podając nazwy monomerów wchodzących w skład polimeru. Nazwy poszczególnych monomerów oddziela się łącznikami zapisanymi kursywą definiującymi sposób, w jaki monomery łączą się ze sobą w łańcuchu polimeru ( Rys. 3 ). Na przykład, jeżeli dwa typy monomerów A i B tworzą kopolimer statystyczny to nazwa takiego polimeru ma postać: poli(A \\( -stat- \\)B). IUPAC zaleca alfabetyzację nazw monomerów podawanych w nazwie kopolimeru, za wyjątkiem przypadków, gdy musi być ustalona kolejność monomerów.", "Nieliniowe polimery nazywa się podając nazwy monomerów wchodzących w skład polimeru. Nazwy poszczególnych monomerów poprzedzone są przedrostkami zapisanymi kursywą, które definiują strukturę, jaką tworzą dane monomery w łańcuchu polimeru. Rys. 4 podaje stosowane przedrostki określające polimery rozgałęzione, grzebieniowe, cykliczne, szczepione, sieciowe i gwiezdne, a także zespoły polimerów, takie jak przenikające się i pół-przenikające się sieci polimerowe, mieszaniny polimerów i kompleksy polimer-polimer.", "Pełną nazwę łańcuchowego kopolimeru nieregularnego (złożonego z makrocząsteczek nieregularnych) tworzy się przez podanie nazw poszczególnych monomerów w kolejności alfabetycznej, które to nazwy oddziela się od siebie znakiem ukośnika ( Rys. 5 ) [1], [2], [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Klasyfikacja polimerów", "subject_id": 962, "subject": "Klasyfikacja polimerów", "paragraphs": ["Polimerów nie można zaklasyfikować tylko do jednej kategorii ze względu na ich złożoną strukturę, różne zachowania i szerokie zastosowania. Polimery klasyfikuje się na podstawie:", "Klasyfikację polimerów według wyżej wspomnianych kryteriów przedstawia Rys. 1."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Klasyfikacja polimerów", "subject_id": 918, "subject": "Klasyfikacja polimerów ze względu na pochodzenie", "paragraphs": ["Istnieją trzy rodzaje klasyfikacji w tej kategorii, a mianowicie polimery: naturalne, syntetyczne i półsyntetyczne.", "Polimery naturalne występują w roślinach (np. polisacharydy – cukry złożone, czy kauczuk) i organizmach zwierzęcych (np. białka i polipeptydy oraz kwasy nukleinowe ).", "Polimery półsyntetyczne wywodzą się od polimerów występujących naturalnie, które zostały poddane modyfikacji chemicznej (np. przez utlenianie, estryfikację, szczepienie, itp.) w celu zmiany/optymalizacji ich własności użytkowych (np. skrobia modyfikowana, azotan celulozy czy octan celulozy).", "Natomiast, polimery syntetyczne są wytwarzane przez człowieka w reakcjach chemicznych (np. poliamidy, poliestry, itd.)."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Klasyfikacja polimerów", "subject_id": 963, "subject": "Klasyfikacja ze względu na budowę chemiczną szkieletu", "paragraphs": ["Cząsteczka polimeru może być zbudowana z węglowodorów (atomów węgla i wodoru), które łącząc się ze sobą za pomocą wiązań kowalencyjnych, jeden po drugim, tworzą szkielet węglowy polimeru. Przykładami tych polimerów są polietylen, polipropylen, polibutylen czy polistyren. Inne polimery mają szkielety, które zawierają pierwiastki inne niż węgiel. Poliamidy i polimocznik zawierają atomy azotu w szkielecie. Poliestry i poliwęglany zawierają atomy tlenu w szkielecie. Natomiast, w poliuretanach integralnymi składnikami łańcucha są, poza atomami węgla, atomy azotu i tlenu. Wszystkie wyżej wymienione polimery są zaliczane do polimerów organicznych. Istnieją również polimery nieorganiczne, które zamiast szkieletu węglowego, mają szkielet krzemotlenowy (polisiloksany o budowie szkieletu: \\( \\ce{-O-Si-O-Si-O-Si}- \\)) lub fosforotlenowy (polifosforany o budowie szkieletu: \\( \\ce{-[P(OM)(O)-O]}{_n-} \\), gdzie M oznacza kation metalu (najczęściej \\( \\ce{Na}{^+} \\) lub \\( \\ce{K}{^+} \\))) lub też szkielet oparty na atomach boru i azotu (poliborany o budowie szkieletu: \\( \\ce{-B-N-B-N}- \\)) lub na bazie siarki i azotu (polimery siarkowo-azotowe o budowie szkieletu: \\( \\ce{-S-N-S-N}- \\))."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Klasyfikacja polimerów", "subject_id": 966, "subject": "Klasyfikacja ze względu na liczbę rodzajów monomerów", "paragraphs": ["W tej klasyfikacji wyróżnia się homopolimery zbudowane z jednego rodzaju monomeru (zazwyczaj > 1000) (np. polietylen czy poli(chlorek winylu)) i kopolimery, w skład których wchodzą dwa lub więcej rodzajów powtarzających się monomerów (np. poli \\( [ \\)etylen \\( -co- \\)(octan winylu) \\( ] \\). W zależności od liczby rodzajów monomerów, kopolimery można podzielić na bipolimery (zbudowane z dwóch rodzajów monomerów), terpolimery (trzy rodzaje monomerów budują polimer) i kwaterpolimery (cztery rodzaje monomerów). Natomiast w zależności od sposobu łączenia się monomerów kopolimery dzieli się na: naprzemienne, (stereo)blokowe, szczepione, statystyczne, okresowe i gradientowe ( Rys. 1 ).", "W kopolimerach statystycznych kolejność dwóch lub więcej różnych rodzajów monomerów jest zgodna z regułą statystyczną (np. statystyką Markova zerowego, pierwszego, drugiego lub wyższego rzędu [1]).", "Kopolimery naprzemienne zawierają dwa rodzaje monomerów, które występują naprzemiennie w szkielecie polimeru.", "Kopolimery blokowe zawierają w łańcuchu szkieletu długie fragmenty zbudowane z monomerów danego rodzaju. Na przykład dwublokowe kopolimery zawierają dwa rodzaje długich fragmentów (bloków). Polimer stereoblokowy to polimer blokowy, w którym bloki różnią się jedynie taktycznością monomerów .", "Kopolimery szczepione to polimery rozgałęzione zawierające liniowy szkielet, do którego przyłączone są rozgałęzienia, które mogą być rozmieszczone jednorodnie lub niejednorodnie ( Rys. 2 ). W kopolimerach szczepionych losowo identyczne rozgałęzienia są rozmieszczone losowo wzdłuż szkieletu polimeru. W zwykłym kopolimerze szczepionym identyczne rozgałęzienia są rozmieszczone równo wzdłuż szkieletu polimeru. W grzebieniowych i szczotkowych kopolimerach szczepionych identyczne rozgałęzienia są rozmieszczone identycznie wzdłuż, odpowiednio, jednej lub dwóch stron szkieletu polimeru. W pozostałych dwóch typach kopolimerów szczepionych występuje jeden (gwiaździsty kopolimer szczepiony) lub dwa trójfunkcyjne punkty (atomy) rozgałęzień. Gwiazdowy kopolimer szczepiony zawiera kilka liniowych łańcuchów polimerowych przymocowanych w centralnym punkcie. W kopolimerach szczepionych zarówno łańcuch główny, jak i łańcuchy boczne mogą być homopolimerami lub kopolimerami, które różnią się od siebie składem lub naturą chemiczną. Jednym z bardziej znanych przykładów jest polistyren wysokoudarowy, w skład którego wchodzi szkielet z polistyrenu i rozgałęzienia z polibutadienu.", "Kopolimery okresowe są polimerami, w których ułożenie trzech lub większej liczby rodzajów monomerów regularnie powtarza się wzdłuż łańcucha. Natomiast, w kopolimerach gradientowych rodzaj występujących monomerów, z przeważnie jednego rodzaju do przeważnie drugiego rodzaju, zmienia się stopniowo w sposób ciągły wzdłuż szkieletu polimeru. W przypadku bipolimeru oznacza to, że zawartość jednego monomeru wzrasta, a drugiego maleje wzdłuż łańcucha. Przy takiej zmianie składu kopolimeru obserwuje się słabsze siły odpychania w łańcuchu i między łańcuchami."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Klasyfikacja polimerów", "subject_id": 919, "subject": "Klasyfikacja polimerów ze względu na strukturę łańcucha polimerowego", "paragraphs": ["W tej klasyfikacji wyróżnia się polimery liniowe ( Rys. 1 ), które w swej strukturze zawierają długie i proste (bez rozgałęzień) łańcuchy (np. polietylen wysokiej i ultrawysokiej gęstości, polichlorek winylu, politetraflouroetylen) oraz polimery o rozgałęzionym łańcuchu, których łańcuchy liniowe zawierają rozgałęzienia (np. polietylen o niskiej gęstości). Rozgałęzienia polimerów są wynikiem zastąpienia atomów wodoru wysycających szkielet polimeru podstawnikami/cząsteczkami, będącymi innymi krótkimi lub długimi łańcuchami polimerowymi. Na właściwości tych polimerów wpływa głównie ilość rozgałęzień, które prowadzą do polimerów o luźniejszym upakowaniu, a tym samym o mniejszej gęstości. W przeciwieństwie do liniowych polimerów, polimery cykliczne mają strukturę podobną do pierścienia, w której grupy końcowe łańcucha nie występują ( Rys. 1 ). Ze względu na budowę polimery te wykazują unikalny zestaw właściwości w porównaniu z makrocząsteczkami liniowymi lub rozgałęzionymi, np. wykazują zmniejszoną objętość hydrodynamiczną i wolniejszy profil degradacji, wysoką temperaturę zeszklenia ( \\( {T}{_g} \\)), niską lepkość, zwiększoną stabilność chemiczną, czy skłonność do samoorganizacji.", "W tej klasyfikacji (klasyfikacji polimerów ze względu na strukturę łańcucha polimerowego) wyróżnić można także:", "Polimery katetanowe i rateksanowe stanowią bardzo niewielki udział w ogromnej grupie polimerów liniowych, rozgałęzionych i usieciowanych."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Klasyfikacja polimerów", "subject_id": 968, "subject": "Klasyfikacja ze względu na strukturę przestrzenną", "paragraphs": ["Łańcuchy polimerowe przyjmują różne struktury przestrzenne w zależności od stopnia skręcenia i zgięć, które występują wzdłuż łańcucha szkieletu. Każdy atom szkieletu polimeru ma hybrydyzację \\( \\ce{ sp }{^3} \\), co oznacza, że znajduje się w narożu tetraedru, a kąt między sąsiednimi wiązaniami wynosi \\( \\ce{109,5}{^o} \\) ( Rys. 1 ).", "Kształt polimeru zależy od struktury monomerów budujących szkielet polimeru i jego łańcuchów bocznych. Polimery mogą tworzyć:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Klasyfikacja polimerów", "subject_id": 920, "subject": "Klasyfikacja polimerów ze względu na mechanizm reakcji polimeryzacji", "paragraphs": ["W tej kategorii wyróżnia się polimery addycyjne (np. polietan, teflon, polichlorek winylu) i polimery kondensacyjne (np. poliamidy, perylen, czy poliestry), które zostały otrzymane metodami – odpowiednio – polimeryzacji addycyjnej i polimeryzacji kondensacyjnej (zob. Polimeryzacja addycyjna i Polimeryzacja kondensacyjna )."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Mechanizmy polimeryzacji", "subject_id": 921, "subject": "Polimeryzacja addycyjna", "paragraphs": ["W zależności od zastosowanego inicjatora (czyli substancji, która daje początek reakcji polimeryzacji) i rodzaju monomeru można wyróżnić następujące mechanizmy polimeryzacji addycyjnej:", "Etapy polimeryzacji addycyjnej Proces reakcji polimeryzacji addycyjnej można podzielić na trzy główne etapy (szczegółowo scharakteryzowane w rozdziale Polimeryzacja rodnikowa ):", "Powyższe etapy przebiegają z różnymi szybkościami reakcji chemicznej. O szybkości reakcji polimeryzacji decyduje etap najwolniejszy (tzw. stadium kontrolujące reakcję).", "Przykłady monomerów biorących udział w polimeryzacji addycyjnej Reakcje polimeryzacji łańcuchowej zachodzą najczęściej z udziałem:"], "definitions": [{"name": "Definicja 1: Polimeryzacja addycyjna", "content": "Polimeryzacja addycyjna to reakcja łańcuchowa, w której wzrost łańcucha polimeru (makrocząsteczki, czyli związku wielkocząsteczkowego) zachodzi wyłącznie w wyniku reakcji monomeru(ów) (związków małocząsteczkowych) z centrum(ami) aktywnym(i) łańcucha polimerowego z regeneracją centrum aktywnego na końcu każdego etapu wzrostu (wg zaleceń International Union of Pure and Applied Chemistry – IUPAC, czyli Międzynarodowej Unii Chemii Czystej i Stosowanej Komisji) [1]. Polimeryzacja łańcuchowa to mechanizm polimeryzacji, w którym cząsteczki monomeru przyłączają się pojedynczo do aktywnego miejsca rosnącego łańcucha polimeru [2], [3]."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Mechanizmy polimeryzacji", "subject_id": 922, "subject": "Polimeryzacja rodnikowa", "paragraphs": [], "definitions": [{"name": "Definicja 1: Polimeryzacja rodnikowa", "content": "Polimeryzacja rodnikowa (wolnorodnikowa, ang. free radical polymerization), to rodzaj polimeryzacji addycyjnej, w której centrami aktywnymi są rodniki (wolne rodniki) (wg zaleceń International Union of Pure and Applied Chemistry – IUPAC, czyli Międzynarodowej Unii Chemii Czystej i Stosowanej) [1], [2]."}, {"name": "Definicja 2: Kinetyka reakcji polimeryzacji addycyjnej (rodnikowej)", "content": "Mechanizm polimeryzacji jest związany z szeregiem procesów elementarnych, w których biorą udział rodniki, które są centrami aktywnymi.\n\nEtapy reakcji polimeryzacji (przykłady schemat i film ):\nI.\tInicjacja (inicjowanie, reakcje startu)\nW tym etapie dochodzi do rozkładu inicjatora (reakcja 1 rzędowa) – cząsteczki \\( A \\), z której tworzą się bardzo aktywne rodniki pierwotne \\( R^{\\bullet} \\), które są zdolne do inicjowania nowych łańcuchów polimerowych.\nW zależności od czynników, w wyniku rozkładu inicjatora – \\( A \\) tworzą się różne ilości rodników (w przypadku działania czynników fizycznych często tworzą się dwa – takie same, lub różne – rodniki).\n\nSchematycznie rozkład pod wpływem inicjatora można zapisać w następujący sposób:\n\n\n\t\t\t\t\t\t\t\t\\( A\\xrightarrow{k_{d}}2R^{\\bullet} \\)\n\ngdzie:\n \\( A \\) – inicjator reakcji,\n \\( R^{\\bullet} \\) – rodnik inicjujący polimeryzację,\n \\( k_d \\) – stała szybkości rozkładu (dysocjacji) inicjatora, \\( [ s^{-1}] \\).\n\nSzybkość etapu można opisać:\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( r_d=-\\frac{d[A]}{dt} \\)\n\ngdzie:\n \\( r_d \\) – szybkość homolizy inicjatora, \\( [mol\\cdot dm ^{-3} s^{-1}] \\)\n \\( t \\) – czas polimeryzacji, \\( [s] \\) .\n\nStężenie inicjatora po czasie t, w którym zachodzi reakcja dysocjacji ( \\( [A_t] \\)) wyraża się następującym wzorem:\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( [A_t] =[A_0] exp (-k_dt) \\)\n\nlub\n\n(3)\n\n\t\t\t\t\t\t\t\t\\( ln\\frac{[A_0]}{[A_t]}= k_dt \\)\n\ngdzie:\n \\( {[A_0]} \\) – początkowe stężenie inicjatora przed rozpoczęciem reakcji, \\( [mol\\cdot dm ^{-3}] \\)\n \\( {[A_t]} \\) – stężenie inicjatora po czasie \\( t \\), \\( [mol\\cdot dm ^{-3}] \\)\n\nRodniki, które powstają w wyniku rozpadu inicjatora biorą udział w reakcji inicjacji (startu), poniżej zapisano schematycznie reakcje, w której dochodzi do przyłączenia rodnika – \\( R^{\\bullet} \\) do monomeru – \\( M \\) (w wyniku reakcji inicjowania dochodzi do przeniesienia niesparowanego elektronu na cząsteczkę monomeru)\n\n\n\t\t\t\t\t\t\t\t\\( R^{\\bullet} + M \\xrightarrow{k_{i}}RM^{\\bullet} \\)\n\ngdzie:\n \\( {k_i} \\) – stała szybkości reakcji inicjacji (startu) polimeryzacji, \\( [ s^{-1}] \\), dla dużej ilości inicjatorów jest rzędu \\( 10^{-4} - 10^{-6} \\) \\( [ s^{-1}] \\).\nSzybkość tego procesu opisuje poniższe równanie:\n\n(4)\n\n\t\t\t\t\t\t\t\t\\( r_i=-k_i[R^{\\bullet}][M] \\)\n\ngdzie:\n \\( {R^{\\bullet}} \\) – stężenie rodników inicjujących reakcję polimeryzacji, \\( [mol\\cdot dm ^{-3}] \\),\n \\( {M} \\) – stężenie monomeru, \\( [mol\\cdot dm ^{-3}] \\).\n\nII.\tWzrost łańcucha (propagacja)\nEtap, w którym zachodzi reakcja chemiczna pomiędzy aktywnym centrum i monomerem. Prowadzi ona do wzrostu łańcucha i odtworzenia przynajmniej jednego centrum aktywnego.\nNastępuje szybki wzrost makrorodników (w czasie mniejszym niż sekunda):\n\n\n\t\t\t\t\t\t\t\t\\( RM^{\\bullet} + nM \\xrightarrow{k_{p}}RM_{n+1}^{\\bullet} \\)\n\ngdzie:\n \\( {k_p} \\) – stała szybkości reakcji propagacji polimeryzacji, stała szybkości rzędu \\( 10 - 10^{4} [mol\\cdot dm^{3} s^{-1}] \\),\n \\( {M_n^{\\bullet}} \\) – stężenie makrorodników, \\( [mol\\cdot dm ^{-3}] \\).\n\nPoniższe równanie opisuje szybkość reakcji propagacji:\n\n(5)\n\n\t\t\t\t\t\t\t\t\\( r_p=\\frac{d[M_n^{\\bullet}]}{dt} \\)\n\n(6)\n\n\t\t\t\t\t\t\t\t\\( r_p=k_p[M_n^{\\bullet}][M] \\)\n\n\nSzybkość wzrostu łańcucha zależy od kilku czynników m.in. reaktywności monomeru (np. przeszkód sterycznych, czyli budowy chemicznej monomeru, reaktywności wiązań podwójnych), reaktywności rodników (np. rodnik wodorowy \\( H• \\) ma większą reaktywność niż rodnik metylowy \\( •CH_3 \\)) oraz lepkości mieszaniny reakcyjnej.\n\nIII. Zakończenie (terminacja) łańcucha\nProces, w którym dochodzi do dezaktywacji rosnącego łańcucha, może przebiegać na sposób:\n\nrekombinacji, czyli łączenia się makrorodników (zob. Rys. 1 );\nreakcji dysproporcjonowania dwóch rodników, proces ten polega na przeniesieniu atomu wodoru z jednego makrorodnika (wzrastającego) na drugi, w wyniku czego polimer przestaje być \"aktywny\", tworzą się dwie nieaktywne makrocząsteczki (jedna z wiązaniem podwójnym (zob. Rys. 1 );\nprzeniesienia aktywności łańcucha.\n\nSzybkość etapu terminacji można opisać poniższym równaniem:\n\n(7)\n\n\t\t\t\t\t\t\t\t\\( r_t=\\frac{d[M_n^\\bullet]}{dt} =2k_t[M_n^{\\bullet}][M_m^{\\bullet}] \\)\n\nW przypadku zakończenia łańcuchów reakcji polimeryzacji w wyniku reakcji rekombinacji lub dysproporcjonowania, szybkości terminacji można w skrócie zapisać:\n\n(8)\n\n\t\t\t\t\t\t\t\t\\( r_t =2k_t[M_n^{\\bullet}]^2 \\)\n\ngdzie:\n \\( r_t \\) – szybkość zakończenia łańcuchów, \\( [mol\\cdot dm ^{-3} s^{-1}] \\)\n \\( t \\) – czas polimeryzacji, \\( [s] \\)\n \\( [M_n^{\\bullet}],[M_m^{\\bullet}] \\) – stężenie makrorodników o długości łańcuchów n i m, \\( [mol\\cdot dm ^{-3}] \\)\n\n \\( k_t \\) – stała szybkości zakończenia łańcucha, (wielkość rzędu \\( 10^{7} - 10^{9}) [mol\\cdot dm^{-3} s^{-1}] \\)."}, {"name": "Definicja 3: Polimeryzacja kontrolowana", "content": "termin używany do określenia polimeryzacji, w której dokładnie określono parametr kinetyczny lub cechę strukturalną tworzącej się makrocząsteczki, która podlega kontroli ( kontrolowane polimeryzacje rodnikowe )."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Mechanizmy polimeryzacji", "subject_id": 923, "subject": "Polimeryzacja jonowa", "paragraphs": ["Na proces polimeryzacji jonowej, na strukturę pary jonowej, duży wpływ ma środowisko reakcji, rodzaj zastosowanego rozpuszczalnika, wartość jego stałej dielektrycznej. Rozpuszczalniki stosowane w procesie polimeryzacji jonowej to:", "Za pomocą schematu Winsteina opisuje się położenie różnych stanów równowagi występujących między związkiem kowalencyjnym, a układem jonowym ( Rys. 1 ). Utworzenie się pary jonowej odseparowanej od siebie przez cząsteczki rozpuszczalnika (ang. separated-ion pair) jest bardziej prawdopodobne w obecności rozpuszczalnika polarnego. Natomiast utworzenie pary jonowej w bezpośrednim kontakcie ze sobą (ang. contact ion pair) jest możliwe w środowisku mniej polarnych rozpuszczalników.", "Wzrost łańcucha polimerowego w polimeryzacji jonowej może przebiegać na sposób polimeryzacji kationowej i anionowej.", "Przykłady monomerów, które polimeryzują według mechanizmu kationowego i anionowego przedstawiono w Tabela 1.", "Rys. 2 przedstawia porównanie pomiędzy polimeryzacją kationową i anionową."], "definitions": [{"name": "Definicja 1: Polimeryzacja jonowa", "content": " W polimeryzacji jonowej biorą udział jony oraz pary jonów (definicja wg Międzynarodowej Unii Chemii Czystej i Stosowanej, IUPAC). Polimeryzacja jonowa przebiega według mechanizmu polimeryzacji addycyjnej [1], [2], [3]."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Mechanizmy polimeryzacji", "subject_id": 1076, "subject": "Polimeryzacja koordynacyjna", "paragraphs": ["Katalizatorem polimeryzacji koordynacyjnej jest najczęściej kompleks metalu przejściowego. Miejscem wzrostu łańcucha jest kompleks katalityczny.", "W procesie polimeryzacji koordynacyjnej stosuje się różne katalizatory, w polimeryzacji monomerów węglowodorowych bardzo często katalizatory typu Zieglera-Natty (występuje wiele ich rodzajów, są to kompleksy organometaliczne (jony metalu tworzą wiązania z organicznymi cząsteczkami, anionami) metali przejściowych. Przykładem katalizatora typu Zieglera-Natty jest związek powstający w wyniku reakcji trietyloglinu z tetrachlorkiem tytanu.", "Dzięki zastosowaniu katalizatorów Zieglera-Natty (wprowadzonych w latach 60-tych XX wieku) można przeprowadzać polimeryzację monomerów (np. etylen, propylen), które trudno polimeryzują w niskiej temperaturze, pod normalnym ciśnieniem. Ogromną zaletą jest możliwość kontroli stereochemii (w zależności od katalizatora można otrzymywać różne formy, np. polimery izotaktyczne, syndiotaktyczne)."], "definitions": [{"name": "Definicja 1: Polimeryzacja koordynacyjna", "content": "Polimeryzacja koordynacyjna jest to proces katalityczny, w wyniku którego powstają związki koordynacyjne pomiędzy katalizatorem a monomerem. W procesie polimeryzacji powstają polimery stereoregularne (tzw. taktyczne ) [1]."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Mechanizmy polimeryzacji", "subject_id": 924, "subject": "Polimeryzacja z otwarciem pierścienia", "paragraphs": ["W procesie ROP mogą uczestniczyć różne monomery, wybrane przykłady przedstawiono w Tabela 1.", "Polimeryzacja z otwarciem pierścienia może przebiegać na sposób: 1. polimeryzacji rodnikowej; Rys. 1 przedstawia polimeryzację rodnikową z otwarciem pierścienia \\( bicyklo[1.1.0]butanu \\). Występowanie podstawników (X) z niedoborem elektronów jest istotne w celu przeprowadzenia polimeryzacji (podstawniki stabilizują rodnik utworzony w reakcji ROP). Otrzymane polimery są stabilne termicznie, dzięki występowaniu w ich strukturze sztywnych pierścieni cyklobutanu.", "2. polimeryzacji jonowej (kationowej, anionowej);", "3. polimeryzacji metatetycznej z otwarciem pierścienia (ang. ring opening metathesis polymerization). Rys. 2 przedstawia przykład polimeryzacji metatetycznej z otwarciem pierścienia monocyklicznego monomeru (cyklopentenu). Polimeryzacja metatetyczna z otwarciem pierścienia stosowana jest w przemysłowej syntezie poliolefin (olefiny-związki z grupy węglowodorów nienasyconych, z jednym lub większą ilością wiązań podwójnych między atomami węgla).", "W polimeryzacji z otwarciem pierścienia można otrzymać polimery, które mają taką samą lub niższą gęstość niż monomery. Tego typu polimeryzacja znalazła zastosowanie np. w stomatologii (wypełnianie zębów), w przemyśle elektrycznym, elektronicznym (np. powłoki polimerowe)."], "definitions": [{"name": "Definicja 1: Polimeryzacja z otwarciem pierścienia", "content": "Polimeryzacja z otwarciem pierścienia (ang. ring opening polymerization – ROP) to rodzaj polimeryzacji, który dotyczy polimeryzacji monomerów, które mają budowę pierścieniową (cykliczną). Cykliczny monomer (przykłady podano w Tabela 1 ) w wyniku reakcji polimeryzacji, podczas której dochodzi do pęknięcia pierścienia staje się jednostką monomeryczną, która przestaje mieć budowę pierścieniową lub zawiera mniej pierścieni niż monomer. Polimeryzacja z otwarciem pierścienia przebiega według mechanizmu polimeryzacji addycyjnej [1], [2]."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Mechanizmy polimeryzacji", "subject_id": 926, "subject": "Polimeryzacja kondensacyjna", "paragraphs": ["W literaturze można spotkać starsze nazwy odnoszące się do tego typu polimeryzacji (polikondensacja – w wyniku reakcji polimeryzacji powstaje produkt uboczny, poliaddycja – w wyniku reakcji polimeryzacji nie powstają produkty uboczne) [2].", "Schematycznie polimeryzacja stopniowa może obejmować reakcję dwufunkcyjnego monomeru \\( AB \\) , który zawiera obie grupy funkcyjne \\( A \\) i \\( B \\) w cząsteczce (np. \\( A \\) – grupa aminowa, \\( B \\) – grupa karboksylowa).", "Inny schemat obejmuje reakcje pomiędzy dwoma dwufunkcyjnymi monomerami typu \\( AA \\) i \\( BB \\), podczas reakcji polimeryzacji dochodzi do reakcji grup funkcyjnych \\( A \\) i \\( B \\), które pochodzą z dwóch cząsteczek – monomerów lub łańcuchów.", "Rys. 1 przedstawia przykłady polimeryzacji kondensacyjnej (homopolimeryzacji – homopolikondensacji oraz heteropolimeryzacji –heteropolikondensacji).", "Procesy polireakcji stopniowej można podzielić na:", "Polimeryzacja kondensacyjna, to proces, który występuje w przyrodzie (synteza biopolimerów, np. kwasów nukleinowych, białek), jest stosowany w procesie produkcji wielu polimerów (przykłady przedstawia Tabela 1, Tabela 2 )."], "definitions": [{"name": "Definicja 1: Polimeryzacja kondensacyjna", "content": "W polimeryzacji kondensacyjnej (stopniowej, ang. step-growth polymerization) wzrost łańcucha polimerowego (propagacja) przebiega w sposób stopniowy, w trakcie procesu polimeryzacji. Polimeryzacja kondensacyjna zachodzi na skutek reakcji grup funkcyjnych, które występują w monomerach, w wyniku tej reakcji bardzo często dodatkowo powstaje małocząsteczkowy produkt uboczny (np. woda, kwas solny, amoniak, alkohol) [1], [2]."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Mechanizmy polimeryzacji", "subject_id": 925, "subject": "Polimeryzacja addycyjna vs. kondensacyjna", "paragraphs": ["Reakcję polimeryzacji ze względu na mechanizm można podzielić na dwa podstawowe typy (podział ze względu na mechanizm wzrostu łańcucha) [1], [2], [3], [4]:", "Tabela 1 przedstawia główne różnice pomiędzy polimeryzacją addycyjną i kondensacyjną.", "W Tabela 2 zebrano przykłady polimerów otrzymywanych za pomocą polimeryzacji addycyjnej i kondensacyjnej."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Mechanizmy polimeryzacji", "subject_id": 927, "subject": "Kinetyka reakcji polimeryzacji", "paragraphs": ["Badając kinetykę reakcji polimeryzacji można określić wpływ wielu zmiennych czynników na proces polimeryzacji, takich jak, m.in.: a)\tskładu i stężenia reagentów (monomeru, inicjatora), przy stałej temperaturze i ciśnieniu; b)\ttemperatury, c)\tciśnienia, d)\trozpuszczalników, e)\tstężenia rodników (trwałych) na szybkość reakcji etapów polimeryzacji addycyjnej.", "Dokładna znajomość kinetyki reakcji polimeryzacji ma bardzo duże znaczenie w procesie kontrolowania przebiegu reakcji, jest bardzo istotna m.in. w tworzeniu nowych metod syntezy polimerów.", "W celu monitorowania kinetyki reakcji polimeryzacji wykorzystuje się wiele różnych metod i technik badawczych takich jak, m.in.: a)\tspektroskopia magnetycznego rezonansu jądrowego ( NMR ), (najczęściej wykorzystuje się \\( {^1}H NMR \\) i \\( ^{13}C NMR \\)) (uwaga: inicjatory muszą zawierać izotopy, np. \\( ^1H \\), \\( ^{13}C \\)); b)\telektronowy rezonans paramagnetyczny (ERP) (badanie rodników i makrorodników), c)\tspektroskopia w podczerwieni ( IR ) (wyznacza się krzywą kinetyczną zaniku wiązań podwójnych w funkcji czasu polimeryzacji), d)\tskaningowa kalorymetria różnicowa (DSC) (pomiar szybkości polimeryzacji określa się za pomocą pomiaru wydzielanego ciepła polimeryzacji), e)\tdylatometria (szybkość procesu polimeryzacji wyznacza się na podstawie zmian objętości polimeryzującego układu w czasie).", "Mechanizm reakcji polimeryzacji omówiono na przykładzie najczęściej wykorzystywanej na skalę przemysłową polimeryzacji rodnikowej ( polimeryzacji addycyjnej ) [1], [2], [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody otrzymywania polimerów", "subject_id": 928, "subject": "Polimeryzacja w masie", "paragraphs": ["W miarę postępu polimeryzacji i wzrostu stężenia polimeru, zwiększa się lepkość. Za duża lepkość utrudnia mieszanie i odprowadzenie ciepła. Może to doprowadzić do miejscowego przegrzania, zwęglenia albo miejscowej degradacji produktu. Polimeryzację należy prowadzić zatem w temperaturze niższej od temperatury wrzenia monomeru, bo jego opary mogą powodować zapęcherzenie lepkiego polimeru. Przegrzane pary monomeru, które zostaną uwięzione w masie są przyczyną powstawania pęcherzy i pęknięć jak również skurczu polimeru po zakończonym procesie.", "Tym sposobem najczęściej prowadzi się polimeryzację etylenu, rodnikową polimeryzację styrenu, met akrylanu metylu i innych estrów kwasu metakrylowego, blokowo-strąceniowa polimeryzację chlorku winylu, rodnikową polimeryzację akrylonitrylu, rodnikową polimeryzację octanu winylu oraz polimeryzację butadienu i izoprenu [1], [2].", "Polimeryzację blokową najczęściej prowadzi się w dwóch etapach. Pierwszy zwany prepolimeryzacją prowadzi do otrzymania roztworu polimeru w monomerze o określonej lepkości. Następnie taki lepki roztwór wprowadza się do form. Polimeryzację końcowa prowadzi się w formach w temperaturze dobranej do konkretnego polimeru. Polimer otrzymany tą metodą jest czysty, wolny od monomeru, ale wadą jest duży stopień polidyspersji przy dużym stopniu przereagowania monomeru [3], [4].", "Polimeryzację w masie można prowadzić w sposób ciągły. Najbardziej popularna jest metoda wieżowa. Reaktor w którym zachodzi polimeryzacja ma kształt kolumny (wieży). Monomer polimeryzuje w trakcie przepływu przez kolumnę i jest wypierany przez doprowadzoną świeżą porcję monomeru lub roztwór prepolimeru. Konstrukcja reaktora wyklucza możliwość mieszania się ze sobą produktu w różnych fazach reakcji co pozwala na otrzymanie jednorodnego polimeru o określonych właściwościach [1], [3].", "Odmianą polimeryzacji w masie jest polimeryzacja blokowo-strąceniowa. Podczas tej metody polimer nie rozpuszcza się w monomerze, ale wytrąca się w postaci osadu. Technicznym problemem jest tutaj mieszanie i usuwanie polimeru, który osadza się na wewnętrznych ściankach reaktora [3]."], "definitions": [{"name": "Definicja 1: Polimeryzacja blokowa", "content": "Polimeryzacja w masie zwana również polimeryzacją blokową , czy polimeryzacją w bloku jest to polimeryzacja w fazie ciekłej, przebiega w środowisku monomeru w którym rozpuszcza się polimer. Polega ona na reakcji czystego monomeru w obecności inicjatora bez dodatku rozpuszczalnika. Na skutek tej reakcji powstaje jednolita masa polimeru stałego – bloku, który przyjmuje kształt naczynia reakcyjnego. Może on stanowić produkt końcowy, albo poddaje się go granulacji."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody otrzymywania polimerów", "subject_id": 960, "subject": "Polimeryzacja w roztworze", "paragraphs": ["Metodę tę stosuje się do przeprowadzania polimeryzacji [1]:", "Zalety polimeryzacji w roztworze jednorodnym [1], [2], [3]:", "Wady polimeryzacji w roztworze jednorodnym:", "Sposobem na wyodrębnienie polimeru z roztworu są metody strąceniowe z użyciem rozcieńczalników, które mieszają się z rozpuszczalnikiem, ale nie rozpuszczają wydzielonego polimeru, oraz destylacja z parą wodną [1].", "Reakcje telomeryzacji zachodzą jeśli zastosujemy rozpuszczalniki aktywne, które mogą uczestniczyć w zachodzącym procesie (np. tetra chlorek węgla, chloroform, chlorobenzen, aceton, cykloheksan itp.) [4]. Powstają wówczas cząsteczki telomeru, które w odróżnieniu od oligomeru, na końcach łańcucha mają duże podstawniki pochodzące z rozpadu cząsteczki rozpuszczalnika. Takie podstawniki mają decydujący wpływ na właściwości produktu finalnego, Czasami reakcję telomeryzacji przeprowadza się planowo w celu otrzymania małocząsteczkowych reaktywnych substancji, które są materiałem wyjściowym do syntezy innych polimerów [2].", "Polimeryzacje w roztworze stosuje się do produkcji kauczuku butylowego w roztworze chlorku metylu oraz poliizoprenu w roztworze n-pentanu [1].", "W metodzie roztworowo-strąceniowej stosuje się rozpuszczalnik, który rozpuszcza tylko monomer, a nie rozpuszcza polimeru. Dzięki temu powstający polimer wypada ze środowiska reakcji w postaci bardzo drobnego proszku lub zawiesiny. Polimer oddziela się od roztworu poprzez sączenie lub wirowanie."], "definitions": [{"name": "Definicja 1: Polimeryzacja w roztworze", "content": "Polimeryzacja w roztworze jest prowadzona w rozpuszczalniku, w którym rozpuszczają się reagenty. Jej przebieg uzależniony jest od rodzaju i ilości zastosowanego rozpuszczalnika. Proces można prowadzić w środowisku jednorodnym, gdzie stosuje się rozpuszczalnik dobrze rozpuszczający monomer i polimer. Innym wariantem jest stosowanie rozpuszczalnika dobrze rozpuszczającego monomer i nierozpuszczającego polimeru. Mówimy wtedy o polimeryzacji roztworowo-strąceniowej."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody otrzymywania polimerów", "subject_id": 930, "subject": "Polimeryzacja w fazie gazowej", "paragraphs": ["Metodę tę stosuje się do polimeryzacji wysokociśnieniowej etylenu (40 MPa w temperaturze 180°C) i tetrafluoroetylenu (25 MPa w temperaturze 150°C) oraz polimeryzacji średniociśnieniowej etylenu i propylenu (2-4 MPa w temperaturze 85-100°C) [1], [2].", "Reakcję polimeryzacji w fazie gazowej przeprowadza się w adiabatycznych reaktorach rurowych lub w autoklawach, do których dostarcza się gazowy monomer. Przed wprowadzeniem monomeru do reaktora, poddawany jest on dwustopniowemu sprężaniu. Następnie zimny gaz wprowadza się do reaktora razem z inicjatorem (rozpylone nadtlenki lub tlen). Ścianki reaktora adiabatycznego ogrzewa się gorącym powietrzem aby zapoczątkować proces, następnie zaprzestaje się ogrzewania i rozpoczyna silne chłodzenie. W kolejnym etapie rozpręża się mieszaninę poreakcyjną w zaworze redukcyjnym i kieruje do separatora. Z separatora uchodzi gaz do innej produkcji a ciekły polimer przepływa przez zawór redukcyjny ciśnienia do zbiornika, gdzie jest odgazowywany. W końcowym etapie polimer jest wytłaczany postaci drutu i krojony na granulat [2]."], "definitions": [{"name": "Definicja 1: Polimeryzacja w fazie gazowej", "content": "Polimeryzacja w fazie gazowej – jest to typ polimeryzacji w którym używa się gazowych monomerów o niskiej temperaturze krytycznej. W efekcie powstaje zwykle pył polimeru, który odfiltrowuje się, a następnie stapia i granuluje. Metoda ta wymaga stosowania wysokiego ciśnienia."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody otrzymywania polimerów", "subject_id": 931, "subject": "Polimeryzacja na granicy rozdziału faz", "paragraphs": ["Metody polimeryzacji międzyfazowej dzielą się w zależności od typu granic międzyfazowych na trzy przypadki: ciecz–ciało stałe, ciecz–ciecz i ciecz–emulsja [1].", "W metodzie z udziałem granicy faz ciecz–ciecz i ciecz–emulsja monomery może zawierać zarówno jedna jak i obie fazy ciekłe. W przypadku ciecz–ciało stałe polimeryzacja rozpoczyna się a granicy faz i powoduje przyłączanie polimeru do powierzchni fazy stałej. W przypadku ciecz–ciecz z monomerem rozpuszczonym tylko w jednej fazie, polimeryzacja zachodzi na granicy faz tylko od strony, gdzie jest obecny monomer, natomiast podczas gdy monomery są rozpuszczone w obu fazach, polimeryzacja zachodzi na granicy faz po obu stronach.", "Polimeryzacja na granicy faz może przebiegać z udziałem mieszania lub bez mieszania. Jeżeli podczas reakcji polimeryzacji zastosujemy mieszanie, zwiększa się powierzchnia międzyfazowa co skutkuje wyższą wydajnością procesu. Jeżeli chcemy otrzymać polimer w postaci kapsułek, wielkość kapsułek zależy od szybkości mieszania [3]. Polimeryzacja na granicy faz wykazuje wiele zalet:", "Wadę metody stanowi zanieczyszczenie polimeru, którego odmycie stanowi najdłuższy etap procesu."], "definitions": [{"name": "Definicja 1: Polimeryzacja międzyfazowa", "content": "Polimeryzacja międzyfazowa – jest rodzajem polimeryzacji ze stopniowym wzrostem, w której rekcja polimeryzacji zachodzi na granicy faz, które nie mieszają się ze sobą (zwykle są to fazy ciekłe). Monomer znajduje się w jednej fazie ciekłej, zaś inicjator w drugiej. Powstający polimer jest natychmiast \"wyciągany\" z układu reakcji tak, aby utrzymywać cały czas dużą powierzchnię kontaktu faz. W wyniku tej polimeryzacji otrzymuje się włókna lub bardzo cienkie folie."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody otrzymywania polimerów", "subject_id": 929, "subject": "Polimeryzacja w emulsji", "paragraphs": ["W początkowym etapie kropelki monomeru otoczone są cząsteczkami emulgatora (środka powierzchniowo-czynnego). Polimeryzacja jest inicjowana przez rodniki generowane w fazie wodnej. W pierwszym etapie rodnik dyfunduje do środka miceli i inicjuje polimeryzację monomerów, które są tam obecne. Po wyczerpaniu monomerów, kolejne dyfundują do środka miceli i reakcja propagacji jest kontynuowana. Makrocząsteczka wewnątrz miceli stale wzrasta, aż następuje rozerwanie miceli i proces polimeryzacji zostaje zakończony. Na powierzchni cząsteczki polimeru znajdują się pozostałości miceli, które zapobiegają koagulacji makrocząsteczek, a cała zawiesina tworzy tzw. lateks. Średnie wymiary makrocząsteczek wahają się w granicach 50-200 nm, ale mogą osiągać nawet 1000 nm [1], [2], [3].", "Mieszanina reakcyjna oprócz fazy podstawowej rozpraszającej, którą najczęściej jest woda i oprócz monomeru zawiera: inicjator polimeryzacji, emulgatory, stabilizatory emulsji itp.", "Inicjatorami polimeryzacji są związki zdolne do tworzenia rodników lub zdolne do utleniania, dzięki którym powstają tlenki nienasyconego monomeru, które są źródłem wolnych rodników. Takimi związkami są nadsiarczany, nadtlenki. Rodniki łatwo dyfundują do środka miceli i inicjują w ich wnętrzu polimeryzację [1], [2].", "Emulgatory (surfaktanty) są to środki powierzchniowo-czynne, które umożliwiają otrzymanie stabilnej emulsji monomeru w wodzie. Zawierają one długie łańcuchy węglowodorowe, zakończone polarnymi grupami hydrofilowymi, które migrują w kierunku powierzchni fazy wodnej i obniżają napięcie powierzchniowe. Hydrofobowe części surfaktantu łączą się w uporządkowane grupy zwane micelami. Grupy polarne emulgatora są skierowane na zewnątrz miceli do fazy wodnej, natomiast długie łańcuchy do wnętrza miceli, gdzie dyfunduje monomer. Przykładowymi emulgatorami są: laurynian potasu, stearynian potasu, n-dodecylosulfonian sodu, chlorowodorek dedecyloaminy itp. [1].", "Stabilizatory to substancje, których zadaniem jest utrzymanie właściwej struktury emulsji. Emulsje są układami termodynamicznie niestabilnymi z powodu oddziaływań jakie zachodzą pomiędzy fazami oraz pomiędzy kroplami fazy rozproszonej. Wraz ze wzrostem stopnia dyspersji wzrasta energia powierzchniowa, a emulsja staje się mniej trwała. Emulsja dążąc do osiągnięcia minimum energii i obniżenia entropii łączy krople fazy rozproszonej co prowadzi do rozwarstwienia układu. Aby zapobiec temu procesowi stosuje się związki wielkocząsteczkowe rozpuszczalne w wodzie jako stabilizatory emulsji. Przykładowymi stabilizatorami są: żelatyna, skrobia lub metyloceluloza [3].", "Polimeryzacja emulsyjna wykazuje wiele zalet takich jak [2], [3]:", "Do wad tej metody można zaliczyć zanieczyszczenie powierzchni polimeru surfaktantami, których cząsteczki są trudne do usunięcia. Do najważniejszych polimerów otrzymywanych metodą emulsyjną należą:"], "definitions": [{"name": "Definicja 1: Polimeryzacja emulsyjna", "content": "Polimeryzacja w emulsji jest to polimeryzacja w układzie dwufazowym. Monomer dysperguje się w fazie rozpraszającej, którą zwykle jest woda ze środkami powierzchniowo-czynnymi i pod wpływem silnego mieszania powstaje emulsja. Polimeryzacja przebiega we wnętrzu miceli. W wyniku polimeryzacji emulsyjnej powstaje lateks. Jest to zawiesina drobnych cząstek polimeru, zabezpieczonych przed koagulacją."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody otrzymywania polimerów", "subject_id": 973, "subject": "Polimeryzacja w zawiesinie", "paragraphs": ["Każda kropla to ”mały reaktor” polimeryzacji w masie. Polimeryzacja zachodzi wewnątrz kropli a powstały polimer jest nierozpuszczalny w wodzie. Polimer otrzymuje się w postaci kulistych perełek lub koralików (stąd nazwa \"polimeryzacja perełkowa\"). Otrzymany polimer poddaje się filtracji i płukaniu w celu usunięcia środków powierzchniowo czynnych.", "Film poniżej przedstawia formowanie się mikrogranulek polimeru.", "Źródło: SMC468 Graphic Design for Education, The Preparation of Microspheres, 13.05.2016 (dostęp 14.12.2020). Dostępne w YouTube: https://youtu.be/67FRYQ7iH90.", "Polimeryzacja „perełkowa” zachodzi z większą szybkością, niż polimeryzacja w bloku. Przy bardzo dużym zdyspergowaniu polimeru mechanizm podobny jest do polimeryzacji emulsyjnej [1].", "Czynniki, które mają wpływ na przebieg polimeryzacji w zawiesinie oraz na właściwości produktu końcowego to [1], [2]:", "Koloidy ochronne, które są rozpuszczone w fazie wodnej pełnią rolę stabilizatorów zawiesiny – zapobiegają aglomeracji perełek w czasie procesu oraz mają wpływ na rozmiary cząsteczek. Rodzaj stabilizatora oraz jego stężenie dobiera się doświadczalnie. Najczęściej stosowanymi stabilizatorami są [1]:", "Inicjatory polimeryzacji wpływają na czas polimeryzacji oraz na ciężar cząsteczkowy i porowatość. Są to substancje rozpuszczalne w monomerze, najczęściej nadtlenki organiczne, np. nadtlenek benzoilu i lauroilu.", "Intensywność mieszania wpływa na wielkość, kształt i polidyspersyjność perełek. Powolne mieszanie powoduje aglomerację perełek, a zbyt szybkie – rozdrobnienie [3]. Polimeryzacja w zawiesinie jest stosowana do produkcji kulek polimerowych o rozmiarze 10 um – 5 mm. Przy zastosowaniu bardzo energicznego mieszania można otrzymać perełki o dużo mniejszych rozmiarach 9 0.1 – 3,0 um) [3].", "Zalety polimeryzacji suspensyjnej [1], [2], [3]:", "Metoda suspensyjna nie nadaję się do syntezy elastomerów [2].", "Polimeryzacja perełkowa znalazła szerokie zastosowanie do przemysłowego otrzymywania takich polimerów, jak:"], "definitions": [{"name": "Definicja 1: Polimeryzacja w zawiesinie", "content": "Polimeryzacja suspensyjna, zwana również polimeryzacją w zawiesinie lub perełkową jest reakcją prowadzoną w środowisku wodnym, gdzie zastosowany monomer jest nierozpuszczalny w wodzie. Roztwór inicjatora w monomerze rozprasza się w wodnym roztworze koloidów organicznych. Rozproszenie następuje w wyniku bardzo silnego mieszania. Monomery polimeryzują tworząc kulki lub granulki polimeru."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Masa molowa polimerów - obliczanie i wyznaczanie", "subject_id": 911, "subject": "Masa molowa polimerów - definicje", "paragraphs": ["Podczas reakcji polimeryzacji powstają cząsteczki – makromolekuły o różnej długości łańcucha czy też wielkości. Teoretycznie każda makrocząsteczka polimeru może mieć inną wielkość, czyli inną masę. Brak ściśle zdefiniowanej masy molowej jest zatem cechą charakterystyczną polimerów. Dla polimerów stosuje się zatem pojęcie średniej masy cząsteczkowej lub średniej masy molowej. Masa molowa i cząsteczkowa, tak jak dla małych cząsteczek związków chemicznych są liczbowo równe, różnią się jedynie jednostką.", "Określenie średniej masy molowej polimeru jest bardzo istotne, ponieważ wielkość makrocząsteczek i rozrzut ich wielkości wpływa znacząco na właściwości fizykochemiczne, mechaniczne i przetwórcze danego polimeru. Rys. 1 przedstawia przykłady rozkładów mas cząsteczkowych polimerów. Rozkład może być symetryczny (krzywa niebieska), co oznacza, że ilość cząsteczek o dużej masie jest porównywalna z ilością cząsteczek o małej masie. Rozkład niesymetryczny (krzywa czarna) oznacza, że więcej jest cząsteczek o małej masie.", "Istnieje kilka sposobów wyrażania średniej masy molowej polimerów, wielkości rekomendowane przez UPAC [1]. Są to: liczbowo średnia masa molowa, wagowo średnia masa cząsteczkowa, Z - średnia masa cząsteczkowa, lepkościowo średnia masa cząsteczkowa.", "Polidyspersyjność jest miarą rozrzutu mas cząsteczkowych w próbce tego samego polimeru, określa niejednorodność masy molowej polimeru. Jeżeli I=1, wówczas polimer nazywamy monodyspersyjnym, co oznacza, że wszystkie łańcuchy mają tę samą długość. Taka sytuacja występuje tylko w przypadku niektórych polimerów naturalnych. Dla polimerów syntetycznych wytwarzanych przemysłowo wskaźnik ten zawiera się w zakresie od 1,5 do 2. Reakcje polimeryzacji te przebiegają różnie, zależnie od warunków i mechanizmu, co powoduje, że populacje polimerów posiadają losowy rozrzut mas cząsteczkowych.", "Można wprowadzić jeszcze wyższe stopnie średniej masy cząsteczkowej definiując nową wielkość \\( Z_i \\)+1, etc. Masę cząsteczkową polimerów polidyspersyjnych można zatem wyrażać nieskończoną liczbą wartości liczbowych.", "Rys. 2 przedstawia różnice pomiędzy średnimi masami cząsteczkowymi polimeru na tle krzywej rozkładu mas cząsteczkowych.", "Do wyznaczania średnich mas molowych polimerów stosuje się różne techniki pomiarowe. Mogą to być metody bezpośrednie (absolutne) – wartość średniej masy cząsteczkowej wynika wprost z pomiaru określonej wielkości fizycznej, metody równoważnikowe, polegające na wyznaczaniu liczby grup końcowych oraz metody pośrednie (względne), które wymagają kalibrowania układu pomiarowego przy pomocy polimerów o znanej masie cząsteczkowej ( Rys. 3 ).", "Tabela 1 przedstawia rodzaj wyznaczanej średniej masy cząsteczkowej, zakres pomiary oraz charakterystykę pomiaru w zależności od metody pomiarowej [2]."], "definitions": [{"name": "Definicja 1: Masa cząsteczkowa polimeru", "content": "Masa cząsteczkowa polimeru jest to masa pojedynczej cząsteczki wyrażona jest w jednostkach masy atomowej (u) (ang. unit) równych 1/12 masy izotopu węgla\n \\( ^{12}C \\) (1,66· \\( 10^{-27} \\)kg)."}, {"name": "Definicja 2: Masa molowa polimeru", "content": "Masa molowa polimeru jest równa masie cząsteczkowej wyrażonej w g/mol."}, {"name": "Definicja 3: Liczbowo średnia masa molowa", "content": "czyli stosunek masy próbki polimeru do liczby moli zawartych w niej cząsteczek:\n\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\overline{M_n} = \\frac{\\sum\\limits_{i}\\quad n_i M_i}{\\sum\\limits_{i}\\quad n_i} \\)\n\n\n\ngdzie: \\( n_i \\) – liczba makrocząstek o masie molowej \\( M_i \\)."}, {"name": "Definicja 4: Wagowo średnia masa cząsteczkowa", "content": "określa udział wagowy frakcji cząsteczek o określonej masie molowej \\( M_i \\) w całej masie próbki polimeru\n\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( \\overline{M_w} = \\frac {\\sum\\limits_{i}\\quad m_i M_i}{\\sum\\limits_{i}\\quad m_i} \\)\n\ngdzie: \\( m_i \\) – oznacza masę frakcji makrocząsteczek o masie molowej \\( M_i \\),\n\nwiedząc, że: \\( m_i = n_i M_i \\)\nwyrażenie na średnią wagowo masę cząsteczkową i można ją zapisać jako:\n\n(3)\n\n\t\t\t\t\t\t\t\t\\( \\overline{M_w} = \\frac {\\sum\\limits_{i}\\quad n_i M_i^2}{\\sum\\limits_{i}\\quad n_i M_i } \\)\n\nStosunek wagowo średniej masy cząsteczkowej do liczbowo średniej masy cząsteczkowej nazywany jest polidyspersyjnością.\n\n(4)\n\n\t\t\t\t\t\t\t\t\\( I=\\frac{\\overline{M_w}}{\\overline{M_n}} \\)\n\n"}, {"name": "Definicja 5: Z-średnia masa cząsteczkowa", "content": "Analogicznie do wyrażenia na wagowo średnią masę cząsteczkową można wprowadzić wyższe stopnie średniej masy cząsteczkowej definiując nową wielkość \\( Z_i \\)\n\n\n(5)\n\n\t\t\t\t\t\t\t\t\\( Z_i=m_i M_i = n_i M_i^2 \\)\n\n\n\n(6)\n\n\t\t\t\t\t\t\t\t\\( \\overline{M_z} = \\frac {\\sum\\limits_{i}\\quad n_i M_i^3}{\\sum\\limits_{i}\\quad n_i M_i ^2} \\)\n\n"}, {"name": "Definicja 6: Lepkościowo średnia masa cząsteczkowa", "content": "czyli średnia masa cząsteczkowa wyznaczona metodą wiskozymetryczną.\n\n\t\t\t\t\t(7)\n\n\t\t\t\t\t\t\t\t\\( \\overline {M_\\nu} = \\left( \\frac {\\sum\\limits_{i}\\quad n_i M_i^{(1+\\alpha) }}{\\sum\\limits_{i}\\quad n_i M_i}\\right)^{( \\frac 1\\alpha) } \\)\n\ngdzie: \\( \\alpha \\) – stała charakterystyczna dla układu polimer-rozpuszczalnik, przyjmuje wartości od 0,5 do 1,0.\nDla polimerów monodyspersyjnych wartości średnich mas cząsteczkowych są sobie równe. Dla polimerów wykazujących polidyspersyjność, rozkład ciężarów cząsteczkowych jest bardziej płaski niż dla polimerów monodyspersyjnych, a poszczególne średnie masy cząsteczkowe różnią się od siebie. Ogólnie relacja pomiędzy poszczególnymi wielkościami jest następująca:\n\n\n\t\t\t\t\t\t\t\t\\( \\overline {M_n} < \\overline {M_\\nu} < \\overline {M_w} < \\overline {M_z} \\)\n\n"}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Masa molowa polimerów - obliczanie i wyznaczanie", "subject_id": 933, "subject": "Metoda wiskozymetryczna", "paragraphs": ["Wiskozymetria to metoda polegająca na pomiarze lepkości roztworu polimeru (lepkość – ang. viscosity). Wielkocząsteczkowe polimery wykazują dużo wyższą lepkość niż rozpuszczalniki. W związku z tym, już niewielka zawartość polimeru powoduje wyższą lepkość roztworu. Jest to spowodowane oddziaływaniem makrocząsteczek polimeru z cząsteczkami rozpuszczalnika oraz z innymi makrocząsteczkami. Pojęcie lepkości zostało przedstawione w podręczniku \"Chemia ogólna\" (zob. Lepkość cieczy ). W pomiarach wiskozymetrycznych porównuje się lepkości czystego rozpuszczalnika i rozcieńczonych roztworów polimeru w tym rozpuszczalniku. Najczęściej dokonuje się pomiarów wiskozymetrycznych względnych, w których porównuje się lepkości czystego rozpuszczalnika i rozcieńczonych roztworów polimeru. Dlatego też wprowadzono następujące pojęcia:", "Związek między graniczną liczbą lepkościową polimeru i jego średnią masą molową określa wzór Marka-Houwinka:", "Który to wzór po przekształceniu pozwala na obliczenie lepkościowo średniej masy molowej:", "gdzie K, \\( \\alpha \\) – stałe empiryczne, zależne od temperatury i charakterystyczne dla danego układu rozpuszczalnik – polimer. Wartości K i \\( \\alpha \\) wyznacza się je doświadczalnie z krzywej kalibracyjnej zależności \\( \\ln \\lbrack{\\eta} \\rbrack \\) od \\( \\ln \\overline M_n \\) lub \\( \\ln \\overline M_w \\). Do sporządzenia krzywej kalibracyjnej wykorzystuje się frakcje danego polimeru o wąskim rozkładzie mas cząsteczkowych, wyznaczonych wcześniej jedną z metod absolutnych, na przykład metodą chromatografii żelowej. Lepkość roztworów polimeru wyznacza się przy użyciu wiskozymetru Ostwalda, w którym mierzy się czas przepływu cieczy badanej pomiędzy dwoma poziomami w odniesieniu do czasu dla cieczy wzorcowej, lub za pomocą wiskozymetru Ubehlod'a, będącego odmianą metody Ostwalda, bądź lub wiskozymetru Höpplera, w którym mierzy się czas opadania kulki o określonych wymiarach i gęstości w roztworze badanym, względem czasu opadania tej samej kulki w cieczy wzorcowej. Rys. 1 przedstawia schemat wiskozymetru kulkowego.", "Po zmierzeniu wartości lepkości dla różnych stężeń polimeru w rozpuszczalniku wyrażonych w g/100 \\( cm^3 \\) sporządza się wykres zależności \\( \\frac {\\eta}{c} \\), czyli \\( \\eta_{red} \\) = f (c). Graniczną liczbę lepkościową \\( \\lbrack \\eta \\rbrack \\) wyznacza przez ekstrapolację tak uzyskanej prostej do c = 0 ( Rys. 2 )."], "definitions": [{"name": "Definicja 1: Lepkość względna", "content": "obrazuje ona zmianę lepkości pod wpływem dodania polimeru do rozpuszczalnika, jest stosunkiem lepkości dynamicznej danego roztworu do lepkości dynamicznej rozpuszczalnika (cieczy wzorcowej) i wyraża się wzorem\n\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\eta_r = \\frac \\eta \\eta_0 \\)\n\n\n\ngdzie \\( \\eta \\) – lepkość roztworu badanego, \\( \\eta_0 \\) – lepkość rozpuszczalnika."}, {"name": "Definicja 2: Lepkość właściwa", "content": "jest miarą wzrostu lepkości roztworu w stosunku do lepkości rozpuszczalnika; jest wyrażona wzorem\n\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( \\eta_{sp} = \\frac {\\eta - \\eta_0} {\\eta_0} \\)\n\n"}, {"name": "Definicja 3: Lepkość zredukowana ", "content": "jest stosunkiem lepkości właściwej do stężenia roztworu polimeru\n\n\n(3)\n\n\t\t\t\t\t\t\t\t\\( \\eta_{red} = \\frac {\\eta_{sp}} c \\)\n\n"}, {"name": "Definicja 4: Graniczna liczba lepkościowa", "content": "jest parametrem lepkości roztworu o nieskończenie małym stężeniu\n\n\n(4)\n\n\t\t\t\t\t\t\t\t\\( \\lbrack \\eta \\rbrack = \\lim \\limits_{c\\rightarrow0} \\frac{\\eta_{sp}}{c} \\)\n\n"}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Masa molowa polimerów - obliczanie i wyznaczanie", "subject_id": 935, "subject": "Metoda sedymentacji i ultrawirowania", "paragraphs": ["Sedymentacja jest to proces opadania większych cząstek w rozpuszczalniku pod wpływem siły grawitacji. Makrocząsteczki polimerów trudno sedymentują z roztworów. W takich przypadkach można wymusić sedymentację, np. przez zastosowanie szybkoobrotowej wirówki (ultrawirówki). Ultrawirówka została zastosowana po raz pierwszy przez Svedberga. Za pomocą ultrawirówki można śledzić szybkość sedymentacji lub ustalanie się równowagi sedymentacyjnej.", "Podczas wirowania z prędkością kątową ω na cząsteczkę o masie m działają trzy rodzaje sił:", "gdzie: ω – prędkość kątowa, r – odległość od osi obrotu, a – przyspieszenie odśrodkowe, V – objętość cząsteczki, \\( \\rho \\) – gęstość cząsteczki;", "gdzie: f – współczynnik tarcia, zależny od właściwości cząsteczki oraz lepkości roztworu;", "gdzie: \\( \\rho_s \\) – gęstość cieczy.", "Cząsteczka porusza się ruchem jednostajnym jeśli siła tarcia i siła wyporu równoważą siłę odśrodkową:", "Podstawiając za odpowiednie siły powyższe wzory otrzymujemy:", "oraz", "Można zdefiniować stałą sedymentacji S – wielkość charakteryzującą ruch cząsteczki w rozpuszczalniku, która określa prędkość sedymentacji na jednostkę przyspieszenia odśrodkowego:", "Jednostką stałej sedymentacji jest swedberg \\( 1S = 10^{-13} s \\) Równanie (6) przyjmuje wtedy postać:", "Wiedząc, że objętość cząsteczki związana jest z jej masą zależnością:", "Korzystając ze wzoru Einsteina na współczynnik dyfuzji:", "gdzie: R – stała gazowa, T – temperatura K, otrzymujemy ostatecznie Równania Svedberga:", "Metoda ultrawirowania jest metodą absolutną – mierząc wartości stałej sedymentacji S i współczynnika dyfuzji D oraz znając gęstość rozpuszczalnika \\( \\rho_s \\) i gęstość polimeru \\( \\rho \\) wyliczamy z nich wprost masę cząsteczkową M.", "Sedymentacja makrocząsteczek powoduje powstanie gradientu stężenia w roztworze. Po pewnym czasie wirowania ustala się stan równowagi pomiędzy przeciwnie skierowanymi procesami sedymentacji i dyfuzji, zwany równowagą sedymentacyjną. W stanie równowagi sedymentacyjnej substancja rozpuszczona wypełnia całą kuwetę, a jej stężenie zwiększa się od menisku do dna kuwety. Znając stężenia polimeru \\( c_1 \\) i \\( c_2 \\) w odległości \\( r_1 \\) i \\( r_2 \\) od osi obrotu w stanie równowagi sedymentacyjnej można wyznaczyć masę cząsteczkową polimeru z równania:", "Równowaga sedymentacyjna uzyskiwana jest zwykle po kilkudziesięciu godzinach wirowania. Znacznie szybszą wersję omawianej metody zaproponował Archibald [1].", "W metodzie Archibalda nie jest niezbędne osiągniecie stanu równowagi. W układzie kuweta - roztwór istnieją dwie płaszczyzny, przez które sedymentujące cząsteczki się nie przemieszczają. Jest to powierzchnia menisku (oznaczona jako a) na styku roztwór/powietrze i dno kuwety ( oznaczone jako b). Zachodzi wtedy warunek:", "Masę cząsteczkową polimeru możemy zatem wyznaczyć przy dnie kuwety, znając jej promień oraz stężenie polimeru:", "Roztwór polimeru umieszcza się w specjalnej kuwecie, która obraca się w rotorze z częstością powyżej 103 s-1. Kuweta jest umieszczona na drodze wiązki światła, które wpada następnie do detektora. Mierzy się współczynnik załamania światła, który jest proporcjonalny do stężenia substancji rozpuszczonej ( Rys. 1 )."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Masa molowa polimerów - obliczanie i wyznaczanie", "subject_id": 934, "subject": "Metody osmotyczne", "paragraphs": ["Osmometria jest wykorzystywana do oznaczania liczbowo średniej masy cząsteczkowej \\( \\overline{M_n} \\). Wykorzystywane są dwie techniki pomiarowe: osmometria parowa oraz pomiar ciśnienia osmotycznego. Zjawisko osmozy zostało opisane w e-podręczniki \"Chemia ogólna\" (zob. Zjawisko osmozy ).", "Zgodnie z prawem Raoulta prężność pary nasyconej nad roztworem jest mniejsza od prężności pary nasyconej nad rozpuszczalnikiem. Teoretycznie z różnicy tych ciśnień można obliczyć ułamek molowy substancji rozpuszczonej, a z niego – masę molową. W praktyce różnica prężności jest tak mała, że trudno ją zmierzyć. Znacznie łatwiej zmierzyć różnicę temperatury przy pomocy termistorów – bardzo dokładnych mierników temperatury. Na dwóch termistorach umieszcza się kolejno krople rozpuszczalnika oraz kroplę roztworu polimeru, naczynie pomiarowe wypełnione jest parami rozpuszczalnika, a temperatura obydwu kropel jest taka sama. Z powodu różnicy stężeń polimeru roztworze i rozpuszczalniku (stężenie równe zero) szybkość kondensacji rozpuszczalnika na kropli roztworu jest większa niż na kropli rozpuszczalnika, kondensująca się para oddaje ciepło kropli roztworu i notujemy wzrost różnicy temperatur do momentu wyrównania potencjałów obydwu kropel. Z połączenia praw Raoulta oraz Clausiusa-Clapeyrona otrzymujemy zależność:", "gdzie: \\( K_e \\) – stała ebulioskopowa, X – stężenie wyrażone w g/kg rozpuszczalnika. Różnicę temperatur mierzy się dla serii stężeń i ekstrapoluje do stężenia zerowego. Po dokonaniu kalibracji przy użyciu próbek o znanej masie cząsteczkowej [1], na podstawie różnicy temperatur między dwoma termistorami można wyznaczyć masę molową badanego polimeru. Rys. 1 przedstawia schemat układu pomiarowego do osmometrii parowej.", "Podczas migracji cząsteczek rozpuszczalnika w wyniku różnicy stężeń pomiędzy rozpuszczalnikiem, a roztworem polimeru wytwarza się ciśnienie osmotyczne \\( \\pi \\), jak pokazano na Rys. 2.", "Zgodnie z prawem van’t Hoffa wartość tego ciśnienia można wyznaczyć ze wzoru:", "Wyznacza się ciśnienie osmotyczne dla różnych stężeń danego polimeru iż wykresu \\( \\frac{\\pi}{c} = f(c) \\) wyznacza się wartość liczbowo średniej mamy cząsteczkowej."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Masa molowa polimerów - obliczanie i wyznaczanie", "subject_id": 932, "subject": "Metody wykorzystujące efekty termiczne", "paragraphs": ["Metody wykorzystujące efekty termiczne, które są stosowane do wyznaczania średniej masy cząsteczkowej polimerów wykorzystują zjawisko efektu krioskopowego oraz ebuliskopowego. Są to efekty związane ze zmianą temperatury krzepnięcia lub wrzenia roztworu w stosunku do temperatur charakterystycznych dla czystego rozpuszczalnika.", "Ciecz zaczyna wrzeć w momencie, kiedy prężność par nad roztworem osiąga wartość równą ciśnieniu zewnętrznemu. Obecność cząsteczek polimeru będzie utrudniała cząsteczkom rozpuszczalnika przechodzenie w stan pary [1], w związku z tym ciśnienie par nad roztworem będzie mniejsze, niż w przypadku czystego rozpuszczalnika.", "Prężność par nad roztworem jest sumą prężności par cząstkowych poszczególnych składników roztworu:", "Zgodnie z prawem Raoulta prężność cząstkowa każdego ze składników roztworu związana z ułamkiem molowym tego składnika w roztworze można wyrazić jako:", "Ciśnienie całkowite będzie zatem równe:", "gdzie: r – oznacza rozpuszczalnik, p – rozpuszczony polimer. Ponieważ polimer, jako związek wielkocząsteczkowy jest substancją nielotną, więc prężność jego par będzie równa zero, zatem wyrażenie na ciśnienie całkowite przyjmie formę:", "Zaś obniżenie prężności par nad roztworem wyniesie:", "Z równania tego wynika, że zmiana prężności pary nad roztworem jest zależna od ilości rozpuszczonego polimeru. Zależność temperatury wrzenia od prężności par nad cieczą wyrażona jest równaniem Clausiusa-Clapeyrona:", "gdzie: \\( ∆H_{par} \\) – ciepło parowania rozpuszczalnika J/mol, R – uniwersalna stała gazowa (8,314 J/mol K), C – stała, charakterystyczna dla cieczy. Po wstawieniu wyrażenia na zmianę ciśnienia do tego równania ostateczny wzór na zmianę temperatury wrzenia przyjmuje postać:", "gdzie: \\( T^o_{wrz} \\) – temperatura wrzenia rozpuszczalnika wyrażona w K,", "Rys. 2 ilustruje związek zmiany prężności pary nad roztworem ze zmianą temperatury wrzenia roztworu w stosunku do czystego rozpuszczalnika.", "Zgodnie z definicją ułamek molowy dla rozpuszczonego polimeru można zapisać:", "gdzie: \\( {n_p} \\) – liczba moli polimeru, \\( {n_r} \\) – liczba moli rozpuszczalnika.", "Wprowadzając zgodnie z definicją liczby moli n do wzoru na ułamek molowy masę polimeru i masę molową otrzymujemy:", "wyrażenie na zmianę temperatury wrzenia roztworu można przedstawić jako liniową zależność od masy dodanego polimeru.", "Wyznaczając zmianę temperatury wrzenia w funkcji masy rozpuszczonego polimeru otrzymuje się prostą, znając współczynnik nachylenia prostej można z niego wyliczyć wprost masę molową badanego polimeru:", "gdzie: a – współczynnik nachylenia z wykresu \\( \\Delta T = f(m_p) \\)", "Pomiar zmiany temperatury wrzenia wykonuje się w ebuliometrze (zob. Ebuliometr).", "Analogicznie do metody ebuliometrycznej można wyprowadzić zależność zmiany temperatury topnienia od masy molowej rozpuszczonego polimeru:", "gdzie: \\( \\Delta H_{top}^o \\) – ciepło topnienia/krzepnięcia Obniżenie temperatury krzepnięcia ilustruje Rys. 3.", "Wyznaczając zmianę temperatury topnienia/krzepnięcia w funkcji masy rozpuszczonego polimeru otrzymuje się prostą, znając współczynnik nachylenia prostej można z niego wyliczyć masę molową badanego polimeru:", "gdzie: a – współczynnik nachylenia prostej \\( \\Delta T = f(m_p) \\) Pomiaru dokonuje się w kriometrze."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Masa molowa polimerów - obliczanie i wyznaczanie", "subject_id": 936, "subject": "Metody chromatograficzne", "paragraphs": ["Jedną z najczęściej stosowanych metod wyznaczania mas cząsteczkowych polimerów jest chromatografia żelowo-permeacyjna, zwana częściej chromatografią wykluczania zależnego od wielkości cząsteczek GPC/SEC(GPC – Gel Permeation /SEC – Size Exclusion Column Chromatography. Metoda ta została szerzej opisana w module Chromatografia wykluczenia zależnego od wielkości cząsteczek.", "Rys. 1 prezentuje sposób wyznaczania masy cząsteczkowej badanego polimeru na podstawie krzywej kalibracyjnej \\( log M = f( V_e) \\) dla wzorcowych polimerów."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Gęstość polimerów i własności termalne", "subject_id": 964, "subject": "Gęstość polimerów", "paragraphs": ["W dolnym indeksie symbolu gęstości zaznacza się temperaturę pomiaru gęstości w związku z tym, że gęstość materiałów polimerowych zmienia się wraz z temperaturą. Zapis gęstości np. \\( \\rho_{25} \\)= 1,14 \\( \\frac {g}{cm^3} \\) oznacza, że podana gęstość dotyczy temperatury 25°C. Polimery są materiałami o bardzo różnej gęstości. Najczęściej mieści się ona w zakresie 0,8-2,2 \\( \\frac{g}{cm^3} \\). Poniższa Tabela 1 podaje gęstości najczęściej spotykanych polimerów.", "Istnieją zarówno ultralekkie polimery, jak aerożele o gęstości niewiele wyższej od gęstości powietrza – ok. 0,001 \\( \\frac{g}{cm^3} \\) [1], jak i superciężkie kompozyty polimerowe o gęstości dochodzącej do 4 \\( \\frac{g}{cm^3} \\).", "Polimery stosowane w procesach przemysłowych spotyka się w postaci ciekłej, litej, proszku, granulatu, w formie porowatej, czy spienionej. Polimery jako materiały można charakteryzować poprzez następujące rodzaje gęstości:"], "definitions": [{"name": "Definicja 1: Gęstość", "content": "oznaczana jako \\( \\rho \\) lub d (ang. density) jest jedną z podstawowych właściwości fizycznych substancji. Definiuje się ją jako stosunek masy próbki (m) do jej objętości (v) w danej temperaturze:\n\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\rho = \\frac {m}{v} [\\frac {g} {cm^3}] \\)\n\n\n\ngdzie: m – masa próbki (g); v – objętość próbki ( \\( cm^3 \\))."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Gęstość polimerów i własności termalne", "subject_id": 965, "subject": "Metody pomiaru gęstości", "paragraphs": ["Jak już wspomniano w module Gęstość polimerów, w zależności od stanu fizycznego polimeru wyróżnia się następujące rodzaje gęstości:", "Pomiar gęstości prowadzimy w określonej temperturze, ponieważ gęstość i stan plastyczny polimerów jest związany z temperaturą.", "Najczęściej spotykane metody oznaczeń gęstości materiałów polimerowych [1], [2], [3], [4], [5]:", "1. Pomiar objętości i masy Polega na zmierzeniu wymiarów próbki polimeru uformowanego w kształt dowolnej bryły geometrycznej (walec, prostopadłościan, sześcian), obliczeniu objętości, a następnie zważeniu i wyliczeniu gęstości ze stosunku masy do objętości. Jest to prosta technicznie metoda, stosowana najczęściej do wyznaczania gęstości polimerów w formie prętów, belek, rur.", "2. Pomiar gęstości areometrem Metoda stosowana dla polimerów w formie ciekłej. Pomiar polega na zanurzeniu w naczyniu z badaną cieczą areometru z podziałką, na której odczytuje się gęstość. Link kieruje do strony objaśniającej budowę areometru.", "3. Metoda hydrostatyczna Polega na porównaniu masy próbki badanego tworzywa zmierzonej w powietrzu i zanurzonej w cieczy o znanej gęstości (np. wodzie destylowanej). Do oznaczenia stosuje się wagę hydrostatyczną Westphala-Mohra. Gęstość badanej próbki wyznacza się ze wzoru:", "gdzie: \\( m_p \\) – masa próbki w powietrzu, \\( m_c \\) – masa próbki zanurzonej w cieczy, \\( \\rho_c \\) - gęstość zastosowanej cieczy immersyjnej.", "Rys. 1 prezentuje sposób ważenia próbki w cieczy immersyjnej.", "4. Pomiar gęstości polimerów w formie sypkiej za pomocą kolby Le Chatéliera Do specjalnej kolby pomiarowej wlewa się ciecz (np. wodę destylowaną) do poziomu oznaczonego jako 0 \\( cm^3 \\), a następnie wsypuje sproszkowany polimer do poziomu 20 \\( cm^3 \\). Z różnicy ciężaru proszku przed wsypaniem do kolby i pozostałością (częścią nie wsypaną) określa się masę proszku wsypanego. Znając objętość substancji sypkiej (20 \\( cm^3 \\)) wylicza się gęstość ze stosunku masy do objętości. Rys. 2 przedstawia kolbę Le Chateliera.", "5. Metoda piknometryczna Metodę tę stosuje się do oznaczania gęstości tworzyw polimerowych w postaci proszków, granulek, czy płatków. W metodzie tej stosuje się piknometr – szklaną kolbkę o pojemności od 20-50 \\( cm^3 \\). Pomiar polega na zważeniu suchego piknometru, piknometru wypełnionego cieczą, suchej próbki oraz piknometru z próbką dopełnionego cieczą do pełna. Gęstość badanego polimeru wylicza się z równania:", "gdzie: \\( m_cp \\) – masa suchej próbki, \\( \\rho_c \\) – gęstość cieczy, \\( m_c \\) – masa cieczy (masa piknometru wypełnionego cieczą pomniejszona o masę suchego piknometru), \\( m_{cp} \\) – masa cieczy uzupełniającej pojemność piknometru (masa piknometru z próbką i cieczą, pomniejszona o masę suchego piknometru).", "6. Metoda flotacyjna Polega na porównaniu gęstości próbki badanego tworzywa z gęstością cieczy immersyjnej w chwili przechodzenia próbki w stan zawieszenia. Istotą metody jest sporządzenie kilku roztworów o różnych, znanych gęstościach, a następnie zanurzenie badanej próbki w każdym z tych roztworów. Gęstość cieczy, z którą badane tworzywo jest w równowadze jest zarazem gęstością tworzywa.", "7. Metoda kolumny gradientowej Próbkę wprowadza się do kolumny gradientowej wypełnionej cieczą immersyjną, pozostawia do osiągnięcia równowagi i odczytuje głębokość zanurzenia pod powierzchnią cieczy. Jest to metoda pośrednia, która wymaga sporządzenia krzywej wzorcowej głębokości zanurzenia pływaków o znanej o znanej gęstości, z głębokości zanurzenia badanej próbki odczytuje się gęstość badanego polimeru."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Gęstość polimerów i własności termalne", "subject_id": 939, "subject": "Temperatury charakterystyczne polimerów", "paragraphs": ["Wśród związków wielkocząsteczkowych wyróżnia się dwa podstawowe typy: polimery amorficzne i krystaliczne. Różnią się one stopniem uporządkowania struktury oraz własnościami fizycznymi. W rzeczywistości najcześciej spotkać można polimery semikrystaliczne.", "Polimery amorficzne odznaczają się całkowicie nieuporządkowanym ułożeniem makrocząsteczek, a ich przemiany pod wpływem ogrzewania przebiegają w sposób stopniowy, nie obserwuje się wyraźnych zmian stanu skupienia, jak dla substancji nieorganicznych. Makrocząsteczki polimerów o strukturze bezpostaciowej są bezładnie splątane między sobą. Najczęściej przyjmują postać kłębka, tworząc skłębione nieuporządkowane struktury, o słabych oddziaływaniach energetycznych. Przykładem takich tworzyw są kopolimery akrylonitrylo-butadieno-styrenowe, polistyren, poliwęglan, poli(metakrylan metylu). Tworzywa amorficzne są przezroczyste (bez napełniaczy) i stosunkowo kruche.", "Polimery krystaliczne zawierają makrocząsteczki o regularnej, liniowej budowie łańcucha lub zawierające grupy o dużej polarności, rozmieszczone równomiernie wzdłuż makrocząsteczki. Stan krystaliczny polimerów występuje znacznie rzadziej niż amorficzny. Polimery, w przeciwieństwie do związków małocząsteczkowych, nie są na ogół całkowicie skrystalizowane. Na udział każdego z nich ma wpływ sposób przetwarzania polimeru, jego skład i temperatura. Amorficzny polimer nadal może zawierać \\( 10\\% \\) struktur krystalicznych, podczas gdy taki, który jest uznawany za krystaliczny, może faktycznie mieć tylko \\( 80\\% \\) swojej struktury naprawdę uporządkowanej w sposób krystaliczny. Procentowa zawartość postaci krystalicznej w tego typu polimerach nosi nazwę stopnia krystaliczności. Należą do nich poliacetale, poliamidy i termoplastyczne poliestry (PET, PBT). Tworzywa semikrystaliczne są na ogół nieprzezroczyste lub – przy niewielkiej grubości warstwy – mętne (prześwitujące), a ponadto bardziej wytrzymałe, twardsze i bardziej sprężyste od tworzyw amorficznych. Tworzą one układ dwufazowy, w którym obok obszarów krystalicznych charakteryzujących się uporządkowanym przestrzennie ułożeniem makrocząsteczek, występują równocześnie obszary bezpostaciowe. Strukturę polimerów tworzących taki układ można więc określić jako częściowo krystaliczną, a polimery częściowo amorficzne, częściowo krystaliczne – semikrystalicznymi.", "Polimery amorficzne mogą występować w pięciu różnych stanach fizycznych, w zależności od temperatury, możliwe stany mechaniczne polimerów amorficznych prezentuje Rys. 1.", "Stan szklisty kruchy/ twardy nieciągliwy charakteryzuje się tym, że w niskich temperaturach energia ruchu cieplnego jest zbyt mała, aby mogła nastąpić zmiana ich położenia makrocząsteczek względem siebie. Polimery w tym stanie pod działaniem siły zewnętrznej odkształcają się nieznacznie, prawie całkowicie sprężyście, a więc zachowują się podobnie jak szkło. Z tego też względu stan ten nazwano stanem szklistym.", "Stan szklisty/ twardy wymuszonej elastyczności (lepkosprężysty) jest charakterystyczny dla makromolekuł, które ze wzrostem temperatury uzyskują zdolność do przegrupowań, ale zachowana zostaje nadal nieruchliwość całych makrocząsteczek. Typowymi przejawami lepkosprężystości jest pełzanie i relaksacja naprężeń.", "Pełzaniem nazywa się przyrost odkształceń trwałych (narastania sumy odkształceń wysokoelastycznych i plastycznych) w funkcji czasu pod wpływem działającego stałego naprężenia. Prędkość narastania odkształceń trwałych zależy od temperatury i wielkości naprężeń. Im wyższa temperatura, tym pełzanie zachodzi szybciej, bowiem energia kinetyczna merów i segmentów będzie większa.", "Relaksacja naprężeń polega na zmniejszaniu się naprężenia w funkcji czasu przy stałym odkształceniu. Relaksacja naprężeń przebiega tym szybciej, im wyższa jest temperatura.", "Stan wysokoelastyczny (lepkopłynny) jest charakterystyczny dla tworzyw amorficznych powyżej temperatury mięknienia i częściowo-krystalicznych powyżej temperatury topnienia. Energia ruchu jest zbliżona do energii oddziaływania makromolekuł, dzięki czemu pod wpływem niewielkich sił zewnętrznych następuje wyprostowanie się skłębionych segmentów. Polimer swoim zachowaniem zaczyna przypominać ciecz lepką.", "Stan ciekły charakteryzuje się tym, że przekroczenie temperatury płynięcia powoduje prawie całkowitą redukcję sił międzycząsteczkowych i nawet najmniejsze obciążenie powoduje wzajemne trwałe przemieszczenie się łańcuchów polimeru.", "Najważniejsze własności termiczne związków wielkocząsteczkowych opisują temperatury charakterystyczne, takie jak:", "Wraz ze wzrostem ciężaru cząsteczkowego polimerów zwiększa się temperatura płynięcia, co powoduje także powiększenie zakresu temperatur, w której polimer jest w stanie wysokoelastycznym. Zależności przedstawia Rys. 2.", "Do pomiarów temperatur charakterystycznych stosuje się metodę skanningowej kalorymetrii różnicowej DSC (Differential Scanning Callorimetry). Technika ta jest opisana – zob. Skaningowa kalorymetria różnicowa."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Gęstość polimerów i własności termalne", "subject_id": 969, "subject": "Stany mechaniczne w polimerach amorficznych", "paragraphs": ["W module Temperatury charakterystyczne polimerów zdefiniowano polimery krystaliczne, amorficzne i semikrystaliczne.", "Właściwości mechaniczne polimerów obejmują odkształcenie polimeru lub jego powierzchni, odporność na takie odkształcenia oraz pękanie pod obciążeniem statycznym lub dynamicznym. Odkształcenia mogą być odwracalne lub nieodwracalne; mogą być spowodowane przez ciągnienie, ścinanie, ściskanie, zginanie i skręcanie, a także przez ich kombinacje. Pod wpływem obciążenia w polimerach bardzo często występują jednocześnie trzy rodzaje odkształceń: sprężyste, elastyczne, plastyczne.", "Właściwości mechaniczne materiałów polimerowych opisuje się następującymi wielkościami:", "gdzie: \\( \\sigma \\) – naprężenie, \\( F \\) – siła, \\( A \\) – pole powierzchni przekroju próbki;", "gdzie: \\( \\Delta l \\) – przyrost długości próbki, \\( l_0 \\) – długość początkowa próbki;", "gdzie: \\( U \\) – udarność, \\( W \\) – praca potrzebna do złamania znormalizowanej próbki z karbem, \\( A \\) – pole powierzchni przekroju poprzecznego próbki w miejscu karbu.", "Rys. 1 przedstawia zależność modułu Younga od temperatury przy stałej szybkości rozciągania dla termoplastów, duroplastów i elastomerów [1].", "Najważniejsze czynniki, które decydują o właściwościach mechanicznych to:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 912, "subject": "Metody wykorzystywane do badań polimerów", "paragraphs": ["Charakterystyka polimerów obejmuje wiele metod ( Rys. 1 ) oznaczania składu chemicznego, wyznaczania rozkładu masy cząsteczkowej, stopnia uporządkowania, określania właściwości fizycznych i struktury. Do najczęściej stosowanych metod należą:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 906, "subject": "Analiza elementarna", "paragraphs": ["Analiza elementarna jest jedną z podstawowych metod wykorzystywanych do ilościowego oznaczenia zawartości azotu (N), węgla (C), wodoru (H), siarki (S) i tlenu (O) w badanych próbkach polimerów. Jest ona wykorzystywana do identyfikacji składników polimeru, składników dodawanych podczas syntezy polimeru, zanieczyszczeń polimerów czy zawartości śladowych metali. Analizę elementarną można przeprowadzić za pomocą:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 971, "subject": "Próba rozpuszczalności", "paragraphs": ["Rozpuszczalność polimerów bada się najczęściej przez umieszczenie 100 mg polimeru w probówce, do której dodaje się rozpuszczalnik. Pożądane jest rozpoczęcie procesu rozpuszczania od drobnoziarnistego materiału w postaci proszku, w celu zwiększenia powierzchni dla oddziaływań polimer–rozpuszczalnik. Do najczęściej stosowanych rozpuszczalników zalicza się: wodę, alkohol etylowy, chloroform, aceton, tetrachlorometan czy heksan. Polimer może rozpuścić się całkowicie, częściowo lub wcale. W sytuacji gdy polimer rozpuszcza się częściowo, pęcznieje lub nie rozpuszcza się badanie rozpuszczalności wykonuje się na gorąco.", "Polimery są makrocząsteczkami, w których międzycząsteczkowe oddziaływania (jak np.: oddziaływania dyspersyjne, dipol-dipol, indukcyjne, czy wiązania wodorowe) utrzymują łańcuchy razem. Dlatego proces rozpuszczania czystego polimeru jest na ogół procesem powolnym, który może trwać nawet kilka tygodni, i rozpoczyna się od etapu przenikania cząsteczek rozpuszczalnika przez masę polimeru (etap „rozwijania solwatacji-pęcznienia”) – zob. Rys. 1 – co prowadzi do zwiększenia objętości masy polimerowej. Etap ten zachodzi, wtedy gdy oddziaływania polimer-rozpuszczalnik są większe od siły przyciągania polimer-polimer. Etap ten wymaga więcej energii i jest wolniejszy dla polimeru krystalicznego, w którym oddziaływania polimer-polimer są silne, a łańcuchy tworzą upakowaną strukturę trudną do penetracji przez rozpuszczalnik. W pobliżu granicy faz polimer pęcznieje, aby pomieścić przenikające cząsteczki rozpuszczalnika. Jeżeli oddziaływania polimer-rozpuszczalnik są wystarczająco silne, proces „rozwijania solwatacji-rozwijania pęcznienia” jest kontynuowany aż do solwatacji wszystkich cząsteczek polimeru. „Solwatowane” cząsteczki polimeru na granicy faz dyfundują ze spęczniałego polimeru do fazy rozpuszczalnika. Na tym etapie rozpadowi napęczniałej masy sprzyja mieszanie, co zwiększa szybkość rozpuszczania. Układ staje się jednorodny, a solwatowane cząsteczki polimeru, wraz z cząsteczkami rozpuszczalnika znajdującymi się wewnątrz, przyjmują kształt kulisty lub elipsoidy, zajmując objętość znaną jako objętość hydrodynamiczna. Silnie usieciowane polimery mogą wchłaniać rozpuszczalnik i pęcznieć, ale tylko w ograniczonym zakresie, ponieważ są związane przestrzennie wiązaniami kowalencyjnymi zapobiegającymi transportowi polimeru do roztworu. Dla tych polimerów istnieje punkt (objętość rozpuszczalnika), poza którym jego makrocząsteczki nie mogą dalej pęcznieć. Jeśli ta objętość zostanie przekroczona, powstaje układ dwufazowy, w którym zachodzi stan równowagi pomiędzy nasyconym żelem polimerowym i nadmiarem czystego rozpuszczalnika [1].", "Rozpuszczalność polimeru w danym rozpuszczalniku (zob. [2]) zależy nie tylko od temperatury i własności fizycznych polimerów, ale także od ich chemicznego charakteru, na który składają się:", "Parametry rozpuszczalności (HSI (równanie ( 1 ) ) i HSP (równanie ( 2 ) )) i energia swobodna Gibbsa (równanie ( 3 ) ) służą do przewidywania zdolności polimeru do rozpuszczania się w danym rozpuszczalniku. Z reguły parametry rozpuszczalności polimerów nie zmieniają się znacznie wraz z temperaturą. Im bliższe są parametry rozpuszczalności polimeru i rozpuszczalnika, tym jest bardziej prawdopodobne, że polimer rozpuści się w danym rozpuszczalniku [3], [4], [5].", "Parametr rozpuszczalności Hildebranda (HSI), \\( {δ} \\) – jest to pierwiastek kwadratowy z gęstości energii kohezji, równej energii potrzebnej do oddzielenia cząsteczki od jej najbliższego otoczenia podzielonej przez całkowitą objętość oddzielonej cząsteczki, i wyraża się równaniem:", "gdzie: \\( {δ} \\) – parametr rozpuszczalności Hildebranda wyrażony w jednostkach \\( {(cal/cm}{^3}{)}{^0}{^.}{^5} \\) \\( {lub} \\) \\( {MPa}{^0}{^.}{^5} \\),  \\( {CED} \\) – gęstość energii kohezji,  \\( {ΔH}{_v} \\) – entalpia parowania, \\( {R} \\) – stała gazowa, \\( {T} \\) – temperatura, \\( {V}{_m} \\) – objętość molowa. Substancje o podobnym parametrze Hildebranda będą miały podobną zdolność rozpuszczania (mogą mieszać się ze sobą). Przykładowe parametry rozpuszczalności HSI dla różnych rozpuszczalników i polimerów podaje Rys. 3.", "Wskaźnik rozpuszczalności Hansena (HSP), który wyraża się wzorem:", "gdzie: \\( {R{_a}} \\) – parametr rozpuszczalności Hildebranda, \\( {δ{_D}} \\) – energia pochodząca od oddziaływań międzycząsteczkowych, \\( {δ}{_P} \\) – energia oddziaływań między dipolami, \\( {δ}{_H} \\) – energia międzycząsteczkowych wiązań wodorowych. Wyżej wspomniane trzy parametry Hansena ( \\( {δ{_D}} \\), \\( {δ}{_P} \\) i \\( {δ}{_H} \\)) można potraktować za współrzędne punktu w tzw. przestrzeni Hansena. Im dwa punkty odpowiadające dwóm związkom są bliżej siebie, tym większe jest prawdopodobieństwo, że związki rozpuszczą się jeden w drugim. W przypadku polimeru, tylko rozpuszczalniki znajdujące się w pewnym zakresie odległości rozpuszczą polimer. Ten zakres odległości zaznacza się zwykle elipsoidą i tylko rozpuszczalniki w tej przestrzeni rozpuszczą polimer. Gdy podwoi się oś dyspersji to otrzymuje się w przybliżeniu kulistą objętość rozpuszczalności. W tej przestrzeni odległość współrzędnych rozpuszczalnika od punktu środkowego sfery substancji rozpuszczonej ( \\( {δ}{_D}{_1} \\), \\( {δ}{_P}{_1} \\) i \\( {δ}{_H}{_1} \\)) oznacza się za pomocą \\( {δ}{_D}{_2} \\), \\( {δ}{_P}{_2} \\) i \\( {δ}{_H}{_2} \\). Promień sfery rozpuszczalności jest często nazywany promieniem oddziaływania, a stosunek \\( {R{_a}} \\) / \\( {R{_0}} \\) względną różnicą energii (RED) układu.", "Odległość \\( {R{_a}} \\) w równaniu ( 2 ) można porównać z promieniem rozpuszczalności polimeru ( \\( {R{_0}} \\)). Jeżeli \\( {R{_a}} \\) < \\( {R{_0}} \\), wówczas istnieje duże prawdopodobieństwo, że rozpuszczalnik rozpuści polimer. W sytuacji gdy, \\( {R{_a}} \\) > \\( {R{_0}} \\) istnieje duże prawdopodobieństwo, że rozpuszczalnik nie rozpuści polimeru. Natomiast dla \\( {R{_a}} \\) = \\( {R{_0}} \\) rozpuszczalnik będzie powodować pęcznienie polimeru. Na przykład, parametry rozpuszczalności \\( {δ{_D}} \\), \\( {δ}{_P} \\) i \\( {δ}{_H} \\) dla polistyrenu wynoszą, odpowiednio, 21.3, 5.7 i 4.3, a dla acetonu mają wartość, odpowiednio,15.5, 10.4 i 7.0. Po podstawieniu tych wartości do równania ( 2 ) otrzymuje się \\( {R{_a}} \\) = 12.8. Biorąc pod uwagę, iż dla polistyrenu \\( {R{_0}} \\) = 12.7, otrzymujemy \\( {R{_a}} \\) / \\( {R{_0}} \\) ≅ 1.0. To oznacza, iż aceton może powodować pęcznienie polistyrenu.", "Energia swobodna Gibbsa, wyrażona wzorem:", "gdzie: \\( {ΔH} \\) – zmiana entalpii mieszania, \\( {T} \\) – temperatura bezwzględna w procesie, \\( {ΔS} \\) – zmiana entropii mieszania, \\( {A}{_s} \\) i \\( {A}{_p} \\) – ułamki objętościowe, odpowiednio, rozpuszczalnika i polimeru, a \\( {δ}{_s} \\) i \\( {δ}{_p} \\) – gęstość energii kohezji (CED), odpowiednio, dla rozpuszczalnika i polimeru.", "Zgodnie z tym równaniem i zasadami termodynamicznymi rozpuszczenie nastąpi wtedy, gdy znak ΔG jest ujemny. ΔS jest zwykle dodatnie, ponieważ w roztworze cząsteczki wykazują bardziej chaotyczny układ aniżeli w stanie stałym. Temperatura bezwzględna jest dodatnia. ΔH może mieć znak dodatni lub ujemny. Dodatnia wartość ΔH wskazuje, że polimer i rozpuszczalnik są w stanie niższej energii. Natomiast ujemna wartość ΔH sugeruje, że roztwór jest w stanie niższej energii. Przy braku specyficznych oddziaływań polimer-rozpuszczalnik wartość \\( {(}{δ}{_s}{-}{δ}{_p}{)}{^2} \\) musi być mniejsza niż 4.0 MPa \\( {^0}{^.}{^5} \\). Można zatem stwierdzić, że poliamid 6,6 nie rozpuści się w wodzie ponieważ \\( {(}{δ}{_w}{_o}{_d}{_a}{ -}{ δ}{_p}{_o}{_l}{_i}{_a}{_m}{_i}{_d}{_6}{_,}{_6}{)}{^2} \\) = 47.9 – 27.8 MPa \\( {^0}{^.}{^5} \\) = 20.1MPa \\( {^0}{^.}{^5} \\), czyli jest >> 4.0 MPa \\( {^0}{^.}{^5} \\), ale rozpuści się w n-heksanie, czterochlorku węgla i toluenie ( \\( {(}{δ}{_s}{ -}{ δ}{_p}{_o}{_l}{_i}{_a}{_m}{_i}{_d}{_6}{_,}{_6}{)}{^2} \\) << 4.0 MPa \\( {^0}{^.}{^5} \\)."], "definitions": [{"name": "Definicja 1: Rozpuszczalność", "content": "substancji definiowana jest jako maksymalna ilość tej substancji wyrażona w gramach, która rozpuszcza się w 100 g rozpuszczalnika w warunkach normalnych (p = 1013.25 hPa i T = 273.15 K)."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 972, "subject": "Próba w płomieniu", "paragraphs": ["W analizie tej niewielką ilość polimeru umieszcza się na łopatce i przytrzymuje się przy krawędzi płomienia, aż zapali się. W sytuacji, gdy polimer nie pali się szybko, łopatkę wprowadza się na 10-15 sekund do zewnętrznej strefy płomienia palnika Bunsena (nieświecąca część płomienia, temp. powyżej 1 500 °C). Obserwuje się kolor płomienia, rodzaj dymu, obecność sadzy w powietrzu, zapach oparów i czy podczas spalania próbka kapie. Np. drut miedziany ogrzewany płomieniem z topiącym się polimerem pali się na jasnozielono, gdy w polimerze jest obecny halogen. Tworzywa termoutwardzalne rozkładają się (zwęglają się i dymią) w wysokiej temperaturze, ale nie topią się. Polimery oparte na węglowodorach aromatycznych palą się żółtym kopcącym płomieniem, a polimery zbudowane z węglowodorów alifatycznych palą się z kopceniem niewielkim lub płomieniem niekopcącym. Zachowanie się wybranych polimerów w płomieniu podaje Rys. 1 [1].", "Na koniec analizy próbkę polimeru spala się w silnym płomieniu, aby określić czy pozostaje popiół czy też próbka ulega całkowitemu spaleniu.", "Dodatkowo w celu określenia czy materiał jest termoplastyczny (topliwy) czy termoutwardzalny (nietopliwy) metalowy lub szklany pręt do mieszania podgrzewa się do momentu, gdy zacznie świecić na czerwono lub pomarańczowo (do około 260 °C), a następnie dociska się go do próbki. Polimer termoplastyczny zmięknie po dociśnięciu, a polimer termoutwardzalny nie zmięknie."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 938, "subject": "Metody dyfrakcyjne", "paragraphs": ["Metody dyfrakcyjne, takie jak np. dyfrakcja rentgenowska (XRD), są stosowane szeroko w badaniach strukturalnych do określenia faz krystalicznych (polimorfizmu), politypów i wszelkiego rodzaju układów molekularnych w stanie stałym oraz w badaniach ilościowych polimerów. Wykorzystują one zjawisko dyfrakcji wiązki promieniowania elektromagnetycznego o długości podobnej do odległości międzypłaszczyznowej w sieci krystalicznej (np. promieniowania rentgenowskiego (długość fali od \\( {10}{^-}{^1}{^2} \\) m do \\( {10}{^-}{^8} \\) m), elektronów (długość fali wg. de Broglie \\( {10}{^-}{^1}{^0} \\) m) lub neutronów (długość fali w zakresie od \\( {10}{^-}{^1}{^4} \\) m (dla szybkich neutronów) do \\( {10}{^-}{^1}{^0} \\) m (dla termicznych neutronów) do \\( {10}{^-}{^8} \\) m (dla skrajnie zimnych neutronów)) na atomach (rozmiary rzędu \\( {10}{^-}{^1}{^0} \\) m na \\( {10}{^-}{^1}{^0} \\) m) kryształu, które są ułożone w sposób identyczny i uporządkowany powtarzający się we wszystkich trzech wymiarach w przestrzeni [1], [2].", "Generowane promienie (np. rentgenowskie przez lampę katodową) jest filtrowane w celu wytworzenia promieniowania monochromatycznego, kolimowane w celu koncentracji i kierowane w kierunku badanego materiału. Wiązka promieniowania padającego uderzając w badany materiał napotyka na swej drodze uporządkowaną i powtarzającą się we wszystkich trzech wymiarach w przestrzeni sieć atomów/cząsteczek, której rozstaw zachowuje się jak siatka dyfrakcyjna. Na tej sieci, w zależności od współczynnika pochłaniania badanego materiału i długości fali wiązki padającej, wiązka może tracić częściowo energię w wyniku absorbcji energii przez elektrony atomów badanego materiału lub ulegać rozproszeniu na każdym atomie dając wiele wiązek rozproszonych. Kierunki możliwych dyfrakcji zależą od wielkości i kształtu komórki elementarnej materiału, a intensywność fal ugiętych zależy od rodzaju i rozmieszczenia atomów w krysztale. Promieniowanie rozproszone, którego długość fali różni się od długości fali promieniowania padającego, jest rozpraszaniem niespójnym i wnosi wkład do tła rozproszonego obserwowanego wzoru dyfrakcyjnego. Najczęściej jednak dochodzi do rozpraszania bez zmiany długości fali (rozpraszanie spójne). Wiązka rozproszona ma różne fazy, ponieważ odległość przebyta przez wiązkę zależy od płaszczyzny odbicia, co zostało pokazane na Rys. 1, gdzie odległość A, B, C jest mniejsza niż D, E, F, w wyniku czego powstaje różnica faz w odbitej wiązce. W przypadku, gdy fale ugięte są w fazie, fale spójnie rozproszone na atomach z sąsiednich płaszczyznach ulegają konstruktywnej interferencji i następuje wzrost intensywności (wzmocnienie). Natomiast dla fal rozproszonych będących poza fazą dochodzi do destrukcyjnej interferencji (wygaszania). Prawo Bragga opisuje dyfrakcję promieni rentgenowskich na kryształach ( 1 ):", "gdzie: \\( {d} \\) – oznacza odległość między płaszczyznami atomów, \\( {\\lambda} \\) – długość fali, \\( {n} \\) – liczba całkowita, która wynosi 1 dla odbicia pierwszego rzędu dla danego zbioru płaszczyzn atomowych.", "Intensywności ugięcia są rejestrowane jako funkcja wektora rozpraszania \\( {q} \\), który jest powiązany z kątem rozpraszania \\( {2}{\\theta} \\) (kąt pomiędzy promieniowaniem padającym i ugiętym) zależnością ( 3 ):", "Rozpraszanie przy \\( {q} \\) > \\( {5}{·}{10}{^-}{^1}{^1} \\) m ujawnia strukturę na poziomie atomów i cząsteczek ( \\( {d} \\) = \\( {10}{^-}{^1}{^1} \\) – \\( {10}{^-}{^9} \\) m), przy \\( {q} \\) w zakresie od \\( {10}{^-}{^1}{^3} \\) do \\( {10}{^-}{^1}{^1} \\) m rozpraszanie ujawnia strukturę wynikającą z tworzenia agregatów atomów i cząsteczek ( \\( {d} \\) w zakresie 10 – 100 nm), a przy \\( {q} \\) < \\( {10}{^-}{^1}{^3} \\) m ujawnia strukturę na poziomie struktur koloidalnych ( \\( {d} \\)∼0,5 μm). Najmniejsza skala długości, jaką można analizować to \\( \\cfrac{\\lambda}{2} \\) ( \\( {∼}{5}{·}{10}{^-}{^1}{^1} \\) m) i jest nazywana granicą dyfrakcji.", "Polimery amorficzne nie mają uporządkowania dalekiego zasięgu, a ich wzór dyfrakcji nie pokazuje typowych serii prążków, które w sposób jednoznaczny mogłyby zidentyfikować badany materiał, lecz szerokie tło z pojedynczym lub kilkoma prążkami ( Rys. A ). Polimer krystaliczny daje dyfraktogram rentgenowski stanowiący odzwierciedlenie struktury kryształu (zgodnie z prawem Bragga) i zawiera indeksowane (opisujące orientację ściany (hkl) w sieci krystalicznej ( Rys. B ) prążki dyfrakcyjne o reprezentowanym wzorze pozycji, intensywności i szerokości ( Rys. B ). Niewiele jednak polimerów tworzy monokryształy. Zazwyczaj w jednej próbce polimeru występują wszystkie formy lub polimer jest polikrystaliczny, tzn. składa się z wielu drobnych krystalitów we wszystkich możliwych orientacjach zwanych polikrystalicznym agregatem lub proszkiem. Kiedy proszek z losowo zorientowanymi krystalitami zostanie umieszczony w wiązce promieniowania rentgenowskiego, wiązka ugnie się na wszystkich możliwych płaszczyznach (równoległych i równoodległych) międzyatomowych. Jeżeli kąt padania eksperymentalny jest systematycznie zmieniany, wszystkie możliwe prążki dyfrakcyjne z proszku zostaną wykryte.", "Gdy monochromatyczna wiązka promieniowania rentgenowskiego uderza w próbkę obserwuje się:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 977, "subject": "Spektroskopia rentgenowska z dyspersją energii", "paragraphs": ["Spektroskopia rentgenowska z dyspersją energii (EDX lub EDS) polega na oddziaływaniu wiązki promieniowania rentgenowskiego (X) z badaną próbką. Promienie rentgenowskie (fala elektromagnetyczna o długości λ od \\( {10}{^-}{^1}{^2} \\) m do \\( {10}{^-}{^8} \\) m) powstaje, gdy wysokoenergetyczne elektrony uderzają w próbkę złożoną z pierwiastków o dużej liczbie atomowej (np. z wolframu, żelaza, miedzi lub molibdenu) i oddziałują z nią nie sprężyście tracą swoją energię. To promienie rentgenowskie jest powszechnie nazywane „promieniowaniem hamującym” i obserwujemy go w postaci szerokiego pasma ciągłego ( Rys. B ). Jeżeli bombardujące elektrony mają wystarczającą energię kinetyczną to w wyniku oddziaływania nieelastycznego dochodzi do wybicia elektronów z wewnętrznych powłok elektronowych ( \\( {K} \\) lub \\( {L} \\)) atomów, z których zbudowana jest badana próbka, w wyniku czego powstają luki ( Rys A ). Luki po wybitych elektronach są zapełniane przez elektrony z wyższych powłok elektronowych atomu. Elektron przechodząc z wyższej powłoki do powłoki niższej emituje kwant promieniowania rentgenowskiego (o precyzyjnych wartościach energii określonych przez poziomy energii elektronów), który jest obserwowany w postaci linii \\( {K}{_\\alpha} \\), \\( {K}{_\\beta} \\), itd. Oznaczenia \\( {K} \\), \\( {L} \\), \\( {M} \\) i \\( {N} \\) odnoszą się do powłok elektronowych, z których elektrony zostały wybite, natomiast oznaczenia \\( {\\alpha} \\), \\( {\\beta} \\) i \\( {\\gamma} \\) odnoszą się do elektronów z wyższych powłok elektronowych, które zrekombinowały z lukami. Ponieważ każdy pierwiastek ma unikalną strukturę atomową (energię poziomów elektronowych) to promieniowanie emitowane tworzy unikalny i charakterystyczny zestaw pików (o ściśle określonych energiach) w widmie emisji elektromagnetycznej (Tabela na Rys. C ) podaje energie linii charakterystycznych dla wybranych pierwiastków), co pozwala na identyfikację pierwiastków obecnych w badanej próbce [1], [2] – ( Rys. D )."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 958, "subject": "Metoda rozpraszania światła", "paragraphs": ["Rozpraszanie światła przez makrocząsteczki jest techniką szeroko stosowaną do wyznaczania masy cząsteczkowej polimerów. Małe cząsteczki rozpraszają światło izotropowo, czyli natężenie światła jest identyczne we wszystkich kierunkach, tak dzieje się dla cząsteczek o średnicy ponad dwudziestokrotnie mniejszej od długości fali padającego światła (d < \\( \\lambda \\)/20). Cząsteczki takie określamy jako punktowe. Jeżeli jednak cząsteczka jest większa (d > \\( \\lambda \\)/20) pojawia się w niej więcej punktów rozpraszających światło i rejestrowane natężenie światła będzie zależało od kąta obserwacji. Debye [1], [2] opracował ogólną teorię rozpraszania światła przez roztwory polimerowe i wyraził ją w postaci zależności:", "gdzie: \\( R_\\Theta \\) – współczynnik Rayleigha, określa energię promieniowania rozproszonego pod kątem \\( \\Theta \\) przez jednostkę objętości roztworu przechodzącego w jednostce czasu przez jednostkową powierzchnię, K – stała optyczna, charakterystyczna dla danego układu polimer–rozpuszczalnik, wyznacza się ją doświadczalnie z pomiarów współczynnika załamania światła dla różnych stężeń polimeru, \\( A_2 \\) – współczynnik wirialny.", "Mierząc natężenie światła rozproszonego dla kilku stężeń roztworu polimeru otrzymuje się wykres w postaci linii prostej, z którego po ekstrapolacji do wartości stężenia równej zero, można wyznaczyć wagowo średnią masę cząsteczkową polimeru, co zobrazowano na rysunku poniżej:", "Najprostszą techniką pomiarową jest RALS (ang. Right Angle Light Scattering – prawokątowe rozpraszanie światła), gdzie mierzony jest sygnał pod kątem 90 stopni przy założeniu, że jest on taki sam jak przy kącie 0 stopni. Często stosowaną techniką pomiarową jest MALS (ang. Multi Angle Light Scattering – wielokątowe rozpraszanie światła), w której wykorzystuje się całkowitą intensywność rozproszonego światła mierzoną przy wszystkich kątach pomiarowych instrumentu i ekstrapolacji do kąta 0 stopni. W przypadku cząsteczek większych niż 1/20 \\( \\lambda \\) należy dodatkowo wziąć pod uwagę zależność współczynnika Rayleigha od kąta rozpraszania wyrażoną poprzez funkcję rozpraszania:", "gdzie: \\( R_\\Theta \\) – rzeczywiste natężenie promieniowania pod kątem \\( \\Theta \\), \\( R_0 \\) – natężenie promieniowania rozproszonego bez interferencji. Wprowadzając wielkość \\( P(\\Theta) \\) do równania Debye otrzymuje się równanie Zimma [3]:", "Które dla kłębków polimerowych przyjmuje ostatecznie postać:", "gdzie: S – stała powiązana z promieniem cząsteczki oraz długością fali światła. Wykreślając wykres Zimma – zależność \\( \\frac{Kc}{R_\\Theta} \\) względem \\( sin^2 \\frac{\\Theta}{2} + kc \\) gdzie k – odpowiednio dobrana stała (najczęściej k = 100) i ekstrapolując go do zera względem c oraz \\( \\Theta \\), wyznacza się masę cząsteczkową."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 976, "subject": "Metody spektroskopowe", "paragraphs": ["Metody spektroskopowe są szeroko stosowane w badaniach ilościowych i jakościowych polimerów. Wykorzystują one oddziaływanie promieniowania elektromagnetycznego ( Rys. 1 ) przedstawia zakres energii/długości fali promieniowania elektromagnetycznego) z badaną materią w celu uzyskania informacji szczegółowych na temat poziomów energetycznych cząsteczek, okresów życia stanów energetycznych i prawdopodobieństw przejść między stanami. Informacje te z kolei są wykorzystywane w badaniach budowy chemicznej, struktury, taktyczności, czy konformacji polimeru oraz do monitorowania zmian tych właściwości w następstwie zaburzeń zewnętrznych (np. naprężenia mechanicznego, obróbki cieplnej, czy napromieniowania). Do ważnych zalet metod spektroskopowych należy ich niedestrukcyjny charakter i szybki sposób dostarczania informacji na poziomie cząsteczkowym.", "Metody spektroskopowe rozróżnia się na podstawie energii przejść pomiędzy stanami energetycznymi cząsteczki. Rys. 2 przedstawia diagram Jabłońskiego, który schematycznie ilustruje rozmieszczenie poziomów energetycznych cząsteczki i możliwe przejścia między nimi. Absorpcja promieniowania o energii dopasowanej do różnicy poziomów energetycznych w cząsteczce prowadzi do wzbudzenia jej elektronu ze stanu podstawowego singletowego ( \\( {S}{_0} \\), \\( {S} \\) – spiny elektronów są przeciwległe) do wyższego singletowego stanu elektronowego ( \\( {S}{_n} \\)). Ponieważ, każdemu wzbudzonemu poziomowi singletowemu odpowiada stan elektronowy trypletowy ( \\( {T}{_n} \\), \\( {T} \\) – spiny elektronów są równoległe) przejścia obserwuje się do dowolnego stanu wzbudzonego, tj. \\( {S}{_0}{\\rightarrow}{S}{_n} \\) i \\( {T}{_0}{\\rightarrow}{T}{_n} \\), lub przejściowego cząsteczki. Relaksacja elektronu ze stanu wzbudzonego \\( {S}{_n} \\) do stanu podstawowego \\( {S}{_0} \\) i towarzysząca jej emisja promieniowania daje widmo fluorescencji ( \\( {S}{_1}{ \\rightarrow }{S}{_0} \\)) lub fosforescencji ( \\( {T}{_1}{ \\rightarrow }{S}{_0} \\)). Oddziaływanie fotonów padającego promieniowania elektromagnetycznego o energii nie pasującej do poziomów energetycznych cząsteczki prowadzi do wzbudzenia cząsteczki do tzw. stanu wirtualnego. Po wzbudzeniu, cząsteczka powracając na ten sam poziom energetyczny (wyjściowy) daje klasyczny efekt rozproszenia Rayleigha. Natomiast, gdy relaksująca cząsteczka przenosi się na wyższy poziom oscylacyjny aniżeli wyjściowy poziom oscylacyjny to rozproszony foton ma energię mniejszą o różnicę energii poziomów oscylacyjnych ( \\( {h}{\\nu}{ – }{h}{\\nu}{_0} \\)) i obserwuje się stokesowskie rozproszanie Ramana. W sytuacji, gdy przed oddziaływaniem z promieniowaniem elektromagnetycznym cząsteczka znajdowała się na wzbudzonym poziomie oscylacyjnym, jej relaksacja przenosi ją na podstawowy poziom oscylacyjny i jest rozpraszany foton o energii większej od energii fotonu wzbudzającego o różnicę energii poziomów oscylacyjnych ( \\( {h}{\\nu}{ + }{h}{\\nu}{_0} \\)) dając antystokesowskie rozpraszanie Ramana, które obserwujemy po przeciwnej stronie pasma Rayleya w stosunku do rozpraszania stokesowskiego. Ze względu na to, że zdecydowanie większa liczba cząsteczek znajduje się na podstawowym stanie oscylacyjnym ( \\( {\\nu}{_0} \\)), intensywność rozpraszania stokesowskiego jest znacznie wyższa aniżeli intensywność rozpraszania antystokesowskiego. Oprócz przejść promienistych zachodzą również procesy bezpromieniste, takie jak: konwersja wewnętrzna ( \\( {S}{_n}{ \\rightarrow}{S}{_n}{_-}{_1} \\)) i przejścia międzysystemowe ( \\( {S}{_n}{ \\rightarrow}{T}{_n} \\) i \\( {T}{_n}{ \\rightarrow}{S}{_n}{_-}{_1} \\))."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 980, "subject": "Spektrometria mas", "paragraphs": ["Spektrometria mas (MS) wykorzystuje zjawisko tworzenia się jonów próbki w fazie gazowej ( \\( M \\)) i polega na wyznaczeniu stosunku masy danego jonu do jego ładunku ( \\( {m}{/}{z} \\)) podając wykres liczebności jonów w funkcji ( \\( {m}{/}{z} \\)) (widmo masowe). Dokładna wartość \\( {m}{/}{z} \\) wskazuje na skład pierwiastkowy jonu, dzięki czemu jest możliwa analiza składu badanej próbki. W zależności od zastosowanej metody jonizacji, próbka jest przekształcana w jony molekularne, pseudomolekularne i fragmentacyjne. Jony molekularne to najczęściej kationy rodnikowe ( \\( {M}{^+}{^•} \\)) utworzone przez usunięcie elektronów z próbki (jony o masie równej masie cząsteczkowej związku z dokładnością do masy elektronu). Wprowadzanie elektronów do próbki w celu uzyskania jonów \\( {M}{^–}{^•} \\) jest stosowane sporadycznie i tylko w przypadku próbek elektroujemnych. Jony pseudomolekularne mogą być dodatnie lub ujemne, jak np. \\( {[M + H]}{^+} \\), \\( {[M – H]}{^–} \\), \\( {[M + Na]}{^+} \\) i \\( {[M + Cl]}{^–} \\) i powstają poprzez dodanie jonów \\( {H}{^+} \\), \\( {Na}{^+} \\) i \\( {Cl}{^–} \\) lub odłączenie jonu \\( {H}{^–} \\) z badanej cząsteczki. Metody jonizacji „miękkiej” generują głównie jony molekularne lub pseudomolekularne podczas gdy metody jonizacji „twardej” tworzą również jony fragmentacyjne.", "Rys. 1 przedstawia przykładowe widma masowe poli(dimetylosiloksanu) i oktametylocyklotetrasiloksanu [1]. Analiza widm pokazuje, iż oba polisiloksany mają identyczne jony, ale intensywności niektórych jonów są różne. Jest to ważna informacja, ponieważ spotyka się często sytuacje, w których dwie lub więcej cząsteczek zawiera te same pierwiastki i cząsteczki, które nie mogą zostać rozróżnione w oparciu o jony fragmentacyjne, ale mogą zostać rozróżnione dzięki zależności pomiędzy intensywnościami pików dla niektórych z ich jonów. Na przykład, stosunki intensywności dla jonów przy \\( {m}{/}{z} \\) = 89 (jon \\( {S}{i}{C}{_3}{H}{_9}{O}{^¯} \\)) i 91 (jon \\( {S}{i}{C}{_2}{H}{_7}{O}{_2}{^¯} \\)) oraz 163 (jon \\( {S}{i}{_2}{C}{_4}{H}{_1}{_3}{O}{_2}{^¯} \\)) i 165 (jon \\( {S}{i}{_2}{C}{_4}{H}{_1}{_3}{O}{_3}{^¯} \\)) są odwrócone. Ta różnica jest odzwierciedleniem dużej zawartości \\( {S}{i}{(}{C}{H}{_3}{)}{_3} \\) w poli(dimetylosiloksanie) i braku \\( {S}{i}{(}{C}{H}{_3}{)}{_3} \\) w cyklosiloksanie.", "Metody spektrometrii mas są często stosowane w analizie polimerów ze względu na ich wysoką czułość (<10 – 15 moli), selektywność (analiza mniejszych składników mieszaniny), specyficzność (dokładna masa i wzorce fragmentacji służą za odcisk palca) i szybkość (uzyskanie danych jest możliwe w ciągu kilku sekund). W zależności od stanu skupienia analizowanej próbki i metody jonizacji [2], [3], [4] wyróżnia się różne techniki MS, np.:", "Materiały lotne na ogół są jonizowane w wyniku oddziaływania ich oparów z elektronami, jonami lub silnym polem elektrycznym (metoda stosowana do jonizacji monomerów i oligomerów o małej masie). Silne pola elektryczne mogą również jonizować materiały nielotne. Jony związków nielotnych i nietrwałych termicznie mogą być desorbowane do fazy gazowej także poprzez bombardowanie odpowiednio przygotowanej próbki szybkimi atomami, jonami lub fotonami emitowanymi przez lasery oraz poprzez szybkie ogrzewanie. Alternatywnie, ciekłe roztwory można bezpośrednio przekształcić w jony w fazie gazowej za pomocą technik rozpylania.", "W przypadku metody jonizacji chemicznej (CI – Chemical Ionisation), próbkę i duży nadmiar (około 10 \\( {^3} \\) krotny) gazu buforowego ( \\( {R}{H} \\)) wprowadza się jednocześnie do źródła jonizującego. Próbka w stanie gazowym jest jonizowana (równania ( 3 ) – przeniesienie protonu i ( 4 ) – addycja elektrofilowa) w wyniku reakcji cząsteczek RH z jonami gazu buforowego ( \\( {R}{H}{^+}{^•} \\)) (równanie ( 2 ) – tworzenie jonu reagującego) powstałymi w wyniku jonizacji elektronowej.", "W przypadku jonizacji polem elektrycznym (FI – Field Ionisation), próbka w stanie gazowym zbliża się do powierzchni anody o dużej krzywiźnie i o wysokim potencjale dodatnim, który jest odpowiedzialny za silne pole w pobliżu powierzchni anody (rzędu 10 \\( {^7} \\) V/cm). Pod wpływem tego pola, zachodzi tunelowanie kwantowe elektronu walencyjnego z próbki do powierzchni anody prowadzące do utworzenia \\( {M}{^+}{^•} \\). Jony \\( {[M + H]}{^+} \\) mogą również zostać utworzone w przypadku próbek polarnych poprzez oderwanie wodoru z powierzchni anody lub jej pobliża. Jony molekularne wytwarzane metodą FI mają niższe energie wewnętrzne niż te wytwarzane przez EI, a zatem ich zdolność do fragmentacji próbki jest mniejsza. Czasy przebywania jonów w źródłach FI i EI wynoszą odpowiednio około 10 \\( {^–}{^1}{^2} \\) s i 10 \\( {^–}{^6} \\) s. Krótszy czas przebywania jonów próbki w źródle FI eliminuje lub zmniejsza zakres przegrupowań, dzięki czemu np. izomery dające bardzo podobne widma EI można rozróżnić na podstawie ich widm FI.", "W metodzie jonizacji przez desorpcję polem (FD – Field Desorption) próbka nie jest odparowywana do stanu gazowego, ale jest osadzana bezpośrednio na powierzchni emitera, która przenosi silne pole. W metodzie tej nie mam zatem konieczności ogrzewania emitera lub ogrzewa się go tylko łagodnie w celu desorpcji \\( {M}{^+}{^•} \\) lub \\( {[M + H]}{^+} \\). Aby utworzyć inne rodzaje jonów pseudomolekularnych, np. \\( {[M + Na]}{^+} \\) lub \\( {[M + K]}{^+} \\), do próbki dodaje się sole metali. Desorpcja polem prowadzi do mniej wzbudzonych jonów i często produkuje tylko jony molekularne lub pseudomolekularne, co ułatwia analizę składu. FD jest z powodzeniem stosowana do polimerów o masie cząsteczkowej do około 10 000 Da i polimerów węglowodorowych bez grup funkcyjnych, które są trudne do jonizacji innymi metodami.", "W metodzie jonizacji laserem wspomaganej matrycą\t(MALDI — Matrix-Assisted Laser Desorption/Ionization) próbka jest równomiernie mieszana z dużą ilością matrycy, którą stanowią lotne małocząsteczkowe związki organiczne silnie pochłaniające promieniowanie z zakresu UV lub IR i przekształcające je w energię cieplną. Najczęściej jonizację i desorpcję próbki dokonuje się za pomocą lasera azotowego emitującego długość 337 nm lub lasera CO \\( {_2} \\) ( \\( {\\lambda} \\) = 9.4 i 10.6 μm). W wyniku naświetlania, nałożona na płytkę metalową niewielka część górnej zewnętrznej powierzchni matrycy (do 100 nm) nagrzewa się w ciągu kilku nanosekund i wraz z próbką odparowuje ułatwiając protonację/deprotonację cząsteczek próbki poprzez szereg procesów, takich jak ablacja i jonizacja prowadząca głównie do tworzenia pojedynczo naładowanych jonów ( \\( {[M + H]}{^+} \\) i \\( {[M – H]}{^–} \\)), co pozwala na łatwą identyfikację związków w mieszaninie. Metoda ta jest stosowana z powodzeniem do badań polimerów o masie cząsteczkowej w zakresie 500 – 1 000 000 Da.", "Metoda jonizacji przez rozpylanie w polu elektrycznym (ESI — Electrospray Ionization) wymaga, aby analizowana próbka (o masie w zakresie 50 – 80 000 Da) była rozpuszczalna w rozpuszczalniku, który można elektrorozpylać, albowiem energia elektryczna jest wykorzystywana do wspomagania przeniesienie jonów próbki z roztworu do fazy gazowej, które obejmuje trzy etapy. W pierwszym etapie, ciągły strumień próbki jest przepuszczany przez kapilarę ze stali nierdzewnej lub krzemionki kwarcowej, która jest utrzymywana pod wysokim napięciem (np. 2.5 – 6.0 kV) w stosunku do ścianki komory. Generowana jest mgiełka silnie naładowanych kropelek o tej samej polaryzacji, co napięcie kapilarne. K kolejnym etapie, naładowane krople, generowane na wyjściu z elektrorozpylacza, przechodzą w dół gradientu ciśnienia i gradientu potencjału w kierunku obszaru analizatora spektrometru mas. Przy pomocy podwyższonej temperatury źródła ESI i / lub strumienia gazu suszącego (np. azotu) wielkość naładowanych kropelek jest stale zmniejszana przez odparowanie rozpuszczalnika, co prowadzi do zwiększenia gęstości ładunku powierzchniowego i zmniejszenia promienia kropli. Wreszcie, natężenie pola elektrycznego w naładowanej kropli osiąga punkt krytyczny, w którym wielokrotnie naładowane jony ( \\( {[M + zH]}{^z}{^+} \\), \\( {[M + (z+1)H]}{^(}{^z}{^+}{^1}{^)}{^+} \\), itd.) z powierzchni kropelek zostają wyrzucone do fazy gazowej.", "Jonizacja wysokoenergetycznymi atomami (FAB — Fast Atom Bombardment) to metoda miękkiej jonizacji dobrze nadająca się do oznaczania dużych cząsteczek polarnych i termicznie nietrwałych. Próbkę rozpuszcza się w glicerolu, tioglicerolu lub innym nielotnym materiale, czyli w tzw. matrycy FAB, którą następnie wprowadza się do obszaru wysokiej próżni instrumentu. W obszarze tym, próbka jest wystawiana na działanie wiązki wysokoenergetycznych atomów ksenonu (Xe) lub argonu (Ar), co powoduje wyrzucenie i jonizację cząsteczek ( \\( {[M + H]}{^n}{^+} \\) lub \\( {[M + H]}{^n}{^–} \\)) z powierzchni matrycy. Przy użyciu tej techniki jonizacji można badać próbki do masy około 6 000 Da.", "Technika, w której próbka ulega bezpośredniej jonizacji (równanie ( 5 ) ) jest nazywana bezpośrednią APPI. W technice tej niektóre próbki ulegają fotojonizacji w niewielkim stopniu. W celu znacznego zwiększenia liczby generowanych jonów (najczęściej poprzez wymianę ładunku lub transfer protonów) dodaje się jednej lub kilku odpowiednich substancji (domieszek ( \\( {D} \\)) - substancji o potencjale jonizacji niższym niż energia fotonu emitowanego przez źródło światła i niskim powinowactwie do protonu) – mówimy wówczas o technice APPI wspomaganej domieszką (DA-APPI). Początkowo domieszka ulega jonizacji pod wpływem fotonów (równanie ( 7 ) ). Zjonizowane jony domieszki ( \\( {D}{^+} \\)) mogą wymieniać ładunek bezpośrednio z próbką tworząc \\( {M}{^+} \\) (równanie ( 8 ) ) lub przenosić uzyskany ładunek dodatni do rozpuszczalnika (równanie ( 9 ) ), który z kolei przenosi protony do próbki tworząc \\( {[M + H]}{^+} \\) (równanie ( 10 ) ), które dostają się do spektrometru mas.", "Metoda jonizacji przez plazmę sprzężoną indukcyjnie (ICP – Inductively Coupled Plasma) opiera się na jonizacji próbki przez ekstremalnie gorącą plazmę, zwykle wytwarzaną z argonu, który przepływa przez palnik ładowany za pomocą cewki elektromagnetycznej i zapalany za pomocą jednostki Tesli, która wytwarza łuk szybkiego wyładowania przez przepływ argonu. W metodzie tej, elektrony przyspieszane zderzają się z atomami argonu, w wyniku czego atom argonu wyrzuca jeden ze swoich elektronów. Uwolnione elektrony są następnie przyspieszane przez szybko zmieniające się pole magnetyczne jednostki elektromagnetycznej. System działa, aż szybkość uwalniania elektronów zostanie zrównoważona przez szybkość rekombinacji elektronów z powstającymi jonami argonu. To generuje „kulę ognia”, która składa się głównie z atomów argonu z niewielkim procentem wolnych elektronów i jonów argonu. Przez środek plazmy przepływa gaz tworzący kanał, który jest zimniejszy niż sąsiednia plazma, ale wciąż znacznie cieplejszy niż płomień chemiczny. Próbka jest wprowadzana do kanału w postaci mgiełki (przy wykorzystaniu nebulizatora) i jonizowana."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 974, "subject": "Spektroskopia oscylacyjna", "paragraphs": ["Spektroskopia absorpcyjna w podczerwieni (IR) bada oddziaływanie promieniowania z zakresu podczerwieni (bliskiej podczerwieni (NIR, długość fali 0.7 – 2.5 μm, energia 14000 – 4000 cm \\( {^−}{^1} \\)); środkowej podczerwieni (MIR, 2.5 – 25 μm, 4000 – 400 cm \\( {^−}{^1} \\)) i dalekiej podczerwieni (FIR, 25 – 1000 μm, 400 – 10 cm \\( {^−}{^1} \\))) widma elektromagnetycznego z badaną materią, podczas gdy spektroskopia efektu rozpraszania Ramana (RS) (nieelastyczne rozpraszanie światła na badanej materii zachodzące pod wpływem naświetlania światłem monochromatycznym) bada oddziaływanie promieniowania z zakresu widzialnego (380 – 780 nm) widma elektromagnetycznego z badaną materią. Promieniowanie w zakresie NIR wzbudza nadtony lub drgania kombinacyjne cząsteczek. Promieniowanie w zakresie MIR wzbudza podstawowe drgania normalne cząsteczki. Promieniowanie z obszaru FIR wzbudza niskoczęstościowe drgania cząsteczki lub jest wykorzystywane w spektroskopii rotacyjnej. Dodatkowo promieniowanie o energii odpowiadającej zakresowi liczb falowych 2 – 130 cm \\( {^−}{^1} \\) (obszar terahercowy) wzbudza drgania międzycząsteczkowe. Natomiast promieniowanie z zakresu Vis wzbudza drgania normalne, nadtony i drgania kombinacyjne cząsteczki.", "Zgodnie z zasadą nieoznaczoności Heisenberga wszystkie atomy w cząsteczce znajdują się w ciągłym ruchu. Cząsteczka jako całość porusza się ruchem postępowym (translacyjnym; przemieszczenie się całej cząsteczki) i obrotowym (obrót cząsteczki względem osi własnej), podczas gdy każdy atom w cząsteczce drga względem położenia równowagowego, co opisuje się za pomocą drgań normalnych.", "Drgania normalne powodują zmiany w długości wiązań lub zmiany w kątach pomiędzy wiązaniami chemicznymi. Do drgań zmieniających długości wiązań zalicza się zachodzące w płaszczyźnie drgania rozciągające symetryczne ( \\( {\\nu}{_s}{_y}{_m} \\)) i antysymetryczne ( \\( {\\nu}{_a}{_n}{_t}{_y}{_s}{_y}{_m} \\)). Do drgań zmieniających kąty między wiązaniami należą: drgania zginające w płaszczyźnie (wahadłowe, \\( {\\rho}{_r} \\)), drgania nożycowe w płaszczyźnie ( \\( {\\rho}{_b} \\)), drgania zginające poza płaszczyznę (wachlarzowe, \\( {\\rho}{_w} \\), i skręcające, \\( {\\rho}{_{\\tau}} \\)).", "Jak wynika z równania ( 1 ), częstość drgań cząsteczki zależy od stałych siłowych wiązań i mas atomowych, a zatem przejścia pomiędzy poziomami elektronowo-oscylacyjnymi cząsteczki stanowią „odcisk palca struktury”, który jest charakterystyczny dla grup chemicznych obecnych w polimerze, np. glikolu etylenowego w poli(glikolu etylenowym) (zob. Rys. 1 ) [1], [2]. Ponieważ częstości drgań są wrażliwe na obecność i rodzaj sąsiednich grup chemicznych, na podstawie widm oscylacyjnych uzyskuje się informacje na temat lokalnego środowiska.", "Przejścia oscylacyjne (przejścia między stanami elektronowo-oscylacyjnymi) dostępne dla spektroskopii IR podlegają zasadzie wyboru, zgodnie z którą musi nastąpić zmiana momentu dipolowego podczas drgań cząsteczki. Dlatego np. drgania symetryczne, w czasie których nie następuje zmiana momentu dipolowego, a następuje zmiana polaryzowalności cząsteczki, są wykrywane tylko metodą RS ( Rys. 2 ). Grupy polarne, takie jak: grupa karbonylowa ( \\( {>}{C}{=}{O} \\)), hydroksylowa ( \\( {–}{O}{H} \\)), czy aminowa ( \\( {–}{N}{H}{_2} \\)) ze względu na dużą zmianę momentu dipolowego w stanie podstawowym wykazują silne pochłanianie promieniowania IR przy charakterystycznych częstościach. Natomiast grupy niepolarne, takie jak: \\( {C}{–}{C} \\), \\( {C}{=}{C} \\) czy \\( {C}{≡}{C} \\) ze względu na dużą zmianę polaryzowalności w stanie podstawowym wykazują silne rozpraszanie Ramana przy charakterystycznych częstościach. Rys. 2 podaje zakres występowania drgań charakterystycznych grup atomów.", "Na podstawie widm oscylacyjnych można uzyskać informacje na temat:"], "definitions": [{"name": "Definicja 1: Drgania normalne (własne) cząsteczki", "content": " to okresowy ruch atomów cząsteczki względem siebie w czasie, którego środek ciężkości cząsteczki pozostaje niezmieniony i który jest opisywany za pomocą oscylatora harmonicznego ( 1 ):\n\n\t\t\t\t\t(1)\n\n\t\t\t\t\t\t\t\t\\( {F}{=}{–}{k}{·}{Q} \\)\n\ngdzie: \\( {k} \\) – oznacza stałą siłową, a \\( {Q}{ =} {A}{·}{ cos}{(}{2}{\\pi}{⋅}{\\nu}{·}{t}{)} \\) i \\( {\\nu}{=}\\cfrac{1}{2\\pi}{√}\\cfrac{k}{{\\mu}{_z}{_r}{_e}{_d}} \\),\nA – jest maksymalną amplitudą współrzędnej drgań \\( {Q} \\),\n \\( {μ}{_z}{_r}{_e}{_d} \\) – masą zredukowaną i \\( {\\nu} \\) – częstością drgania.\n\nCząsteczka nieliniowa zawierająca N atomów ma 3N – 6 drgań normalnych, a cząsteczka liniowa ma 3N – 5 drgań normalnych."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 975, "subject": "Spektroskopia absorpcyjna UV-VIS", "paragraphs": ["Absorpcja promieniowania elektromagnetycznego z zakresu bliskiego ultrafioletu (UV) i obszaru widzialnego (VIS) w spektroskopii absorpcyjnej UV-VIS) jest związana z przejściami elektronów ( \\( {n}{\\rightarrow}{\\pi}{^*} \\) i \\( {\\pi}{\\rightarrow}{\\pi}{^*} \\)) pomiędzy poziomami elektronowymi cząsteczki. Dzieje się tak, ponieważ zdecydowana większość polimerów zbudowana jest z monomerów organicznych powstałych przez utworzenie pomiędzy atomami wiązań kowalencyjnych \\( {\\sigma} \\) (opisywanych za pomocą orbitali cząsteczkowych powstałych w wyniku czołowego nakładania się orbitali atomowych) i \\( {\\pi} \\) (opisywanych za pomocą orbitali cząsteczkowych powstałych w wyniku bocznego nakładania się orbitali atomowych typu p) wiążących ( \\( {\\sigma} \\) i \\( {\\pi} \\), o niższej energii niż energia orbitali atomowych) i antywiążących ( \\( {\\sigma}{^*} \\) i \\( {\\pi}{^*} \\), o energii wyższej niż e nergia orbitali atomowych) (zob. typy orbitali molekularnych ). W cząsteczkach organicznych różnica energii pomiędzy orbitalami \\( {\\sigma} \\) i \\( {\\sigma}{^*} \\) jest duża i wymaga długości fal <200 nm w celu przeniesienia elektronu pomiędzy tymi orbitalami. Natomiast orbitale \\( {\\pi} \\) i \\( {\\pi}{^*} \\) (wiązania podwójne) są mniej odległe od siebie, w rezultacie czego elektrony są przenoszone łatwiej między nimi ( \\( {\\pi}{\\rightarrow}{\\pi}{^*} \\)). Elektrony na orbitalach cząsteczkowych niewiążących są jeszcze łatwiej przenoszone w wyniku przejścia \\( {n}{\\rightarrow}{\\pi}{^*} \\), gdyż różnica energii między tymi orbitalami jest jeszcze mniejsza. Ogólnie, długość fali promieniowania związana z danym przejściem ujawnia się jako wartość maksymalna absorpcji ( \\( {\\lambda}{_m}{_a}{_x} \\)) w widmie UV-VIS.", "Polimery nie zawierające wiązań podwójnych w swej strukturze lub zawierające tylko jedno wiązanie podwójne nie absorbują promieniowania z zakresu bliskiego ultrafioletu (UV) i obszaru widzialnego (VIS) widma elektromagnetycznego. Polimery zawierające sprzężone wiązania podwójne absorbują promieniowanie, a im większa jest liczba sprzężonych wiązań podwójnych, tym maksimum absorpcji przesuwa się w stronę fal dłuższych (np. \\( {\\lambda}{_m}{_a}{_x} \\) = 220 nm dla 1,3-butadienu ( \\( CH{_2}=CH–CH=CH{_2} \\)) – monomeru polibutadienu, który zawiera dwa sprzężone wiązanie podwójne i \\( {\\lambda}{_m}{_a}{_x} \\) = 550 nm dla poliacetylenu ( \\( –[CH=CH]{_n}– \\)), którego szkielet zawiera układ sprzężonych wiązań podwójnych) i w widmie pojawia się więcej maksimów absorpcyjnych ( Rys. 1 ). Z tego, powodu większość sprzężonych polimerów wykazuje absorpcję w zakresie widzialnym. Polimery zawierające w swej strukturze pierścień aromatyczny (np. polistyren) lub heteroaromatyczny (np. poli(3-metylotiofen) absorbują promieniowanie z zakresu UV widma elektromagnetycznego, gdyż w tym zakresie promieniowania obserwowane są przejścia \\( {n}{\\rightarrow}{\\pi}{^*} \\) dla tych pierścieni. Przykłady widm UV-VIS wybranych monomerów przedstawia Rys. 1. Jak wynika z rysunku, styren wykazuje maksimum absorpcji przy \\( {\\lambda}{_m}{_a}{_x} \\) = 242 nm, benzen przy \\( {\\lambda}{_m}{_a}{_x} \\) = 178 nm, a 3-metylotiofen przy \\( {\\lambda}{_m}{_a}{_x} \\) = 232 nm. Natomiast, metakrylan metylu, który jest nienasyconym sprzężonym ketonem, wykazuje dwa maksima absorpcyjne przy \\( {\\lambda}{_m}{_a}{_x} \\) = 232 nm (odpowiadające przejściu elektronów p) i \\( {\\lambda}{_m}{_a}{_x} \\) = 330 nm (odpowiadające przejściu niezwiązanych elektronów na atomie tlenu grupy karbonylowej). Położenie maksimum absorpcyjnego jest stałą charakterystyczną konkretnej struktury cząsteczkowej [1], [2], [3].", "Intensywność pasma absorpcyjnego, która zależy od struktury cząsteczkowej i liczby cząsteczek absorbujących promieniowanie, wyraża się ilościowo za pomocą prawa Lamberta-Beera ( 1 ):", "gdzie: \\( {\\epsilon} \\) oznacza współczynnik ekstynkcji, \\( {c} \\) – stężenie roztworu w mol/L i \\( {l} \\) – szerokość próbki, przez którą przechodzi światło w cm.", "Ze względu na czułość metody UV-VIS (< 10-5 mol/L), widma UV-VIS pozwalają określić strukturę chemiczną, konformację polimeru, czy zidentyfikować zanieczyszczenia w polimerach, takie jak: pozostałości monomerów, inhibitory, przeciwutleniacze itd."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 981, "subject": "Spektroskopia fluorescencyjna", "paragraphs": ["Badania metodą spektroskopii fluorescencyjnej (spektrofluorymetria) dostarczają cennych informacji na temat dynamiki łańcuchów polimeru (fluorescencja ekscymerowa), granicy faz i dyspersji polimeru (rezonansowy transfer energii Förstera, FRET), procesów transportu, czy degradacji polimerów oraz zjawiska zmiękczania naprężeń w wypełnionych elastomerach, znanego jako efekt Mullinsa i charakteryzującego się wyraźnym obniżeniem naprężenia przy drugim rozciąganiu materiału po zwolnieniu pierwszego obciążenia.", "Metoda ta wymaga włączenia do polimeru sondy fluorescencyjnej (chromoforu, barwnika) używanej w bardzo niskich stężeniach. Rys. 1 przedstawia przykładowe chromofory. Chromofor dobiera się tak, aby poprzez zmianę jego widma emisyjnego (np. zależność intensywności fluorescencji od temperatury) można było wykrywać zmiany w jego bezpośrednim otoczeniu."], "definitions": [{"name": "Definicja 1: Chromofor", "content": "to atom, jon, fragment cząsteczki lub cząsteczka, która odpowiada za kolor. To znaczy, chromofor absorbuje promieniowanie z zakresu widzialnego (380 – 780 nm) widma elektromagnetycznego o tych długościach fali, które odpowiadają przejściom elektronów pomiędzy jego poziomami elektronowymi, a odbija lub przepuszcza promieniowanie elektromagnetyczne o innej długości fali, które obserwuje się w postaci określonej barwy."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 979, "subject": "Spektroskopia magnetycznego rezonansu jądrowego", "paragraphs": ["Spektroskopia magnetycznego rezonansu jądrowego (NMR) to metoda spektroskopowa stosowana w:", "Jądra atomowe są naładowane dodatnio i wykonują ruch obrotowy wokół własnej osi (określany jako spin ( \\( {s} \\))) generując pole elektromagnetyczne. NMR wykorzystuje ten fakt. Niektóre jądra mają spin całkowity (np. \\( {s} \\) = 1, 2, 3 ....), inne mają spin ułamkowy (np. \\( {s} \\) = \\( \\cfrac{1}{2} \\), \\( \\cfrac{3}{2}, \\) \\( \\cfrac{5}{2} \\) ....), a jeszcze inne mają spin równy 0 (np. \\( {^1}{^2}{C} \\), \\( {^1}{^6}{O} \\), \\( {^3}{^2}{S} \\)). Spin \\( {s} \\) = \\( \\cfrac{1}{2} \\) mają praktycznie wszystkie atomy o nieparzystej liczbie nukleonów (np. wodór \\( {^1}{H} \\), węgiel \\( {^1}{^3}{C} \\), azot \\( {^1}{^5}{N} \\), tlen \\( {^1}{^7}{O} \\), fluor \\( {^1}{^9}{F} \\) czy fosfor \\( {^3}{^1}{P} \\)) i dlatego chętnie są wykorzystywane w NMR, szczególnie \\( {^1}{H} \\). W przypadku braku zewnętrznego pola magnetycznego kierunek wirowania jąder jest zorientowany losowo. W obecności zewnętrznego pola magnetycznego ( \\( {B}{_0} \\), najczęściej 2.35 T), jądro obdarzone spinem o wartości \\( \\cfrac{1}{2} \\), przyjmie jedną z dwóch pozycji względem dowolnego kierunku, tzn. położenie zgodne ze zwrotem wektora indukcji pola magnetycznego ( \\( {s} \\) = \\( {+}\\cfrac{1}{2} \\) lub \\( \\alpha \\)) lub położenie przeciwne do zwrotu wektora indukcji pola magnetycznego ( \\( {s} \\) = \\( {–}\\cfrac{1}{2} \\) lub \\( \\beta \\) ) (zob. Rys. 1 ). Jeżeli jądro wykazuje niezerowy moment magnetyczny (np. \\( {^1}{H} \\) μ = 2.7927, \\( {^1}{^9}{F} \\) μ = 2.6273, \\( {^3}{^1}{P} \\) μ = 1.1305 czy \\( {^1}{^3}{C} \\) μ = 0.7022) to energia w tych stanach jest różna ( \\( {s = +}\\cfrac{1}{2} \\) – stan o energii niższej i \\( {s = –}\\cfrac{1}{2} \\) – stan o energii wyższej). Różnica energii między tymi dwoma stanami spinu zależy od natężenia zewnętrznego pola magnetycznego zgodnie z równaniem ( 1 ):", "(gdzie: \\( {h} \\) – stała Plancka wynosząca 6.62⋅10 \\( {^–}{^3}{^4} \\) Js) i jest zawsze bardzo mała (mniejsza niż 0.1 cal/mol (dla porównania przejścia w podczerwieni wymagają od 1 do 10 kcal/mol, a energia przejść elektronowych jest prawie 100 razy większa). W temperaturze pokojowej, w stanie równowagi termodynamicznej, prawdopodobieństwo zajęcia stanu o niższej energii jest nieznacznie wyższe (ok. 1 na 100 000). W zewnętrznym silnym polu magnetycznym (1 – 20 T), jest możliwe przejście pomiędzy stanem niższym i wyższym (jądra pochłoną energię i „odwracają spin”, aby ustawić się w kierunku przeciwnym do pola, czyli wyższego stanu energii), które odbywa się przy długości padającej fali elektromagnetycznej odpowiadającej częstotliwościom radiowym (20 – 900 MHz). Kiedy spin powraca do swojego stanu podstawowego, energia jest emitowana przy tej samej częstotliwości. Sygnał przejścia (czyli dokładna częstotliwość rezonansowa energii przejścia ( \\( \\nu \\)) podawana w MHz) jest mierzony w celu uzyskania widma NMR dla danego jądra [1], [2], [3].", "Położenie sygnałów rezonansowych w NMR zależy od natężenia zewnętrznego pola magnetycznego i częstotliwości wzbudzającej fali elektromagnetycznej oraz rodzaju badanych jąder. Na częstotliwość rezonansową ma wpływ tzw. ekranowanie elektronów. Dzieje się tak dlatego, że elektrony są cząstkami naładowanymi i poruszającymi się w zewnętrznym polu magnetycznym. Indukują one pole wtórne przeciwstawiające się przyłożonemu polu zewnętrznemu. To pole wtórne ekranuje jądro i dlatego \\( {B}{_0} \\) zwiększa się w celu uzyskania rezonansu (np. sygnały rezonansowe przy wyższej wartości mają jądra protonów, które są bardziej ekranowane (np. \\( {C}{H}{_4} \\), \\( {H}{C}{l} \\), \\( {H}{B}{r} \\) i \\( {H}{I } \\) niż przy niższych wartościach ( Rys. 2 ), tj. im bardziej elektroujemne jądro, tym wyższa częstotliwość rezonansowa).", "Położenie sygnałów podaje się w odniesieniu do sygnału wzorca (związku standardowego dodanego do próbki). Wzorzec powinien być obojętny chemicznie, łatwo usuwany z próbki po pomiarze i dawać pojedynczy ostry sygnał NMR, który nie zakłóca rezonansów obserwowanych dla próbki. Warunki powyższe spełnia tetrametylosilan ( \\( {(}{C}{H}{_3}{)}{_4}{S}{i} \\), \\( {T}{M}{S} \\) ( \\( \\delta{_T}{_M}{_S}{ = 0 } \\) \\( {ppm} \\))), który jest najczęściej stosowanym wzorcem w \\( {^1}H \\) i \\( {^1}{^3}C \\) NMR.", "Częstotliwość rezonansowa energii przejścia nie jest łatwa do zapamiętania (np. częstotliwość benzenu może wynosić 400.132869 MHz). Aby uzyskać wygodniejszą liczbę podaje się tzw. przesunięcie chemiczne (jest niezależne od pola i jest podawane w ppm (parts per milion) (skala 0-10 ppm), które definiuje się w sposób następujący (równanie ( 2 ) ):", "gdzie: \\( {\\nu}{_p}{_r}{_ó}{_b}{_k}{_i} \\) oznacza częstotliwość badanego jądra, a \\( \\nu{_w}{_z}{_o}{_r}{_c}{_a} \\) oznacza częstotliwość wzorca.", "Na efektywne pole magnetyczne ma również wpływ orientacja jąder sąsiednich. Efekt ten nazywany jest sprzężeniem spinowo-spinowym (zob. Rys. 3 ) i powoduje rozszczepienie sygnału każdego typu jądra na dwie lub więcej linii. Separacja linii jest zawsze stała w ramach danego multipletu i nazywana jest stałą sprzężenia (J), która jest niezależna od pola magnetycznego i dlatego jest mierzona jako częstotliwość (w Hz). Liczba rozszczepień wskazuje liczbę jąder związanych chemicznie w pobliżu obserwowanego jądra, a wzorce rozszczepień są symetrycznie rozmieszczone po obu stronach przesunięcia chemicznego, przy czym linie środkowe są zawsze silniejsze niż linie zewnętrzne. Najczęściej obserwowanym wzorcem jest singlet (jeden sygnał), dublet (dwa sygnały o jednakowej intensywności), triplet (trzy sygnały o stosunku intensywności 1:2:1) i kwartet (cztery sygnały o intensywności 1:3:3:1)."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 978, "subject": "Mikroskopia", "paragraphs": ["Mikroskopia świetlna to dziedzina wykorzystująca urządzenia – mikroskopy do oglądania próbek i obiektów, które są zbyt małe, aby można je było zobaczyć nieuzbrojonym okiem. Wizualizacja obiektu odbywa się za pośrednictwem wiązki światła lub elektronów. Ogólnie, padająca wiązka jest przesyłana ze źródła znajdującego się po przeciwnej stronie próbki/obiektu do soczewki skupiającej, która skupia ją na próbce w celu uzyskania maksymalnej jasności. Po przejściu przez próbkę, wiązka pada na soczewkę obiektywu, która powiększa obraz próbki, a następnie do okularów, gdzie oglądany obraz jest dodatkowo powiększany. W mikroskopii szczególnie ważne są dwa parametry: powiększenie i rozdzielczość.", "Mikroskopy wykorzystujące światło widzialne (mikroskopy optyczne) (nie są w stanie rozróżnić szczegółów próbki mniejszych niż 0,2 μm, powiększenie do 1 000 razy) są zwykle mikroskopami jasnego pola, to znaczy, że światło widzialne przechodzące przez próbkę jest wykorzystywane do bezpośredniego tworzenia obrazu, bez żadnych modyfikacji. Innym rodzajem mikroskopii świetlnej jest mikroskopia fluorescencyjna, która służy do obrazowania próbek fluorescencyjnych, tzn. próbek absorbujących jedną długość fali promieniowania elektromagnetycznego i emitujących inną długość fali promieniowania elektromagnetycznego. Na przykład, w mikroskopach konfokalnych fluorescencyjnych światło monochromatyczne emitowane przez laser jest używane do wzbudzania cząsteczek fluorescencyjnych z cienkiej warstwy próbki, a światło o innej długości fali emitowane z tej warstwy tworzy ostry obraz bez interferencji ze strony cząsteczek fluorescencyjnych obecnych w innych warstwach. Ze względu na fakt, iż większość próbek nie jest naturalnym fluorescentem, przed pomiarem próbki zazwyczaj znakuje się barwnikiem lub znacznikiem fluorescencyjnym. Mikroskopy elektronowe różnią się od mikroskopów świetlnych tym, że tworzą obraz próbki za pomocą wiązki elektronów, a nie wiązki światła. Elektrony mają znacznie krótszą długość fali (około 0.1 nm) niż światło widzialne (380 – 780 nm), dzięki czemu mikroskop elektronowy daje obraz o wyższej rozdzielczości niż standardowy mikroskop świetlny. Jedyne ograniczenie mikroskopów elektronowych jest związane z koniecznością umieszczenia próbki pod próżnią. Istnieją trzy główne rodzaje mikroskopii elektronowej: mikroskopia sił atomowych (AFM), transmisyjna mikroskopia elektronowa (TEM) i skaningowa mikroskopia elektronowa (SEM) [1].", "W SEM niskoenergetyczna wiązka elektronów (energia 1 – 30 keV) ogniskowana w wąskiej sondzie przemieszcza się tam i z powrotem po powierzchni próbki, tworząc szczegółowy obraz 3D tej powierzchni (powiększenie 500 000 krotne), co sprawia, iż technika ta jest używana do analizy morfologii powierzchni dowolnej próbki. Wiązka elektronów oddziałuje z próbką w sposób bardzo podobny do kształtu łzy, który jest określany jako objętość oddziaływania. Głębokość tego oddziaływania wynosi od kilku nm do 5.0 μm. W wyniku oddziaływania dochodzi do odbicia wysokoenergetycznych elektronów wstecznie rozproszonych przez rozproszenie elastyczne (tryb obrazowania wstecznego), emisji elektronów wtórnych przez rozproszenie nieelastyczne (tryb obrazowania elektronów wtórnych) i emisji promieniowania elektromagnetycznego (ciągłego). Każdy z tych efektów może być oddzielnie wykrywany przez odpowiednio wyspecjalizowane detektory. Najczęściej stosowanymi mikroskopami SEM są konwencjonalne SEM o wysokiej rozdzielczości (powszechnie stosowane do badań nieorganicznych i twardych nanomateriałów) i SEM środowiskowe (powszechnie stosowane do badań miękkich biomateriałów i polimerów). Środowiskowa skaningowa mikroskopia elektronowa (ESEM) wykorzystuje niskie napięcie przyspieszające (np. 12 kV) i nie wymaga stosowania powłok na powierzchni próbki, które mogą zasłaniać drobną strukturę powierzchni próbki, a próbkę można obserwować w środowisku gazowym przy niskim ciśnieniu (1 – 50 Torr).", "TEM wykorzystuje wiązkę elektronów poruszających się szybko ( \\( {\\lambda} \\) = 0.00251 nm (przy 200 kV)) emitowaną przez działo elektronowe, która za pomocą szeregu soczewek elektromagnetycznych jest skupiana na próbce. Na próbce elektrony są absorbowane lub przepuszczane przez próbkę i za pomocą soczewki projekcyjnej tworzą obraz na ekranie fosforyzującym lub detektorze CCD. Oddziaływanie wiązki elektronów z próbką wpływa na kontrast obrazu. Obszar tego oddziaływania zależy od liczby atomowej pierwiastków obecnych w próbce i grubości próbki. To znaczy, pierwiastki o rosnącej liczbie atomowej mają duży przekrój atomowy, a co za tym idzie, wykazują większe prawdopodobieństwo pochłaniania elektronów, co zapewnia większy kontrast przy obrazowaniu próbki. Przed obrazowaniem próbka jest cięta na wyjątkowo cienkie plasterki (1 100 nm), a wiązka elektronów przechodzi przez wycinek, a nie ślizga się po jego powierzchni, dzięki czemu daje obraz o wysokiej rozdzielczości, głębi ostrości i powiększeniu zapewniający dostęp do informacji na temat struktury wewnętrznej próbki (układu atomów w nanoskali; powiększenie nawet 10 000 000 krotne). Pomiary TEM zazwyczaj wykonuje się przy napięciu 80 – 300 kV. Energię dobiera się tak, aby uzyskać jak najlepszą rozdzielczość (długość fali elektronu jest odwrotnie proporcjonalna do energii elektronu, a zatem otrzymuje się wyższą rozdzielczość przy wyższej energii) nie niszcząc próbki. Dlatego w przypadku próbek biologicznych i miękkich polimerów napięcie robocze wynosić około 80 – 100 kV.", "AFM to technika wykorzystująca sondę skanującą (SPM), która umożliwia uzyskanie rozdzielczości do ułamków nanometra i dostarcza informacji o powierzchni poprzez dotknięcie sondą powierzchni próbki. Pomiędzy próbką, a końcówką SPM dochodzi do oddziaływań o krótkim i długim zasięgu. W oddziaływaniach bliskiego zasięgu dominują siły van der Waalsa, podczas gdy w oddziaływaniach dalekiego zasięgu dominują siły elektryczne i magnetyczne. Podstawą AFM jest krzywa zależności energii potencjalnej od odległości ( \\( {r} \\)). Siła wypadkowa pomiędzy dwoma atomami jest wynikiem sił przyciągania ( \\( \\cfrac{1}{{r}{^2}} \\)) i odpychania ( \\( \\cfrac{1}{{r}{^6}} \\)), a nachylenie siły odpychającej dominuje bardziej na krótszych odległościach niż siły przyciągania. W przypadku dwóch atomów znajdujących się w dużej odległości od siebie, siłę wypadkową można zaniedbać. Gdy jeden atom zbliża się do drugiego, dominują siły przyciągania, które osiągają maksimum dla odległości międzyatomowej pomiędzy dwoma atomami. Następnie zaczynają dominować siły odpychające. W zależności od oddziaływania pomiędzy SPM a powierzchnią próbki, krzywa siły i odległości mierzona jest w postaci ugięcia odbitej wiązki lasera z pozycji centralnej."], "definitions": [{"name": "Definicja 1: Powiększenie", "content": "jest miarą tego, o ile badany obiekt zostaje powiększony. Mikroskopy świetlne używane zwykle w szkołach i na uczelniach powiększają rzeczywisty rozmiar około 400 razy (rzeczywisty rozmiar 1 mm na obrazie mikroskopowym ma rozmiar 400 mm). Zdolność mikroskopu do powiększania obiektu jest zasadniczo nieograniczona."}, {"name": "Definicja 2: Rozdzielczość", "content": "mikroskopu określa najmniejszą odległość, na jaką można oddzielić dwa punkty, aby były widoczne jak dwa oddzielne obiekty. Im mniejsza ta wartość, tym wyższa zdolność rozdzielcza mikroskopu, lepsza ostrość i szczegółowość obrazu. Zdolność rozdzielcza mikroskopu jest ograniczona przez naturę źródła oświetlenia, to znaczy przez długość fali oświetlającej. Długość fali wpływa na to, jak szeroki jest pojedynczy punkt światła. Np. krótsze długości fal światła (od UV do zielonego) wydają się ostrzejsze niż fale dłuższe (od czerwieni do podczerwieni), które wydają się być bardziej rozproszone, przez co zmniejszają zdolność rozdzielczą."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Wybrane metody badania polimerów", "subject_id": 937, "subject": "Chromatografia wykluczenia zależnego od wielkości cząsteczek", "paragraphs": ["Chromatografia wykluczenia zależnego od wielkości cząsteczek (SEC), zwana także chromatografią żelowo-permeacyjną lub chromatografią sita molekularnego) jest metodą chromatografii kolumnowej dedykowaną do badań np. polimerów począwszy od oczyszczania do kontroli jakości czy określania zależności struktura-właściwość. Metoda ta pozwala na rozdzielanie cząsteczek polimerów w roztworze w oparciu o wielkość tych cząsteczek niezależnie od użytego rozpuszczalnika (eluenta) i sposobu otrzymania makrocząsteczki. Pozwala zatem wyznaczyć liczbowo średnią ( \\( {M}{_n} \\)) i wagowo średnią( \\( {M}{_w} \\)) masę cząsteczkową polimeru, a na ich podstawie rozkład masy cząsteczkowej ( \\( {M}{_W}{_D} \\)).", "Rozdzielanie zachodzi w kolumnie chromatograficznej, która zazwyczaj składa się z pustej rurki wypełnionej upakowanymi porowatymi cząstkami sferycznymi (perełkami) (faza stacjonarna, wypełniacz kolumny) ( Rys. 1 ) i jest procesem napędzanym przez entropię. Pory mogą mieć postać wgłębień na powierzchni lub kanałów przechodzących przez „perełki”. Próbka (rzędu kilku miligramów na pomiar) jest rozpuszczana w rozpuszczalniku, który jest stosowany jako faza ruchoma (eluent), a następnie wstrzykiwana na kolumnę. Roztwór przemieszcza się w dół kolumny, a niektóre jego cząsteczki dyfundują do porów. Rozdział cząsteczek odbywa się na podstawie zróżnicowania dróg i czasu dyfuzji wewnątrz porów wypełnienia kolumny, o różnych średnicach ( \\( \\phi{_p}{_o}{_r}{_ó}{_w} \\)), dla cząsteczek o różnych wartościach średnicy hydrodynamicznej ( \\( \\phi{_c}{_z}{_ą}{_s}{_t}{_e}{_c}{_z}{_e}{_k} \\)). Kolejność wymywania jest związana z zatrzymywaniem cząsteczek w porach wypełnienia kolumny. To znaczy, podczas przepływu próbki przez kolumnę, zawarte w próbce cząsteczki małe łatwo dyfundują do wnętrza porów i dłużej w nich przebywają, przez co wydłuża się ich czas retencji w stosunku do czasu retencji dla cząsteczek większych. Rys. 1 ilustruje ten proces. Cząsteczki większe ze względu na mniejszą liczbę dostępnych dla nich porów w ziarnach wypełnienia kolumny wnikają trudniej lub nie wnikają do porów i w trakcie wymywania przemieszczają się pomiędzy ziarnami złoża w stronę wylotu kolumny, a zatem w pierwszej kolejności są wymywane. Ponieważ wszystkie cząsteczki jednocześnie podlegają dyfuzji, cząsteczki małe, które dostały się do wnętrza porów, po jakimś czasie wydostają się na zewnątrz i są transportowane przez fazę ruchomą w kierunku wylotu kolumny. Czas przebywania cząsteczek wewnątrz porów jest proporcjonalny do ich wielkości ( objętości hydrodynamicznej ), to znaczy im cząsteczki są mniejsze, tym dłużej są zatrzymywane wewnątrz porów i tym później wymywane. W ten sposób rozdzielone cząsteczki są uporządkowane zgodnie z ich wielkością, a następnie charakteryzowane za pomocą jednego lub więcej detektorów. Najczęstszym detektorem jest refraktometr różnicowy, który wykrywa zmiany współczynnika załamania eluowanego roztworu. Otrzymany chromatogram (zależność sygnału od objetości eluenta (w jednostkach: mL) lub czasu retencji (w jednostkach: s) jest zatem rozkładem masy polimeru w funkcji czasu retencji.", "W metodzie SEC istnieją ograniczenia dotyczące zakresów wielkości (mas) cząsteczek, które mogą zostać rozdzielone. Minimalna masa cząsteczkowa, która nie może dostać się do porów nazywana jest granicą wykluczenia. To znaczy, że cząsteczki większe niż granica wykluczenia kolumny nie mogą zostać rozdzielone. Dlatego, wielkość porów wypełniacza kolumny należy wybrać zgodnie z zakresem wielkości makrocząsteczek, które mają zostać rozdzielone. W przypadku separacji polimerów rozmiary porów wypełniacza kolumny powinny być rzędu analizowanych polimerów. W sytuacji gdy próbka polimerów zawiera cząsteczki o szerokim zakresie mas cząsteczkowych do całkowitego rozdzielenia próbki zazwyczaj stosuje się kilka kolumn w tandemie.", "Wymiar i upakowanie kolumny, prędkość przepływu eluenta i selektywność wypełniacza (rozkład wielkości porów czy oddziaływania pomiędzy próbką, a wypełniaczem) to czynniki wpływające na rozdzielczość tej metody (odległość między dwoma pikami).", "Równanie ( 1 ) opisuje zależność pomiędzy objętością eluenta ( \\( {V} \\)), a masą cząsteczkową ( \\( {M} \\)) polimerów, gdzie: \\( {b} \\) i \\( {c} \\) są stałym.", "Wykres tej zależności nosi nazwę krzywej kalibracji. Krzywe kalibracyjne przygotowuje się przy wykorzystaniu polimerów o znanych masach cząsteczkowych w celu wyznaczenia objętości eluenta i wykreślenia logarytmu masy cząsteczkowej w funkcji objętości eluenta lub czasu retencji. Cząsteczki o rozmiarach większych od rozmiarów porów wypełniacza przechodzą pomiędzy ziarnami wypełniacza (limit wykluczenia \\( {V}{_o} \\)). Cząsteczki o rozmiarach poniżej pewnego rozmiaru wnikają w pory i ulegają wymywaniu prawie w tym samym położeniu. Nazywa się to granicą przenikania ( \\( {V}{_c} \\)). Krzywa kalibracji obowiązuje w zakresie między granicą wykluczenia, a granicą przenikania. W tym zakresie im większa cząsteczka, tym szybciej jest wymywana, a im mniejsza cząsteczka, tym później jest wymywana. Krzywe kalibracyjne o dużym nachyleniu uzyskuje się dla wypełniaczy o dużych rozmiarach porów (do pomiaru większych cząsteczek), a krzywe o łagodnym nachyleniu uzyskuje się dla wypełniaczy o małych rozmiarach porów (do pomiaru mniejszych cząsteczek). Im łagodniejsze nachylenie krzywej, tym większa różnica w objętości eluenta pomiędzy pikami dla polimerów o małych różnicach w masie cząsteczkowej, czyli tym większa rozdzielczość metody [1], [2], [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery winylowe", "subject_id": 913, "subject": "Polimery winylowe", "paragraphs": ["Polimery winylowe to polimery otrzymywane w wyniku polimeryzacji z monomerów zawierających podwójne wiązania C=C, których łańcuchy główne składają się z atomów węgla powiązanych pojedynczymi wiązaniami kowalencyjnymi -C-C-C-C-. Należą do nich:", "Polietyleny (ang. polyethylene albo poly(methylene)) są bardzo urozmaiconą grupą polimerów o bardzo zróżnicowanych właściwościach, które ogólne dzielą się na dwie podstawowe grupy:", "Polietyleny liniowe produkowane są metodami niskociśnieniowymi. Wśród nich wyróżnić możemy polietyleny: liniowe o małej gęstości, o dużej gęstości, te polietyleny na ogół mają architekturę rozgałęzionych i liniowych łańcuchów, z których każdy ma masę cząsteczkową mniejszą niż \\( 50 000 \\frac{g}{mol} \\). Polimery o dużym ciężarze cząsteczkowym i dużej gęstości PE- HMW-HD, o ultradużej masie cząsteczkowej, to poliwinyle liniowe o masie cząsteczkowej do \\( 200 000 \\frac{g}{mol} \\). Polietyleny rozgałęzione wytwarza się pod wysokim ciśnieniem i w wysokiej temperaturze, polimery te są na ogół mieszaninami dużych cząsteczek o różnej długości i różnym stopniu rozgałęzienia.Polietylen wysokociśnieniowy jest otrzymywany z etylenu w wyniku polimeryzacji, której katalizatorami są nadtlenki lub wodoronadtlenki organiczne w fazie gazowej pod ciśnieniem 180-250 MPa i w temperaturze \\( 200-250^oC \\). Polietylen niskociśnieniowy ma lepsze właściwości mechaniczne i cieplne od wysokociśnieniowego, lecz jednocześnie gorsze właściwości elektryczne wynikające z pozostałości katalizatora metaloorganicznego w polimerze. Przetwórstwo i zastosowanie obu typów polietylenu są podobne. Polietylen o niskiej gęstości PE-LD jest termoplastem otrzymywanym z monomeru etylenu poprzez polimeryzację wolnorodnikową. Stosowany w większości do wytwarzania folii, zastępowany jest przez PE-LLD, znajduje zastosowanie tam gdzie wymagana jest przezroczystość, np. izolacja kabli i przewodów. Polietylen o dużej gęstości PE-HD produkowany jest w procesie polimeryzacji koordynacyjnej, stosowany jest m.in. do produkcji pojemników na olej opałowy, kanistrów do paliw oraz zbiorników paliwa do samochodów, zbiorników na śmieci, rur ciśnieniowych, złączek, armatury do wody pitnej i ścieków, płyt, aparatury dla przemysłu chemicznego i samochodowego, skrzynek na butelki, beczek. Polietylen o ultra wysokiej masie cząsteczkowej PE-UHMW to wyjątkowy polimer o wyjątkowych właściwościach fizycznych, chemicznych i mechanicznych, włókna z tego materiału są stosowane do produkcji kamizelek kuloodpornych oraz taśm i repów we wspinaczce oraz żeglarstwie, jest również stosowany, jako biomateriał, np. w ortopedii, jako materiał łożyskowy w sztucznych stawach. Membrany wykonane z PE-UHMW mogą być używane jako membrany do wymiany protonów w ogniwach paliwowych [2].", "Sieciowanie PEX-a przeprowadza się za pomocą nadtlenków, PEXb – w obecności silanów poprzez tworzenie mostków Si-O-Si, PXc jest sieciowanie wiązką elektronów za pomocą akceleratora elektronów, PE-Xd jest sieciowany związkami azowymi. PEX jest stosowany głównie w instalacjach rurociągów budowlanych, wodnych systemach ogrzewania i chłodzenia płaszczyznowego, rurociągach wody użytkowej oraz izolacji kabli elektrycznych wysokiego napięcia. Jest również używany do zastosowań związanych z gazem ziemnym i ropą morską, transportem chemicznym oraz transportem ścieków i szlamów. Polietylen usieciowany znajduje także zastosowanie w endoprotezoplastyce stawu biodrowego ze względu na jego odporność na ścieranie, w odbudowie zębów jako kompozytowy materiał wypełniający.", "Polipropylen PP otrzymuje się przez polimeryzację propylenu w obecności katalizatorów. Reakcja zachodzi w temperaturze około \\( 100^oC \\) w środowisku ciekłych węglowodorów alifatycznych. W zależności od rodzaju katalizatora i warunków polimeryzacji otrzymuje się polimery o różnej budowie przestrzennej:", "Główne zastosowania: folie sztywne do termoformowania (kubki, tacki, pudełka), folie giętkie np. folie orientowane OPP do formowania torebek, opakowania formowane wtryskowe (kubki, pudełka, skrzynki) oraz jako warstwy laminatów itd.", "Polistyren PS otrzymywany w procesie polimeryzacji styrenu, pochodzącego zwykle z procesu katalitycznego odwodornienia etylobenzenu, procesu Halcon-Oxirane lub rafinacji ropy naftowej. PS jest najczęściej sprzedawany jako klarowny, twardy materiał, który oprócz niskich kosztów produkcji wykazuje wyjątkowe właściwości, takie jak dobra wytrzymałość mechaniczna, stabilność termiczna, stosunkowo niska gęstość. Struktura grup fenylowych i pojedynczych wiązań C-C sprawia, że polistyren jest bardzo stabilny i odporny na rozkład. Charakteryzuje się również dobrą stabilnością UV i odpornością na promieniowanie gamma, co oznacza, że PS jest często stosowany w produktach wymagających sterylizacji. Polistyren łatwo poddaje się obróbce, ma naturalny połysk i pozostaje najczęściej wybieranym materiałem do termoformowania.Polistyrenma szerokie zastosowanie od materiałów opakowaniowych, izolacje elektroniczne, elementy sprzętu gospodarstwa domowego do materiałów ociepleniowych w budownictwie.", "Kwas polistyrenosulfonowy PSS to polielektrolit o szerokim zakresie zastosowań. Unikalne właściwości wynikają z modyfikacji łańcucha polimeru, zmieniając stopień sulfonowania w PSS, można dopasować właściwości polimeru do żądanego zastosowania. Modyfikacja struktury i możliwość kontrolowania nowych właściwości polimeru doprowadziły do różnorodnych zastosowań, takich jak biokompatybilne elektrody, reagujące na bodźce kryształy fotoniczne, czujniki wilgotności, elementy urządzeń fotowoltaicznych, membrany jonowymienne, materiał do uzdatniania wody i katalizator.", "Poli(tetrafluoroetylen) PTFE został szerzej opisany w module Fluoroplasty wysokokrystaliczne.", "Poli(chlorek winylu) PVC otrzymywany jest w wyniku polimeryzacji chlorku winylu. Ma właściwości termoplastyczne, charakteryzuje się dużą wytrzymałością mechaniczną, jest odporny na działanie wielu rozpuszczalników.Polimer ten jest stosowany do produkcji wykładzin podłogowych, stolarki okiennej i drzwiowej, rur i kształtek do wykonywania instalacji w budynkach, jako elewacja (siding), folii, w medycynie: dreny, sondy, cewniki, strzykawki, do wyrobu opakowań, elementów urządzeń, płyt gramofonowych, przeżywających swój renesans, drobnych przedmiotów, do pokrywania powierzchni sportowych zakrytych i otwartych jako igelit, w elektrotechnice jako izolacja w przewodach i kablach.", "Poli(metakrylan metylu) PMMA otrzymywany w wyniku polimeryzacji metakrylanu metylu, znany jako szkło akrylowe, szkło organiczne, plexiglas, pleksi, metapleks, czy pleksa. Wykazuje bardzo dobre właściwości optyczne – przepuszczalność światła widzialnego wynosi \\( 92\\% \\), odporny na działanie światła UV, wykazuje dużą odporność na działanie czynników atmosferycznych i niskiej temperatury, małą chłonność wody oraz dobre właściwości elektroizolacyjne mechaniczne i dużą odporność chemiczną. Rozpuszcza się w większości rozpuszczalników organicznych, jego wadą jest skłonność do zarysowań. Zastosowania: w przemyśle motoryzacyjnym, lotniczym, elektrotechnicznym i elektronicznym jako szyby, światła odblaskowe, osłony aparatury nawigacyjnej i pomiarowej, kierunkowskazy, obudowy kabin, tablice rozdzielcze, w przemyśle galanteryjnym (guziki) i dekoracyjnym (abażury, osłony świetlówek, naczynia stołowe), w przemyśle optycznym na pryzmaty, soczewki (w tym soczewki kontaktowe), jako powłoki, środki impregnujące (w postaci stężonych roztworów).", "Poli(alkohol winylowy) PVA otrzymywany jest przez hydrolizę poli(octanu winylu) PVAc lub innych polimerów pochodzących z estru winylowego. Ma doskonałe właściwości błonotwórcze, emulgujące i adhezyjne, wykazuje biokompatybilność i niską toksyczność. Jest odporny na oleje, smary i rozpuszczalniki. Ma wysoką wytrzymałość na rozciąganie i elastyczność, właściwości te zależą od wilgotności: woda wchłaniana przy podwyższonej wilgotności działa jak plastyfikator, co zmniejsza wytrzymałość polimeru na rozciąganie, ale zwiększa jego wytrzymałość na rozciąganie i rozrywanie.Jest używany w różnych zastosowaniach medycznych, na implanty chrząstek, do produkcji nici chirurgicznych, na soczewki kontaktowe. Stosowany jest także jako składnik klejów, lakierów, do wyrobu aparatury chemicznej, jako stabilizator farb emulsyjnych, zagęszczaczy farmaceutycznych, produkcji rękawic ochronnych, folii, płyt i rur odpornych na działanie benzyny, olejów, także do wyrobu włókien."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery winylowe", "subject_id": 967, "subject": "Kopolimery winylowe", "paragraphs": ["Do najważniejszych kopolimerów winylowych należą kopolimery etylenu z:", "Do ważniejszych kopolimerów winylowych możemy także zaliczyć:", "Tabela 1 przedstawia oznaczenia kopolimerów.", "EAA otrzymywany w toku wysokociśnieniowej polimeryzacji rodnikowej. Jest łatwy w obróbce, wykazuje doskonałą przyczepność i właściwości uszczelniające, a także wysoki stopień twardości i elastyczności. Kopolimer (EAA) stosowany jest jako polimer bazowy do klejów i uszczelniaczy oraz jako modyfikator do tworzyw sztucznych i gum. Wykorzystywany głównie w produkcji lakierów do paznokci, produktów do stylizacji włosów i kosmetyków do makijażu, gdzie jest odpowiedzialny także za ich przedłużone utrzymywanie się na skórze, poprawia przyczepność. Stosowany również w kosmetykach pielęgnacyjnych jako zagęstnik i emulgator, poprawia właściwości aplikacyjne.", "Kopolimer ten także otrzymuje się w wyniku wysokociśnieniowej polimeryzacji rodnikowej. Wykazuje dobrą miękkość, elastyczność i polarność. Jest odporny na działanie olejów i wysokie temperatury. Typowe zastosowania obejmują: powłoki, farby, tekstylia, wykańczanie skóry, produkty motoryzacyjne, kleje oraz elastomery odporne na oleje i wysokie temperatury.", "EEA, również jak dwa poprzednie, jest otrzymywany w wyniku wysokociśnieniowej polimeryzacji wolnorodnikowej. Wykazuje wysoką elastyczność, stabilność w wysokich temperaturach, nadaje także żywicom technicznym wytrzymałość w niskich temperaturach. Może być stosowany jako warstwa wiążąca między poliolefinami a podłożami polarnymi, takimi jak metal, poliolefiny, celuloza, poliester, poliwęglan, szkło, folia, PVC, PET i polistyren. Może być również stosowany w klejach do zastosowań opakowaniowych.", "Kopolimer ten wytwarza się podczas polimeryzacji w roztworze przy użyciu katalizatorów Zieglera-Natty. EPDM, z podwójnymi wiązaniami znajdującymi się w grupach bocznych, jest znacznie mniej podatny na degradację pod wpływem warunków atmosferycznych i światła słonecznego, niż polietylen. Główne zastosowania EPM to części samochodowe oraz jako modyfikator udarności dla polipropylenu. EPDM jest stosowany w elastycznych uszczelnieniach do samochodów, izolacji przewodów i kabli, powłokach odpornych na warunki atmosferyczne, ścianach bocznych opon, wężach i folii dachowej.", "ETFE posiada wysoką odporność na korozję i wytrzymałość w szerokim zakresie temperatur oraz niską toksyczność. ETFE ma stosunkowo wysoką temperaturę topnienia, doskonałe właściwości chemiczne, elektryczne i jest odporny na wysokoenergetyczne promieniowanie. Stosuje się go do produkcji paneli pneumatycznych do pokrycia zewnętrznych części stadionów sportowych, pokrycia przewodów elektrycznych i światłowodowych stosowanych w sytuacjach wymagających dużego obciążenia, okablowania samolotów i statków kosmicznych. ETFE jako wykładzina termoplastyczna jest stosowany w rurach, zbiornikach i naczyniach w celu dodatkowej ochrony przed korozją.", "EVA jest termoplastycznym elastomerem o różnej twardości i elastyczności, zależnej od zawartości octanu winylu. W porównaniu z PE wykazuje mniejszą odporność chemiczną, większą odporność na korozję naprężeniową i promieniowanie UV oraz wysoki współczynnik tarcia. Wykonuje się z niego między innymi folie opakowaniowe, podeszwy butów sportowych, maty podłogowe dla dzieci, ortezy, stosuje się go jako element mieszanek bitumicznych, dodatek do smarów parafinowych, wykorzystuje się go także jako materiał laminujący w modułach fotowoltaicznych, do termoizolacji i izolacji akustycznej, EVA znajduje także zastosowanie w medycynie – zapewnia doskonałą stabilność, wszechstronność i zdolność kontrolowania uwalniania wybranych leków [1].", "EVOH charakteryzuje się doskonałą odpornością na warunki atmosferyczne, zapewniają wysoki połysk i przejrzystość. Materiały wykonane z tego polimeru posiadają właściwości antystatyczne, są odporne na oleje i rozpuszczalniki organiczne. Kopolimer ten wykazuje wyjątkowe właściwości barierowe dla gazów (tlenu, dwutlenku węgla, azotu i helu) i zachowuje swoje właściwości barierowe w szerokim zakresie wilgotności, dzięki nadaje się do produkcji opakowań produktów żywnościowych i kosmetyków.", "ABS to amorficzne tworzywo otrzymywane w procesie polimeryzacji 1,3-butadienu oraz kopolimeryzacji akrylonitrylu ze styrenem wraz z jednoczesnym szczepieniem powstałego kopolimeru na polibutadienie. Tworzywo to charakteryzuje wysoka udarność, twardość oraz odporność na zarysowania. Posiada dobre właściwości izolacyjne, zadowalająca odporność na działanie ługów, rozcieńczonych kwasów, węglowodorów alifatycznych, olejów i tłuszczów. Jest jednym z niewielu tworzyw sztucznych, które można pokrywać warstwami metalicznymi podczas obróbki galwanicznej. Jest stosowany do produkcji obudów aparatury elektronicznej, sprzętu AGD, na elementy samochodów, zabawki, materiały biurowe i wiele innych.", "MBS to modyfikowany udarowo terpolimer. MBS cechuje doskonała przepuszczalność światła, łatwość barwienia, przezroczystość, wysoka udarność i dobra odporność chemiczna, odporność na warunki atmosferyczne. Zastosowania MBS: opakowania, aspiratory, materiały do wyrobów medycznych, takich jak dializatory, pojemniki na wodę, artykuły gospodarstwa domowego i sprzęt, obudowy, zabawki, ogrodnictwo, komponenty medyczne, pojemniki kosmetyczne, wyroby medyczne, obudowy sanitarne, urządzenia, systemy do golenia, zabawki, długopisy oraz materiały elektroniczne, materiały odporne na zarysowania do obudów telewizorów, przezroczyste puszki.", "SBS otrzymuje się w reakcji kopolimeryzacji jonowej. SBS jest niezwykle wytrzymały w temperaturze pokojowej. Stosuje się go do elementów formowanych wtryskowo, jako kleje termotopliwe (zwłaszcza w obuwiu) oraz jako dodatek poprawiający właściwości bitumu.", "Kopolimer SIS reprezentuje elastomery termoplastyczne, wytwarzane są na drodze kopolimeryzacji jonowej. Właściwości mechaniczne elastomerów SIS są podobne do właściwości wulkanizowanych kauczuków, charakteryzuje je wytrzymałość mechaniczna, odporność na ścieranie, i elastyczność. Kopolimery blokowe SIS są często mieszane z lepkimi żywicami, olejami i wypełniaczami, szeroko stosowanymi w klejach topliwych, uszczelniaczach, materiałach uszczelniających, taśmach gumowych, zabawkach, podeszwach do butów i produktach bitumicznych do nawierzchni drogowych i pokryć dachowych.", "VC/VAC jest to grupa kopolimerów o zawartości od kilku do kilkudziesięciu procent octanu winylu. Jest przeznaczony do formowania plastycznego w temperaturach niższych w stosunku do temperatur przetwarzania. Otrzymuje się przez kopolimeryzację rodnikową chlorku winylu z octanem winylu w zawiesinie. Kopolimery te odznaczają się dobrą płynnością są to tworzywa samogasnące i nietoksyczne. VAC wykorzystywany jest do produkcji folii opakowaniowych, pianki zabezpieczającej, produkcji dywaników samochodowych, opakowań termokurczliwych, laminowania innych materiałów, oraz jako warstwa zgrzewalna w laminatach."], "definitions": [{"name": "Definicja 1: Kopolimer", "content": "Kopolimer – rodzaj polimeru, w którego łańcuchach występują dwa lub więcej rodzajów merów. Głównym powodem otrzymywania kopolimerów są ich szczególne własności fizyczne. Kopolimery zawierające trzy różne mery nazywamy terpolimerami."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery fluorowe", "subject_id": 914, "subject": "Polimery fluorowe - ogólna charakterystyka", "paragraphs": ["Podstawowymi monomerami do syntezy tworzyw fluorowych są:", "Wszystkie są bezbarwnymi gazami w większości bezwonnymi. Wszystkie są reaktywne, słabo rozpuszczalne w wodzie, a dobrze rozpuszczalne w rozpuszczalnikach organicznych [1], [2].", "Fluoropolimery możemy podzielić na dwa typy: perfluorowane, czyli takie gdzie wszystkie atomy wodoru zostały zastąpione atomami fluoru i częściowo fluorowane. Bardziej wygodna klasyfikacja polega na podzieleniu fluoroplastów i amorficznych fluoropolimery na cztery kategorie [1], [2]:", "Podstawowa metoda syntezy polimerów fluorowych to polimeryzacja wolnorodnikowa. Polimeryzacje wolnorodnikowe przeprowadzane są zazwyczaj w środowisku wodnym albo metodą polimeryzacji w zawiesinie albo jako wodna polimeryzacja emulsyjna w obecności emulgatorów.", "Właściwości fluoropolimerów różnią się w zależności od ilości atomów fluoru i od rozmieszczenia atomów fluoru w łańcuchu polimerowym. Wyjątkowe właściwości fluoropolimerów wynikają z rodzaju wiązań które w nich występują. W szkielecie polimeru występują silne wiązania C – C i bardzo stabilne wiązania C – F. Zastąpienie wodoru fluorem poprawia trzy kluczowe własności polimeru:", "Ze względu na swoje właściwości polimery fluorowe stały się niezbędne zarówno w życiu codziennym jak i w przemyśle. Obszary zastosowania w powiązaniu z właściwościami fluoroplastów zostały zebrane w Tabela 1 [2]."], "definitions": [{"name": "Definicja 1: Polimery fluorowe", "content": "Polimery fluorowe (fluoroplasty) to polimery łańcuchowe, które otrzymuje się w reakcji polimeryzacji fluoroalkenów. Ich szkielet podstawowy zbudowany jest z węgla i fluoru."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery fluorowe", "subject_id": 909, "subject": "Fluoroplasty wysokokrystaliczne", "paragraphs": ["Wszystkie homopolimery fluoroalkenów są ciałami krystalicznymi: politetrafluoroetylen (PTFE), politrifluorochloroetylen (PTFCE), polifluorek winylu (PFV). Najważniejszy z nich to politetrafluoroetylen. Występuje pod różnymi nazwami handlowymi (w zależności od producenta): Teflon [1], Polyflon [2], Fluon [3], Algoflon [4]. W Polsce jest produkowany pod nazwą Tarflen [5]. Często spotykana nazwa Teflon jest zastrzeżona przez przedsiębiorstwo DuPont, które wykorzystuje tą nazwę nie tylko do PTFE, ale również do kopolimerów, w których występuje mer \\( -(CF_2-CF_2)- \\) [1].", "Politetrafluoroetylen (PTFE) jest prostołańcuchowym polimerem tetrafluoroetylenu o ogólnym wzorze:", "Struktura łańcuchów PTFE jest całkowicie liniowa. Jego łańcuchy są sztywniejsze niż łańcuchy polietylenu, ponieważ atomy fluoru są większe niż atomy wodoru. Łańcuch ma strukturę zygzakowatą ze spiralnym skrętem wzdłuż osi łańcucha. Specyficzne cechy budowy łańcucha i duża jego masa cząsteczkowa odzwierciedlają się w niezwykle dużej stabilności i odporności termicznej. Charakteryzuje się wysoką temperaturę topnienia \\( T_t=327^{\\circ} C \\), bardzo wysoką lepkością stopu i bardzo szerokim zakresem temperatury użytkowania od \\( -200^{\\circ} C \\) do \\( 260^{\\circ} C \\). PTFE wykazuje niską stałą dielektryczną niezmienną w szerokim zakresie temperatur ( \\( 40^{\\circ} C \\) do \\( 250^{\\circ} C \\)) i częstotliwości (od 5 Hz do 10 GHz) [6], [7].", "Duża energia wiązania \\( C – F \\) (najsilniejszego spośród wszystkich znanych w chemii organicznej wiązań C – inny pierwiastek) powoduje, że jest on odporny na działanie substancji chemicznych, odporny na gorący dymiący kwas azotowy (V), nie reaguje z gorącym, żrącym gazowym chlorem ani z kwasem fluorowodorowym. Jedyne substancje z którymi reaguje to stopione metale alkaliczne, trifluorek chloru i gazowy fluor w podwyższonym ciśnieniu i temperaturze [6], [7]. Charakteryzuje się bardzo niską energią powierzchniową, co odzwierciedla się w małej zwilżalności, adhezji i współczynniku tarcia. PTFE ma najmniejszą względną przenikalność elektryczną oraz współczynnik strat dielektrycznych. Jest najbardziej ognioodpornym ze wszystkich znanych polimerów, spala się tylko w czystym tlenie [7]. Wysoka lepkość stopionego PTFE wyklucza przetwarzanie go metodami typowymi dla termoplastów. Przetwarza się go metodami stosowanymi w metalurgii proszków, które w pierwszym etapie polegają na formowaniu kształtki wstępnej na zimno a następnie spiekaniu w temp. \\( 365-385^{\\circ} C \\). Obróbka PTFE polega na cięciu, wierceniu, toczeniu, szlifowaniu itp. [8]. Polimer ten charakteryzuje się bardzo dobrą odpornością na starzenie. Jest obojętny fizjologicznie, nietoksyczny i odporny na działanie mikroorganizmów i grzybów. Z powodu względnie słabych właściwości mechanicznych (podatność na pełzanie lub rozrywanie nawet pod niewielkim obciążeniem), do celów konstrukcyjnych jest modyfikowany różnymi dodatkami, jak: węgiel, grafit, włókno szklane, brąz, stal, itp.", "Zastosowanie PTFE PTFE w czystej postaci ma kolor biały i stosuje się do produkcji [1], [7], [8]:", "PTFE + węgiel", "Politetrafluoroetylen wzbogacony węglem ( \\( 25\\% \\)) ma kolor czarny. Dodatek węgla poprawia właściwości tworzywa takie jak:", "Jest wykorzystywany do profili ślizgowych, gdzie dochodzi do powstawania ładunków elektrycznych, do produkcji łożysk, pierścieni tłokowych i uszczelek [9], [10], [11], [12].", "PTFE + grafit", "Dodatek grafitu powoduje:", "Tworzywo stosuje się do produkcji folii ślizgowych, oraz tam gdzie są wymagane właściwości samosmarujące [9], [10], [11].", "PTFE + stal", "Politetrafluoroetylen wzbogacony cząsteczkami stali (zwykle stal 316) wyróżnia się:", "Tworzywo stosuje się tam gdzie występuje zużycie ścierne na przeciwległych powierzchniach [11].", "PTFE + włókno szklane (GF)", "PTFE z dodatkiem włókien szklanych ( \\( 25\\% \\)) cechuje się:", "Materiał ten jest stosowany w gniazdach zaworowych oraz jako taśmy w przenośnikach taśmowych [10], [11], [13], [14].", "PTFE + brąz Dodatek cząstek brązu ( \\( 60\\% \\)) do PTFE wpływa na:", "Tworzywo ma zastosowanie do produkcji łożysk, uszczelek i pierścieni tłokowych pracujących w wysokich temperaturach i pod wysokim ciśnieniem [9], [10], [11], [12]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery fluorowe", "subject_id": 983, "subject": "Fluorotermoplasty", "paragraphs": ["Fluorotermoplasty to fluoropolimery, które można przetwarzać w stanie stopionym. Mają one niewiele gorsze właściwości termiczne, chemiczne i powierzchniowe od czystego PTFE, ale można je przetwarzać metodami tradycyjnymi dla termoplastów. Dużą grupę fluorotermoplastów stanowią kopolimery tetrafluoroetylenu, polifluorek winylu (PVF) i polifluorek winylidenu (PVDF).", "Obecność HFP w łańcuchu polimeru zmniejsza skłonność do krystalizacji. Charakteryzuje się doskonałą odpornością chemiczną i właściwościami elektrycznymi podczas pracy w wysokich temperaturach do \\( 200^{\\circ} C \\). Jest ognioodporny i wyróżnia się bardzo dobrą ciągliwością w niskich temperaturach [1]. Kopolimer ten znalazł zastosowanie w elektronice i elektrotechnice do izolacji przewodów pracujących w trudnych warunkach w dużym zakresie temperatur jak również w przemyśle chemicznym do bezpiecznego przechowywania i dystrybucji agresywnych związków chemicznych [2].", "Kopolimer ETFE ma dużą wytrzymałość na rozciąganie, umiarkowaną sztywność, dużą elastyczność, wyjątkową udarność, dobre ścieranie, odporność i bardzo wysoką odporność na przecięcie. W przeciwieństwie do innych kopolimerów TFE, żywice ETFE mają wysoką odporność na promieniowanie wysokoenergetyczne. Niezmodyfikowane kopolimery etylenu i TFE mają słabą odporność na naprężenia termiczne - pęknięcia, które poważnie ogranicza ich użyteczność [3]. Stosowany jest jako izolacja kabli i przewodów w samochodach oraz wykładziny pomp i zaworów, obudowy baterii litowych. Ze względu na przeźroczystość dla światła widzialnego stosowany do budowy szklarni i innych konstrukcji budowlanych [4]. Stosowany również do produkcji sprzętu biomedycznego i laboratoryjnego, np. elementy respiratorów tlenowych, zawory analizatorów krwi, itp. [5]. Produkowany pod nazwami TEFZEL® [5].", "W porównaniu z TFE kopolimer ten ma niższą stabilność termiczną i gorsze właściwości mechaniczne w wysokich temperaturach. Zastępuje się nim PTFE, gdy potrzebne są wyroby o skomplikowanych kształtach, szczególnie produkowane masowo. Zastosowanie w elektronice do izolacji przewodów i kabli pracujących w trudnych warunkach w dużym zakresie temperatury [3]. Przewody izolowane PFA pozostają elastyczne w niskiej temperaturze dlatego są stosowane w czujnikach samochodowych, instrumentach medycznych i naukowych, a także w miniaturowych przewodach sygnałowych [6]. W przemyśle chemicznym służy do produkcji węży, rur , przeźroczystych naczyń odpornych na chemikalia [3], [4].", "Kopolimer ten jest mniej stabilny termicznie niż PTFE. Pęcznieje narażony na działanie ciekłego chloru, \\( N_2O_4 \\) i dymiącego kwasu siarkowego (VI) [3]. Zdolny do wytrzymywania długotrwałych obciążeń mechanicznych co umożliwia zastosowanie go jako materiału konstrukcyjnego. W przeciwieństwie do PTFE posiada doskonałą odporność na pełzanie. Ze względu na temperaturę pracy \\( -240^{\\circ} C \\) do \\( +150^{\\circ} C \\) szczególnie nadaje się do zastosowań kriogenicznych [3], [7]. Jest przezroczysty dla światła widzialnego i IR, a nieprzepuszczalny dla promieniowania gamma [3], [4]. PCTFE znalazł zastosowanie w budowie maszyn, do wyrobu uszczelek, podkładek i pierścieni uszczelniających, izolacje elektryczne do wytwarzania specjalnych kabli dla przemysłu lotniczego. Jest dobrym materiałem na wzierniki. W postaci dyspersji stosowany na powłoki antykorozyjne. Z kopolimeru PCTFE produkuje się opakowania leków i produktów medycznych (blistry do przechowywania beztlenowego) [4], [7].", "Odporność chemiczna ECTFE jest podobna do PCTFE. Charakteryzuje się dobrą wytrzymałością, małym pełzaniem i dużą odpornością na ścieranie. Grupy etylenowe powodują, że ten kopolimer ma doskonałą udarność. Jest jednym z polimerów najbardziej odpornych na promieniowanie [3], [8]. Z tego kopolimeru wytwarza się włókna o dużej ognioodporności oraz obojętnie chemicznie. Opakowania z tego tworzywa służą do przechowywania żrących chemikaliów. Jest wykorzystywany w reaktorach jądrowych i statkach kosmicznych. Spośród innych fluoropolimerów wyróżnia się wyjątkową gładkością powierzchni, dlatego jest stosowany w środowiskach ultra czystej wody i tam gdzie musi być zachowana czystość [3], [4], [8], [9]. Nazwa handlowa tego kopolimeru to Halar® ECTFE [8], [10].", "PVF jest klasyfikowany jako termoplastyczny pomimo, że nie może w stanie czystym być przetwarzany metodami termoplastycznymi, ponieważ jest niestabilny powyżej temperatury topnienia. Można z niego wytwarzać folie przez mieszanie z utajonymi rozpuszczalnikami. Rozpuszczalnik utajony to taka substancja organiczna, o wysokiej temperaturze wrzenia, która nie rozpuszcza polimeru dopóki nie zostanie aktywowana przez ciepło, dodawana w celu obniżenia temperatury wytłaczania [11]. PVF jest nierozpuszczalny w rozpuszczalnikach organicznych poniżej \\( 100^{\\circ} C \\). Powyżej tej temperatury rozpuszcza się w rozpuszczalnikach polarnych, takich jak amidy, ketony, tetrametylomoczniki [4]. Posiada najmniejszą gęstość spośród wszystkich polimerów fluorowych, dzięki czemu można go stosować do wyrobu najlżejszych kształtek. PFV można formować, zgrzewać, sklejać, tłoczyć [3]. Folie z PVF charakteryzują się wyjątkową odpornością na ścieranie, na działanie czynników chemicznych i promieni UV. Jest również wodoodporna i ma właściwości antyadhezyjne. Może być poddawana obróbce dla zwiększenia przyczepności [12]. Jest wykorzystywany [3], [4], [12]:", "Polifluorek winylu występuje pod nazwą handlową Tedlar® [12].", "Otrzymuje się w wyniku polimeryzacji winylidenu. W porównaniu z innymi tworzywami fluorowymi posiada niską gęstość. Charakteryzuje się dobrymi właściwościami chemicznymi, termicznymi i wytrzymałościowymi. Nieodporny na oleum i czynniki sulfonujące w wysokiej temperaturze [3]. Odporny na promieniowanie. Rurociągi z tego tworzywa wykorzystuje się do odprowadzania odpadów radioaktywnych [3]. Znalazł zastosowanie jako tworzywo konstrukcyjne i wykładzinowe. Wykorzystywany również do instalacji chemicznych z wyższym obciążeniem mechanicznym [13] oraz w bateriach litowych jako spoiwo w składzie elektrod oraz separator [14]. Występuje pod nazwą handlową TECAFLON PVDF [13] i SOLEF [14]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery fluorowe", "subject_id": 908, "subject": "Fluoroelastomery", "paragraphs": ["Fluoroelastomery – kauczuki fluorowe o wysokiej odporności na działanie czynników termicznych i chemicznych, powracające do formy po znacznej deformacji. Różne rodzaje fluoroelastomerów otrzymuje się w wyniku rodnikowej polimeryzacji monomerów winylowych.", "Do syntezy elastomerów wykorzystuje się trzy rodzaje monomerów:", "Właściwe proporcje różnych monomerów o różnej budowie przestrzennej i własnościach wraz z odpowiednią terminacją łańcucha umożliwiają regulowanie właściwości mechanicznych, zachowania w niskich temperaturach oraz odporności chemicznej. Elastomery zawierające fluor posiadają gumową elastyczność zarówno w wysokich jak i niskich temperaturach, a także w kontakcie z różnymi chemikaliami. Aby zapewnić im odwracalne właściwości sprężyste poddaje się je sieciowaniu. Elastomery fluorowe są kopolimerami powstałymi z monomerów gdzie jeden tworzy prosty długi łańcuch i ma tendencję do krystalizacji, a drugi jest wbudowany w pewnych odstępach, aby ograniczyć krystalizację. Łańcuchy z takimi monomerami jak fluorek winylidenu (FVD), tetrafluoroetylen, etylen mają tendencję do krystalizacji, jeśli są wystarczająco długie. Dlatego włącza się monomery z dużymi grupami bocznymi, takie jak HFP, PMVE i propylen, aby zapobiec krystalizacji [1].", "Elastomery klasyfikuje się na trzy kategorie ze względu na rodzaj monomerów użytych do syntezy: FKM, FFKM i FEPM [2].", "W elastomerach oznaczonych jako FKM wykorzystuje się monomery alkena częściowo podstawione fluorem (hydrofluoro). Jednym z monomerów jest zawsze fluorek winylidenu (FVD). Produkowany pod nazwą Viton®, Dydeon® i Tecnoflon®. FKM charakteryzuje się [1], [3], [4]:", "Grupa FFKM – to rodzaj kauczuków perfluorowanych. Jest jednym z najdroższych elastomerów. Charakteryzuje się podobnymi właściwościami jak FKM jednak ma wyższą odporność na wysokie temperatury w pracy ciągłej, do 327°C, oraz jest bardziej odporny na środowisko silnie alkaliczne. Jest najbardziej odpornym chemicznie elastomerem [2], [5], [6], [7].", "Grupa FEPM (TFEP) – kauczuk będący kopolimerem tetrafluoroetylenu i propylenu. Produkowany pod nazwą Aflas®. W porównaniu z innymi fluoroelastomerami jego wadami są [8], [9]:", "Zastosowanie fluoroelastomerów Fluoroelastomery są szeroko stosowane w przemyśle chemicznym, samochodowym, lotniczym i naftowym [3], [4], [7], [8], [9]:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery fluorowe", "subject_id": 982, "subject": "Fluoropolimery amorficzne", "paragraphs": ["Fluoropolimery amorficzne są polimerami syntetycznymi składającymi się zwykle z węgla, fluoru i tlenu. Jest to nowy rodzaj polimerów fluorowych opracowany po raz pierwszy w połowie lat 80 ubiegłego wieku. Charakteryzują się wysoką temperaturą zeszklenia, budową liniową i dużą masą cząsteczkową. Posiadają wszystkie cechy fluoroplastów a dodatkowo są rozpuszczalne w wybranych rozpuszczalnikach i mają doskonałe własności optyczne. Najważniejsze cechy fluoropolimerów bezpostaciowych to [1], [2], [3], [4], [5], [6], [7]:", "Najbardziej popularne to te o nazwach handlowych: Teflon® AF, Cytop® i Hyflon® AD [1], [2].", "jest kopolimerem tetrafluoroetylenu (TFE) i 2,2 di(trifluorometylo)-4,5-difluoro-1,3-dioksolanu.", "jest homopolimerem otrzymywanym na drodze cyklicznej polimeryzacji perfluoro-4-winyloksy-1-butanu.", "jest kopolimerem tetrafluoroetylenu (TFE) i 2,2-di(trifluoro)-4-fluoro-5-trifluorometyloksy-1,3-dioksolanu.", "Fluoropolimery amorficzne są stabilne chemicznie i termicznie. Rozpuszczają się w rozpuszczalnikach fluorowych, mają niskie stałe dielektryczne a folie z nich wykonane są przezroczyste. Mają wyjątkowe właściwości w porównaniu z tradycyjnymi fluoropolimerami [1], [2].", "Amorficzne fluoropolimery mogą być przetwarzane w stanie stopionym wszystkimi konwencjonalnymi technikami takimi jak wytłaczanie, kompresja, wtrysk czy odlewanie. Roztwory polimerów amorficznych mogą być stosowane do powlekania wirowego, zanurzeniowego, natryskiwania czy odlewania [1].", "Zastosowanie amorficznych fluoropolimerów Fluoropolimery bezpostaciowe znalazły zastosowanie jako [1], [2], [3], [4], [5], [6], [7]:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Poliestry", "subject_id": 915, "subject": "Poliestry - budowa i właściwości", "paragraphs": ["Metody otrzymywania poliestrów Poliestry mogą być otrzymywane na drodze polimeryzacji kondensacyjnej (najpopularniejsza metoda reakcji), polimeryzacji z otwarciem pierścienia.", "Przykłady metod otrzymywania poliestrów: 1. Reakcja polikondensacji alkoholi polihydroksylowych (wielowodorotlenowych), np. alkohol dihydroksylowy (HO-R-OH) z wielofunkcyjnymi kwasami karboksylowymi (HOOC-R-COOH), która przebiega z wydzieleniem małocząsteczkowego produktu ubocznego (wody); jest to reakcja poliestryfikacji. Uwaga: W celu zwiększenia wydajności reakcji (czyli przesunięcia równowagi dynamicznej w prawo, w kierunku powstawania produktów) usuwa się produkt uboczny (wodę) ze środowiska reakcyjnego (np. prowadząc proces w wysokiej temperaturze). Wysoka temperatura może doprowadzić do występowania innych procesów ubocznych, użycie gazu obojętnego lub rozpuszczalnika prowadzi do obniżenia temperatury reakcji poliestryfikacji (eliminacja ubocznych procesów). Do katalizatorów reakcji poliestryfikacji należą kwasy (np. kwas siarkowy i p-toluenosulfonowy). 2. Reakcja homopolikondensacji hydroksykwasów. 3. Reakcja transestryfikacji estrów dimetylowych kwasu dikarboksylowego z glikolami (powstaje produkt uboczny alkohol – zob. rozdział Poliestry-Politereftalen etylenu, otrzymywanie, etap I. 4. Reakcja polikondensacji alkoholi dihydroksylowych (dioli) z dichlorkami kwasów karboksylowych (powstaje produkt uboczny – chlorowodór).", "Wśród grupy poliestrów można wyróżnić m.in.:", "Ze względu na bardzo szerokie możliwości syntezy, poliestry charakteryzują się bardzo zróżnicowanymi właściwościami. Właściwości fizyczne i chemiczne zależą m.in. od składu i struktury chemicznej, średniej masy cząsteczkowej, zawartości substancji małocząsteczkowych (zob. rozdziały, w których omówiono poliestry - politereftalen etylenu, poliestry alifatyczno-aromatyczne, żywice poliestrowe, żywice alkidowe, poliwęglany )."], "definitions": [{"name": "Definicja 1: Poliestry", "content": "Polimery, które charakteryzują się występowaniem w łańcuchu głównym wiązania estrowego ( \\( -C(=O)-O- \\)) [1], [2], [3]."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Poliestry", "subject_id": 944, "subject": "Poliestry - politereftalan etylenu", "paragraphs": ["(skróty międzynarodowe PET, PETE) to jeden z najpopularniejszych polimerów z grupy poliestrów ( Rys. 1 ), polimer termoplastyczny (termoplast). Charakteryzuje się budową liniową, może być syntezowany w postaci amorficznej (bezpostaciowej) lub krystalicznej (masa molowa = \\( 1,5\\cdot 10^4 - 3\\cdot 10^4 g\\cdot mol^{-1} \\)).", "Przykład przemysłowej syntezy PET, reakcja polimeryzacji kondensacyjnej ( Rys. 2 ).", "Właściwości poli(tereftalanu etylenu):", "jest jednym z najczęściej poddawanych recyklingowi tworzyw sztucznych, a jego symbolem jest liczba „1”.", "Przykłady zastosowania poli(tereftalanu etylenu):"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Poliestry", "subject_id": 953, "subject": "Polimery na bazie estrów alifatyczno-aromatycznych", "paragraphs": ["Bardzo ważną grupą wśród poliestrów alifatyczno-aromatycznych są poliestry biodegradowalne (m.in. ulegają degradacji hydrolitycznej w warunkach fizjologicznych, degradacji biologicznej katalizowanej enzymami).", "Przykłady polimerów biodegradowalnych na bazie estrów alifatyczno-aromatycznych:"], "definitions": [{"name": "Definicja 1: Poliestry alifatyczno-aromatyczne", "content": " to polimery z grupy poliestrów, które otrzymuje się najczęściej w reakcji polikondensacji alifatycznych dioli (alkoholi z dwoma grupami hydroksylowymi), alifatycznych kwasów dikarboksylowych i aromatycznych kwasów /estrów dikarboksylowych [1]."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Poliestry", "subject_id": 943, "subject": "Poliestry - poliwęglany", "paragraphs": ["Rys. 1 przedstawia schemat otrzymywania poliwęglanów z bisfenolu A.", "Właściwości poliwęglanów:", "Poliwęglany są stosowane w wielu gałęziach przemysłu, przykłady zastosowania poliwęglanów:"], "definitions": [{"name": "Definicja 1: Poliwęglany", "content": " Poliwęglany to poliestry kwasu węglowego ( \\( H_2CO_3 \\)), cecha charakterystyczna to występowanie grupy estrowej w łańcuchu głównym polimeru."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Poliestry", "subject_id": 942, "subject": "Poliestry - żywice poliestrowe", "paragraphs": ["Żywice poliestrowe można podzielić na:", "Nienasycone żywice poliestrowe, otrzymuje się najczęściej w reakcji polikondensacji kwasów (nienasyconych) dikarboksylowych z glikolami (w syntezie bardzo często stosuje się bezwodnik maleinowy, glikol propylenowy/etylenowy) oraz w reakcji polimeryzacji rodnikowej (estrów allilowych kwasów polikarboksylowych).", "Rys. 1 przedstawia schemat otrzymywania żywicy poliestrowej (reakcja polikondensacji).", "Ze względu na niską cenę i bardzo dużą reaktywność bardzo często w produkcji żywic poliestrowych stosuje się styren, jednak ze względu na toksyczne aspekty jego stosowania, takie jak m.in. uwalnianie się go w postaci oparów, jak i prawnym ograniczeniom jego stosowania, stosuje się różne rozwiązania technologiczne, które mają na celu ograniczenie lub wyeliminowanie jego użycia. Coraz częściej w produkcji żywic poliestrowych stosuje się monomery takie jak monomery winylowe (winylotoluen, octan winylu, metakrylan metylu).", "Reakcję usieciowania (utwardzenia) przeprowadza się za pomocą m.in. styrenu, akrylanów, w obecności inicjatorów rodnikowych (np. nadtlenku benzoilu). Usieciowane żywice poliestrowe charakteryzują się m.in. bardzo dobrymi właściwościami mechanicznymi, dużą odpornością na korozję. Właściwości nienasyconych żywic poliestrowych wiążą się m.in. z liczbą oraz położeniem wiązań podwójnych w polimerze. Bardzo dużą elastycznością charakteryzują się poliestry, które zawierają w cząsteczce dwa wiązania podwójne (końcowe, terminalne).", "Nienasycone żywice poliestrowe znalazły zastosowanie w wielu gałęziach przemysłu m.in.:", "Nasycone żywice poliestrowe są stosowane m.in. w przemyśle lakierniczym, np. do produkcji bezrozpuszczalnikowych farb proszkowych (sproszkowane lakiery z żywicami poliestrowymi, są produktami ekologicznymi, przy ich produkcji nie stosuje się szkodliwych dla środowiska rozpuszczalników), charakteryzują się dużą odpornością na czynniki mechaniczne."], "definitions": [{"name": "Definicja 1: Żywice poliestrowe", "content": "Żywice poliestrowe ( poliestry ) to wielkocząsteczkowe estry kwasów dikarboksylowych i alkoholi polihydroksylowych, które najczęściej otrzymuje się w wyniku reakcji polikondensacji ( przykład )."}, {"name": "Definicja 2: Żywice poliestrowe nienasycone", "content": " oligomery, które w łańcuchu głównym makrocząsteczki zwierają grupy estrowe (-OCOR) i wiązanie podwójne (-CH=CH-)."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Poliestry", "subject_id": 941, "subject": "Poliestry - żywice alkidowe", "paragraphs": ["Najczęściej stosowane kwasy polikarboksylowe oraz ich bezwodniki to kwas izoftalowy, bezwodnik ftalowy, bezwodnik maleinowy. Natomiast przykłady alkoholi polihydroksylowych stosowanych w procesie syntezy to glicerol, pentaerytryt, glikol etylenowy. Dodatek kwasu tłuszczowego w procesie produkcji żywic alkidowych w znaczny sposób poprawia elastyczność żywic.", "Żywice alkidowe, można podzielić m.in. ze względu na:", "Właściwości żywic alkidowych:", "Żywice alkidowe są stosowane w produkcji:"], "definitions": [{"name": "Definicja 1: Żywice alkidowe", "content": "Alkidale to żywice polimerowe z grupy poliestrów, otrzymywane z alkoholi polihydroksylowych (np. gliceryny) i kwasów polikarboksylowych lub ich bezwodników. Termin żywice alkidowe pochodzi od nazwy substratów używanych do ich produkcji."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Poliestry", "subject_id": 940, "subject": "Poliestry - przykłady i zastosowanie", "paragraphs": ["1. Poli(tereftalan etylenu), PET (zob. rozdział Poliestry - politereftalan etylenu ). 2. Poli(tereftalan butylenu), PBT – otrzymywany w reakcji polikondensacji kwasu tereftalowego i glikolu butylenowego, zastosowanie: przemysł elektroniczny i elektryczny (np. przełączniki elektryczne, gniazdka, włączniki, rozdzielnice), przemysł motoryzacyjny (np. części układu zapłonowego), w produkcji np. obudowy warstw izolacyjnych, silników. 3. Polilaktyd (poli(kwas mlekowy), PLA) – biodegradowalny polimer, poliester alifatyczny (otrzymywany z surowców odnawialnych), stosowany np. w przemyśle medycznym (implanty dentystyczne, nici chirurgiczna), w przemyśle opakowań (butelki, naczynia jednorazowe). 4. Poliglikolid (poli(kwas glikolowy), PGA) – biodegradowalny polimer, najprostszy poliester alifatyczny, stosowany w implantologii (np. w rekonstrukcji kości). 5. Polikaprolakton, (Poli(ε-kaprolakton), PCL), biodegradowalny polimer, stosowany w przetwórstwie jako surowiec do otrzymywania odpowiednich wyrobów w procesach np. wtrysku, wytłaczania, wytłaczania z rozdmuchem, do zastosowań jako modyfikator procesu adhezji, w medycynie np. w produkcji specjalnego rodzaju degradowalnych (poprzez powolną hydrolizę) biomateriałowych implantów, w tworzeniu powłok w kapsułkach leków (drażetek), w produkcji bioresorbowalnych nici chirurgicznych, w stomatologii (składnik żywic do wypełniania kanałów zębowych). 6. Polihydroksyalkaniany, PHA (zob. rozdział polimery na bazie PHA ) – na skalę przemysłową wytwarza się np. polihydroksymaślan, PHB, biodegradowalny przykład biopoliestru „bakteryjnego”, poliester produkowany przez organizmy żywe, stosowany np. w medycynie (implantologia), w przemyśle farmaceutycznym. 7. Poliwęglan, PC (zob. rozdział Poliestry - poliwęglany ). 8. Żywice alkidowe, (zob. rozdział Poliestry - żywice alkidowe ) – np. żywica gliptalowa (żywica glicerynowo-ftalowa) znalazła zastosowanie w produkcji żywic lakierniczych, różnego rodzaju lakierów (np. lakierów ochronnych, izolacyjnych). 9. Nienasycone żywice poliestrowe (zob. rozdział Poliestry - żywice poliestrowe ).", "Rys. 1 przedstawia budowę oraz przykładowe zastosowania wybranych poliestrów stosowanych w różnych gałęziach przemysłu i przetwórstwa."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery funkcjonalne", "subject_id": 948, "subject": "Polimery przewodzące prąd elektryczny", "paragraphs": ["Wyróżnia się trzy mechanizmy przewodnictwa tworzyw polimerowych.", "Przewodnictwo elektronowe – przewodzenie prądu odbywa się podobnie jak w metalach, na skutek istnienia pasm przewodnictwa powstających w wyniku delokalizacji elektronów w wielokrotnych wiązaniach chemicznych występujących w głównym łańcuchu, bądź z nakładania się pustych orbitali wzdłuż łańcucha głównego. Rys. 1 przedstawia teorię pasmową przewodników elektronowych. Przewodzenie jest możliwe, kiedy pasma walencyjne i przewodnictwa zachodzą na siebie, bądź przerwa energetyczna pomiędzy nimi pozwala na przeskok elektronów.", "Podobnie jak dla klasycznych półprzewodników, można modyfikować właściwości elektryczne polimerów przewodzących poprzez domieszkowanie – usuwanie lub wprowadzanie elektronów do układu. W przeciwieństwie jednak do półprzewodników nieorganicznych, nie stosuje się domieszek pierwiastków bogatych lub ubogich w elektrony, lecz prowadzi częściową redukcję lub utlenienie makrocząsteczek polimeru, co prowadzi do wytworzenia jonorodników. W zależności od sposobu domieszkowania, wyróżniamy n-domieszkowanie (redukcja) oraz p-domieszkowanie (utlenianie). Niektóre polimery wykazują przewodnictwo porównywalne z przewodnictwem półprzewodników, a domieszkowane – nawet na poziomie metali.", "Polimery przewodzące elektronowo mogą występować w postaci neutralnej (brak ładunku), utlenionej (czyli w postaci kationowej) lub zredukowanej (postać anionowa). Rys. 3 przedstawia rodzaje nośników ładunków spotykane w polimerach przewodzących.", "Przewodnictwo jonowe – przewodzenie prądu jest skutkiem ruchu jonów w matrycy, podobnie jak w przypadku roztworów klasycznych elektrolitów. Polielektrolity posiadać muszą grupy jonowymienne lub elektronodonorowe przyłączone do łańcucha głównego, nośnikiem ładunku jest niewielki kation (np. Li), poruszający się skokowo pomiędzy grupami elektronodonorowymi przyłączonymi do łańcucha głównego. Ruch kationu, powoduje ruch anionu w przeciwną stronę. Przewodnictwo tego typu rośnie wraz ze wzrostem temperatury, ponieważ zmniejsza się lepkość polimeru, co powoduje większą ruchliwość jonów. Polimery takie nazywa się elektrolitami stałymi i charakteryzuje za pomocą liczby jonowej i ruchliwości jonowej.", "Przewodnictwo redoksowe – polimery tej grupy zawierają izolowane od siebie grupy, przyłączone do łańcucha głównego, które mogą ulegać odwracalnym reakcjom utlenienia i redukcji. Przewodzenie odbywa się na zasadzie przeskoku elektronu między grupami redoks.", "Polimery, których przewodność elektryczna zmienia się pod wpływem oświetlenia są nazywane polimerami fotoprzewodzącymi (elektroluminescencyjnymi), zostały opisane w osobnym module.", "Do najważniejszych polimerów wykazujących zdolność przewodnictwa zalicza się polimery:", "Polimery przewodzące otrzymywać można zarówno klasycznie, na drodze syntezy chemicznej, biokatalizowanej syntezy chemicznej, elektrochemicznie, na drodze fotochemicznej oraz na drodze reakcji w stanie stałym (ang. solid state polymerisation).", "Synteza elektrochemiczna – polega na elektrolizie monomeru w rozpuszczalniku, zawierającym często także elektrolit – prowadzi się anodowe utlenienie monomeru z wytworzeniem kationorodników, które następnie reagują z monomerem lub ze sobą nawzajem, aż do wytworzenia produktu przejściowego o strukturze dikationu. Powstałe dikationy, zawierające pewien układ wiązań sprzężonych mogą łatwo odszczepiać kationy wodorowe, pozbywając się ładunku. Produktami takiego odszczepiania są obojętne oligomery, które następnie mogą dyfundować do anody, gdzie zostaną ponownie utlenione. Powyższy cykl powtarza się aż do momentu, w którym stopień polimeryzacji osiągnie tak wysoką wartość, że polimer zacznie osadzać się na anodzie w postaci filmu.", "Polikondensacja w stanie stałym to proces, w którym wzrost łańcucha polimeru zachodzi w warunkach, w których co najmniej jeden reagent jest w stanie stałym; proces zachodzi pod wpływem ciepła pod nieobecność tlenu i wody, w próżni lub w wyniku przedmuchiwania gazem obojętnym w celu usunięcia produktów ubocznych reakcji.", "Właściwości Połączenie dużej elastyczności polimerów z dobrą przewodnością elektryczną czyni je znakomitymi zamiennikami metali. Polimerowy półprzewodnik łatwo można nanieść na ogromną płaszczyznę. Nie ulegają korozji.", "Zastosowanie Polimery przewodzące są używane do produkcji przewodów, membran, przezroczystych elektrod w przenośnych komputerach, świecących wskaźnikach, kompozytów chroniących przed nagromadzeniem się ładunków elektrostatycznych, w fotoogniwach, układów zasilających lub sterujących, konstrukcji maszyn i robotów w skali mikro- i nano-, w samolotach niewidzialnych przez radary, w tkaninach maskujących żołnierzy przed noktowizorami, jako powłoki antystatyczne. Polielektrolity – elektrolity stałe, stosowane są w ogniwach elektrochemicznych, jako membrany pół przewodzące, wymieniacze jonowe, w akumulatorach litowo-polimerowych, do biosyntez z wykorzystaniem cieczy jonowych w celu uzyskania wyższej enancjoselektywności, np. w syntezie ibuprofenu [1]. Polimery przewodzące na drodze redoks znalazły zastosowanie jako aktywne warstwy czujników pH i niektórych rodzajów biosensorów czułych na zmiany potencjału redoks układu, stosowane są w wykrywaniu i ilościowym oznaczaniu różnych złożonych substancji organicznych, np. glukozy [2]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery funkcjonalne", "subject_id": 947, "subject": "Polimery elektroluminescencyjne", "paragraphs": ["Polimery elektroluminescencyjne (ang. Light Emitting Polymers, LEP) – nazywane również polimerami emitującymi światło – to polimery emitujące światło pod wpływem przyłożonego do nich napięcia elektrycznego w wyniku zjawiska elektroluminescencji.", "Przyłożenie napięcia powoduje przepływ elektronów od katody do anody, katoda emituje elektrony do warstwy emisyjnej, a anoda pobiera elektrony z warstwy przewodzącej, innymi słowy anoda emituje luki elektronowe do warstwy emisyjnej. Oddziaływanie elektrostatyczne przyciąga elektrony i luki, które ulegają rekombinacji. W momencie rekombinacji elektron przechodzi na niższy poziom energetyczny, co powoduje emisję fotonu. Taki układ, zdolny do emisji światła pod wpływem przyłożonego napięcia, nazywany jest LED (ang. Light-Emitting Diode) lub OLED (ang. Organic Light-Emitting Diode) – jeśli warstwa przewodząca jest związkiem organicznym. Rys. 1 przedstawia schemat procesu elektroluminescencji [1].", "Organiczne diody elektroluminescencyjne (ang. Organic Light Emitting Diode, OLED) są powierzchniowymi źródłami światła, w którym grubość aktywnych warstw – polimerów – na ogół jest nie większa niż \\( 500 nm \\), mechanizm emisji światła różni się od emisji światła nieorganicznych struktur LED. OLEDy charakteryzują się luminancją rzędu \\( 1000-3000 cd/m^2 \\), a ich technologia produkcji sprawia, że możliwe jest uzyskanie warstw emitujących światło o dużej powierzchni i dobrej jednorodności promieniowania. Pierwszym polimerem, w którym zauważono to zjawisko był polifenylenowinylen PPV. W tym momencie znana jest już cała gama polimerów elektroluminescencyjnych.", "Dioda OLED zbudowana jest z kilku bardzo cienkich warstw materiałów nałożonych na siebie w sposób przypominający wyglądem kanapkę [2]:", "1. dwie elektrody przewodzące:", "2. dwie warstwy organiczne:", "Polimery elektroluminescencyjne mogą emitować światło o różnych kolorach. Poniżej przedstawiono przykłady polimerów emitujących światło o różnych barwach.", "Do skonstruowania diody dającej światło białe stosuje się polimery emitujące światło RGB (red, green, blue), czyli o kolorach czerwonym, zielonym i niebieskim.", "Odkrycie polimerów przewodzących posiadających zdolność elektroluminescencji umożliwiło stworzenie diod emitujących światło - diod LED i ich kolejnych wersji rozwojowych: PLED (ang. Polymer Light Emitting Diode), OLED (ang. Organic Light Emitting Diode), PMOLED (ang. Passive Matrix OLED) i AMOLED (ang. Active Matrix OLED).", "Polimery elektroluminescencyjne, tak samo jak polimery przewodzące otrzymywać można na drodze syntezy chemicznej, biokatalizowanej syntezy chemicznej, elektrochemicznie, na drodze fotochemicznej oraz na drodze reakcji w stanie stałym (solid state polymerisation). Metody te są opisane w module Polimery przewodzące prąd elektryczny.", "Właściwości Nowoczesne polimery elektroluminescencyjne dają możliwość uzyskania złożonych kształtów – materiały elektroluminescencyjne można nakładać na przewodzące materiały tekstylne w celu tworzenia elektroluminescencyjnych urządzeń tekstylnych. Charakteryzują się małą masą i elastycznością, są energooszczędne, pobierają niewiele energii elektrycznej, praktycznie nie emitują ciepła, są niewrażliwe na wstrząsy i drgania.", "Zastosowanie Polimery elektroluminescencyjne są głównie stosowane do produkcji diod OLED, te z kolei znalazły zastosowanie jako ekrany w telefonach komórkowych, odtwarzaczach MP3 i MP4, radiach samochodowych, kamerach cyfrowych, ultra płaskich telewizorach, elastycznych wyświetlaczach, e-papierze, e-tkaninach; są stosowane jako energooszczędne źródła światła w gospodarstwach domowych, samochodach, urządzeniach lotniczych, znakach drogowych i reklamach."], "definitions": [{"name": "Definicja 1: Elektroluminescencja", "content": "Elektroluminescencja jest zdolnością niektórych substancji do emitowania światła pod wpływem przepływu prądu, wyładowania elektrycznego, pola elektrycznego, fali elektromagnetycznej."}]} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery funkcjonalne", "subject_id": 945, "subject": "Polimery z pamięcią kształtu", "paragraphs": ["Polimery z pamięcią kształtu (ang. Shape Memory Polymers, SMP) to materiały, które potrafią „zapamiętać” swój pierwotny kształt i powrócić do tego kształtu, gdy zostanie zastosowany jakiś bodziec. Zalicza się je do grupy tzw. \"materiałów inteligentnych\". W porównaniu do stopów z pamięcią kształtu, polimery z pamięcią kształtu są znacznie lżejsze, wytrzymują duże odkształcenia, które są odwracalne oraz są tańsze. Polimery z pamięcią kształtu są łatwe w przetwarzaniu, można je wielokrotnie programować oraz kontrolować czas reakcji na bodźce [1]. Powrót do pierwotnego kształtu może być wyzwalany przez różne bodźce. Jak dotąd osiągnięto to za pomocą [1], [2]:", "Największą grupę polimerów inteligentnych stanowią polimery z termiczną pamięcią kształtu. Właściwości adaptacyjne tych polimerów ujawniają się pod wpływem zmian temperatury. Polimery z pamięcią kształtu mogą być rozciągane elastycznie i chłodzone, dzięki temu krystalizacja lub tworzenie fazy szklistej utrwala polimer w nierównowagowy tymczasowy kształt. Przez podgrzanie polimeru powyżej temperatury zeszklenia \\( T_g \\) lub topnienia, zmagazynowana energia sprężysta jest uwalniana i polimer powraca do kształtu pierwotnego. Po schłodzeniu do dostatecznie niskiej temperatury prawie wszystkie elastomery wykazują pamięć kształtu Rys. 1.", "Jednak SMP można zaprojektować tak, aby dobierając odpowiednią temperaturę panować nad trwałością czy przywracaniem kształtu. Kluczem do otrzymania takich polimerów jest kontrolowanie krystalizacji, która zachodzi gdy polimer jest chłodzony lub rozciągany. Gdy materiał jest odkształcony, łańcuchy polimeru są lokalnie rozciągane, a segmenty polimeru układają się w tym samym kierunku w małych obszarach lub domenach zwanych krystalitami. Domeny te utrwalają tymczasowy zdeformowany kształt polimeru. Wraz ze wzrostem liczby krystalitów, kształt polimeru staje się coraz bardziej stabilny, co utrudnia powrót polimeru do pierwotnego kształtu. Jeśli powtórnie podgrzejemy polimer do temperatury wyższej niż T_g to polimer wróci do pierwotnego kształtu. Taki polimer zbudowany jest więc, z co najmniej dwóch faz, jednej sztywnej z wysoką temperaturą przemiany i drugą odpowiedzialną za odzyskiwanie kształtu – może to być faza szklista lub krystaliczna [1], [2], [3].", "Polimery, które są wykorzystywane jako polimery z pamięcią kształtu to głównie elastomery termoplastyczne.", "Zastosowanie polimerów z pamięcią kształtu Polimery z pamięcią kształtu znalazły zastosowanie w wielu dziedzinach [1], [4], [5], [6]:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery funkcjonalne", "subject_id": 946, "subject": "Polimery samonaprawiające się", "paragraphs": ["Polimery samoregenerujące to nowa klasa materiałów inteligentnych, które mają zdolność do samodzielnego naprawiania własnych uszkodzeń bez zewnętrznej interwencji człowieka. Autonomiczne samonaprawiające się polimery przechodzą trójetapowy proces bardzo podobny do reakcji biologicznej ( Rys. 1 ). W przypadku uszkodzenia (1) pierwszą reakcją jest wyzwolenie lub zadziałanie fazy ruchomej (2), które następuje niemal natychmiast po wystąpieniu uszkodzenia. Drugą odpowiedzią jest transport materiałów do dotkniętego obszaru (3), co również następuje bardzo szybko. Trzecią odpowiedzią jest proces naprawy chemicznej (4) i unieruchomienie fazy ruchomej po \"wyleczeniu\" [1].", "Proces regeneracji polimeru można prowadzić:", "Samonaprawiające się materiały polimerowe można podzielić na dwie grupy w oparciu o podejście do mechanizmu samonaprawiania: mechanizm wewnętrzny i mechanizm zewnętrzny [1], [2]. Materiały oparte na mechanizmie zewnętrznym to takie, w których proces leczenia zależy od czynników zewnętrznych np. środka naprawczego rozdyspergowanego w kapsułkach ( Rys. 2 ) lub układzie naczyń. Po uszkodzeniu środek jest uwalniany i uszczelnia on uszkodzenie nie wchodząc w reakcję z polimerem macierzystym. System zewnętrzny stosowany jest w duroplastach, głównie w żywicach epoksydowych. Materiały oparte na mechanizmie wewnętrznym wykorzystują wiązania, które odnawiają się po rozerwaniu np. polimeryzacja, odwracalne sieciowanie, czy wiązania wodorowe. Ten mechanizm jest wykorzystywany w elastomerach, silikonach, poliuretanach i szeroko pojętych gumach [1], [2], [3].", "Zastosowanie samoregenerujących się polimerów:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Biopolimery i polimery biodegradowalne", "subject_id": 949, "subject": "Polimery biodegradowalne - definicje", "paragraphs": ["W ostatnich latach obserwuje się znaczący postęp w produkcji polimerów, które ulegają biodegradacji. Polimery biodegradowalne w środowisku naturalnym ulegają degradacji, a produktami ich rozkładu są związki nietoksyczne. Polimery biodegradowalne są zazwyczaj wytwarzane z surowców naturalnych np. kukurydzy, trzciny cukrowej, pancerzy skorupiaków, odpadów rolnych itp. Tego typu polimery nazywane są często polimerami przyjaznymi środowisku (ang. environmentally friendly polymers). Klasyfikacja biodegradowalnych polimerów obejmuje dwie główne grupy polimerów w zależności z jakich źródeł one pochodzą. Polimery biodegradowalne mogą pochodzić ze źródeł odnawialnych lub petrochemicznych [1], [2]. Przykładem polimerów biodegradowalnych pochodzących ze źródeł odnawialnych są:", "Przykładem polimerów biodegradowalnych pochodzących ze źródeł petrochemicznych są:", "Zdecydowana większość produkowanych polimerów nie ulega biodegradacji, co sprawia, że są one poważnym zagrożeniem dla środowiska naturalnego. Obecność w jeziorach, rzekach czy morzach opakowań, butelek i innych materiałów wykonanych z polimerów nie ulegających rozkładowi, jest szczególnie groźna dla zwierząt żyjących w tych wodach. Ryby i inne zwierzęta po połknięciu odpadów wykonanych np. z polietylenu, polipropylenu, poliamidu najczęściej giną. Do produkcji tworzyw sztucznych dodawane są często pigmenty, fosforoorganiczne plastyfikatory, stabilizatory zawierające ołów, które są toksyczne dla środowiska naturalnego. W związku z tym bardzo ważne jest ponowne wykorzystanie (recykling) odpadów z tworzyw sztucznych."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Biopolimery i polimery biodegradowalne", "subject_id": 1077, "subject": "Biopolimery", "paragraphs": ["Polimery naturalne, nazywane także biopolimerami, to polimery powstające w reakcjach łańcuchowych katalizowanych enzymatycznie przebiegających w złożonych procesach metabolicznych. Są pozyskiwane (ekstrahowane) z materiału, w którym te procesy zachodzą, czyli z materiału:", "Materiał roślinny to np. kukurydza (która zawiera skrobię, tłuszcz i białko lub wodorosty zawierające algininę), drewno, bawełna, len, czy juta (zawierające celulozę); ziemniaki (zawierające skrobię), trzcina cukrowa (zawierająca sacharozę), kauczukowiec brazylijski (zawierający kauczuk naturalny – politerpen), wodorosty (zawierające chitynę), skórki cytrusów i resztki jabłek (zawierające pektynę) itd. Materiał zwierzęcy to np. kokony jedwabników (z których jest wytwarzany jedwab naturalny), szkielet zewnętrzny głowonogów (zawierający chitynę i chitozan), okrywa włosowa zwierząt (z której wytwarzana jest wełna), czy substancja międzykomórkowa wszystkich organizmów zwierzęcych (zawierająca kolagen) itd. Natomiast do źródeł mikrobiologicznych należą bakterie i grzyby (które zawierają m.in. celulozę, chitynę i chitozan oraz produkują i magazynują np. polihydroksymaślan czy polihydroksymaślan-walerian).", "Polimery naturalne są klasyfikowane, w oparciu o rodzaj monomeru (zob. Rys. 2 ), na trzy podstawowe grupy (punkty 1-3) oraz (punkty 4-7):", "Polimery naturalne wykazują liczne i pożądane cechy, do których należą: duża liczebność, plastyczny charakter, biodegradowalność, a co za tym idzie biostabilność i biokompatybilność. Oznacza to, że polimery naturalne sprzyjają adhezji komórek i nie wywołują skutków ubocznych, w tym cytotoksyczności i odpowiedzi antygenowej w kontakcie z organizmami żywymi oraz wykazują względnie długi okres życia. Wiele naturalnych polimerów (jak np. kolagen, żelatyna, alginian, itd.) tworzy także hydrożele. Dzięki tym własnościom polimery naturalne znalazły zastosowania m.in. w kontrolowanym dostarczaniu genów i leków (umożliwiają zminimalizowanie strat leku i ograniczają toksyczność leku względem zdrowej tkanki), czy w medycynie (do regeneracji kości lub w terapiach antynowotworowych (np. chitozan niszczy błonę komórek nowotworowych (mięsaka i raka wątroby) indukując ich apoptozę). Dodatkowo, kauczuk, chitozan, kwas alginowy czy białko można przekształcić we włókna w odpowiednim procesie formowania włókien.", "Większość polimerów naturalnych powstaje w reakcjach polimeryzacji kondensacyjnej, w których produktem ubocznym jest woda \\( ({H}{_2}{O}) \\)."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Biopolimery i polimery biodegradowalne", "subject_id": 907, "subject": "Celuloza", "paragraphs": ["Celuloza jest liniowym polisacharydem składającym się z jednostek D – glukozy połączonych wiązaniami β-1,4-glikozydowymi. Wzór strukturalny celulozy przedstawiono na Rys. 1.", "Celuloza należy do grupy związków organicznych, które są najbardziej rozpowszechnione na ziemi. Jest ona głównym składnikiem strukturalnym ścian komórkowych roślin wyższych, niektórych grzybów, bakterii i glonów. Celuloza nazywana jest również błonnikiem i jest ona nierozpuszczalna w wodzie, a także w rozpuszczalnikach organicznych [1]. Wykazuje również bardzo dużą odporność na działanie kwasów rozcieńczonych, jedynie kwasy stężone powodują hydrolizę celulozy. Celulozę można rozpuścić w odczynniku Schweizera, który otrzymuje się poprzez rozpuszczenie wodorotlenku miedzi II w stężonym wodnym roztworze amoniaku. Enzymy zwane celulazami, należące do hydrolaz, powodują rozerwanie wiązań β-1,4-glikozydowych występujących pomiędzy cząsteczkami glukozy. Celulazy katalizują reakcję hydrolizy wiązań β-1,4-glikozydowych występujących w celulozie, co ostatecznie prowadzi do wytworzenia glukozy [2]. Człowiek i wiele ssaków nie posiada zdolności do wytwarzania celulaz, w związku z tym celuloza (błonnik) nie jest trawiona w ich przewodzie pokarmowym. W przewodzie pokarmowym przeżuwaczy znajdują się bakterie, które wytwarzają celulazy. Dzięki nim zwierzęta te przetwarzają błonnik i wykorzystują go jako źródło energii. Pomimo, że celuloza nie jest trawiona przez organizm człowieka, to błonnik usprawnia pracę układu pokarmowego (przyspiesza perystaltykę jelit). Celuloza podczas estryfikacji tworzy estry celulozy, które mają duże znaczenie handlowe i znalazły zastosowanie jako rozpuszczalniki, kompozyty, laminaty, a w medycynie są używane jako substancje umożliwiające kontrolowane uwalnianie leków. Celuloza w tabletkach może być używana jako substancja wiążąca, wypełniająca lub rozsadzająca. Najbardziej popularnymi estrami celulozy są: octan celulozy (CA), propionian octanu celulozy (CAP) i maślan octanu celulozy (CAB)."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Biopolimery i polimery biodegradowalne", "subject_id": 950, "subject": "Skrobia", "paragraphs": ["Skrobia jest biodegradowalnym, nietoksycznym, jadalnym polimerem należącym do grupy polisacharydów (wielocukrów). Skrobia jest bardzo rozpowszechniona w przyrodzie, występuje ona w roślinach np. w kukurydzy, pszenicy, ziemniakach, jęczmieniu, ryżu, korzeniach tapioka [1]. Skrobia w roślinach pełni rolę magazynu energii. Skrobia składa się z dwóch frakcji: zasadniczo liniowego polisacharydu amylozy i rozgałęzionej amylopektyny ( Rys. 1 ). Obie frakcje skrobi są polimerami α-D-glukozy. W przypadku amylozy mery α-D-glukozy są połączone ze sobą atomami tlenu za pomocą wiązań α-1,4-glikozydydowych, natomiast w przypadku rozgałęzionej amylopektyny występują dodatkowe wiązania α-1,6-glikozydowe. Zawartość amylozy i amylopektyny w skrobi zależy od jej botanicznego pochodzenia. Naturalna skrobia pszenna zawiera od \\( 20-30\\% \\) amylozy oraz od \\( 70-80\\% \\) amylopektyny [2].", "Masa cząsteczkowa amylozy wynosi od 30 000 do 60 000 Da, natomiast średnia masa cząsteczkowa amylopektyny wynosi 400 000 Da. Skrobia jest substancją koloru białego, semikrystaliczną, nierozpuszczalną w zimnej wodzie ze względu na spolimeryzowaną strukturę oraz obecność wiązań wodorowych między sąsiednimi łańcuchami. W gorącej wodzie skrobia tworzy kleik skrobiowy potocznie zwany krochmalem. Kleik skrobiowy jest koloidalnym roztworem skrobi, w którym ziarna skrobiowe adsorbują wodę, pęcznieją, co prowadzi do rozerwania międzycząsteczkowych wiązań wodorowych. Powstaje on po podgrzaniu roztworu skrobi w wodzie do temperatury powyżej temperatury kleikowania, zwykle powyżej \\( 60^{\\circ} C \\). Temperatura kleikowania zależy od pochodzenia skrobi. Skrobia wyekstrahowana z surowców naturalnych (roślinnych) jest nazywana skrobią rodzimą lub natywną. Skrobia poddana modyfikacjom enzymatycznym lub chemicznym nazywana jest skrobią modyfikowaną. Skrobia posiada zdolność sieciowania międzycząsteczkowego i wewnątrzcząsteczkowego z polianionami. Najpopularniejszym polianionem stosowanym jako skuteczny środek sieciujący jest tripolifosforan sodu (STPP), który jest nietoksyczny i nie powoduje skutków ubocznych dla organizmu ludzkiego [3]. W ostatnich latach skrobia przyciąga uwagę jako substancja, która może być stosowana do kontrolowanego uwalniania leków. Skrobia zwiększa rozpuszczalność i stabilność leku, zmniejsza jego toksyczność, wykazuje bardzo dobrą biozgodność i zdolność do przechowywania [1]. Do kontrolowanego uwalniania leków najbardziej odpowiednia jest skrobia modyfikowana chemicznie poprzez utlenianie, sieciowanie, hydroksypropylację, co prowadzi do poprawy jej właściwości. Pewne frakcje skrobi zwane skrobią odporną przechodzą przez przewód pokarmowy do jelita grubego i nie ulegają trawieniu, ani nie są wchłaniane w jelicie cienkim. W związku z tym odporna skrobia stała się alternatywną substancją pozwalającą na dostarczenie leków w specyficzne miejsce jakim jest jelito grube. Odporna skrobia przechodząc z górnego odcinka przewodu pokarmowego w stanie niezmienionym, dociera do okrężnicy i tam wywołuje efekt prebiotyczny. Skrobia ta pobudza wzrost i aktywność korzystnych bakterii typu bifidobacteria i lactobacillus. Podczas fermentacji wytwarzane są krótkołańcuchowe kwasy tłuszczowe, które zmieniają pH jelit i zwiększają dostępność dwuwartościowych kationów. Takie zachowanie skrobi odpornej sprawia, że może ona być potencjalnym materiałem kapsułkującym do specyficznego dostarczania leków do jelita grubego. Skrobię w różnych produktach można wykryć za pomocą tak zwanej próby jodowej, czyli dodaniu do badanej substancji jodyny lub płynu Lugola. Płyn Lugola w obecności skrobi zmienia swoja barwę z pomarańczowej na granatową lub niebieską w zależności od długości łańcucha cukrowego."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Biopolimery i polimery biodegradowalne", "subject_id": 954, "subject": "Chitozan", "paragraphs": ["Chitozan (deacetylochityna) jest polisacharydem otrzymywanym podczas alkalicznej deacetylacji chityny. Stosunek glukozaminy do N-acetyloglukozaminy podaje stopień deacetylacji chitozanu. Chitozan jest nietoksyczny, biozgodny i całkowicie biodegradowalny. Wzór chemiczny chitozanu przedstawia Rys. 1.", "Głównymi źródłami chityny są muszle mięczaków (krabów, krewetek, homarów). Chityna jest to bezbarwny lub lekko biały proszek otrzymywany z pancerzy skorupiaków [1]. Proces wytwarzania chityny polega na odbiałczeniu roztworem NaOH i demineralizacji rozcieńczonym roztworem kwasu HCl surowych pancerzy skorupiaków. Chitozan jest wytwarzany przez deacetylację chityny przez kilka godzin przy użyciu \\( 40-50\\% \\) wodnego roztworu zasady sodowej w temperaturze od \\( 100-160^{\\circ} C \\). Powstały chitozan ma stopień deacetylacji do 0,95. Zastosowanie chitozanu jest bardzo szerokie. Ze względu na swoje antybakteryjne i przeciwzapalne działanie chitozan jest stosowany w medycynie, m.in. jako składnik materiałów opatrunkowych. Chitozan posiada właściwości mukoadhezyjne dzięki czemu bardzo dobrze pokrywa mokre powierzchnie, np. skórę i błony śluzowe. Polimer ten jest jako bardzo dobrym nośnikiem leków, a dzięki mukoadhezyjnym właściwościom leki zostają związane z miejscem swojego działania, tj. błonach śluzowych [2]. Z chitozanu są wytwarzane powłoki, które są następnie nanoszone na powierzchnię biomedycznych stopów magnezu wykorzystywanych jako implanty ortopedyczne. Powłoki tego typu są modyfikowane poprzez dodatek antybakteryjnych nanocząstek lub dodatek antybiotyków [3]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Biopolimery i polimery biodegradowalne", "subject_id": 951, "subject": "Polilaktyd (PLA)", "paragraphs": ["Polilaktyd (PLA) – poli(kwas mlekowy), ang. polylactic acid – jest biodegradowalnym polimerem należącym do grupy poliestrów alifatycznych. PLA ze względu na swoją biokompatybilność i biodegradowalność jest szeroko stosowany w branży biomedycznej (implanty dentystyczne, resorbowane nici chirurgiczne) i farmaceutycznej. Polilaktyd można otrzymać podczas polimeryzacji z otwarciem pierścienia laktydu ( Rys. 1 ) lub poprzez polikondensację kwasu mlekowego ( Rys. 2 ) [1], [2].", "Laktyd jest cyklicznym dimerem kwasu mlekowego i może on występować w postaci trzech stereoizomerów L, D i L,D (mezo laktyd) jak przedstawiono na Rys. 3.", "Kwas mlekowy powstaje podczas fermentacji węglowodanów takich jak skrobia, celuloza, natomiast bezpośrednia polikondensacja kwasu mlekowego prowadzi do powstania polilaktydu. Drugim sposobem otrzymania polilaktydu jest polimeryzacja z otwarciem pierścienia laktydu. Produkty wytwarzane z polilaktydu ulegają biodegradacji, co sprawia, że są one przyjazne dla środowiska naturalnego. Polilaktyd jest stosowany do produkcji wyrobów używanych w gospodarstwie domowym takich jak: butelki, kubki, naczynia stołowe. PLA może być wykorzystywany w sektorze elektrycznym i elektronicznym np. do wytwarzania kabli pokrytych powłoką zawierającą PLA i PCV. W sektorze biomedycznym polilaktyd jest stosowany do produkcji rusztowań, aby zapewnić tymczasowe wsparcie konstrukcyjne do mocowania i wzrostu uszkodzonych tkanek. PLA jest również bardzo dobrym nośnikiem leków, umożliwiającym ich kontrolowane uwalnianie podczas długotrwałego leczenia."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Biopolimery i polimery biodegradowalne", "subject_id": 952, "subject": "Polihydroksyalkaniany (PHA)", "paragraphs": ["Polihydroksyalkaniany (PHA) są to polimery biodegradowalne, które należą do grupy poliestrów alifatycznych. Ogólny wzór PHA przedstawiono na Rys. 1, gdzie x wynosi 1 dla polimerów komercyjnych, natomiast R oznacza łańcuch węglowodorowy zawierający do 15 atomów węgla [1].", "Wyróżniany dwie grupy polihydroksyalkanianów:", "Polihydroksyalkaniany (PHA) są syntetyzowane przez wiele bakterii Gram-dodatnich i Gram-ujemnych. Polimery PHA są gromadzone wewnątrzkomórkowo i działają jako rezerwa węglowa i energetyczna. Znajdują one zastosowanie jako biodegradowalne tworzywa sztuczne, a także są używane do produkcji implantów i sztucznych tkanek [2]. Polimery PHA są wykorzystywane do otrzymywania związków chiralnych, biodegradowalnych toreb do pakowania oraz pojemników. Polimery te są używane również do produkcji pojemników na szampony, kosmetyki, produkty higieniczne, maszynki do golenia i naczynia [3]. PHA znalazły również zastosowanie w produkcji nawozów, środków owadobójczych, a także umożliwiają długotrwałe dawkowanie leków. W medycynie polihydroksyalkaniany są używane do produkcji opatrunków na rany, szpilek, zszywek i wacików chirurgicznych, stymulują również wzrost kości [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery nieorganiczno-organiczne", "subject_id": 916, "subject": "Polimery nieorganiczno-organiczne", "paragraphs": ["Zazwyczaj nazwę polimery stosuje się do cząsteczek zbudowanych z łańcuchów i struktur organicznych – merów węglowodorowych. Istnieją jednak także związki wielkocząsteczkowe oparte o struktury zbudowane z łańcuchów i pierścieni, złożonych wyłącznie z atomów węgla oraz łańcuchy powstające z pierwiastków innych niż węgiel. Są to polimery nieorganiczne. Polimerem nieorganicznym określamy zatem układ, w którym występuje powtarzający się regularnie w strukturze związku mer nieorganiczny zawierający atom metalu lub półmetalu (metaloidu). Polimery nieorganiczne tworzone są, tak samo jak organiczne, w wyniku polimeryzacji łańcuchowej i polimeryzacji rodnikowej.", "Istnieje także grupa polimerów nieorganicznych, do których wprowadza się podstawniki organiczne. Modyfikują one właściwości polimeru nieorganicznego znacznie poszerzając wachlarz właściwości oraz możliwych zastosowań.", "Polimery nieorganiczne w porównaniu z polimerami organicznymi wykazują następujące cechy:", "Do polimerów nieorganiczno-organicznych zaliczamy:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery nieorganiczno-organiczne", "subject_id": 959, "subject": "Polimery krzemowe", "paragraphs": ["Do polimerów krzemowych zaliczamy:", "Polisilany – są to związki wielkocząsteczkowe, w których występuje łańcuch zbudowany wyłącznie z atomów krzemu (-Si-Si-Si-).", "Polisilany mogą mieć budowę liniową i rozgałęzioną. Rys. 1 przedstawia przykładową strukturę rozgałęzionego polisilanu, który może być wielkości niedużego wirusa [1].", "Polisilany są najczęściej otrzymywane w reakcji sprzęgania Würtza poprzez kondensację dichlorosilanów w obecności sodu. Homopolimery otrzymywane są z pojedynczych dichlorosilanów, podczas kondensacji mieszanin dichlorosilany dają kopolimery. Otrzymuje się je również przez polimeryzację anionową cyklicznych oligomerów siloksanowych. Produktami ubocznymi są głównie cyklosilany.", "Właściwości Polisilany wykazują wiele interesujących efektów fotochemicznych i fotofizycznych, takich jak termochromizm – zdolność do odwracalnej zmiany kolorów, pod wpływem zmiany temperatury, solwatochromizm – zmiana koloru następuje pod wpływem polarności rozpuszczalnika, czy jonochromizm – kolor związku zależy od natury przeciwkationu.", "Zastosowanie Obecnie polisilany są wykorzystywane komercyjnie jako prekursory do syntezy ceramiki z węglika krzemu, stosowanego na osłony termiczne w pojazdach kosmicznych, czy w produkcji mikroelektroniki krzemowej. Jednym z zastosowań polisilanów w procesie fotolitografii dwuwarstwowej jest wykorzystywanie do produkcji foli fotoprzewodzącej. Fotolityczne rozszczepienie silanów na rodniki sililowe można zastosować do wywołania rodnikowych reakcji łańcuchowych, takich jak polimeryzacja monomerów akrylanowych, np. styrenu.", "Polisiloksany, w języku potocznym nazywane silikonami, są to polimery, których główny łańcuch jest zbudowany z naprzemiennie ułożonych atomów krzemu i tlenu (−O−Si−O−Si−O−Si−).", "Silikony mogą być polimerami liniowymi, cyklicznymi lub usieciowanymi. Polimery silikonowe można uznać za nieorganiczne-organiczne materiały hybrydowe. Silikony otrzymywane są w wyniku polimeryzacji blokowej, przez reakcje polimeryzacji z otwarciem pierścienia na cyklicznych siloksanach. Odpowiednimi katalizatorami są KOH lub wodorotlenki tetraalkiloamoniowe. Masa cząsteczkowa jest kontrolowana przez dodanie blokujących wzrost łańcucha podstawników, takich jak heksametylodisiloksan.", "Właściwości Struktura polisiloksanu, niespotykana w naturze, nadaje tym polimerom szczególne właściwości. Mogą występować w postaci cieczy, lepkich cieczy, półstałej, gumy i ciał stałych. Łańcuchy główne polisiloksanów są bardziej giętkie od łańcuchów polimerów winylowych i poliolefin i dlatego polisiloksany mają znacznie niższe temperatury topnienia od polimerów opartych na łańcuchach węglowych, są bardziej odporne termicznie i chemicznie od polimerów węglowych. Polisiloksany są hydrofobowe pomimo posiadania polarnych wiązań -Si-O- w swoich strukturach, są chemicznie obojętne i mają dobrą stabilność termiczną, niską lepkość i dobrą przepuszczalność gazów, są elastyczne, nietoksyczne i w postaci ciekłej wykazują niskie napięcie powierzchniowe.", "Zastosowanie Polisiloksany i ich kopolimery znajdują zastosowanie w różnych dziedzinach. Występują w handlu w różnych postaciach, jak płyny silikonowe, elastomery i żywice. Oleje silikonowe są stosowane np. jako dielektryczny materiał izolacyjny w transformatorach wysokiego napięcia. Są też stosowane w płynach hydraulicznych. Smary silikonowe powstają poprzez zmieszanie oleju silikonowego z mydłami stearynianowymi litu i są stosowane jako smary wszędzie tam, gdzie występują zarówno wysokie i niskie temperatury. Kauczuki silikonowe uzyskuje się przez zmieszanie z wypełniaczem, takim jak dwutlenek krzemu, w obecności utwardzacza. Guma silikonowa ma 6000 do 600000 jednostek Si. Kauczuk silikonowy zachowuje swoją elastyczność od \\( -90^oC \\) do \\( +250^oC \\), co jest znacznie szerszym zakresem w porównaniu do kauczuku naturalnego. Wykorzystywany jest do produkcji opon samolotów i samochodów wyścigowych, jako materiał uszczelniający w reflektorach i samolotach oraz całej gamy galanterii kuchennej (rękawice, formy do pieczenia, przybory kuchenne). Żywice silikonowe jest to rodzaj materiału silikonowego, który zawiera gęsto usieciowane, nierozpuszczalne sieci polisiloksanowe. W zależności od składu żywice silikonowe mogą być rozpuszczalne w rozpuszczalnikach organicznych lub występować jako emulsje wodne. Ze względu na ich trójwymiarowy charakter, struktury żywic silikonowych są złożone [2]. Rys. 2 przedstawia fragment struktury przykładowej żywicy silikonowej.", "Polisiloksany w wyższych organizmach ulegają biodegradacji, co stanowiło i stanowi istotny problem ze względu na szerokie ich zastosowanie do produkcji protez silikonowych i materiałów medycznych: implantów palców, piersi, nosa, biodra, tkanek miękkich, szczęk oraz protez strun głosowych, naczyń stawowych, łokci, zastawek serca. Stosuje się je także w produkcji materiałów medycznych, takich jak: dreny, cewki, odlewy stomatologiczne oraz materiały stosowane w okulistyce. Stosowane są także jako nośniki leków i stanowią nawet substancje czynne niektórych leków.", "Polisilazany to polimery, w których atomy krzemu i azotu występują naprzemiennie, tworząc podstawowy szkielet (-Si-N-Si-N-Si-).", "Polisilazany mogą mieć strukturę zarówno łańcuchową, jak i pierścieniową.", "W syntezie polisilazanów jako materiały wyjściowe używane są amoniak i chlorosilany. Stałe polisilazany są wytwarzane poprzez chemiczną konwersję materiałów ciekłych (sieciowanie mniejszych cząsteczek).", "Właściwości Polisilazany to bezbarwne do bladożółtych ciecze lub ciała stałe. Materiały stałe mogą być topliwe lub nietopliwe i mogą być rozpuszczalne lub nierozpuszczalne w rozpuszczalnikach organicznych. Z reguły ciała stałe polisilazanu zachowują się jak polimery termoutwardzalne, ale w niektórych przypadkach możliwa jest obróbka termoplastyczna. Właściwości polisilanów zależą w dużym stopniu od charakteru grup podstawnikowych związanych z krzemem. Zakres właściwości waha się od wysoce krystalicznych i nierozpuszczalnych do częściowo krystalicznych lub ciekłokrystalicznych, do szklistych lub gumowatych materiałów amorficznych. Ogólnie rzecz biorąc, polimery polisilazanowe są stabilne termicznie do temperatury powyżej \\( +200^oC \\) i obojętne na wodę, chyba że przy krzemie występuje grupa ulegająca hydrolizie, taka jak halogen, są powoli degradowane przez promieniowanie UV, co ogranicza ich przydatność jako materiałów konstrukcyjnych.", "Zastosowanie Polisilazany są stosowane jako materiały powłokowe. Z racji tego, że powierzchnie metali, szkła, ceramiki czy tworzyw sztucznych są łatwo zwilżane przez polisilazany, produkty na bazie organopolisilazanu są stosowane jako powłoki antygraffiti. Polisilazany są prekursorami materiałów ceramicznych [3]. Powłoki ceramiczne otrzymywane z polisilazanów mają doskonałe właściwości samooczyszczające i stosowane są np. do zabezpieczenia powłok lakierniczych na samochodach."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery nieorganiczno-organiczne", "subject_id": 957, "subject": "Polimery fosforowe", "paragraphs": ["Najważniejszymi polimerami fosforowymi są polifosfazeny. Polifosfazeny to rodzina polimerów opartych na szkielecie fosforowo-azotowym z podwójnym wiązaniem pomiędzy atomem fosforu, a atomem azotu, podstawionych organicznymi grupami bocznymi. Poniższy wzór przedstawia podstawową jednostkę łańcucha.", "Polifosfazeny występują także w formach cyklicznych o niewielkich pierścieniach:", "oraz w jako formy wielkopierścieniowe:", "Podstawową metoda otrzymywania polifosfazenów jest polimeryzacja termiczna pięciotlenku fosforu w obecności amoniaku lub chlorku amonu do cyklicznego polifosfazenu, a następnie rozerwanie pierścienia do formy łańcuchowej.", "Właściwości Właściwości polifosfazenów są ściśle związane z podstawnikami organicznych, przyłączonymi do łańcucha głównego, mogą one zatem wykazywać cały wachlarz możliwości:", "Zastosowanie Polifosfazeny, ze względu na szeroką gamę właściwości znajdują zastosowanie w wielu dziedzinach życia:"], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery nieorganiczno-organiczne", "subject_id": 956, "subject": "Polimery siarkowe", "paragraphs": ["Siarka może tworzyć samodzielnie zarówno łańcuchy, jak i struktury cykliczne, może także tworzyć polimery z innymi pierwiastkami, jak azot, czy tlen. Poniższe wzory strukturalne polimerów siarkowych reprezentują: siarkę polimerową (elementarną), polisiarczki, politiazole – poli(azotki siarki), polisulfany.", "Siarka polimerowa zawiera głównie 6- i 8-atomowe pierścienie. Podczas podgrzewania do temperatury powyżej 159 stopni, pierścienie siarkowe łączą się tworząc struktury cząsteczki o budowie łańcuchowej, składające się z 6, 7, 8, 9-15, 18 i 20 atomów. Jest używana jako substrat do otrzymywania innych związków.", "Polisiarczki są to polimery z łańcuchami składającymi się naprzemiennie z kilku atomów siarki i łańcuchów węglowodorowych. Polimery te można syntetyzować w reakcjach polimeryzacji kondensacyjnej pomiędzy organicznymi dihalogenkami i solami metali alkalicznych anionów polisiarczkowych. Polisiarczki wytwarza się również przez reakcję polisulfanów – wodorosiarczków z siarką elementarną.", "Właściwości Polimery polisiarczkowe są nierozpuszczalne w wodzie, olejach i wielu innych rozpuszczalnikach organicznych. Polisiarczki wykazują interesujące właściwości optyczne, elektrochemiczne i mechaniczne.", "Zastosowanie Ze względu na ich odporność na rozpuszczalniki, materiały te znajdują zastosowanie jako szczeliwa do wypełniania spoin w chodnikach, szybach samochodowych i konstrukcjach lotniczych. Wiele dostępnych w handlu elastomerów zawiera polisiarczki jako środki sieciujące. Proces sieciowania siarką nazywa się wulkanizacją. Wulkanizacja jest etapem przetwarzania kilku klas kauczuków do gum. Dzięki procesowi odwrotnej wulkanizacji – łańcuchy siarczkowe są sieciowane przy pomocy komonomerów węglowodorowych, otrzymuje się stabilne polimery polisiarczkowe o nowych, ciekawych właściwościach. Znajdują one zastosowanie jako materiały do fotokatalizy, materiały katodowe w bateriach, materiały do budowy paneli słonecznych, czy do wychwytywania toksycznych metali ciężkich [1]. Przykład takiego polimeru przedstawiono na Rys. 1.", "Polisulfany to wodorosiarczki o wzorze ogólnym \\( (H_2S_n) \\), składają się z nierozgałęzionych łańcuchów atomów siarki zakończonych wodorem. Wyodrębniono związki zawierające do 8 połączonych atomów siarki. Występują w produktach naturalnych jak w czosnek, cebula, szalotka, czy niektóre grzyby.", "Właściwości Polisulfany są nietrwałe termodynamicznie i rozkładają się z wydzieleniem siarkowodoru i siarki. Polisulfany wykazują szerokie spektrum działań biologicznych, w tym właściwości przeciwdrobnoustrojowe i cytotoksyczność wobec niektórych komórek nowotworowych. Wiele polisulfanów działa jako specyficzne utleniacze, które tiolują, czyli wprowadzają siarkę do związków organicznych występujących w organizmach żywych hamując działanie białek i enzymów.", "Zastosowanie Preparaty zawierające polisulfany (np. wyciąg z czosnku) stosowane są jako preparaty antybakteryjne i immunostymulujące.", "Politiazole – poli(azotek siarki) \\( (SN)_x \\) jest syntetyzowany przez polimeryzację diazotku disiarkowego ( \\( S_2N_2 \\)), który jest syntetyzowany z cyklicznego przemiennego tetrazotku tetrasiarki w obecności srebra jako katalizatora.", "Właściwości Politiazole są polimerami przewodzącymi prąd, wykazują anizotropowe przewodnictwo elektryczne, wzdłuż włókien lub łańcuchów SN wiązanie przewodzi prąd, prostopadle do niego działa jak izolator. Jednowymiarowe przewodnictwo jest oparte na warunkach wiązania w łańcuchu S-N, gdzie każdy atom siarki dostarcza dwa elektrony π, a każdy atom azotu dostarcza jeden elektron π, tworząc dwuśrodkowe 3π jednostki wiążące elektrony.", "Przewodność elektryczna politiazoli w temperaturze pokojowej wynosi około 1200 do 3700 \\( \\frac{1}{\\Omega cm} \\) i zwiększa się o 50-200 razy po obniżeniu temperatury do 4,2 K, w temperaturze 0,26 K staje się nadprzewodnikiem. Jest to pierwszy odkryty nadprzewodnik niemetaliczny. Politiazole wykazują także ognioodporność.", "Zastosowanie Ze względu na przewodnictwo elektryczne politiazole znalazły zastosowanie w diodach LED, tranzystorach, ogniwach słonecznych oraz do magazynowania energii jako materiały aktywne do akumulatorów Li-S [2]. Stosowane są do produkcji włókien ognioodpornych oraz do wychwytywania toksycznych metali ciężkich (np. Hg) [3]. Politiazole znalazły także zastosowania biomedyczne jako środek farmakologiczny lub immunologiczny, który modyfikuje działanie innego czynnika w celu zwiększenia skuteczności szczepionek [4]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery nieorganiczno-organiczne", "subject_id": 970, "subject": "Polimery borowe", "paragraphs": ["Do najważniejszych polimerów borowych zaliczamy:", "Poliborany to związki kwasów borowych, takich jak kwas borowy \\( H_3BO_3 \\), kwas metaborowy \\( HBO_2 \\) i kwas tetraborowy \\( H_2B_4O_7 \\). Poliborany wykazują ogromną różnorodność strukturalną w stanie stałym. Struktury anionów boranowych obejmują zarówno proste trygonalne płaskie jony \\( BO_3^{3−} \\), jak i raczej złożone struktury zawierające łańcuchy i pierścienie trój- i cztero-skoordynowanych atomów boru.", "Właściwości Czterokoordynacyjne aniony boranowe są płynnymi elektrolitami, co daje ogrom możliwych zastosowań w urządzeniach elektrochemicznych i optoelektronicznych, takich jak baterie, superkondensatory i ogniwa słoneczne.", "Zastosowanie Płynne elektrolity w urządzeniach elektrochemicznych wykorzystywanych do produkcji energii odnawialnej, promotory reakcji i katalizatory, barwniki, nośniki do derywatyzacji i destylacji cukrów, dioli, glikozylowanych białek, detektoyr pochodnych węglowodanów, separatory, urządzenia do transportu warstwy [1].", "Ikosaedryczne klastry boru są częścią struktur polimerowych połączonych atomami C lub B, wykazują wiele szczególnych cech, których nie ma w ich organicznych odpowiednikach.", "Właściwości Włączenie geometrycznie izomerycznych i kozaedrycznych karboranów do makrocząstek organicznych, a także ich wyjątkowe właściwości, takie jak niska nukleofilowość, obojętność chemiczna, charakter odciągający elektrony, poprawiają stabilność i rozpuszczalność oraz wyraźnie się zmieniają elektrochemiczne, fotoluminescencyjne i elektrochromowe właściwości makromolekuł [2].", "Zastosowanie Polimery zawierające wbudowane klastry boru znajdują zastosowanie w urządzeniach elektrochemicznych i optoelektronicznych, takich jak baterie, superkondensatory, ogniwa słoneczne, czujniki, katalizatory, diody elektroluminescencyjne [3]. Polimery zawierające dwudziestościenny bor znajdują także zastosowania biomedyczne [2]."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery nieorganiczno-organiczne", "subject_id": 961, "subject": "Polimery węglowe", "paragraphs": ["Ze struktur węglowych, których makrocząsteczki zbudowane prawie wyłącznie z atomów węgla zaliczamy:", "Według klasycznej definicji wyłącznie pochodne karbinu nazwać można polimerami. Zostaną jednak omówione także pozostałe struktury węglowe z uwagi na ich właściwości i zastosowania, które stawiają je w jednym szeregu z polimerami.", "Włókno węglowe (włókno karbonizowane ; ang. carbon fibre, CF) jest to włókno składające się praktycznie w całości z rozciągniętych struktur węglowych, pochodna grafitu. Otrzymuje się je przez pirolizę poliakrylonitrylu, czyli ogrzewanie do temperatury \\( 600^°C \\), a następnie \\( 1300^°C \\). Rys. 1 przedstawia strukturę wstążki węglowej – włókna z pozostałymi na brzegach atomami azotu.", "Właściwości", "Zastosowanie", "Nanorurki węglowe (ang. carbon nano tubes, CNT) to cylindryczne molekuły, składające się ze zwiniętych arkuszy jednowarstwowych atomów węgla – grafenu. Mogą być jednościenne o średnicy mniejszej niż 1 nanometr (nm) lub wielościenne, składające się z kilku połączonych koncentrycznie nanorurek o średnicy sięgającej ponad 100 nm. Ich długość może osiągać kilka mikrometrów, a nawet milimetrów [1]. Rys. 2 przedstawia dwa typy nanorurek węglowych.", "Nanorurki węglowe produkowane są za pomocą wyładowań łukowych, laserowej ablacji grafitu i chemicznego osadzania par (CVD).", "Właściwości", "Zastosowanie", "Liniowy łańcuch atomów węgla o hybrydyzacji sp; przyjmuje się, że co drugie wiązanie jest potrójne lub wszystkie są podwójne.", "Karbin został zsyntezowany w 2016 r. [2], lecz już wcześniej przewidziano jego właściwości. Karbin przewyższa każdy inny znany materiał, w tym diament, dzięki swoim wyjątkowym właściwościom mechanicznym, takim jak sztywność właściwa, wytrzymałość i moduł sprężystości. Wykazuje również wysoką przewodność cieplną, znacznie przewyższającą grafen. Ze względu na wysoką reaktywność chemiczną węgla, synteza długiego karbinu jest niezwykle trudna przy użyciu konwencjonalnych technik, takich jak metoda wyładowania łukowego, ablacja laserowa oraz synteza elektrochemiczna i powierzchniowa. Najlepszym środowiskiem do wzrostu liniowych łańcuchów węglowych jest wewnętrzna przestrzeń nanorurek węglowych.", "Właściwości", "Zastosowanie", "Pojedyncze nitki karbinu mogą się splątywać, jak nici DNA, istnieje więc hipotetyczne zastosowanie tego materiału w produkcji sztucznych tkanek, czy sztucznych połączeń nerwowych [3]. Rys. 3 przedstawia sposób splątania pojedynczych nici karbinu w strukturę podobną do struktury DNA."], "definitions": []} {"field": "Chemia", "coursebook": "Podstawy chemii polimerów", "chapter": "Polimery nieorganiczno-organiczne", "subject_id": 955, "subject": "Geopolimery", "paragraphs": ["Geopolimery są to nieorganiczne, amorficzne, syntetyczne polimery glinokrzemianowe, o specyficznym składzie i właściwościach. Określenie „geopolimery” odnosi się do polimerów nieorganicznych, które są amorficznymi materiałami glinokrzemianowymi syntezowanymi w mocno zasadowym środowisku w temperaturze nie przekraczającej 100°C. Termin „geopolimer” został po raz pierwszy użyty w 1970 r. przez Davidovitsa [1]. Struktura geopolimerów jest bardzo zbliżona do naturalnych kamieni występujących w przyrodzie, dlatego nazywane są często „sztucznymi kamieniami”. Geopolimery składają się z długich łańcuchów – kopolimerów tlenków glinu i krzemu, a także stabilizujących je kationów metali oraz związanej wody. Oprócz dobrze zdefiniowanych łańcuchów polimerycznych, w materiale występują z reguły różne przemieszane fazy, takie jak: tlenek krzemu, nieprzereagowany substrat glinokrzemianowy oraz niekiedy wykrystalizowane glinokrzemiany typu zeolitowego. Empiryczny wzór pojedynczego łańcucha ma formułę [2]", "gdzie \\( M^+_n \\) – kation metalu alkalicznego \\( (Na^+, K^+ ) \\), \\( v \\) – stopień polimeryzacji, \\( x \\) – stosunek Si/Al, \\( a \\) – ilość związanej wody; \\( v, x, a \\) – zależą od składu i sposobu przygotowania konkretnej próbki. Łańcuch polimerowy geopolimeru składa się z czworościennych struktur \\( SiO_4 \\) i \\( AlO_4 \\) połączonych między sobą przez wspólne atomy tlenu w dwu- lub trójwymiarową skomplikowaną sieć. Rys. 1 przedstawia schemat przestrzennej sieci geopolimeru [3].", "Wyjściowym składnikiem dla otrzymania cementu geopolimerowego są glinokrzemiany, których źródłem mogą byś surowce naturalne lub odpady przemysłowe, jak granulowany żużel wielkopiecowy lub popioły lotne. Ze względu na surowiec, z którego powstają geopolimery dzieli się na dwa rodzaje:", "Rys. 2 przedstawia różnice w mikrostrukturze cementu naturalnego oraz geopolimeru powstałego na bazie popiołu lotnego [4].", "Ze względu na budowę geopolimery dzielone są na trzy główne klasy:", "Tabela 1 przedstawia klasy geopolimerów ze względu na podstawową jednostkę łańcucha [5].", "Właściwości Geopolimery są najczęściej twardymi, odpornymi mechanicznie ciałami stałymi przypominającymi naturalny kamień lub beton. Są stosowane głównie do przygotowywania materiałów budowlanych, przede wszystkim betonu i jego pochodnych. Betony takie charakteryzują się bardzo dobrymi własnościami:", "Zastosowanie W praktyce zastosowanie betonów geopolimerowych jest bardzo ograniczone ze względu na ich wyższą cenę niż betonów tradycyjnych. Stosowane są one jednakże w przypadkach, gdzie wymagana jest wysoka ogniotrwałość (np. izolacje ogniowe w lotnictwie) lub bardzo szybkie osiągnięcie wysokiej twardości (np. przy awaryjnych naprawach pasów startowych). Podczas syntezy geopolimerów, wydziela się 4-8 razy mniej \\( CO_2 \\) niż przy produkcji jednej tony klasycznego cementu przy zużyciu 2-3 razy mniejszej energii, dlatego cement geopolimerowy nazywa się \"zielonym cementem\". Geopolimery są też stosowane jako materiał nośny do utylizacji toksycznych odpadów, szczególnie substancji radioaktywnych. Możliwości zastosowania geopolimerów:"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 252, "subject": "Ładunek elektryczny", "paragraphs": ["Oddziaływanie elektromagnetyczne ma fundamentalne znaczenie, bo pozwala wyjaśnić nie tylko zjawiska elektryczne, ale też siły zespalające materię na poziomie atomów, cząsteczek.", "Istnienie ładunków można stwierdzić w najprostszym znanym nam powszechnie zjawisku elektryzowania się ciał. Doświadczenie pokazuje, że w przyrodzie mamy do czynienia z dwoma rodzajami ładunków: dodatnimi i ujemnymi oraz że ładunki jednoimienne odpychają się, a różnoimienne przyciągają się.", "Również doświadczalnie stwierdzono, że żadne naładowane ciało nie może mieć ładunku mniejszego niż ładunek elektronu czy protonu. Ładunki te równe co do wartości bezwzględnej nazywa się ładunkiem elementarnym \\( e=1.6·10^{-19} \\) C. Wszystkie realnie istniejące ładunki są wielokrotnością ładunku \\( e \\). Jeżeli wielkość fizyczna, taka jak ładunek elektryczny, występuje w postaci określonych \"porcji\" to mówimy, że wielkość ta jest skwantowana.", "Jednym z podstawowych praw fizyki jest zasada zachowania ładunku. Zasada ta, sformułowana przez Franklina, mówi, że"], "definitions": [{"name": "Definicja 1: Jednostka ładunku", "content": "W układzie SI jednostką ładunku jest kulomb (C). Jest to ładunek przenoszony przez prąd o natężeniu 1 ampera w czasie sekundy 1 C = 1 A·s."}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 253, "subject": "Prawo Coulomba", "paragraphs": ["Siłę wzajemnego oddziaływania dwóch naładowanych punktów materialnych (ładunków punktowych) znajdujących się w odległości \\( r \\) od siebie w próżni opisuje prawo Coulomba.", "Oddziaływanie ładunków zależy od ośrodka, w jakim znajdują się ładunki. Fakt ten uwzględniamy, wprowadzając stałą materiałową \\( \\varepsilon_{r} \\), zwaną względną przenikalnością elektryczną ośrodka tak, że prawo Coulomba przyjmuje postać", "Wartości \\( \\varepsilon_{r} \\) dla wybranych substancji zestawiono w Tabela 1."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 254, "subject": "Pole elektryczne", "paragraphs": ["W module Pole grawitacyjne, pola sił zdefiniowaliśmy natężenie pola grawitacyjnego w dowolnym punkcie przestrzeni jako siłę grawitacyjną działająca na masę \\( m \\) umieszczoną w tym punkcie przestrzeni podzieloną przez tę masę.", "Tak więc, żeby zmierzyć natężenie pola elektrycznego \\( \\bf{E} \\) w dowolnym punkcie przestrzeni, należy w tym punkcie umieścić ładunek próbny (ładunek jednostkowy) i zmierzyć wypadkową siłę elektryczną \\( \\bf F \\) działającą na ten ładunek. Należy upewnić się czy obecność ładunku próbnego \\( q \\) nie zmienia położeń innych ładunków. Jeżeli nie, to wtedy", "Przyjęto konwencję, że ładunek próbny jest dodatni więc kierunek wektora \\( \\bf{E} \\) jest taki sam jak kierunek siły działającej na ładunek dodatni. Jeżeli pole elektryczne jest wytworzone przez ładunek punktowy \\( q \\) to zgodnie z prawem Coulomba (zob. moduł Prawo Coulomba ) siła działająca na ładunek próbny \\( q \\) umieszczony w odległości \\( r \\) od tego ładunku wynosi", "Zwrot wektora \\( \\bf{E} \\) jest taki jak siły \\( \\bf{F} \\) więc zgodnie z definicją", "gdzie \\( {\\overset{\\wedge}{{\\bf r}}} \\) jest wektorem jednostkowym zgodnym z kierunkiem siły pomiędzy \\( q \\) i \\( Q \\).", "Na Rys. 1 jest pokazany wektor \\( {\\bf E}(r) \\) w wybranych punktach wokół ładunku \\( q \\).", "Dla \\( n \\) ładunków punktowych pole elektryczne (zgodnie z zasadą superpozycji) jest równe sumie wektorowej pól elektrycznych od poszczególnych ładunków", "Z zasady superpozycji możemy również skorzystać dla ciągłych rozkładów ładunków. Przykład takich obliczeń znajdziesz w module Dodatek: Pole elektryczne na osi pierścienia.", "Kierunek pola \\( {\\bf E} \\) w przestrzeni można przedstawić graficznie za pomocą tzw. linii sił (linii pola). Są to linie, do których wektor \\( {\\bf E} \\) jest styczny w każdym punkcie. Linie sił zaczynają się zawsze na ładunkach dodatnich, a kończą na ładunkach ujemnych. Linie sił rysuje się tak, że liczba linii przez jednostkową powierzchnię jest proporcjonalna do wartości \\( {\\bf E} \\); gdy linie są blisko siebie to \\( {\\bf E} \\) jest duże, a gdy są odległe od siebie to \\( {\\bf E} \\) jest małe.", "Na rysunku poniżej pokazane są linie pola dla dwóch przykładowych układów ładunków."], "definitions": [{"name": "Definicja 1: Natężenie pola elektrycznego", "content": "\nAnalogicznie definiujemy natężenie pola elektrycznego jako siłę działającą na ładunek próbny \\( q \\) (umieszczony w danym punkcie przestrzeni) podzieloną przez ten ładunek.\n\n"}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 255, "subject": "Prawo Gaussa", "paragraphs": ["Obliczanie pól elektrostatycznych metodą superpozycji może być skomplikowane matematycznie. Istnieje jednak, prostszy sposobu obliczania pól, który opiera się na wykorzystaniu prawa Gaussa. Żeby móc z niego skorzystać, poznamy najpierw pojęcie strumienia pola elektrycznego.", "gdzie \\( \\alpha \\) jest kątem pomiędzy wektorem powierzchni \\( {\\bf S} \\) (przypomnij sobie definicję wektora powierzchni w module Ciśnienie i gęstość płynów ) i wektorem \\( {\\bf E} \\) (zob. Rys. 1 ).", "Jeżeli wektor natężenia pola \\( {\\bf E} \\), w różnych punktach powierzchni \\( S \\), ma różną wartość i przecina tę powierzchnię pod różnymi kątami (zob. Rys. 2 ) to wówczas dzielimy powierzchnię na małe elementy \\( dS \\) i obliczamy iloczyn skalarny wektora powierzchni \\( dS \\) i lokalnego natężenia pola elektrycznego.", "Całkowity strumień przechodzący przez rozciągłą powierzchnię \\( S \\) obliczamy jako sumę przyczynków dla elementarnych powierzchni \\( dS \\).", "Suma ta przedstawia całkę powierzchniową", "W praktyce najczęściej oblicza się strumień przez powierzchnię zamkniętą.", "Pokazaliśmy, że strumień jest niezależny od \\( r \\). Można również pokazać (dowód pomijamy), że strumień jest taki sam dla każdej zamkniętej powierzchni (o dowolnym kształcie), która otacza ładunek \\( Q \\). Wybór powierzchni w kształcie sfery, w powyższym przykładzie, był podyktowany symetrią układu i pozwolił najłatwiej wykonać odpowiednie obliczenia. Taką całkowicie zamkniętą powierzchnię nazywamy powierzchnią Gaussa.", "Rozpatrzmy zamkniętą powierzchnię obejmującą dwa ładunki \\( Q_{1} \\) i \\( Q_{2} \\). Całkowity strumień (liczba linii sił) przechodzący przez powierzchnię otaczającą ładunki \\( Q_{1} \\) i \\( Q_{2} \\) jest równy", "gdzie pole \\( {\\bf E}_1 \\) jest wytwarzane przez \\( Q_{1} \\), a pole \\( {\\bf E}_2 \\) przez \\( Q_{2} \\). Kółko na znaku całki oznacza, że powierzchnia całkowania jest zamknięta. Korzystając z otrzymanego wcześniej wyniku ( 5 ) mamy", "Całkowity strumień pola elektrycznego przez zamkniętą powierzchnię jest więc równy całkowitemu ładunkowi otoczonemu przez tę powierzchnię podzielonemu przez \\( \\varepsilon_{0} \\). Analogiczne rozumowanie można przeprowadzić dla dowolnej liczby ładunków wewnątrz dowolnej zamkniętej powierzchni. Otrzymujemy więc ogólny związek znany jako prawo Gaussa", "Strumień wychodzący z naładowanego ciała jest równy wypadkowemu ładunkowi tego ciała podzielonemu przez \\( \\varepsilon_{0} \\). Jeżeli wypadkowy ładunek ciała jest ujemny to strumień pola elektrycznego, tak jak i linie pola, wpływa do ciała. Natomiast gdy ładunek wypadkowy wewnątrz zamkniętej powierzchni jest równy zeru to całkowity strumień też jest równy zeru; tyle samo linii pola wpływa jak i wypływa przez powierzchnię Gaussa. Podobnie jest w sytuacji gdy ładunki znajdują się na zewnątrz zamkniętej powierzchni. Te sytuacje są pokazane na Rys. 4.", "Całkowity strumień przez powierzchnię \"1\" jest dodatni, strumień przez powierzchnię \"2\" jest ujemny, a strumień przez powierzchnię \"3\" jest równy zeru.", "Teraz można przejść do zastosowania prawa Gaussa do obliczania natężenia pola \\( {\\bf E} \\) dla różnych naładowanych ciał.", "Zastosowania prawa Gaussa możesz znaleźć w modułach:"], "definitions": [{"name": "Definicja 1: Strumień pola", "content": "\nStrumień \\( {\\phi} \\) pola elektrycznego przez powierzchnię \\( S \\) definiujemy jako iloczyn skalarny wektora powierzchni \\( {\\bf S} \\) i natężenia pola elektrycznego \\( {\\bf E} \\).\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( {\\phi ={\\bf E}\\cdot {\\bf S}=\\mathit{ES}{\\cos}\\alpha } \\)\n\n\n\n"}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 256, "subject": "Zastosowanie prawa Gaussa: Izolowany przewodnik", "paragraphs": ["Większość ciał stałych można podzielić na przewodniki i izolatory. W przewodnikach ładunki elektryczne mogą się swobodnie poruszać, natomiast w izolatorach (zwanych także dielektrykami) ładunki pozostają nieruchome. W izolatorze nadmiarowy ładunek może być rozmieszczony w całej jego objętości. Natomiast gdy w przewodniku rozmieścimy ładunek w sposób przypadkowy, to będzie on wytwarzał pole elektryczne przemieszczające swobodne elektrony na powierzchnię przewodnika dopóty, dopóki nie zniknie pole wewnątrz przewodnika. Wtedy na ładunki nie działa już siła i otrzymujemy statyczny rozkład ładunku. Sprawdźmy to rozumowanie, posługując się prawem Gaussa. W tym celu rozpatrzmy dowolny w kształcie przewodnik. Wybieramy powierzchnię zamkniętą \\( S \\) tuż poniżej powierzchni przewodnika tak, jak na Rys. 1.", "Zastosujmy prawo Gaussa do tej powierzchni. Ponieważ wewnątrz przewodnika w dowolnym punkcie powierzchni \\( S \\), pole musi być równe zeru, bo inaczej elektrony poruszałyby się. Otrzymujemy", "Zatem", "Pokazaliśmy, że ładunek wewnątrz dowolnej zamkniętej powierzchni przewodnika musi być równy zeru; cały ładunek gromadzi się na powierzchni przewodnika."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 257, "subject": "Zastosowanie prawa Gaussa: Jednorodnie naładowana sfera", "paragraphs": ["Rozpatrzmy powierzchnię kulistą o promieniu \\( R \\) jednorodnie naładowaną ładunkiem \\( Q \\). Chcemy obliczyć pole \\( E \\) w odległości \\( r \\) od jej środka na zewnątrz ( \\( r > R \\)). W tym celu wybieramy powierzchnię Gaussa \\( S \\) w kształcie sfery o promieniu \\( r \\) pokazanej na Rys. 1.", "Ponieważ w dowolnym punkcie powierzchni Gaussa pole \\( {\\bf E} \\) ma tę samą wartość i jest prostopadłe do powierzchni więc", "Zatem zgodnie z prawem Gaussa otrzymujemy", "lub", "Widzimy, że na zewnątrz sfery tj. dla \\( r>R \\) pole jest takie jakby cały ładunek skupiony był w środku sfery. Natomiast wewnątrz sfery ( \\( r < R \\)) \\( Q_{\\text wewn.} = 0 \\) więc \\( E_{\\text wewn.} = 0 \\)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 258, "subject": "Zastosowanie prawa Gaussa: Jednorodnie naładowana kula", "paragraphs": ["Jednorodnie w całej objętości możemy naładować jedynie kulę z izolatora bo w przewodniku cały ładunek gromadzi się na powierzchni. Taka kula może być rozpatrywana z zewnątrz jako szereg współśrodkowych powłok kulistych (opisanych powyżej). Tak więc pole elektryczne na zewnątrz kuli o promieniu \\( R \\) naładowanej ładunkiem \\( Q \\), w odległości \\( r \\) od jej środka ( \\( r>R \\) ) jest dane wzorem Zastosowanie prawa Gaussa: Jednorodnie naładowana sfera-( 3 ). Pozostaje więc nam obliczenie pola elektrycznego w dowolnym punkcie wewnątrz kuli czyli w odległości \\( r>r \\). W tym celu wprowadzamy liniową gęstość ładunku \\( \\lambda \\) równą ilości ładunku przypadającego na jednostkę długości pręta \\( \\lambda= Q/l \\). Ze względu na symetrię układu jako powierzchnię Gaussa wybierzmy walec (oczywiście można wybrać dowolny kształt) o promieniu \\( r \\) większym od promienia pręta \\( R \\), bo chcemy policzyć pole na zewnątrz pręta (zob. Rys. 1 ).", "Z prawa Gaussa", "Ze względu na symetrię pole elektryczne \\( {\\bf E} \\) jest skierowane radialnie względem pręta, tzn. jest prostopadłe do bocznej powierzchni walca (powierzchni Gaussa). Strumień pola \\( E \\) przez podstawy walca jest więc równy zeru, bo \\( {\\bf E} \\) leży na bocznej powierzchni. Ponadto pole elektryczne ma taką samą wartość w każdym punkcie powierzchni bocznej walca więc spełnione jest równanie", "lub", "Teraz obliczymy pole wewnątrz jednorodnie naładowanego pręta. Ponownie wybieramy powierzchnię Gaussa w kształcie walca, ale o promieniu \\( r< R \\). Wprowadzamy gęstość objętościową ładunku \\( \\rho \\) równą ładunkowi przypadającemu na jednostkę objętości. Możemy zapisać ładunek zamknięty wewnątrz powierzchni Gaussa", "Z prawa Gaussa otrzymujemy", "a stąd", "Pole rośnie liniowo w miarę oddalania się od środka pręta."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 260, "subject": "Zastosowanie prawa Gaussa: Płaskie rozkłady ładunków", "paragraphs": ["Teraz obliczymy pole od nieskończonej jednorodnie naładowanej płaszczyzny. W tym celu wprowadzamy powierzchniową gęstość ładunku \\( \\sigma \\) równą ilości ładunku przypadającego na jednostkę powierzchni. Powierzchnię Gaussa wybieramy na przykład w postaci walca takiego jak na Rys. 1.", "Ładunek otoczony przez powierzchnię Gaussa jest równy \\( Q_{wewn.}=\\sigma S \\), gdzie \\( \\sigma \\) jest gęstością powierzchniową, a \\( S \\) powierzchnią podstawy walca. Z symetrii wynika, że pole \\( {\\bf E} \\) jest prostopadłe do płaszczyzny więc nie przecina bocznej powierzchni walca (strumień przez boczną powierzchnię jestrówny zeru).", "Z prawa Gaussa otrzymujemy", "gdzie czynnik 2 odpowiada dwóm podstawom walca (linie pola wychodzą w obie strony). Ostatecznie więc", "W praktyce stosuje się, pokazany na Rys. 2 , układ dwóch płaskich równoległych płyt naładowanych ładunkami jednakowej wielkości ale o przeciwnych znakach (kondensator płaski).", "Pole wytwarzane przez płytę naładowaną ładunkiem dodatnim jest równe \\( E_{+}=\\sigma/2\\varepsilon_{0} \\) i skierowane od płyty. Natomiast pole wytwarzane przez płytę naładowaną ujemnie ma tę samą wartość \\( E_{-}=\\sigma/2\\varepsilon_{0} \\) ale skierowane jest do płyty. Zatem w obszarze (I)", "w obszarze (II)", "a w obszarze (III)", "Widzimy, że na zewnątrz układu pole jest równe zeru a pomiędzy płytami ma w każdym punkcie stałą wartość \\( \\sigma /\\varepsilon _{0} \\) . Takie pole nazywamy polem jednorodnym."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 261, "subject": "Zastosowanie prawa Gaussa: Powierzchnia przewodnika", "paragraphs": ["Rozpatrzmy sytuacje w której naładowana powierzchnia jest kulą tak jak na Rys. 1.", "Ponieważ cały ładunek gromadzi się na zewnętrznej powierzchni to wewnątrz pole \\( {\\bf E} = 0 \\). Co więcej \\( {\\bf E} \\) musi być prostopadłe do powierzchni, bo gdyby istniała składowa styczna do powierzchni to elektrony poruszałyby się po niej. Ponownie, jak w przypadku nieskończonej naładowanej płaszczyzny wybieramy powierzchnię Gaussa w kształcie walca (zob. moduł Zastosowanie prawa Gaussa: Płaskie rozkłady ładunków-Rys. 1 ), ale tym razem linie pole wychodzą tylko przez jedną podstawę walca \\( S \\), na zewnątrz. Z prawa Gaussa wynika, że", "a stąd", "na powierzchni przewodnika."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 331, "subject": "Energia potencjalna w polu elektrycznym", "paragraphs": ["Zgodnie z naszymi rozważaniami w module Energia potencjalna, różnica energii potencjalnej \\( E_p \\) pomiędzy punktami \\( A \\) i \\( B \\) jest równa pracy (ze znakiem minus) wykonanej przez siłę zachowawczą przy przemieszczaniu ciała od \\( A \\) do \\( B \\) i wynosi", "Dla pola elektrycznego energia potencjalna wynosi", "gdzie \\( \\bf E \\) jest natężeniem pola elektrycznego. Siły elektryczne są siłami zachowawczymi i wartość pracy nie zależy od wyboru drogi pomiędzy punktami \\( A \\) i \\( B \\). Jeżeli teraz podobnie jak dla grawitacyjnej energii potencjalnej przyjmiemy, że energia potencjalna pola elektrycznego jest równa zeru w nieskończoności to wówczas energia potencjalna w danym punkcie \\( r \\) pola elektrycznego jest dana wyrażeniem", "Jeżeli źródłem pola elektrycznego jest ładunek punktowy \\( Q \\) to energia potencjalna w odległości \\( r \\) od niego jest równa", "Zauważmy, że energia potencjalna ładunku w polu elektrycznym zależy wielkości tego ładunku."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 332, "subject": "Potencjał elektryczny", "paragraphs": ["Jak pokazano w module Energia potencjalna w polu elektrycznym energia potencjalna ładunku w polu elektrycznym zależy od wielkości tego ładunku. Dlatego do opisu pola elektrycznego lepiej posługiwać się energią potencjalną przypadającą na jednostkowy ładunek czyli potencjałem elektrycznym.", "Potencjał pola ładunku punktowego \\( Q \\) możemy otrzymać natychmiast dzieląc równanie Energia potencjalna w polu elektrycznym-( 4 ) obustronnie przez \\( q \\)", "Obliczony potencjał określa pracę potrzebną do przeniesienia jednostkowego ładunku z nieskończoności na odległość \\( r \\) od ładunku \\( Q \\). Potencjał charakteryzuje pole elektryczne; a nie zależy od umieszczonego w nim ładunku.", "Często w fizyce posługujemy się pojęciem różnicy potencjałów czyli napięciem (oznaczanym \\( U \\)). Różnica potencjałów między dwoma punktami \\( A \\) i \\( B \\) jest równa pracy potrzebnej do przeniesienia w polu elektrycznym ładunku jednostkowego (próbnego) \\( q \\) pomiędzy tymi punktami. Wyrażenie na różnicę potencjałów otrzymamy bezpośrednio ze wzoru Energia potencjalna w polu elektrycznym-( 2 ) w module Energia potencjalna w polu elektrycznym, dzieląc to równanie obustronnie przez \\( q \\)", "Znak minus odzwierciedla fakt, że potencjał maleje w kierunku wektora \\( {\\bf E} \\).", "Podobnie jak natężenie pola elektrycznego, które ilustrowaliśmy za pomocą linii sił pola (zob. moduł Pole elektryczne ) również potencjał elektryczny można przedstawialiśmy graficznie. W tym celu rysujemy powierzchnie lub linie ekwipotencjalne, które przedstawiają w przestrzeni zbiory punktów o jednakowym potencjale.", "Jako przykład pokazany jest na Rys. 1 rozkład potencjału, na płaszczyźnie \\( xy \\), wokół dipola elektrycznego. Poziomice (linie pogrubione) łączą punkty o jednakowym potencjale (linie ekwipotencjalne). Każda krzywa odpowiada innej stałej wartości potencjału.", "Gdy znamy rozkład potencjału elektrycznego wytworzonego w każdym punkcie przestrzeni przez dany układ ładunków to na podstawie wielkości zmiany potencjału, przypadającej na jednostkę długości w danym kierunku możemy określić natężenie pola elektrycznego \\( \\bf E \\) w tym kierunku. Warunek ten (we współrzędnych \\( x \\), \\( y \\), \\( z \\)) wyraża się następująco", "Możemy więc przy pomocy obliczania pochodnych cząstkowych z wielkości skalarnej (potencjału \\( V \\)) otrzymać składowe wielkości wektorowej (pola \\( \\bf E \\)) w dowolnym punkcie przestrzeni.", "Im większa (mniejsza) zmiana potencjału na jednostkę długości tym większe (mniejsze) pole elektryczne w danym kierunku. Znak minus odzwierciedla fakt, że wektor \\( \\bf E \\) jest skierowany w stronę malejącego potencjału. Kierunek pola elektrycznego w dowolnym punkcie odpowiada kierunkowi, wzdłuż którego potencjał spada najszybciej, co oznacza, że linie sił pola są prostopadłe do powierzchni (linii) ekwipotencjalnych. Zostało to zilustrowane na Rys. 2, gdzie pokazane są powierzchnie ekwipotencjalne (linie ich przecięcia z płaszczyzną rysunku) oraz linie sił pola (a) ładunku punktowego, (b) dipola elektrycznego (porównaj z ).", "Wzory wyrażające związek pomiędzy potencjałem i polem elektrycznym są bardzo użyteczne, bo na ogół łatwiej obliczyć i zmierzyć potencjał niż natężenie pola.", "W module Zastosowanie prawa Gaussa: Izolowany przewodnik pokazano, że cały ładunek umieszczony na izolowanym przewodniku gromadzi się na jego powierzchni i że pole \\( E \\) musi być prostopadłe do powierzchni, bo gdyby istniała składowa styczna do powierzchni, to elektrony przemieszczałyby się. W oparciu o wyrażenie ( 5 ) możemy podać alternatywne sformułowanie. Jeżeli pole \\( E \\) wzdłuż powierzchni przewodnika równa się zeru, to różnica potencjałów też równa się zeru \\( \\Delta V = 0 \\). Oznacza to, że", "Obliczeń potencjału elektrycznego dla różnych naładowanych ciał można zobaczyć w module Obliczanie potencjału elektrycznego."], "definitions": [{"name": "Definicja 1: Potencjał elektryczny", "content": "\n\nPotencjał elektryczny definiujemy jako energię potencjalną pola elektrycznego podzieloną przez jednostkowy ładunek.\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( {V(r)=\\frac{E_{{p}}(r)}{q}=\\frac{W_{{\\infty r}}}{q}} \\)\n\n"}, {"name": "Definicja 2: Jednostka potencjału elektrycznego", "content": "\n\nJednostką potencjału elektrycznego jest wolt ( \\( V \\)); \\( 1 V = 1 J/C \\).\n\n"}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 262, "subject": "Obliczanie potencjału elektrycznego", "paragraphs": ["Jako przykład rozważymy różnicę potencjałów między powierzchnią i środkiem sfery o promieniu \\( R \\) naładowanej jednorodnie ładunkiem \\( Q \\). Jak pokazaliśmy w module Zastosowanie prawa Gaussa: Jednorodnie naładowana sfera pole elektryczne wewnątrz naładowanej sfery ( \\( r < R \\) ) jest równe zeru \\( E = 0 \\). Oznacza to (równanie Potencjał elektryczny-( 5 ) ), że różnica potencjałów też jest równa zeru \\( V_{B}- V_{A} = 0 \\), to znaczy potencjał w środku jest taki sam jak na powierzchni sfery. Natomiast na zewnątrz (dla \\( r {\\geq} R \\)) potencjał jest taki jak dla ładunku punktowego skupionego w środku sfery, czyli jest dany równaniem Potencjał elektryczny-( 2 ). Zależność potencjału i odpowiadającego mu natężenia pola od odległości od środka naładowanej sfery jest pokazana na Rys. 1.", "Porównując dwa powyższe wykresy \\( V(r) \\) i \\( E(r) \\), możemy zauważyć, że istnieje między nimi związek dany wyrażeniem", "W każdym punkcie natężenie pola \\( E(r) \\) jest równe nachyleniu wykresu \\( V(r) \\) ze znakiem minus. Ten związek pomiędzy natężeniem pola i potencjałem wynika wprost z równania Potencjał elektryczny-( 5 ) bo na jego mocy \\( {\\mathit{dV}=\\mathit{Edr}} \\). Obliczanie potencjału dla układu ładunków punktowych prześledzimy na przykładzie potencjału dipola. W tym celu rozpatrzymy punkt \\( P \\) odległy o \\( r \\) od środka dipola tak jak to widać na Rys. 2. Położenie punktu \\( P \\) jest określone poprzez \\( r \\) i \\( \\theta \\).", "Korzystamy z zasady superpozycji:", "Dlatego potencjał w punkcie \\( P \\) pochodzący od ładunków \\( Q \\) i \\( -Q \\) wynosi", "To jest ścisłe wyrażenie na potencjał dipola, ale do jego obliczenia potrzeba znać \\( r_1 \\) oraz \\( r_2 \\). My natomiast rozważymy tylko punkty odległe od dipola, dla których \\( r>>l \\). Dla takich punktów możemy przyjąć z dobrym przybliżeniem, że \\( {r_{2}-r_{1}}\\approx {l \\cos \\theta} \\) oraz \\( {r_{{2}}r_{{1}}\\approx r^{{2}}} \\). Po uwzględnieniu tych zależności wyrażenie na potencjał przyjmuje postać", "gdzie \\( p = Ql \\) jest momentem dipolowym.", "Na zakończenie wróćmy do modułu Zastosowanie prawa Gaussa: Płaskie rozkłady ładunków i obliczymy różnicę potencjałów dla dwóch przeciwnie naładowanych płyt o polu powierzchni \\( S \\) każda, znajdujących się w odległości \\( d \\) od siebie. Ładunki na płytach wynoszą odpowiednio \\( +Q \\) i \\( -Q \\), więc gęstość powierzchniowa ładunku \\( \\sigma = Q/S \\). Ze wzoru Potencjał elektryczny-( 5 ) wynika, że", "a ponieważ, zgodnie z naszymi obliczeniami, pole pomiędzy płytami jest równe \\( E = \\sigma / \\varepsilon_{0} \\), więc", "lub"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 263, "subject": "Pojemność elektryczna", "paragraphs": ["Układ dwóch przewodników, który może gromadzić ładunek elektryczny, przy przyłożonej różnicy potencjałów, nazywamy kondensatorem, a te przewodniki okładkami kondensatora. Rys. 1 przedstawia kondensator płaski, w którym przewodniki (okładki) stanowią dwie równoległe płytki przewodzące.", "Wielkością charakteryzującą kondensator jest jego pojemność, którą definiujemy następująco:", "Zwróćmy uwagę, że \\( Q \\) jest ładunkiem na każdym przewodniku, a nie ładunkiem wypadkowym na kondensatorze (ładunek wypadkowy równy jest zeru). Pojemność kondensatora płaskiego możemy obliczyć z definicji ( 1 ), korzystając z równania Obliczanie potencjału elektrycznego-( 9 ).", "Zauważmy, że pojemność zależy od kształtu okładek, ich rozmiaru i wzajemnego położenia. Oznacza to, że dla kondensatorów o innej geometrii obowiązują inne wzory. Równanie ( 2 ) obowiązuje dla kondensatora płaskiego znajdującego się w próżni. Zależność pojemność kondensatora od przenikalności elektrycznej ośrodka jest omówiona w module Kondensator z dielektrykiem.", "Kondensatory są częścią składową prawie wszystkich układów elektronicznych. W celu dobrania odpowiedniej pojemności powszechnie stosuje się ich łączenie w układy szeregowe lub równoległe.", "Definicję pojemności można rozszerzyć na przypadek pojedynczego izolowanego przewodnika.", "Dany przewodnik można zatem uważać za jedną z okładek kondensatora, w którym druga okładka kondensatora znajduje się w nieskończoności i ma potencjał równy zeru."], "definitions": [{"name": "Definicja 1: Pojemność elektryczna", "content": "\nPojemnością elektryczną nazywamy stosunek ładunku kondensatora do różnicy potencjałów (napięcia) między okładkami.\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( {C=\\frac{Q}{\\mathit{\\Delta V }}} \\)\n\n"}, {"name": "Definicja 2: Jednostka pojemności", "content": "Jednostką pojemności jest farad ( \\( F \\)); \\( 1F = 1C/1V \\). Powszechnie stosuje się jednak mniejsze jednostki: \\( \\mu F \\), \\( nF \\), \\( pF. \\)"}, {"name": "Definicja 3: Pojemność elektryczna przewodnika", "content": "\nPojemnością elektryczną przewodnika nazywamy stosunek ładunku umieszczonego na przewodniku do potencjału jaki ma ten przewodnik w polu elektrycznym wytworzonym przez ten ładunek.\n\n(7)\n\n\t\t\t\t\t\t\t\t\\( {C=\\frac{Q}{V}} \\)\n\n"}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 264, "subject": "Energia pola elektrycznego w kondensatorze", "paragraphs": ["Rozpatrzmy początkowo nienaładowany kondensator, który ładujemy, przenosząc elektrony pomiędzy okładkami. Okładka, z której zabieramy elektrony ładuje się dodatnio, a okładka, na którą je przenosimy ujemnie. W wyniku tego postępowania różnica potencjałów rośnie od \\( 0 \\) do \\( \\Delta V \\), a ładunek na kondensatorze wzrasta od \\( 0 \\) do \\( Q \\). Praca zużyta na przeniesienie porcji ładunku dq pomiędzy okładkami przy panującej w danej chwili różnicy potencjałów \\( \\Delta V \\) wynosi zgodnie ze wzorem Potencjał elektryczny-( 5 )", "Musimy przy tym pamiętać, że w trakcie ładowania kondensatora różnica potencjałów rośnie, więc przenoszenie dalszych porcji ładunku jest coraz trudniejsze (wymaga więcej energii). Całkowita praca na przeniesienie ładunku \\( Q \\), równa energii potencjalnej zgromadzona w kondensatorze, wynosi zatem", "gdzie skorzystaliśmy ze wzoru Pojemność elektryczna-( 1 ) na pojemność. Przypomnijmy, że dla kondensatora płaskiego (moduł Pojemność elektryczna )", "skąd", "Po podstawieniu do wzoru ( 2 ), otrzymujemy", "Uwzględniając wyrażenie Pojemność elektryczna-( 2 ) na pojemność kondensatora płaskiego ostatecznie", "Zauważmy, że iloczyn \\( Sd \\) jest objętością kondensatora, więc gęstość energii \\( w \\) (pola elektrycznego), która jest energią zawartą w jednostce objętości wynosi"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 265, "subject": "Kondensator z dielektrykiem", "paragraphs": ["Doświadczenie pokazuje, że umieszczenie dielektryka (izolatora) pomiędzy okładkami kondensatora zwiększa jego pojemność \\( \\varepsilon_{r} \\) razy", "Wielkość \\( \\varepsilon_{r} \\)nazywamy względną przenikalnością elektryczna lub stałą dielektryczną. W Tabela 1 zestawione zostały stałe dielektryczne wybranych materiałów.", "Wzrost pojemności kondensatora w wyniku umieszczenia w nim dielektryka wynika z zachowania się atomów (cząsteczek) dielektryka w polu elektrycznym w kondensatorze, przy czym istnieją dwie możliwości. Po pierwsze istnieją cząsteczki, w których środek ładunku dodatniego jest trwale przesunięty względem środka ładunku ujemnego. Przykładem może być cząsteczka \\( H_{2}O \\) pokazana na Rys. 1.", "W wyniku charakterystycznej budowy w cząsteczce wody ładunek ujemny jest przesunięty w stronę atomu tlenu, a środek ładunku dodatniego jest bliżej atomów wodoru. Takie cząsteczki mają więc trwały elektryczny moment dipolowy.", "Po drugie, w przypadku cząsteczek i atomów nie posiadających trwałych momentów dipolowych, taki moment może być wyindukowany przez umieszczenie ich w zewnętrznym polu elektrycznym. Pole działa na ładunki dodatnie (jądra atomowe) i ujemne (chmury elektronowe), rozsuwając ich środki. Atomy (cząsteczki) wykazują elektryczny moment dipolowy, ulegają polaryzacji. Przykładowo, jeżeli umieścimy atom wodoru w zewnętrznym polu \\( E \\), to siła \\( F = -eE \\) przesuwa elektron o \\( r \\) względem protonu. Wówczas atom ma indukowany moment dipolowy \\( p = er \\). Ponieważ jest to moment indukowany polem zewnętrznym więc znika, gdy usuniemy pole.", "W zerowym polu momenty dipolowe są zorientowane przypadkowo (zob. Rys. 2a). Natomiast po umieszczeniu w polu elektrycznym trwałe elektryczne momenty dipolowe dążą do ustawienia zgodnie z kierunkiem pola, a stopień uporządkowania zależy od wielkości pola i od temperatury (ruchy termiczne cząstek zaburzają uporządkowanie). Natomiast momenty indukowane są równoległe do kierunku pola. Cały materiał w polu \\( E \\) zostaje spolaryzowany. Spolaryzowany zewnętrznym polem \\( E \\) dielektryk (umieszczony w naładowanym kondensatorze) jest pokazany na Rys. 2b.", "Zwróćmy uwagę, że w rezultacie wewnątrz dielektryka ładunki kompensują się, a jedynie na powierzchni dielektryka pojawia się nieskompensowany ładunek \\( q' \\). Ładunek dodatni gromadzi się na jednej, a ujemny na drugiej powierzchni dielektryka (zob. Rys. 2c).", "Ładunek \\( q \\) jest zgromadzony na okładkach, a \\( q' \\) jest ładunkiem wyindukowanym na powierzchni dielektryka. Te wyindukowane ładunki wytwarzają pole elektryczne \\( \\bf E' \\) przeciwne do pola \\( \\bf E \\) pochodzącego od swobodnych ładunków na okładkach kondensatora. Wypadkowe pole w dielektryku \\( \\bf E_{w} \\) (suma wektorowa pól \\( \\bf E' \\) i \\( \\bf E \\)) ma ten sam kierunek co pole \\( \\bf E \\), ale mniejszą wartość. Pole związane z ładunkiem polaryzacyjnym \\( q' \\) nosi nazwę polaryzacji elektrycznej.", "Widzimy, że", "Zastosujemy teraz prawo Gaussa do kondensatora wypełnionego dielektrykiem. Dla powierzchni Gaussa zaznaczonej na Rys. 2c linią przerywaną otrzymujemy", "Ponieważ pole \\( E \\) jest jednorodne, więc", "skąd otrzymujemy", "Pojemność takiego kondensatora wypełnionego dielektrykiem wynosi zatem", "Dzieląc powyższe równanie obustronnie przez \\( C \\), otrzymujemy", "Powyższe równanie pokazuje, że wyindukowany ładunek powierzchniowy \\( q' \\) jest mniejszy od ładunku swobodnego \\( q \\) na okładkach. Dla kondensatora bez dielektryka \\( q' = 0 \\) i wtedy \\( \\varepsilon_{r} = 1 \\).", "Więcej na ten temat dielektryków w polu elektrycznym możesz dowiedzieć się w moduIe Dodatek: Dielektryk w polu elektrycznym - rozważania ilościowe.", "Korzystając z powyższego związku ( 6 ) i podstawiając za \\( q - q' \\) do równania ( 2 ), możemy napisać prawo Gaussa (dla kondensatora z dielektrykiem) w postaci", "To równanie stanowi najbardziej ogólną postać prawa Gaussa.", "Zauważmy, że strumień pola elektrycznego dotyczy wektora \\( \\varepsilon_{r}{\\bf E } \\) (a nie wektora \\( {\\bf E } \\)), i że w równaniu występuje tylko ładunek swobodny, a wyindukowany ładunek powierzchniowy został uwzględniony przez wprowadzenie stałej dielektrycznej \\( \\varepsilon_{r} \\). Porównując pole elektryczne w kondensatorze płaskim bez dielektryka \\( E = q/\\varepsilon_{0}S \\) z wartością daną równaniem ( 4 ) widzimy, że wprowadzenie dielektryka zmniejsza pole elektryczne \\( \\varepsilon_{r} \\) razy (indukowany ładunek daje pole przeciwne do pola od ładunków swobodnych na okładkach (zob. Rys. 2b)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 266, "subject": "Podsumowanie z elektrostatyki", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 1451, "subject": "Dodatek: Dielektryk w polu elektrycznym - rozważania ilościowe", "paragraphs": ["Rozpatrzmy atom umieszczony w zewnętrznym polu elektrycznym o natężeniu \\( E \\). Wówczas na atom działa siła, która przesuwa chmurę elektronową o \\( r \\) względem jądra atomowego ( Rys. 1 ).", "Wówczas atom ma indukowany moment dipolowy \\( p \\), a wypadkowe pole elektryczne w miejscu jądra jest sumą pola zewnętrznego i pola od chmury elektronowej.", "Jeżeli potraktujemy, w naszym uproszczonym modelu, chmurę elektronową jako jednorodnie naładowaną kulę o promieniu \\( R \\) to pole elektryczne wytworzone przez chmurę elektronową w odległości \\( r \\) \\( (r < R) \\)od jej środka jest dane wzorem Prawo Gaussa-( 7 )", "Ponieważ jądro znajduje się w położeniu równowagi (nie przemieszcza się) więc \\( E_{wyp.}=0 \\), skąd dostajemy", "skąd", "Zatem, indukowany moment dipolowy jest równy", "Moment \\( p \\) zgodnie z oczekiwaniami jest proporcjonalny do natężenia zewnętrznego pola elektrycznego \\( E \\).", "Rozpatrzmy teraz dielektryk, w którym znajduje się \\( N \\) atomów (cząsteczek). Jeżeli każdy atom ma średni moment dipolowy \\( {\\overline{{p}}} \\) skierowany zgodnie z zewnętrznym polem \\( E \\) to całkowity moment dipolowy", "Z drugiej strony indukowany ładunek \\( q' \\) pojawia się jedynie na powierzchni dielektryka więc dla kondensatora płaskiego, wypełnionego dielektrykiem, którego okładki o powierzchni \\( S \\) są umieszczone w odległości \\( d \\)", "Łącząc te wyrażenia, otrzymujemy", "lub", "gdzie \\( n \\) koncentracją atomów (cząsteczek), tj. ilością atomów w jednostce objętości \\( n = N/(Sd)n \\). Ostatecznie więc", "Podstawiamy tę wielkość do wzoru na \\( \\varepsilon_{r} \\)", "Pokazaliśmy powyżej, że indukowany moment dipolowy \\( p \\) wynosi \\( {p=Qr=\\frac{R^{{3}}}{k}E} \\).", "Podstawiając do tego wzoru wyrażenie na natężenie pola elektrycznego w kondensatorze płaskim (wzór Kondensator z dielektrykiem-( 4 ) ), otrzymujemy", "Wstawiając to wyrażenie do wzoru ( 11 ), obliczamy \\( \\varepsilon_{r} \\)", "skąd", "Otrzymana zależność jest przybliżona ze względu na znaczne uproszczenia przyjętego modelu atomu jednak pokazuje, że przenikalność dielektryczna \\( \\varepsilon_{r} \\) jest większa od jedności i że zależy od właściwości dielektryka, takich jak koncentracja atomów \\( n \\) i promień atomu \\( R \\)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 1. Pole elektryczne i elektrostatyka", "subject_id": 1452, "subject": "Dodatek: Pole elektryczne na osi pierścienia", "paragraphs": ["Z zasady superpozycji możemy również skorzystać dla ciągłych rozkładów ładunków. Jako przykład rozpatrzymy jednorodnie naładowany pierścień o promieniu \\( R \\) i całkowitym ładunku \\( Q \\) pokazany na Rys. 1. Chcemy obliczyć pole elektryczne na osi pierścienia w odległości \\( x \\) od jego środka.", "W pierwszym kroku dzielimy pierścień na elementy o długości \\( dl \\) i obliczamy pole elektryczne \\( dE \\) wytwarzane przez taki element. Zgodnie z Rys. 1", "oraz", "Jeżeli \\( \\lambda=Q/2\\pi R \\) jest liniową gęstością ładunku (ilością ładunku na jednostkę długości) to element \\( dl \\) zawiera ładunek \\( dQ=\\lambda dl \\) i natężenie pola od tego elementu jest równe", "oraz", "Pole elektryczne całego pierścienia otrzymujemy zgodnie z zasadą superpozycji, sumując (całkując) pola od wszystkich elementów pierścienia. Zwróćmy uwagę, że składowe pionowe \\( dE_{y} \\) elementów leżących po przeciwnych stronach pierścienia znoszą się wzajemnie więc", "Zauważmy, że w środku pierścienia \\( (x=0) \\) \\( E=0 \\), a w bardzo dużej odległości od pierścienia \\( (x>>R) \\) pole zmierza do wartości \\( E\\rightarrow kQ/x^{2} \\) takiej jak pole ładunku punktowego w tej odległości.", "Jedną z zalet posługiwania się pojęciem pola elektrycznego jest to, że nie musimy zajmować się szczegółami źródła pola. Powyższy przykład pokazuje, że z pomiaru pola elektrycznego nie możemy ustalić jaki jest rozkład ładunków będący źródłem tego pola (ładunek punktowy czy odległy naładowany pierścień)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 2. Prąd elektryczny", "subject_id": 267, "subject": "Natężenie prądu elektrycznego", "paragraphs": ["Nośnikami ładunku w metalu są poruszające się swobodnie (nie związane z poszczególnymi atomami) elektrony, tzw. elektrony przewodnictwa.", "Bez pola elektrycznego te elektrony poruszają się (dzięki energii cieplnej) przypadkowo we wszystkich kierunkach. Elektrony swobodne zderzają się z atomami (jonami) przewodnika, zmieniając swoją prędkość i kierunek ruchu zupełnie tak, jak cząsteczki gazu zamknięte w zbiorniku. Jeżeli rozpatrzymy przekrój poprzeczny \\( S \\) przewodnika, jak na Rys. 1, to elektrony w swoim chaotycznym ruchu cieplnym przechodzą przez tę powierzchnię w obu kierunkach i wypadkowy strumień ładunków przez tę powierzchnię jest równy zeru. Przez przewodnik nie płynie prąd.", "Ruchowi chaotycznemu nie towarzyszy przepływ prądu. Prąd elektryczny to uporządkowany ruch ładunków.", "Przyłożenie napięcia \\( U \\) (różnicy potencjałów \\( \\Delta V \\)) pomiędzy końcami przewodnika wytwarza pole elektryczne \\( E \\), które działa siłą na ładunki, powodując ich ruch w określonym kierunku w przewodniku. Ruch chaotyczny każdego elektronu zostaje zmodyfikowany. W przewodniku płynie prąd elektryczny. Na Rys. 1 zaznaczona jest prędkość ruchu elektronów uzyskana dzięki przyłożonemu polu elektrycznemu.", "Przepływ prądu przez przewodnik jest opisywany przez natężenia prądu.", "Jeżeli natężenie prądu nie jest stałe, to wyrażenie ( 1 ) określa średnie natężenie prądu, a natężenie chwilowe jest określone jako", "Wielkością związaną z natężeniem prądu jest gęstość prądu.", "Gęstość prądu jest wektorem. Jego długość określa wzór ( 3 ), a kierunek i zwrot są zgodne z wektorem prędkości ładunków dodatnich. Zauważmy, że oprócz ujemnych elektronów, które są nośnikami ładunku w metalach mamy do czynienia również z innymi nośnikami: w półprzewodnikach obok elektronów nośnikami są dziury (nośniki dodatnie), a w gazach i cieczach elektrony oraz jony dodatnie (kationy) i jony ujemne (aniony). Za umowny kierunek prądu przyjmujemy kierunek ruchu ładunków dodatnich.", "Jak już powiedzieliśmy wcześniej, w nieobecności zewnętrznego pola elektrycznego swobodne elektrony w metalu poruszają się chaotycznie we wszystkich kierunkach. Natomiast w zewnętrznym polu elektrycznym elektrony uzyskują średnią prędkość unoszenia \\( v_{u} \\). Jeżeli \\( n \\) jest koncentracją elektronów, to ilość ładunku \\( Q \\) jaka przepływa przez przewodnik o długości \\( l \\) i przekroju poprzecznym \\( S \\) w czasie \\( t = l/v_{u} \\) wynosi", "gdzie iloczyn \\( lS \\) jest objętością przewodnika. Natężenie prądu wynosi więc", "a gęstość prądu", "gdzie \\( \\rho \\) jest gęstością ładunku.", "Powstaje więc pytanie, jak przy tak znikomo małej prędkości elektronów możliwe jest błyskawiczne przenoszenie sygnałów elektrycznych, np. w sieci telefonicznej, komputerowej czy elektrycznej?", "Dzieje się tak dlatego, że wywołana przyłożonym napięciem (sygnałem) zmiana pola elektrycznego rozchodzi się wzdłuż przewodnika z prędkością bliską prędkości światła w próżni (2.998·10 \\( ^{8} \\) m/s). Oznacza to, że zewnętrzne pole elektryczne wywołuje ruch elektronów praktycznie jednocześnie z włączeniem napięcia (nadaniem sygnału) wzdłuż całej długości przewodnika, tzn. równocześnie zaczynają się poruszać elektrony zarówno w pobliżu nadajnika, jak i odbiornika. Tak więc pomimo bardzo małej prędkości średniej uporządkowanego ruchu elektronów, sygnał \"natychmiast\" dociera do odbiornika."], "definitions": [{"name": "Definicja 1: Natężenie prądu", "content": "Natężenie prądu elektrycznego definiujemy jako ilość ładunku jaka przepływa przez przekrój poprzeczny przewodnika w jednostce czasu.\n\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( {I=\\frac{Q}{t}} \\)\n\n"}, {"name": "Definicja 2: Gęstość prądu", "content": "Gęstość prądu elektrycznego definiowana jest jako natężenie prądu na jednostkę powierzchni przekroju poprzecznego przewodnika.\n\n\n(3)\n\n\t\t\t\t\t\t\t\t\\( {j=\\frac{I}{S}} \\)\n\n"}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 2. Prąd elektryczny", "subject_id": 268, "subject": "Prawo Ohma", "paragraphs": ["Jeżeli do przewodnika przyłożymy napięcie \\( U \\) (różnicę potencjałów \\( \\Delta V \\)), to przez przewodnik płynie prąd, którego natężenie I jest proporcjonalne do przyłożonego napięcia. Ten ważny wynik doświadczalny jest treścią prawa Ohma, które stwierdza, że", "Prawo Ohma jest słuszne pod warunkiem, że przewodnik znajduje się w stałej temperaturze. Zależność oporu od temperatury jest omówiona w dalszej części. O wyprowadzeniu prawa Ohma możesz przeczytać w module Wyprowadzenie prawa Ohma.", "Opór przewodnika zależy od jego wymiarów; opór \\( R \\) jest proporcjonalny do długości przewodnika \\( l \\) i odwrotnie proporcjonalny do jego przekroju \\( S \\).", "Stałą \\( \\rho \\), charakteryzującą elektryczne własności materiału, nazywamy oporem właściwym (rezystywnością), a jej odwrotność \\( \\sigma = 1/\\rho \\) przewodnością właściwą.", "W Tabela 1 poniżej zestawione zostały opory właściwe wybranych materiałów", "Opory właściwe wybranych materiałów (w temperaturze pokojowej)", "Korzystając ze wzorów ( 1 ), ( 2 ) oraz z zależności \\( U = El \\) możemy wyrazić gęstość prądu w przewodniku jako", "lub", "Jak już powiedzieliśmy wcześniej gęstość prądu jest wektorem i dlatego ten związek pomiędzy gęstością prądu, a natężeniem pola elektrycznego w przewodniku zapisujemy często w postaci wektorowej", "Jest to inna, wektorowa lub mikroskopowa, postać prawa Ohma", "Opór właściwy materiału \\( \\rho \\) zależy od temperatury. Wiąże się to z tym, że prędkość ruchu przypadkowego cząsteczek zależy od temperatury (zob. moduł Temperatura, równanie stanu gazu doskonałego ).", "Typowa zależność oporu od temperatury dla przewodników metalicznych jest pokazana na Rys. 1.", "Z dobrym przybliżeniem jest to zależność liniowa \\( \\rho T \\) za wyjątkiem temperatur bliskich zera bezwzględnego. Wtedy zaczyna odgrywać rolę tzw. opór resztkowy \\( \\rho_{0} \\) zależny w dużym stopniu od czystości metalu. Doświadczenie prezentujące zależność oporu od temperatury można prześledzić na filmie poniżej.", "Istnieją jednak metale i stopy, dla których obserwujemy w dostatecznie niskich temperaturach całkowity zanik oporu. Zjawisko to nosi nazwę nadprzewodnictwa. Prądy wzbudzone w stanie nadprzewodzącym utrzymują się w obwodzie bez zasilania zewnętrznego. Ta możliwość utrzymania stale płynącego prądu rokuje duże nadzieje na zastosowania techniczne, które znacznie wzrosły po odkryciu w 1986 r materiałów przechodzących w stan nadprzewodzący w stosunkowo wysokich temperaturach, około 100 K. Materiały te noszą nazwę wysokotemperaturowych nadprzewodników a ich odkrywcy J. G. Bednorz i K. A. Müller zostali wyróżnieni Nagrodą Nobla w 1987 r.", "Z prawa Ohma wnioskujemy, że natężenie prądu jest wprost proporcjonalne do przyłożonego napięcia. Jest to słuszne dla większości przewodników (przy niewielkich napięciach i natężeniach prądu). Należy jednak wspomnieć, że istnieją układ, które nie spełniają prawa Ohma. Są to między innymi szeroko stosowane półprzewodnikowe elementy elektroniczne takie jak diody i tranzystory. Właściwości materiałów półprzewodnikowych omówione są w module Podstawowe informacje o fizyce półprzewodników."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 2. Prąd elektryczny", "subject_id": 1453, "subject": "Wyprowadzenie prawa Ohma", "paragraphs": ["Nośnikami ładunku w metalu są poruszające się swobodnie (nie związane z poszczególnymi atomami) elektrony, tak zwane elektrony przewodnictwa. Bez pola elektrycznego elektrony poruszają się (dzięki energii cieplnej) przypadkowo we wszystkich kierunkach i dlatego nie obserwujemy przepływu prądu. Elektrony swobodne zderzają się z atomami (jonami) przewodnika, zmieniając swoją prędkość i kierunek ruchu zupełnie tak, jak cząsteczki gazu zamknięte w zbiorniku. Dlatego, podobnie jak w przypadku gazu, do opisu zderzeń posłużymy się pojęciem średniej drogi swobodnej \\( \\lambda \\) (droga przebywana przez elektron pomiędzy kolejnymi zderzeniami). Jeżeli u jest prędkością ruchu chaotycznego elektronów to średni czas pomiędzy zderzeniami wynosi \\( \\Delta t = \\lambda /u \\).", "Jeżeli do przewodnika przyłożymy napięcie, to na każdy elektron będzie działała siła \\( \\mathbf{F} = -e\\mathbf{E} \\) i po czasie \\( \\Delta t \\) ruch chaotyczny każdego elektronu zostanie zmodyfikowany; elektron uzyska prędkość unoszenia \\( v_{u}= \\Delta u \\). Zgodnie z drugą zasadą dynamiki Newtona", "a stąd", "Podstawiając za \\( \\Delta t = \\lambda /u \\), otrzymujemy", "Prędkość unoszenia ma ten sam kierunek (przeciwny do \\( \\mathbf{E} \\)) dla wszystkich elektronów. Przy każdym zderzeniu z atomem elektron traci prędkość unoszenia. Średnia droga swobodna \\( \\lambda \\) jest tak mała, że \\( v_{u} \\) jest zawsze dużo mniejsza od \\( u \\).", "Możemy teraz obliczyć natężenie prądu, wstawiając za prędkość wyrażenie ( 3 ) do wzoru Natężenie prądu elektrycznego-( 5 )", "Natomiast opór elementu przewodnika o długości \\( l \\) wyznaczamy z prawa Ohma, korzystając z faktu, że napięcie \\( U = El \\).", "Widzimy, że opór \\( R \\) jest proporcjonalny do długości przewodnika \\( l \\) i odwrotnie proporcjonalny do jego przekroju \\( S \\). Równanie ( 5 ) możemy przepisać w postaci", "Stałą \\( \\rho \\) nazywamy oporem właściwym (rezystywnością), a jej odwrotność \\( \\sigma \\) = 1/ \\( \\rho \\) przewodnością właściwą.", "Z równania ( 5 ) wynika, że opór właściwy pozostaje stały tak długo, jak długo stała jest prędkość \\( u \\). Przypomnijmy sobie (zob. Temperatura, równanie stanu gazu doskonałego ), że prędkość ruchu przypadkowego cząsteczek zależy tylko od temperatury. Tym samym opór właściwy też zależy od temperatury."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 2. Prąd elektryczny", "subject_id": 269, "subject": "Praca i moc prądu elektrycznego, straty cieplne", "paragraphs": ["Na Rys. 1 pokazany jest najprostszy obwód elektryczny składający się ze źródła prądu (np. baterii) oraz z dowolnego odbiornika energii elektrycznej takiego jak żarówka, grzejnik, silnik elektryczny, komputer, itp.", "Jeżeli przez odbiornik przepływa prąd o natężeniu \\( I \\), a napięcie na odbiorniku wynosi \\( U \\) to zmiana energii potencjalnej ładunku \\( dq \\) przepływającego przez odbiornik (od punktu A do B ) wynosi", "Dzieląc obie strony równania przez \\( dt \\) otrzymujemy wzór, który przedstawia szybkość zmian energii elektrycznej", "czyli moc prądu elektrycznego", "Energia potencjalna ładunku przepływającego przez odbiornik maleje, ponieważ potencjał punktu A (połączonego z dodatnim biegunem baterii) jest wyższy niż punktu B (połączonego z ujemnym biegunem baterii). Ta tracona energia jest przekształcana w inny rodzaj energii w zależności od typu odbiornika.", "Jeżeli mamy do czynienia z odbiornikiem energii zawierającym tylko opornik (np. grzejnik), to cała energia stracona przez ładunek dq poruszający się przy napięciu \\( U \\) wydziela się w oporniku w postaci energii cieplnej. Elektrony przewodnictwa poruszając się w przewodniku zderzają się z atomami (jonami) przewodnika i tracą energię (którą uzyskały w polu elektrycznym), co objawia się wzrostem temperatury opornika.", "Korzystając z prawa Ohma, możemy równanie ( 3 ) zapisać w postaci", "\\( {P=\\frac{U^{{2}}}{R}} \\)", "Równania ( 4 ) opisują przemianę energii elektrycznej na energię cieplną, którą nazywamy ciepłem Joule'a."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 2. Prąd elektryczny", "subject_id": 270, "subject": "Siła elektromotoryczna, prawo Ohma dla obwodu zamkniętego", "paragraphs": ["Aby w obwodzie elektrycznym utrzymać prąd, potrzebujemy źródła energii elektrycznej. Takimi źródłami są, np. baterie i generatory elektryczne. Nazywamy je źródłami siły elektromotorycznej SEM. W urządzeniach tych otrzymujemy energię elektryczną w wyniku przetwarzania innej energii, np. energii chemicznej w bateriach, a energii mechanicznej w generatorach.", "Siła elektromotoryczna \\( \\epsilon \\) określa energię elektryczną \\( \\Delta W \\) przekazywaną jednostkowemu ładunkowi \\( \\Delta q \\) w źródle SEM", "Typowe wartości oporu wewnętrznego różnych źródeł są zestawione w Tabela 1.", "Rozpatrzmy teraz pokazany na Rys. 1 najprostszy obwód zamknięty. Linią przerywaną zaznaczono rzeczywiste źródło prądu, tj. źródło siły elektromotorycznej \\( \\epsilon \\) oraz opór wewnętrzny \\( R_{w} \\). Opornik zewnętrzny \\( R_{z} \\) przedstawia odbiornik mocy nazywany obciążeniem (np. żarówka, głośnik), a \\( U_{z} \\) jest napięciem zasilania (na biegunach źródła).", "Posłużymy się teraz równaniem ( 1 ), aby znaleźć natężenie prądu w tym obwodzie zamkniętym. Przekształcając ten wzór otrzymujemy", "Zgodnie z prawem Ohma \\( U_{z} = IR_{z} \\) więc"], "definitions": [{"name": "Definicja 1: Definicja SEM", "content": "Miarą SEM jest różnica potencjałów (napięcie) na biegunach źródła prądu w warunkach, kiedy przez ogniwo nie płynie prąd (ogniwo otwarte).\n\nNatomiast gdy czerpiemy prąd ze źródła, napięcie między jego elektrodami, nazywane teraz napięciem zasilania \\( U_{z} \\), maleje wraz ze wzrostem pobieranego z niego prądu. Dzieje się tak dlatego, że każde rzeczywiste źródło napięcia posiada opór wewnętrzny \\( R_{w} \\). Napięcie zasilania jest mniejsze od SEM właśnie o spadek potencjału na oporze wewnętrznym\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( {U_{{z}}=\\epsilon -{IR}_{{w}}} \\)\n\n\n\nZ tej zależności wynika, że \\( U_{z} = \\epsilon \\), gdy \\( I = 0 \\) "}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 2. Prąd elektryczny", "subject_id": 271, "subject": "Prawa Kirchhoffa", "paragraphs": ["W praktyce mamy do czynienia z bardzo złożonymi obwodami elektrycznymi zawierającymi rozgałęzienia i dużą liczbę źródeł SEM. Wówczas przy znajdowaniu prądów i napięć posługujemy się prawami Kirchhoffa.", "Twierdzenie o obwodzie zamkniętym jest wynikiem zasady zachowania energii, a twierdzenie o punkcie rozgałęzienia wynika z zasady zachowania ładunku.", "Przy stosowaniu praw Kirchhoffa zakładamy jakiś kierunek prądu i jego natężenie w każdej gałęzi. Spadek napięcia pojawia się gdy \"przechodzimy\" przez opornik w kierunku zgodnym z przyjętym kierunkiem prądu, a przyrost napięcia gdy przechodzimy przez źródło SEM w kierunku od \"-\" do \"+\". Jeżeli w wyniku obliczeń otrzymamy ujemne natężenie prądu to znaczy, że rzeczywisty kierunek prądu jest przeciwny do przyjętego."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 2. Prąd elektryczny", "subject_id": 283, "subject": "Podsumowanie informacji o prądzie elektrycznym", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 2. Prąd elektryczny", "subject_id": 286, "subject": "Zadania z prądu elektrycznego", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 3. Pole magnetyczne", "subject_id": 272, "subject": "Siła magnetyczna", "paragraphs": ["W pobliżu przewodników z prądem elektrycznym i magnesów działają siły magnetyczne. Spotykamy je gdy mamy do czynienia z magnesem trwałym, elektromagnesem, silnikiem elektrycznym, prądnicą, czy monitorem komputerowym. Magnesem jest sama Ziemia. Jej działanie na igłę kompasu jest znane od Starożytności. Natomiast w XIX w. Oersted stwierdził, że kompas ulega również wychyleniu w pobliżu przewodnika, w którym płynie prąd i zmienia kierunek wychylenia wraz ze zmianą kierunku prądu.", "To oddziaływanie pomiędzy prądem i magnesem opisujemy wprowadzając pojęcie pola magnetycznego. Przypomnijmy, że w przypadku sił grawitacyjnych posługiwaliśmy się pojęciem natężenia pola grawitacyjnego \\( \\gamma \\), gdzie \\( {F_{{G}}=\\mathit{m\\gamma }} \\), a w przypadku sił elektrycznych pojęciem natężeniu pola elektrycznego \\( E \\), gdzie \\( {F_{{E}}=\\mathit{mE}} \\). Natomiast siłę działającą na ładunek q poruszający się w polu magnetycznym z prędkością \\( v \\) wiążemy z indukcją magnetyczną \\( B \\). Związek pomiędzy siłą magnetyczną a indukcją magnetyczną \\( B \\) zapisujemy w postaci równania wektorowego", "Tabela 1 pozwala na zorientowanie się w zakresie pól magnetycznych dostępnych w przyrodzie i wytwarzanych przez różne urządzenia.", "Zgodnie z definicją iloczynu wektorowego, z równania ( 1 ) wynika, że wartość siły działająca na naładowaną cząstkę w polu magnetycznym jest równa", "gdzie \\( \\theta \\) jest kątem pomiędzy wektorami \\( \\mathbf{v} \\) i \\( \\mathbf{B} \\).", "Siła jest równa zeru gdy cząstka nie porusza się oraz gdy wektor prędkości jest równoległy do wektora \\( \\mathbf{B} \\) ( \\( \\theta \\) = \\( 0^{\\circ} \\)) lub do niego antyrównoległy ( \\( \\theta \\)= \\( 180^{\\circ} \\)). Natomiast maksimum siły występuje gdy wektor prędkości \\( \\mathbf{v} \\) jest prostopadły do wektora \\( \\mathbf{B} \\) ( \\( \\theta \\) = \\( 90^{\\circ} \\)).", "Równanie ( 1 ) określa również kierunek i zwrot wektora siły \\( \\mathbf{F} \\). Z definicji iloczynu wektorowego wynika, że wektor \\( \\mathbf{F} \\) jest prostopadły do płaszczyzny wyznaczonej przez wektory \\( \\mathbf{v} \\) i \\( \\mathbf{B} \\). Zwrot jego jest określony regułą śruby prawoskrętnej lub regułą prawej ręki. Jeżeli palce prawej ręki zginają się w kierunku obrotu wektora \\( \\mathbf{v} \\) do wektora \\( \\mathbf{B} \\) (po mniejszym łuku) to kciuk wskazuje kierunek wektora \\( F ∼ \\mathbf{v}{\\times}\\mathbf{B} \\) tak jak na Rys. 1.", "Zwrot wektora \\( \\mathbf{F} \\) pokazany na rysunku powyżej odpowiada dodatniemu ładunkowi \\( q \\). Dla ładunku ujemnego kierunek jest ten sam ale zwrot przeciwny."], "definitions": [{"name": "Definicja 1: Siła Lorentza", "content": "\n(1)\n\n\t\t\t\t\t\t\t\t\\( {\\mathbf{F}=\\mathit{q\\mathbf{v}}\\times \\mathbf{B}} \\)\n\n\n\nSiłę tę nazywamy siłą Lorentza, a powyższe równanie definiuje indukcję pola magnetycznego \\( B \\)."}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 3. Pole magnetyczne", "subject_id": 273, "subject": "Linie pola magnetycznego, kierunek pola", "paragraphs": ["Pole magnetyczne prezentujemy graficznie, rysując, tzw. linie pola magnetycznego czyli linie wektora indukcji magnetycznej \\( \\mathbf{B} \\). Wektor \\( \\mathbf{B} \\) jest styczny do tych linii pola w każdym punkcie, a rozmieszczenie linii obrazuje wielkość pola - im gęściej rozmieszczone są linie tym silniejsze jest pole.", "Na Rys. 1 pokazane są linie pola magnetycznego w pobliżu stałego magnesu w kształcie sztabki. Linie te przechodzą przez magnes i tworzą zamknięte pętle.", "Najsilniejsze pole występuje w pobliżu końców magnesu czyli w pobliżu biegunów magnetycznych. Koniec magnesu, z którego wychodzą linie nazywamy północnym biegunem magnesu (N), a ten do którego wchodzą linie biegunem południowym (S).", "Podobnie jak w przypadku pola magnetycznego Ziemi kierunek linii pola magnesu można wyznaczyć za pomocą kompasu przesuwając go wokół magnesu. Kierunek igły kompasu, która sama jest magnesem sztabkowym, pokazuje kierunek pola magnetycznego. Igła wskazuje kierunek od bieguna północnego w stronę południowego. Wynika to z oddziaływania magnesów. Doświadczalnie stwierdzono, że bez względu na kształt magnesów, bieguny przeciwne przyciągają się, a jednakowe bieguny odpychają się.", "Linie pola magnetycznego można też wyznaczyć doświadczalnie przy użyciu np. opiłków żelaza, które zachowują się jak dipole magnetyczne (małe magnesy). Opiłki ustawiają się zgodnie z kierunkiem \\( \\mathbf{B} \\) i dają obraz linii pola magnetycznego. Efekt ten można obejrzeć na filmach poniżej.", "Filmy zostały udostępnione przez Politechnikę Warszawską na licencji Creative Commons BY-SA 3.0. PL dla potrzeb e-podręczników AGH.", "Na Rys. 2 pokazane jest pole magnetyczne Ziemi. Igła magnetyczna kompasu w polu Ziemi pokazuje kierunek linii taki jak na Rys. 2. Widzimy, że linie są skierowane w stronę Arktyki i zgodnie z przyjętą konwencją oznaczałoby to, że tam znajduje się magnetyczny biegun południowy. Tymczasem ten kierunek geograficzny przyjmujemy za północy. W związku z tym w przypadku Ziemi odstępujemy od przyjętej reguły i ten biegun nazywamy północnym biegunem geomagnetycznym. Należy przy tym zwrócić uwagę na to, że biegun geomagnetyczny nie pokrywa się z geograficznym biegunem północnym. Aktualnie znajduje się w północnej Kanadzie. Bieguny magnetyczne Ziemi zmieniają swoje położenie i w odległej przeszłości północny biegun geomagnetyczny znajdował się na półkuli południowej."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 3. Pole magnetyczne", "subject_id": 274, "subject": "Ruch naładowanych cząstek w polu magnetycznym", "paragraphs": ["Zauważmy, że zgodnie z równaniem Siła magnetyczna-( 1 ) wektor siły \\( \\mathbf{F} \\) działającej na naładowaną cząstkę poruszającą się w polu magnetycznym jest zawsze prostopadły do wektora prędkości \\( \\mathbf{v} \\) i wektora \\( \\mathbf{B} \\). Oznacza to, że siła \\( F \\) nie może zmienić wartości prędkości \\( v \\), a co za tym idzie nie może zmienić energii kinetycznej cząstki. Siła \\( F \\) może jedynie zmienić kierunek prędkości \\( v \\), zakrzywić tor jej ruchu. Siła magnetyczna jest więc siłą dośrodkową.", "Żeby prześledzić tor ruchu naładowanej cząstki w polu magnetycznym rozpatrzmy cząstkę, która z prędkością \\( v \\) wpada do jednorodnego stałego pola magnetycznego o indukcji \\( B \\) tak jak na Rys. 1.", "Prędkość początkową cząstki (z którą wlatuje w obszar pola \\( B \\)) możemy rozłożyć na dwie składowe: jedną równoległą \\( {v_{{\\text{II}}}} \\), a drugą prostopadłą \\( v_{⊥} \\) do pola \\( B \\). Zauważmy, że zgodnie ze wzorem Siła magnetyczna-( 2 ) siła magnetyczna związana jest tylko ze składową prędkości prostopadłą do pola \\( B \\) ( \\( \\theta = 90^{\\circ} \\)) natomiast nie zależy od składowej równoległej do pola ( \\( \\theta = 0^{\\circ} \\)). Siła magnetyczna zmienia więc tylko składową prędkości prostopadłą do pola \\( B \\), natomiast składowa prędkości równoległa pozostaje stała. W rezultacie cząstka przemieszcza się ze stałą prędkością wzdłuż pola \\( B \\) równocześnie zataczając pod wpływem siły magnetycznej okręgi w płaszczyźnie prostopadłej do pola. Cząsteczka porusza się po spirali tak jak pokazano na Rys. 2.", "Zjawisko odchylania toru naładowanych cząstek w polu magnetycznym znalazło szerokie zastosowanie w technice i nauce. Jednym z przykładów jest lampa kineskopowa w telewizorze czy monitorze. Na Rys. 3 pokazany jest przykładowy tor wiązki elektronów w lampie.", "W kineskopie pole magnetyczne jest przyłożone wzdłuż kierunku \\( x \\) i w kierunku \\( y \\). Pole \\( B_{x} \\), w zależności od zwrotu ( \\( +x \\), \\( -x \\)) odchyla elektrony w górę lub w dół ekranu, natomiast pole \\( B_{y} \\), w zależności od zwrotu ( \\( +y \\), \\( -y \\)) odchyla wiązkę elektronów w prawo lub w lewo. W ten sposób sterujemy wiązką elektronów, która przebiega (skanuje) cały ekran docierając do każdego punktu ekranu (piksela).", "Innym przykład stanowi spektrometr masowy, którego schemat jest pokazany na Rys. 4.", "Cząstka (jon) o masie \\( m \\) i ładunku \\( q \\) wyemitowana ze źródła Z zostaje przyspieszona napięciem \\( U \\) po czym wlatuje w obszar jednorodnego pola magnetycznego \\( B \\) prostopadłego do toru cząstki. (Pamiętaj, że symbol \\( \\odot \\) oznacza wektor skierowany przed płaszczyznę rysunku, a symbolem ⊗ oznaczamy wektor skierowany za płaszczyznę rysunku). Pole magnetyczne zakrzywia tor cząstki, tak że porusza się ona po półokręgu o promieniu \\( R \\), po czym zostaje zarejestrowana w detektorze (np. na kliszy fotograficznej) w odległości \\( 2R \\) od miejsca wejścia w pole magnetyczne.", "Promień okręgu po jakim porusza się naładowana cząstka w polu \\( B \\) obliczyliśmy w ostatnim ćwiczeniu", "gdzie \\( v \\) jest prędkością z jaką porusza się cząstka. Tę prędkość uzyskuje ona dzięki przyłożonemu napięciu \\( U \\). Zmiana energii potencjalnej ładunku przy pokonywaniu różnicy potencjału \\( U \\) jest równa energii kinetycznej jaką uzyskuje ładunek", "lub", "Stąd otrzymujemy wyrażenie na prędkość \\( v \\)", "i podstawiamy je do równania ( 1 )", "Ostatecznie po przekształceniu otrzymujemy", "Widzimy, że pomiar odległości ( \\( 2R \\)), w jakiej została zarejestrowana cząstka pozwala na wyznaczenie jej masy m.", "Zakrzywianie toru cząstek w polu magnetycznym jest również wykorzystywane w urządzeniach zwanych akceleratorami. Te urządzenia służące do przyspieszania cząstek naładowanych, znalazły szerokie zastosowanie w nauce, technice i medycynie. Przykładem akceleratora cyklicznego jest cyklotron. O jego działaniu możesz przeczytać w module Dodatek: Cyklotron."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 3. Pole magnetyczne", "subject_id": 275, "subject": "Działanie pola magnetycznego na przewodnik z prądem", "paragraphs": ["Ponieważ siła magnetyczna działa na ładunki w ruchu zatem działa na cały przewodnik z prądem", "gdzie \\( N \\) jest liczbą elektronów zawartych w danym przewodniku o długości \\( l \\) i przekroju poprzecznym \\( S \\), a \\( v_{u} \\) ich średnią prędkością unoszenia. Jeżeli \\( n \\) jest koncentracją elektronów (ilością elektronów w jednostce objętości) to", "Zgodnie z wzorem Natężenie prądu elektrycznego-( 5 ) natężenie prądu w przewodniku wynosi", "Podstawiając te wyrażenia do wzoru na siłę otrzymujemy", "lub w zapisie wektorowym", "Na Rys. 1 zaznaczona jest siła działająca w polu magnetycznym na przewodnik, w którym płynie prąd o natężeniu \\( I \\). W polu magnetycznym znajduje się odcinek \\( l \\) przewodnika, a wektor długości \\( l \\) ma zwrot zgodny ze zwrotem prądu.", "Równanie \\( {\\mathbf{F}=I\\mathbf{l}\\times \\mathbf{B}} \\) jest równoważne równaniu \\( {\\mathbf{F}=\\mathit{q\\mathbf{v}}\\times \\mathbf{B}} \\) w tym sensie, że każde z nich definiuje indukcję pola magnetycznego \\( B \\). Jednak w praktyce łatwiej jest zmierzyć siłę działającą na przewodnik niż na pojedynczy ładunek."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 3. Pole magnetyczne", "subject_id": 276, "subject": "Działanie pola magnetycznego na obwód z prądem", "paragraphs": ["Rozważymy teraz działanie pola magnetycznego na zamknięty obwód z prądem. W tym celu rozpatrzmy prostokątną ramkę o bokach \\( a \\) i \\( b \\) umieszczoną w jednorodnym polu magnetycznym o indukcji \\( B \\). Taka ramka stanowi podstawowy element silnika elektrycznego. Przez ramkę płynie prąd o natężeniu \\( I \\), a normalna do płaszczyzny ramki tworzy kąt \\( \\theta \\) z polem \\( B \\), tak jak na Rys. 1.", "Rozpatrujemy siłę działającą na każdy z boków. Zauważmy, że siły \\( F_{b} \\) działające na boki b znoszą się wzajemnie. Siły \\( F_{a} \\) działające na boki a też się znoszą ale tworzą parę sił dającą wypadkowy moment siły obracający ramkę", "lub w zapisie wektorowym (na podstawie definicji iloczynu wektorowego)", "Siła \\( F_{a} \\) wynosi", "więc", "gdzie \\( S = ab \\) jest powierzchnią ramki. Równanie ( 4 ) możemy zapisać w postaci wektorowej", "gdzie \\( \\mathbf{S} \\) jest wektorem powierzchni."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 3. Pole magnetyczne", "subject_id": 277, "subject": "Magnetyczny moment dipolowy", "paragraphs": ["Pole magnetyczne działa więc na ramkę z prądem momentem skręcającym", "obracając ją tak jak igłę kompasu, która umieszczona w polu magnetycznym obraca się, ustawiając zgodnie z polem. Położenie równowagi ramki występuje dla \\( \\theta \\) = 0, tj. gdy moment dipolowy \\( \\mu \\) jest równoległy do pola magnetycznego \\( B \\) (ramka jest ustawiona prostopadle do pola). Ramka zachowuje się więc tak jak igła kompasu czyli dipol magnetyczny.", "Obracając dipol magnetyczny pole magnetyczne wykonuje pracę i wobec tego dipol posiada energię potencjalną. Można pokazać, że energia potencjalna dipola magnetycznego związana z jego orientacją w zewnętrznym polu magnetycznym dana jest równaniem", "Widzimy, że energia osiąga minimum dla momentu dipolowego \\( \\mathbf{\\mu} \\) równoległego do zewnętrznego pola magnetycznego \\( \\mathbf{B} \\), a maksimum gdy moment dipolowy jest skierowany przeciwnie do pola (zob. Rys. 1 ).", "Jak już mówiliśmy ramka z prądem jest przykładem dipola magnetycznego. Taką \"kołową ramką z prądem\" jest również elektron krążący po orbicie w atomie. Moment dipolowy elektronu krążącego po orbicie o promieniu \\( r \\) wynosi", "Natężenie prądu \\( I \\) wytwarzanego przez elektron o ładunku \\( e \\) przebiegający orbitę w czasie \\( T \\) (okres obiegu) wynosi", "gdzie \\( v \\) jest prędkością elektronu. Stąd", "gdzie \\( L = mvr \\) jest momentem pędu elektronu. Elektron, krążący po orbicie jest więc elementarnym dipolem magnetycznym. Własności magnetyczne ciał są właśnie określone przez zachowanie się tych elementarnych dipoli w polu magnetycznym. Własności te omawiamy w modułach Diamagnetyzm i paramagnetyzm oraz Ferromagnetyzm."], "definitions": [{"name": "Definicja 1: Magnetyczny moment dipolowy", "content": "\nWielkość wektorową\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( {\\mathbf{\\mu} =\\mathit{\\mathbf{I} \\cdot \\mathbf{S}}} \\)\n\n\n\nnazywamy magnetycznym momentem dipolowym. Wektor \\( \\mathbf{\\mu} \\) jest prostopadły do płaszczyzny ramki z prądem."}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 3. Pole magnetyczne", "subject_id": 278, "subject": "Efekt Halla", "paragraphs": ["Rozpatrzmy płytkę metalu (lub półprzewodnika) umieszczoną w polu magnetycznym, prostopadłym do kierunku przepływu prądu. Jeżeli w płytce płynie prąd to na ładunki działała siła odchylająca powodująca zakrzywienie ich torów w kierunku jednej ze ścianek bocznych płytki tak jak pokazano na Rys. 1.", "Gromadzenie się ładunków na ściance bocznej powoduje powstanie poprzecznego pola elektrycznego Halla \\( E_{H} \\).", "Pole Halla jest dane zależnością", "gdzie \\( \\Delta V_{LP} \\) jest różnicą potencjałów pomiędzy stroną lewą L i prawą P, a d odległością między nimi (szerokością płytki). Zwróćmy uwagę, że strona prawa płytki ładuje się ujemnie i powstałe pole Halla przeciwdziała dalszemu przesuwaniu elektronów. Osiągnięty zostaje stan równowagi, w którym odchylające pole magnetyczne jest równoważone przez pole elektryczne Halla", "lub", "Stąd", "Wynika stąd, że jeżeli zmierzymy \\( E_{H} \\) (w praktyce \\( V_{LP} \\)) i pole \\( B \\) to możemy wyznaczyć \\( v_{u} \\). Gdy \\( v_{u} \\) i \\( B \\) są prostopadłe to", "Na podstawie równania Natężenie prądu elektrycznego-( 5 )", "zatem koncentracja nośników", "Znając \\( E_{H} \\), \\( B \\) oraz gęstość prądu, możemy wyznaczyć koncentrację nośników \\( n \\). Zjawisko Halla znalazło w praktyce zastosowanie do pomiaru pól magnetycznych oraz do pomiaru natężenia prądu elektrycznego."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 3. Pole magnetyczne", "subject_id": 1454, "subject": "Dodatek: Cyklotron", "paragraphs": ["Cyklotron jest przykładem akceleratora cyklicznego. Schemat cyklotronu jest pokazany na Rys. 1.", "Dwie cylindryczne elektrody, tak zwane duanty, są umieszczone w jednorodnym polu magnetycznym \\( B \\) prostopadłym do płaszczyzny duantów (płaszczyzny Rys. 1 ). Do tych elektrod doprowadzone jest z generatora zmienne napięcie, które cyklicznie zmienia kierunek pola elektrycznego w szczelinie pomiędzy duantami.", "Jeżeli ze źródła Z (w środku cyklotronu) zostanie wyemitowana naładowana cząstka, to porusza się ona pod wpływem pola elektrycznego w stronę jednego z duantów. Gdy cząstka wejdzie do duantów wówczas przestaje na nią działać pole elektryczne (ekranowane przez miedziane ścianki duantów), natomiast zaczyna działać pole magnetyczne. Pod jego wpływem cząstka porusza się po torze kołowym (zob. Rys. 1 ). W wyniku tego cząstka ponownie wchodzi w obszar pomiędzy duantami. Jeżeli równocześnie zostanie zmieniony kierunek pola elektrycznego pomiędzy nimi, to cząstka ponownie doznaje przyspieszenia w szczelinie. Ten proces jest powtarzany cyklicznie, pod warunkiem, że częstotliwość z jaką krąży cząstka jest zsynchronizowana z częstotliwością zmian pola elektrycznego pomiędzy duantami. Jest to o tyle proste, że częstotliwość (okres) krążenia cząstki w polu \\( B \\) nie zależy od jej prędkości", "a częstotliwość tę można względnie łatwo \"dostroić\" zmieniając pole \\( B \\).", "Cząstka przechodząc przez szczelinę pomiędzy duantami, zwiększa swoją prędkość (przyspieszana polem elektrycznym) i równocześnie zwiększa promień \\( R \\) swojej orbity zgodnie ze związkiem", "Cząstki poruszają się po spirali (zob. Rys. 1 ). Po osiągnięciu maksymalnego promienia cząstki są wyprowadzane poza cyklotron za pomocą elektrody nazywanej deflektorem.", "Maksymalna energia jaką uzyskują cząstki w cyklotronie jest ograniczona relatywistycznym wzrostem ich masy. Powyżej pewnej prędkości masa cząstek wzrasta i maleje częstotliwość krążenia cząstek co prowadzi do utraty synchronizacji.", "Te trudności zostały rozwiązane w synchrotronie. W tego typu akceleratorze pole magnetyczne \\( B \\) i częstotliwość oscylacji pola elektrycznego są zmieniane tak, że utrzymywana jest cały czas synchronizacja z krążącymi cząstkami co pozwala na osiąganie dużych (relatywistycznych) prędkości (energii).", "Zwróćmy uwagę na to, że przy tak dużych prędkościach tor, po którym krążą cząstki osiąga znaczne rozmiary. Na przykład synchrotron protonów w laboratorium Fermiego (Fermilab) w USA ma obwód 6.3 km, a w ośrodku badawczym CERN pod Genewą aż 27 km."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 4. Pole magnetyczne przewodników z prądem", "subject_id": 279, "subject": "Prawo Ampere'a", "paragraphs": ["Doświadczalnie można wyznaczyć linie pola magnetycznego przy użyciu na przykład opiłków żelaza, które zachowują się jak dipole magnetyczne. Opiłki ustawiają się zgodnie z kierunkiem \\( \\mathbf{B} \\) i dają obraz linii pola magnetycznego. Doświadczenie takie można obejrzeć jest zaprezentowane poniżej", "Film został udostępniony przez Politechnikę Warszawską na licencji Creative Commons CC BY-SA 3.0 PL https://creativecommons.org/licenses/by-sa/3.0/pl/ dla potrzeb e-podręczników AGH.", "Na Rys. 1 pokazany jest rozkład opiłków żelaza wokół prostoliniowego przewodnika z prądem.", "Widzimy więc, że linie pola \\( \\mathbf{B} \\) wytwarzanego przez przewodnik są zamkniętymi współśrodkowymi okręgami w płaszczyźnie prostopadłej do przewodnika tak jak pokazano na Rys. 2. Wektor \\( \\mathbf{B} \\) jest styczny do tych linii pola w każdym punkcie.", "Zwrot wektora indukcji \\( \\mathbf{B} \\) wokół przewodnika wyznaczamy, stosując następującą zasadę: jeśli kciuk prawej ręki wskazuje kierunek prądu \\( I \\), to zgięte palce wskazują kierunek \\( \\mathbf{B} \\) (linie pola \\( \\mathbf{B} \\) krążą wokół prądu).", "Natomiast wartość pola \\( \\mathbf{B} \\) wokół przewodnika z prądem można obliczyć, korzystając z prawa Ampère'a.", "Chcemy teraz znaleźć pole magnetyczne wytwarzane przez powszechnie występujące rozkłady prądów, takie jak przewodniki prostoliniowe, cewki, itp. Potrzebujemy prawa analogicznego do prawa Gaussa, które pozwalało na podstawie znajomości ładunku (źródła pola \\( \\mathbf{E} \\)) wyznaczyć natężenie pola \\( \\mathbf{E} \\). Dla pola magnetycznego szukamy związku pomiędzy prądem (źródłem pola \\( \\mathbf{B} \\)).", "Pokazaliśmy, że linie pola magnetycznego wokół przewodnika z prądem stanowią zamknięte okręgi. Stąd, zamiast sumowania (całki) po zamkniętej powierzchni (jak w prawie Gaussa), w prawie Ampère'a sumujemy (całkujemy) po zamkniętym konturze (liczymy całkę krzywoliniową). Taka całka dla pola \\( \\mathbf{E} \\) równała się wypadkowemu ładunkowi wewnątrz powierzchni, a w przypadku pola \\( \\mathbf{B} \\) jest równa całkowitemu prądowi \\( I \\)otoczonemu przez kontur. Tak jak w przypadku prawa Gaussa, wynik był prawdziwy dla dowolnej powierzchni zamkniętej, tak dla prawa Ampère'a wynik nie zależy od kształtu konturu zamkniętego.", "Stała \\( \\mu _{0} = 4\\pi·10^{-7} \\) Tm/A, jest tzw. przenikalnością magnetyczną próżni. Gdy pole magnetyczne jest wytworzone nie w próżni ale w jakimś ośrodku to fakt ten uwzględniamy wprowadzając stałą materiałową \\( \\mu _{r} \\), zwaną względną przenikalnością magnetyczną ośrodka tak, że prawo Ampère'a przyjmuje postać"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 4. Pole magnetyczne przewodników z prądem", "subject_id": 280, "subject": "Zastosowanie prawa Ampere'a - prostoliniowy przewodnik", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 4. Pole magnetyczne przewodników z prądem", "subject_id": 281, "subject": "Zastosowanie prawa Ampere'a - cewka", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 4. Pole magnetyczne przewodników z prądem", "subject_id": 282, "subject": "Oddziaływanie równoległych przewodników z prądem", "paragraphs": ["Na Rys. 1 przedstawione są dwa prostoliniowe przewodniki z prądem umieszczone równoległe w próżni w odległości \\( d \\) od siebie.", "Przewodnik 'a' wytwarza w swoim otoczeniu w odległości \\( d \\) pole magnetyczne, które zgodnie ze wzorem Zastosowanie prawa Ampere'a - prostoliniowy przewodnik-( 3 ) wynosi", "W tym polu znajduje się przewodnik 'b', w którym płynie prąd I \\( _{b} \\). Na odcinek \\( l \\) tego przewodnika działa siła", "Zwrot siły jest pokazany na Rys. 1. Oczywiście to rozumowanie można \"odwrócić\" i obliczyć siłę jaka działa na przewodnik 'a' w polu magnetycznym wytwarzanym przez przewodnik 'b'. Wynik obliczeń jest ten sam co wprost wynika z trzeciej zasady dynamiki Newtona. Widzimy, że dwa równoległe przewodniki z prądem oddziaływają na siebie za pośrednictwem pola magnetycznego. Przewodniki, w których prądy płyną w tych samych kierunkach przyciągają się, a te w których prądy mają kierunki przeciwne odpychają się.", "Doświadczenie to można prześledzić na filmie poniżej", "Film został udostępniony przez Politechnikę Warszawską na licencji Creative Commons BY-SA 3.0. PL dla potrzeb e-podręczników AGH."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 4. Pole magnetyczne przewodników z prądem", "subject_id": 284, "subject": "Prawo Biota-Savarta", "paragraphs": ["Istnieje równanie, zwane prawem Biota-Savarta, które pozwala obliczyć pole \\( B \\) z rozkładu prądu. To prawo jest matematycznie równoważne z prawem Ampère'a (zob. moduł Prawo Ampere'a ). Jednak prawo Ampère'a można stosować tylko, gdy znana jest symetria pola (trzeba ją znać do obliczenie odpowiedniej całki). Gdy ta symetria nie jest znana, wówczas dzielimy przewodnik z prądem na różniczkowo małe elementy i stosując prawo Biota-Savarta, obliczamy pole jakie one wytwarzają w danym punkcie. Następnie sumujemy (całkujemy) pola od tych elementarnych prądów żeby uzyskać wypadkowy wektor \\( B \\). Na Rys. 1 pokazany jest krzywoliniowy przewodnik z prądem o natężeniu \\( I \\). Zaznaczony jest element \\( dl \\) tego przewodnika i pole \\( dB \\) jakie wytwarza w punkcie P.", "Zgodnie z prawem Biota-Savarta pole \\( dB \\) w punkcie P wynosi"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 4. Pole magnetyczne przewodników z prądem", "subject_id": 285, "subject": "Podsumowanie informacji o polu magnetycznym", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 4. Pole magnetyczne przewodników z prądem", "subject_id": 287, "subject": "Zadania z pola magnetycznego", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 5. Indukcja elektromagnetyczna", "subject_id": 288, "subject": "Prawo indukcji Faradaya", "paragraphs": ["Zjawisko indukcji elektromagnetycznej polega na powstawaniu siły elektromotorycznej SEM w obwodzie podczas przemieszczania się względem siebie źródła pola magnetycznego i tego obwodu. Mówimy, że w obwodzie jest indukowana siła elektromotoryczna indukcji (SEM indukcji). W obwodzie zamkniętym SEM indukcji wywołuje przepływ prądu indukcyjnego i w konsekwencji powstanie wytwarzanego przez ten prąd indukowanego pola magnetycznego.", "Na Rys. 1 pokazany jest efekt wywołany przemieszczaniem źródła pola magnetycznego (magnesu) względem nieruchomej przewodzącej pętli (obwodu).", "Doświadczenie pokazuje, że indukowane: siła elektromotoryczna, prąd i pole magnetyczne powstają w obwodzie tylko podczas ruchu magnesu. Gdy magnes spoczywa to bez względu na to czy znajduje się w oddaleniu od obwodu czy bezpośrednio przy nim nie obserwujemy zjawiska indukcji. Ponadto, gdy magnes rusza z miejsca i zwiększa swoją prędkość to rośnie indukowane pole magnetyczne, co oznacza, że rosną SEM indukcji i prąd indukowany. Dzieje się tak aż do chwili, gdy magnes zacznie poruszać się ze stałą prędkością. Natomiast gdy magnes zatrzymuje się (jego prędkość maleje) to indukowane pole, SEM i prąd również maleją zanikając do zera z chwilą zatrzymania magnesu.", "Doświadczenie pokazuje, że prąd indukcyjny obserwujemy, gdy źródło pola magnetycznego porusza się względem nieruchomej pętli (obwodu), ale również gdy przewód w kształcie pętli porusza się w obszarze pola magnetycznego. Oznacza to, że dla powstania prądu indukcyjnego potrzebny jest względny ruch źródła pola magnetycznego i przewodnika.", "Na podstawie powyższych obserwacji Faraday doszedł do wniosku, że o powstawaniu siły elektromotorycznej indukcji decyduje szybkość zmian strumienia magnetycznego \\( \\phi_{B} \\). Ilościowy związek przedstawia prawo Faradaya.", "Analogicznie jak strumień pola elektrycznego \\( E \\), strumień pola magnetycznego \\( B \\) przez powierzchnię \\( S \\) jest dany ogólnym wzorem", "który dla płaskiego obwodu w jednorodnym polu magnetycznym wyrażenie upraszcza się do postaci", "gdzie \\( \\alpha \\) jest kątem między polem \\( B \\), a wektorem powierzchni \\( S \\) (normalną do powierzchni).", "Widzimy, że możemy zmienić strumień magnetyczny, i w konsekwencji wyindukować prąd w obwodzie, zmieniając wartość pola magnetycznego w obszarze, w którym znajduje się przewodnik. Taką sytuację mamy przedstawioną na Rys. 1. Magnes jest zbliżany do obwodu i w wyniku tego narasta pole magnetyczne (pochodzące od magnesu) przenikające przez obwód (pętlę). Gdy magnes zostaje zatrzymany, pole wewnątrz pętli przestaje zmieniać się i nie obserwujemy zjawiska indukcji.", "Również zmiana wielkości powierzchni \\( S \\) obwodu powoduje zmianę strumienia magnetycznego. W trakcie zwiększania (lub zmniejszania) powierzchni zmienia się liczba linii pola magnetycznego przenikających (obejmowanych) przez powierzchnię \\( S \\) obwodu. W rezultacie w obwodzie zostaje wyindukowany prąd.", "Wreszcie, zmianę strumienia magnetycznego można uzyskać poprzez obrót obwodu w polu magnetycznym (zmiana kąta \\( \\alpha \\)) tak jak pokazano na Rys. 2.", "Zwróćmy uwagę na to, że strumień zmienia zarówno swoją wartość, jak i znak, więc indukowana jest zmienna SEM. Jeżeli ramka obraca się z prędkością kątową \\( \\omega =\\alpha t \\) to strumień (zgodnie ze wzorem ( 3 ) ) jest dany wyrażeniem", "a SEM indukcji", "Indukowana jest zmienna SEM i tym samym zmienny prąd. Ten sposób jest właśnie wykorzystywany powszechnie w prądnicach (generatorach prądu)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 5. Indukcja elektromagnetyczna", "subject_id": 289, "subject": "Reguła Lenza", "paragraphs": ["Zauważmy, że w równaniu Prawo indukcji Faradaya-( 1 ) przedstawiającym prawo Faradaya występuje znak minus. Dotyczy on kierunku indukowanej SEM w obwodzie zamkniętym. Ten kierunek możemy wyznaczyć na podstawie reguły Lenza.", "Regułę tę obrazuje Rys. 1. Przedstawia on efekt wywołany przemieszczaniem źródła pola magnetycznego (magnesu) względem nieruchomej pętli (obwodu) zarówno przy zbliżaniu (a), jak i przy oddalaniu magnesu (b).", "Pokazuje, że kierunek prądu indukowanego w pętli i wytwarzanego przez niego pola magnetycznego zależy od tego czy strumień pola magnetycznego pochodzącego od przesuwanego magnesu rośnie, czy maleje czyli od tego czy zbliżamy, czy oddalamy magnes od przewodnika.", "Prąd \\( I \\) indukowany w obwodzie ma taki kierunek, że pole indukcji \\( B_{ind} \\) przez niego wytworzone przeciwdziała zmianom zewnętrznego pola \\( B \\) (np. od magnesu). Gdy pole \\( B \\) narasta to pole \\( B_{ind} \\) jest przeciwne do niego (przeciwdziałając wzrostowi), natomiast, gdy pole \\( B \\) maleje, to pole \\( B_{ind} \\) jest z nim zgodne (kompensując spadek).", "Na Rys. 2 pokazany jest kolejny przykład ilustrujący zjawisko indukcji i regułę Lenza. Obwód w kształcie prostokątnej pętli jest wyciągany z obszaru stałego pola magnetycznego (prostopadłego do pętli) ze stałą prędkością \\( v \\).", "Przestawiona sytuacja jest podobna do omawianej poprzednio i pokazanej na Rys. 1, tylko teraz obwód przemieszcza się względem pola magnetycznego, a nie źródło pola względem obwodu. Dla powstania prądu indukcyjnego potrzebny jest względny ruch źródła pola magnetycznego i przewodnika.", "W wyniki ruchu ramki maleje strumień pola przez ten obwód ponieważ malej obszar ramki, który wciąż pozostaje w polu magnetycznym; przez ramkę przenika coraz mniej linii pola \\( B \\).", "Jeżeli ramka przesuwa się o odcinek \\( \\Delta x \\), to obszar ramki o powierzchni \\( \\Delta S \\) wysuwa się z pola \\( B \\) i strumień przenikający przez ramkę maleje o", "gdzie \\( a \\) jest szerokością ramki. Jeżeli ta zmiana nastąpiła w czasie \\( \\Delta t \\) to zgodnie z prawem Faradaya wyindukowała się siła elektromotoryczna", "gdzie \\( v \\) jest prędkością ruchu ramki.", "Jeżeli ramka jest wykonana z przewodnika o oporze \\( R \\), to w obwodzie płynie prąd indukcji (zob. Rys. 2 ) o natężeniu", "Ponieważ obwód znajduje się (częściowo) w polu magnetycznym, to na boki ramki (te znajdujące się w polu \\( B \\)) działa siła Lorentza (równanie Działanie pola magnetycznego na przewodnik z prądem-( 5 ) ). Siły te są przedstawione na Rys. 2. Widzimy, że siły ( \\( F_{b} \\)) działające na dłuższe boki ramki znoszą się i pozostaje nieskompensowana siła \\( F_{a} \\), która działa przeciwnie do kierunku ruchu ramki. Siła \\( F_{a} \\) przeciwdziała więc, zgodnie z regułą Lenza, zmianom strumienia magnetycznego."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 5. Indukcja elektromagnetyczna", "subject_id": 290, "subject": "Indukcyjność", "paragraphs": ["Powszechnie stosowanym urządzeniem, w którym wykorzystano zjawisko indukcji elektromagnetycznej jest transformator. W urządzeniu tym dwie cewki są nawinięte na tym samym rdzeniu (często jedna na drugiej). Jedna z tych cewek jest zasilana prądem przemiennym wytwarzającym w niej zmienne pole magnetyczne, które z kolei wywołuje SEM indukcji w drugiej cewce. Ponieważ obie cewki obejmują te same linie pola \\( B \\) to zmiana strumienia magnetycznego jest w nich jednakowa. Zgodnie z prawem Faradaya", "oraz", "gdzie \\( N_{1} \\) jest liczba zwojów w cewce pierwotnej, a \\( N_{2} \\) liczbą zwojów w cewce wtórnej. Stosunek napięć w obu cewkach wynosi zatem", "Widać, że regulując ilość zwojów w cewkach możemy zamieniać małe napięcia na duże i odwrotnie. Ta wygodna metoda zmiany napięć jest jednym z powodów, dla którego powszechnie stosujemy prąd przemienny. Ma to duże znaczenie przy przesyłaniu energii. Generatory wytwarzają na ogół prąd o niskim napięciu. Chcąc zminimalizować straty mocy w liniach przesyłowych, zamieniamy to niskie napięcie na wysokie, a przed odbiornikiem transformujemy je z powrotem na niskie.", "W przypadku transformatora zmiany prądu w jednym obwodzie indukują SEM w drugim obwodzie. Ale o zjawisku indukcji możemy mówić również w przypadku pojedynczego obwodu. Wynika to stąd, że prąd płynący w obwodzie wytwarza własny strumień magnetyczny, który przenika przez ten obwód. Wobec tego", "Tę siłę elektromotoryczną nazywamy siłą elektromotoryczną samoindukcji, a samo zjawisko zjawiskiem indukcji własnej. Jeżeli obwód (cewka) zawiera \\( N \\) zwojów to", "Całkowitym strumień \\( N\\phi_B \\) zawarty w obwodzie jest proporcjonalny do natężenie prądu płynącego przez obwód", "Stałą proporcjonalności \\( L \\)", "nazywamy indukcyjnością (współczynnikiem indukcji własnej lub współczynnikiem samoindukcji). Zróżniczkowanie równania ( 8 ) prowadzi do wyrażenia", "Łącząc równania ( 6 ) i ( 9 ), otrzymujemy wyrażenie na siłę elektromotoryczną samoindukcji"], "definitions": [{"name": "Definicja 1: Jednostka indukcyjności", "content": "\nJednostką indukcyjności \\( L \\) jest henr (H); \\( 1 \\) H \\( =1 \\) Vs/A.\n\n"}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 5. Indukcja elektromagnetyczna", "subject_id": 291, "subject": "Energia pola magnetycznego", "paragraphs": ["W module Energia pola elektrycznego w kondensatorze pokazaliśmy, że jeżeli w jakimś punkcie przestrzeni istnieje pole elektryczne o natężeniu \\( E \\), możemy uważać, że w tym punkcie jest zmagazynowana energia w ilości \\( ½\\varepsilon_{0}E^{2} \\) na jednostkę objętości. Podobnie energia może być zgromadzona w polu magnetycznym. Rozważmy na przykład obwód zawierający cewkę o indukcyjności \\( L \\). Jeżeli do obwodu włączymy źródło SEM (np. baterię), to prąd w obwodzie narasta od zera do wartości maksymalnej \\( I_{0} \\). Zmiana prądu w obwodzie powoduje powstanie na końcach cewki różnicy potencjałów \\( \\Delta V \\) (SEM indukcji \\( \\varepsilon \\)) przeciwnej do SEM przyłożonej", "Do pokonania tej różnicy potencjałów przez ładunek \\( dq \\) potrzeba jest energia (praca) \\( dW \\)", "Energię tę (pobraną ze źródła SEM) ładunek przekazuje cewce, więc energia cewki wzrasta o \\( dW \\). Całkowita energia magnetyczna zgromadzona w cewce podczas narastania prądu od zera do \\( I_{0} \\) wynosi więc", "Jeżeli rozpatrywana cewka ma długości \\( l \\) i powierzchnię przekroju \\( S \\), to jej objętość jest równa iloczynowi \\( lS \\) i gęstość energii magnetycznej zgromadzonej w cewce wynosi", "lub na podstawie równania ( 3 )", "Przypomnijmy, że dla cewki indukcyjność i pole magnetyczne dane są odpowiednio przez wyrażenia", "oraz", "co prowadzi do wyrażenie opisującego gęstość energii magnetycznej w postaci"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 6. Drgania elektromagnetyczne", "subject_id": 292, "subject": "Drgania w obwodzie LC", "paragraphs": ["Rozpatrzmy obwód złożony z szeregowo połączonych indukcyjności \\( L \\) (cewki) i pojemności \\( C \\) (kondensatora) pokazany na Rys. 1. Przyjmijmy, że opór elektryczny (omowy) obwodu jest równy zeru ( \\( R = 0 \\)). Załóżmy też, że w chwili początkowej na kondensatorze \\( C \\) jest nagromadzony ładunek \\( Q_{0} \\), a prąd w obwodzie nie płynie ( Rys. 1a). W takiej sytuacji energia zawarta w kondensatorze", "jest maksymalna, a energia w cewce", "jest równa zeru.", "Następnie kondensator zaczyna rozładowywać się ( Rys. 1b). W obwodzie płynie prąd \\( I = dQ/dt \\). W miarę jak maleje ładunek na kondensatorze, maleje też energia zawarta w polu elektrycznym kondensatora, a rośnie energia pola magnetycznego, które pojawia się w cewce w miarę narastania w niej prądu.", "Wreszcie gdy ładunek spadnie do zera cała energia jest przekazana do pola magnetycznego cewki ( Rys. 1c). Jednak pomimo, że kondensator jest całkowicie rozładowany prąd dalej płynie w obwodzie (w tym samym kierunku). Jego źródłem jest SEM samoindukcji powstająca w cewce, która podtrzymuje słabnący prąd. Ten prąd ładuje kondensator (przeciwnie), więc energia jest ponownie przekazywana do kondensatora ( Rys. 1d). Wreszcie ładunek na kondensatorze osiąga maksimum a prąd w obwodzie zanika. Stan końcowy jest więc taki jak początkowy tylko kondensator jest naładowany odwrotnie ( Rys. 1e).", "Sytuacja powtarza się, tylko teraz prąd rozładowania kondensatora będzie płynął w przeciwnym kierunku. Mamy więc do czynienia z oscylacjami (drganiami) ładunku (prądu). Zmienia się zarówno wartość jak i znak (kierunek) ładunku na kondensatorze i prądu w obwodzie.", "Do opisu ilościowego tych drgań skorzystamy z prawa Kirchhoffa, zgodnie z którym", "gdzie \\( U_{L} \\) i \\( U_{C} \\) są napięciami odpowiednio na cewce i kondensatorze. Korzystając z równań Indukcyjność-( 10 ) i Pojemność elektryczna-( 1 ), otrzymujemy", "Ponieważ \\( I = dQ/dt \\), więc", "Jest to równanie drgań w obwodzie \\( LC \\). Równanie to opisujące oscylacje ładunku ma identyczną postać, jak równanie Siła harmoniczna i drgania swobodne-( 3 ) drgań swobodnych masy zawieszonej na sprężynie, przy czym następujące wielkości elektryczne odpowiadają wielkościom mechanicznym: ładunek \\( Q \\) \\( \\rightarrow \\) przesunięcie \\( x \\); indukcyjność \\( L \\rightarrow \\) masa \\( m \\); pojemność \\( C \\rightarrow \\) odwrotność współczynnika sprężystości \\( 1/k \\); prąd \\( I = dQ/dt{ }\\rightarrow \\) prędkość \\( v = dx/dt \\).", "Ponieważ zagadnienie drgań swobodnych zostało rozwiązane w module Siła harmoniczna i drgania swobodne, więc możemy skorzystać z uprzednio wyprowadzonych wzorów i napisać rozwiązanie równania ( 5 )", "oraz", "gdzie częstość drgań jest dana wyrażeniem", "Możemy teraz obliczyć napięcie chwilowe na cewce i kondensatorze", "oraz", "Zauważmy, że maksymalne wartości (amplitudy) tych napięć są takie same", "Z powyższych wzorów wynika, że w obwodzie \\( LC \\) ładunek na kondensatorze, natężenie prądu i napięcie zmieniają się sinusoidalnie tak jak dla drgań harmonicznych. Zauważmy ponadto, że między napięciem i natężeniem prądu istnieje różnica faz, równa \\( \\pi /2 \\). Gdy napięcie osiąga maksymalną wartość to prąd jest równy zeru i na odwrót.", "Więcej o innych obwodach ( \\( RC \\), \\( RL \\)), w których natężenie prądu zmienia się w czasie możesz przeczytać w module Dodatek: Obwody RC i RL, stałe czasowe."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 6. Drgania elektromagnetyczne", "subject_id": 293, "subject": "Obwód szeregowy RLC", "paragraphs": ["Każdy obwód, poza indukcyjność \\( L \\) oraz pojemność \\( C \\), ma także pewien opór \\( R \\), przykładowo jest to opór drutu, z którego nawinięto cewkę. Obecność oporu w obwodzie powoduje straty energii w postaci wydzielającego się ciepła. Energia zawarta w obwodzie maleje i otrzymujemy drgania tłumione analogiczne do drgań tłumionych sprężyny opisanych w module Oscylator harmoniczny tłumiony, przy czym współczynnik tłumienia \\( \\beta = 1/(2\\tau) \\) jest równy \\( R/2L \\). Drgania w obwodzie \\( RLC \\) można podtrzymać, jeżeli obwód będziemy zasilać zmienną SEM ze źródła zewnętrznego włączonego do obwodu na przykład tak, jak pokazano na Rys. 1.", "Jeżeli obwód będziemy zasilać napięciem sinusoidalnie zmiennym", "to prawo Kirchhoffa dla obwodu zawierającego elementy \\( R \\), \\( L \\), \\( C \\) oraz źródło napięcia (SEM) ma postać", "Różniczkując to wyrażenie obustronnie po \\( dt \\) i podstawiając \\( I = dQ/dt \\) otrzymujemy równanie", "lub", "Równanie to jest analogiczne do równania drgań wymuszonych (zob. moduł Drgania wymuszone i rezonans-( 5 ) ). Możemy więc skorzystać z uzyskanych poprzednio wyników. Z tej analogii wynika, że rozwiązaniem równania ( 4 ) jest funkcja", "Różnica faz jaka istnieje między napięciem i natężeniem prądu jest dana równaniem", "a amplituda prądu \\( I_{0} \\) wynosi", "Zauważmy, że to wyrażenie ma postać (prawa Ohma) przy czym stała proporcjonalności pomiędzy \\( U_0 \\) i \\( I_{0} \\)", "pełni analogiczną rolę jak opór \\( R \\) w prawie Ohma. Wielkość \\( Z \\) nazywamy zawadą obwodu. Zauważmy, że gdy obwód zawiera tylko kondensator i źródło sinusoidalnie zmiennego napięcia to zawada jest równa", "Tę wielkość nazywamy opornością pojemnościową lub reaktancją pojemnościową. W takim obwodzie różnica faz pomiędzy napięciem i natężeniem prądu wynosi \\( \\pi /2 \\). Prąd \"wyprzedza\" napięcie na kondensatorze o \\( \\pi /2 \\). Natomiast gdyby obwód zawiera tylko cewkę i źródło napięcia sinusoidalnie zmiennego, to zawada jest równa", "Tę wielkość nazywamy opornością indukcyjną lub reaktancją indukcyjną. Ponownie między napięciem i natężeniem prądu istnieje różnica faz, równa \\( \\pi /2 \\), ale teraz prąd \"pozostaje\" za napięciem na cewce o \\( \\pi /2 \\). Zauważmy, że w obwodzie \\( RLC \\) mamy do czynienia z szeregowym połączeniem oporów omowego, pojemnościowego i indukcyjnego ( Rys. 1 ), a mimo to ich opór zastępczy (zawada) nie jest sumą algebraiczną tych oporów tak jak w przypadku łączenia szeregowego wielu oporów omowych. Ten fakt wynika ze wspomnianych przesunięć fazowych pomiędzy prądem i napięciem. Trzeba je uwzględnić przy dodawaniu napięć i w konsekwencji przy liczeniu zawady. O obliczaniu zawady w obwodzie \\( RLC \\) możesz przeczytać w module Dodatek: Zawada w obwodzie RLC."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 6. Drgania elektromagnetyczne", "subject_id": 294, "subject": "Rezonans w obwodach prądu zmiennego", "paragraphs": ["Drgania ładunku, prądu i napięcia w obwodzie odbywają się z częstością zasilania \\( \\omega \\) (częstością wymuszającą). Analogicznie jak dla mechanicznych drgań wymuszonych (zob. moduł Drgania wymuszone i rezonans ) amplituda tych drgań zależy od \\( \\omega \\) i osiąga maksimum dla pewnej charakterystycznej wartości tej częstości. Przypomnijmy, że zjawisko to nazywamy rezonansem.", "Dla małego oporu \\( R \\) czyli dla małego tłumienia warunek rezonansu jest spełniony, gdy", "gdzie \\( \\omega_{0} \\) jest częstością drgań nietłumionych (drgania w obwodzie \\( LC \\)). Natężenie prądu osiąga wtedy wartość maksymalną równą", "Widzimy, że natężenie prądu w obwodzie jest takie, jak gdyby nie było w nim ani pojemności ani indukcyjności.", "W warunkach rezonansu napięcie na kondensatorze (w obwodzie \\( RLC \\)) jest równe", "i może być wielokrotnie większe od napięcia zasilającego. Możesz to sprawdzić rozwiązując następujące zagadnienie:"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 6. Drgania elektromagnetyczne", "subject_id": 295, "subject": "Moc w obwodzie prądu zmiennego", "paragraphs": ["O mocy wydzielanej w obwodzie prądu stałego mówiliśmy w module Praca i moc prądu elektrycznego, straty cieplne. W obwodzie prądu zmiennego moc dana jest takim samym wyrażeniem", "ale wartość jej zmienia się bo zmienne jest napięcie i natężenie prądu. Dlatego też w przypadku prądu zmiennego do obliczenia mocy posłużymy się wartościami średnimi. Zgodnie z naszymi obliczeniami moc w obwodzie \\( RLC \\) w dowolnej chwili \\( t \\) wynosi", "Korzystając ze wzoru na sinus różnicy kątów, otrzymujemy", "gdzie ponadto skorzystaliśmy z relacji \\( {\\sin}\\mathit{\\omega t} {\\cos}\\mathit{\\omega t} = {\\sin}2\\mathit{\\omega t}/2 \\). Moc średnia jest więc dana wyrażeniem", "Ponieważ \\( {\\sin}^{{2}}\\mathit{\\omega t}+{\\cos}^{{2}}\\mathit{\\omega t}=1 \\), to \\( {\\overline{{{\\sin}^{{2}}\\mathit{\\omega t}}}=\\overline{{{\\cos}^{{2}}\\mathit{\\omega t}}}=1/{2}} \\) (wykresy sinus i cosinus są takie same, jedynie przesunięte o \\( \\pi /2 \\)). Ponadto \\( {\\overline{{{\\sin}2\\mathit{\\omega t}}}=0} \\), bo funkcja sinus jest na przemian dodatnia i ujemna, więc", "Jak widzimy, średnia moc zależy od przesunięcia fazowego pomiędzy napięciem i prądem.", "Na podstawie wzoru Obwód szeregowy RLC-( 6 ) i korzystając ze związków między funkcjami trygonometrycznymi tego samego kąta można pokazać, że \\( {{\\cos}\\varphi =R/Z} \\). Uwzględniając, ponadto że \\( U_0 = ZI_{0} \\) możemy przekształcić wyrażenie na moc średnią do postaci", "Przypomnijmy, że dla prądu stałego \\( {P=I^{{2}}R} \\). Z porównania tych dwóch wyrażeń dochodzimy do wniosku, że moc średnia wydzielana przy przepływie prądu zmiennego o amplitudzie \\( I_{0} \\) jest taka sama, jak prądu stałego o natężeniu.", "Obliczyliśmy moc średnią wydzielaną w całym obwodzie. Porównajmy ją teraz ze średnią mocą traconą na oporze \\( R \\)", "Widzimy, że cała moc wydziela się na oporze \\( R \\), a to oznacza, że na kondensatorze i cewce nie ma strat mocy. Ten wniosek pozostaje w zgodności z naszymi wcześniejszymi obliczeniami. Gdy w obwodzie znajduje się tylko pojemność lub indukcyjność (nie ma oporu omowego), to przesuniecie fazowe jest równe \\( \\pi /2 \\), a ponieważ \\( cos(\\pi /2) = 0 \\), to zgodnie z równaniem ( 5 ) średnia moc jest równa zeru. Jednocześnie zauważmy, że moc chwilowa zmienia się z czasem; raz jest dodatnia (energia jest gromadzona w polu elektrycznym kondensatora lub magnetycznym cewki), a raz ujemna (zgromadzona moc jest oddawana do układu).", "Omawiane obwody, w których elementy \\( R \\), \\( L \\), \\( C \\) stanowiły odrębne części nazywamy obwodami o elementach skupionych. W praktyce jednak mamy do czynienia z elementami, które mają złożone własności. Przykładem może tu być cewka, która oprócz indukcyjności \\( L \\) ma zawsze opór \\( R \\) oraz pojemność międzyzwojową \\( C \\). Mamy wtedy do czynienia z obwodami o elementach rozłożonych."], "definitions": [{"name": "Definicja 1: Wartość skuteczna natężenia prądu zmiennego", "content": "\n\n\n(7)\n\n\t\t\t\t\t\t\t\t\\( {I_{{\\text{sk}}}=\\frac{I_{{0}}}{\\sqrt{2}}} \\)\n\n\nTę wielkość nazywamy wartością skuteczną natężenia prądu zmiennego. Analogicznie definiujemy skuteczną wartość napięcia.\n\n"}, {"name": "Definicja 2: Wartość skuteczna napięcia prądu zmiennego", "content": "\n\n\n(8)\n\n\t\t\t\t\t\t\t\t\\( {U_{{\\text{sk}}}=\\frac{U_{{0}}}{\\sqrt{2}}} \\)\n\n"}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 6. Drgania elektromagnetyczne", "subject_id": 1450, "subject": "Dodatek: Obwody RC i RL, stałe czasowe", "paragraphs": ["Na Rys. 1 pokazany jest obwód złożony z opornika \\( R \\), pojemności \\( C \\) i idealnego (bez oporu wewnętrznego) źródła napięcia (SEM) \\( \\varepsilon \\).", "Celem naładowania kondensatora zamykamy wyłącznik do pozycji (a). Prąd jaki popłynie w obwodzie \\( RC \\) obliczamy, korzystając z prawa Kirchoffa, zgodnie z którym", "lub", "Ponieważ \\( I = dQ/dt \\) więc", "Rozwiązaniem tego równania jest funkcja \\( Q(t) \\) postaci", "Natomiast prąd w obwodzie obliczamy z zależności \\( I = dQ/dt \\)", "Obie zależności zostały pokazane na Rys. 2 oraz Rys. 3.", "Z przedstawionych wykresów widać, że ładunek na kondensatorze narasta, a prąd maleje eksponencjalnie z czasem. Szybkość tych zmian zależy od wielkość \\( \\tau = RC \\), która ma wymiar czasu i jest nazywana stałą czasową obwodu.", "Jeżeli teraz w obwodzie przełączymy wyłącznik do pozycji (b) to będziemy rozładowywać kondensator. Teraz w obwodzie nie ma źródła SEM i prawo Kirchoffa dla obwodu przyjmuje postać", "lub", "Ponieważ \\( I = dQ/dt \\) więc", "Rozwiązaniem tego równania jest funkcja \\( Q(t) \\) postaci", "Natomiast prąd w obwodzie obliczamy z zależności \\( I = dQ/dt \\)", "Zarówno ładunek jak i prąd maleją eksponencjalnie ze stałą czasową \\( \\tau=RC \\).", "Analogicznie, jak w obwodzie \\( RC \\), opóźnienie w narastaniu i zanikaniu prądu obserwuje się w obwodzie \\( RL \\) przy włączaniu lub wyłączaniu źródła SEM.", "Gdyby w obwodzie znajdował się tylko opornik \\( R \\), to po ustawieniu wyłącznika w pozycji (a) prąd osiągnąłby natychmiast wartość \\( \\varepsilon /R \\). Obecność indukcyjności \\( L \\) w obwodzie powoduje, że pojawia się dodatkowo SEM samoindukcji \\( \\varepsilon_{L} \\), która zgodnie z regułą Lenza przeciwdziała wzrostowi prądu co oznacza, że jej zwrot jest przeciwny do \\( \\varepsilon \\).", "Zgodnie z prawem Kirchoffa", "lub", "Rozwiązaniem tego równania jest funkcja \\( I(t) \\) postaci", "Prąd w obwodzie narasta eksponencjalnie ze stałą czasową \\( \\tau=L/R \\). Podobnie rośnie napięcie na oporniku \\( R \\)", "Natomiast napięcie na indukcyjności \\( L \\) maleje z tą samą stałą czasową", "Jeżeli po ustaleniu się prądu w obwodzie, przestawimy przełącznik do pozycji (b) to wyłączmy źródło SEM i spowodujemy zanik prądu w obwodzie. Ponownie jednak indukcyjność \\( L \\) powoduje, że prąd nie zanika natychmiastowo.", "Spadek prądu obliczamy ponownie na podstawie prawa Kirchoffa (równanie( 12 ) ) uwzględniając, że \\( \\varepsilon=0 \\)", "Rozwiązanie tego równania ma postać", "Obserwujemy zanik prądu, ponownie ze stałą czasową \\( \\tau=L/R. \\)"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 6. Drgania elektromagnetyczne", "subject_id": 1458, "subject": "Dodatek: Zawada w obwodzie RLC", "paragraphs": ["W omawianym obwodzie \\( RLC \\) pomimo szeregowego połączenia oporów omowego, pojemnościowego i indukcyjnego opór zastępczy (zawada) nie jest sumą algebraiczną tych oporów. Wynika to bezpośrednio z występujących w obwodzie przesunięć fazowych pomiędzy prądem i napięciem, które trzeba uwzględniać przy dodawaniu napięć i w konsekwencji przy liczeniu zawady.", "Żeby to sprawdzić obliczmy napięcie wypadkowe w obwodzie \\( RLC \\)", "Po podstawieniu odpowiednich wyrażeń i uwzględnieniu przesunięć fazowych pomiędzy prądem i napięciem dla poszczególnych elementów obwodu otrzymujemy", "lub", "Zwróćmy uwagę, że na kondensatorze napięcie \\( U \\) pozostaje za prądem \\( I \\), a na cewce \\( U \\) wyprzedza \\( I \\).", "Równanie ( 3 ) można przekształcić do postaci", "Mamy więc teraz dodać do siebie dwie funkcje, sinus i cosinus.", "W tym celu skorzystamy z wyrażenia Obwód szeregowy RLC-( 6 ), zgodnie z którym \\( {(X_{{L}}-X_{{C}})/{R}=tg\\varphi } \\). Relacja ta, pokazana na rysunku poniżej, przedstawia związek między reaktancjami \\( X_{L} \\), \\( X_{C} \\) oporem \\( R \\) oraz kątem fazowym \\( \\varphi \\).", "Zauważmy, ze przeciwprostokątna trójkąta na rysunku jest równa zawadzie \\( {Z=\\sqrt{R^{{2}}+\\left(X_{{L}}-X_{{C}}\\right)^{{2}}}} \\).", "Dzielimy teraz obustronnie równanie ( 4 ) przez \\( Z \\) i otrzymujemy", "Zgodnie z Rys. 1", "oraz", "Tak więc ostatecznie", "Otrzymaliśmy ponownie relację", "z której wynika, że napięcie \\( U \\) wyprzedza prąd \\( {I=I_{{0}}{\\sin}(\\mathit{\\omega t}-\\varphi )} \\) o kąt fazowy \\( \\varphi \\) oraz, że zawada \\( Z \\) jest stałą proporcjonalności pomiędzy \\( U_0 \\) i \\( I_{0} \\)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 7. Równania Maxwella", "subject_id": 296, "subject": "Prawo Gaussa dla pola magnetycznego", "paragraphs": ["Przypomnijmy, że analogicznie jak strumień pola elektrycznego \\( {\\bf E } \\), strumień pola magnetycznego \\( {\\bf B } \\) przez powierzchnię \\( S \\) jest dany ogólnym wzorem", "Jednak, jak już podkreślaliśmy istnieje zasadnicza różnica między stałym polem magnetycznym i elektrycznym, różnica pomiędzy liniami pola elektrycznego i magnetycznego. Linie pola magnetycznego są zawsze liniami zamkniętymi podczas gdy linie pola elektrycznego zaczynają się i kończą na ładunkach. Ponieważ linie pola \\( {\\bf B } \\) są krzywymi zamkniętymi, więc dowolna powierzchnia zamknięta otaczająca źródło pola magnetycznego jest przecinana przez tyle samo linii wychodzących ze źródła co wchodzących do niego (zob. Rys. 1 ).", "W konsekwencji strumień pola magnetycznego przez zamkniętą powierzchnię jest równy zeru", "Ten ogólny związek znany jest jako prawo Gaussa dla pola magnetycznego. Wynik ten wiąże się z faktem, że nie udało się zaobserwować w przyrodzie (pomimo wielu starań) ładunków magnetycznych (pojedynczych biegunów) analogicznych do ładunków elektrycznych."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 7. Równania Maxwella", "subject_id": 297, "subject": "Indukowane wirowe pole elektryczne", "paragraphs": ["W module Prawo indukcji Faradaya przedstawione zostało zjawisko indukcji elektromagnetycznej polegające na powstawaniu siły elektromotorycznej \\( SEM \\) w obwodzie podczas przemieszczania się względem siebie źródła pola magnetycznego i tego obwodu.", "Ponieważ prawo Faradaya określa indukowaną \\( SEM \\) niezależnie od sposobu w jaki zmieniamy strumień magnetyczny, więc w szczególności zmiana strumienia magnetycznego może być wywołana zmieniającym się w czasie polem magnetycznym. Jeżeli w tym zmiennym polu magnetycznym umieścimy przewodzącą kołową pętlę (obwód), to w tym obwodzie popłynie prąd. Oznacza to, że w miejscu gdzie znajduje się przewodnik istnieje pole elektryczne \\( {\\bf E } \\), które działa na ładunki elektryczne w przewodniku wywołując ich ruch.", "To pole elektryczne \\( {\\bf E } \\) zostało wytworzone (wyindukowane) przez zmieniające się pole magnetyczne \\( {\\bf B } \\). Ogólnie:", "Jako przykład rozpatrzmy jednorodne pole magnetyczne \\( {\\bf B } \\), którego wartość maleje z czasem ze stałą szybkością \\( dB/dt \\). Na Rys. 1 pokazano natężenie pola elektrycznego \\( {\\bf E } \\) wyindukowanego przez to malejące pole \\( {\\bf B } \\). Kierunek wyindukowanego pola elektrycznego określamy z reguły Lenza, analogicznie jak znajdowaliśmy kierunek indukowanego prądu (który to pole elektryczne wywołuje w przewodniku). Zauważmy przy tym, że obecność pętli (obwodu) nie jest konieczna. Jeżeli go nie będzie, to nie będziemy obserwować przepływu prądu jednak indukowane pole elektryczne \\( {\\bf E } \\) będzie nadal istnieć.", "Linie indukowanego pola elektrycznego mają kształt koncentrycznych okręgów (zamkniętych linii), co w zasadniczy sposób różni je od linii pola \\( {\\bf E } \\) związanego z ładunkami, które nie mogą być liniami zamkniętymi, bo zawsze zaczynają się na ładunkach dodatnich i kończą na ujemnych. Zapamiętajmy, że indukowane pola elektryczne nie są związane z ładunkiem, ale ze zmianą strumienia magnetycznego. Indukowane pole elektryczne nazywamy (ze względu na kształt linii) wirowym polem elektrycznym. Natężenia kołowego pola elektrycznego pokazanego na Rys. 1 jest zgodnie z równaniem Potencjał elektryczny-( 5 ) związane z indukowaną siłą elektromotoryczna relacją", "gdzie całkowanie odbywa się po drodze, na której działa siła to jest wzdłuż linii pola elektrycznego. W polu elektrycznym pokazanym na Rys. 1 ładunki elektryczne poruszają się po torach kołowych, więc równanie ( 1 ) przyjmuje postać \\( {\\varepsilon ={E2\\pi r}} \\). Korzystając z równania ( 1 ) możemy zapisać uogólnione prawo indukcji Faradaya w postaci", "które możemy wyrazić następująco:"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 7. Równania Maxwella", "subject_id": 298, "subject": "Indukowane pole magnetyczne", "paragraphs": ["W poprzednim paragrafie dowiedzieliśmy się, że zmianom pola magnetycznego towarzyszy zawsze powstanie pola elektrycznego. Teraz zajmiemy się powiązaniem prędkości zmian pola elektrycznego z wielkością wywołanego tymi zmianami pola magnetycznego.", "W tym celu rozpatrzmy obwód elektryczny zawierający kondensator cylindryczny pokazany na Rys. 1.", "W stanie ustalonym pole elektryczne w kondensatorze jest stałe. Natomiast gdy ładujemy lub rozładowujemy kondensator to do okładek dopływa (lub z nich ubywa) ładunek i w konsekwencji zmienia się pole elektryczne \\( {\\bf E } \\) w kondensatorze. Doświadczenie pokazuje, że pomiędzy okładkami kondensatora powstaje pole magnetyczne wytworzone przez zmieniające się pole elektryczne. Linie pola, pokazane na Rys. 1, mają kształt okręgów tak jak linie pola wokół przewodnika z prądem. Pole magnetyczne jest wytwarzane w kondensatorze tylko podczas jego ładowania lub rozładowania. Tak więc pole magnetyczne może być wytwarzane zarówno przez przepływ prądu (prawo Ampère'a) jak i przez zmienne pole elektryczne.", "Na tej podstawie Maxwell uogólnił prawo Ampère'a do postaci", "Sprawdźmy czy stosując tę modyfikację uzyskamy poprawny wynik na pole \\( B \\) pomiędzy okładkami. Z prawa Gaussa wynika, że strumień pola elektrycznego pomiędzy okładkami kondensatora wynosi", "Różniczkując to wyrażenie obustronnie po dt otrzymujemy", "Przypomnijmy, że zgodnie z prawem Ampère'a", "Podstawiając za prąd \\( I \\) (równanie ( 3 ) ), otrzymujemy wyrażenie", "identyczne z wyrazem dodanym przez Maxwella do prawa Ampère'a.", "Podsumowując:", "Mówiąc o polu magnetycznym wytwarzanym przez zmienne pole elektryczne, możemy posłużyć się pojęciem prądu przesunięcia. Więcej na ten temat możesz przeczytać w module Prąd przesunięcia."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 7. Równania Maxwella", "subject_id": 333, "subject": "Prąd przesunięcia", "paragraphs": ["W module Indukowane pole magnetyczne-Rys. 1 widzimy, że linie pola \\( B \\) mają taki sam kształt, jak linie wytworzone przez przewodnik z prądem. Zauważmy ponadto, że w uogólnionym prawie Ampère`a", "wyraz \\( {\\varepsilon_{{0}}\\mathit{d\\phi}_{{E}}/{\\mathit{dt}} } \\) ma wymiar prądu.", "Mimo, że nie mamy tu do czynienia z ruchem ładunków w obszarze pomiędzy okładkami kondensatora, to wyraz ten z przyczyn wymienionych powyżej nazywamy prądem przesunięcia.", "Mówimy, że pole \\( B \\) może być wytworzone przez prąd przewodzenia \\( I \\) lub przez prąd przesunięcia \\( I_{p} \\).", "Koncepcja prądu przesunięcia pozwala na zachowanie ciągłości prądu w przestrzeni gdzie nie jest przenoszony ładunek. Przykładowo w trakcie ładowania kondensatora prąd dopływa do jednej okładki i odpływa z drugiej więc wygodnie jest przyjąć, że płynie on również pomiędzy okładkami tak, aby była zachowana ciągłość prądu w obwodzie."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 7. Równania Maxwella", "subject_id": 299, "subject": "Równania Maxwella", "paragraphs": ["W Tabela 1 zestawione są cztery prawa, które opisują ogół zjawisk elektromagnetycznych. Są to równania Maxwella. Przedstawione równania sformułowano dla próżni to jest gdy w ośrodku nie ma dielektryków i materiałów magnetycznych.", "Wszystkie powyższe prawa są słuszne zarówno w przypadku statycznym (pola niezależne od czasu) jak i w przypadku pól zależnych od czasu.", "Więcej o równaniach Maxwella w przypadku statycznym jak i w przypadku pól zależnych od czasu przeczytasz w module Równania Maxwella zależne i niezależne od czasu. Równaniach Maxwella można zapisać także w inny sposób (zob. moduł Równania Maxwella w postaci różniczkowej (operatorowej) )."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 7. Równania Maxwella", "subject_id": 300, "subject": "Równania Maxwella w postaci różniczkowej (operatorowej)", "paragraphs": ["Istnieje kilka równoważnych sformułowań równań Maxwella. Poza, przedstawioną w module Równania Maxwella i Równania Maxwella zależne i niezależne od czasu postacią całkową, równania Maxwella często przedstawiane są postaci różniczkowej. Tę formę równań można otrzymać bezpośrednio z formy całkowej w wyniku przekształceń matematycznych w oparciu o twierdzenia Gaussa-Ostrogradskiego i Stokesa.", "W module Pole grawitacyjne, pola sił omówiliśmy, na przykładzie sił grawitacyjnych, ważne w fizyce pojęcie pola. Analogicznie w module Pole elektryczne zdefiniowaliśmy natężenie pola elektrycznego. W obu przypadkach mamy do czynienia z wektorowym polem sił (grawitacyjnej, elektrostatycznej). W każdym punkcie takiej przestrzeni/pola określona jest pewna funkcja wektorowa \\( {\\bf v } ({\\bf r } ) \\), określony jest wektor pola \\( {\\bf v } (v_1 , v_2 , v_3 ) \\). Takie pole nazywamy polem wektorowym (zob. moduł Dodatek: Dielektryk w polu elektrycznym - rozważania ilościowe ).", "Kierunek pola jest wyznaczony poprzez linie pola wektorowego, do których wektor pola jest styczny w każdym punkcie. Skorzystamy teraz, z wprowadzonego w module Dodatek: Dielektryk w polu elektrycznym - rozważania ilościowe, operatora wektorowego nabla \\( \\nabla\\left(\\widehat{i}\\frac{\\partial}{\\partial x },\\widehat{j}\\frac{\\partial}{\\partial y },\\widehat{k}\\frac{\\partial}{\\partial z }\\right) \\) do zdefiniowania operatorów dywergencji i rotacji.", "Operator dywegencji to wynik iloczynu skalarnego operatora nabla i wektora pola \\( {\\bf v } (v_1 , v_2 , v_3 ) \\) (działanie na funkcję wektorową). W wyniku otrzymujemy pole skalarne", "Dywergencja jest miarą źródłowości pola (oznacza intensywność źródła), wskazuje na lokalne źródła pola wektorowego i wiąże się z twierdzeniem Gaussa-Ostrogradskiego, które umożliwia zamianę całki powierzchniowej na objętościową:", "gdzie \\( V \\) jest obszarem ograniczonym powierzchnią zamkniętą \\( S \\).", "Operator rotacji to wynik iloczynu wektorowego operatora nabla i wektora pola \\( {\\bf v } (v_1 , v_2 , v_3 ) \\) (działanie na funkcję wektorową). W wyniku otrzymujemy pole wektorowe", "Rotacja określa obrót wektora pola, np. dla płynącej cieczy, \\( rot {\\bf v } \\) oznacza, że mamy do czynienia z wirami. Rotacja jest miarą obecności lokalnych zawirowań pola i wiąże się z twierdzeniem Stockesa, które wiąże całkę liniową z pola wektorowego po zamkniętym konturze \\( L \\) z całką powierzchniową po płacie powierzchniowym \\( S \\) ograniczonym przez kontur \\( L \\):", "Teraz (zob. Tabela 1 ) na podstawie twierdzenia Gaussa-Ostrogradskiego zamieniamy całkę powierzchniową na całkę objętościową, a na podstawie twierdzenia Stokesa zamieniamy całkę liniową (cyrkulację) na całkę powierzchniową i przekształcamy równania Maxwella do postaci różniczkowej (operatorowej).", "gdzie \\( \\rho \\) jest gęstością ładunku, a \\( {\\bf J } \\) wektorem gęstości prądu."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 7. Równania Maxwella", "subject_id": 301, "subject": "Równania Maxwella zależne i niezależne od czasu", "paragraphs": ["W przypadku statycznym (pola niezależne od czasu) dwa równania Maxwella", "opisują prawa elektrostatyki. Z pierwszego równania wynika prawo Coulomba, które jest słuszne tylko w przypadku statycznym bo nie opisuje oddziaływania pomiędzy ładunkami w ruchu.", "Równanie ( 2 ) pokazuje, że gdy nie występuje zmienny (w czasie) strumień magnetyczny, to praca pola \\( E \\) wzdłuż dowolnej zamkniętej drogi jest równa zeru - pole elektrostatyczne jest polem zachowawczym i do jego opisu możemy posłużyć się pojęciem potencjału.", "Natomiast w przypadku pól zależnych od czasu równanie to ma postać", "i pole \\( E \\) nie jest polem zachowawczym - nie możemy go opisać za pomocą potencjału.", "Kolejne dwa równania Maxwella, w przypadku statycznym (pola niezależne od czasu) opisują prawa magnetostatyki", "Pierwsze z tych równań ( ( 4 ) ) mówi, że nie istnieją ładunki magnetyczne (pojedyncze bieguny) analogiczne do ładunków elektrycznych. Natomiast równanie ( 5 ) pokazuje, że źródłem pola magnetostatycznego są stałe prądy elektryczne.", "Natomiast w przypadku pól zależnych od czasu równanie to ma postać", "i uwzględnia efekt zmieniających się pól elektryczny.", "Zauważmy, że w przypadku statycznym prawa opisujące pola elektryczne i magnetyczne są od siebie niezależne natomiast w przypadku pól zależnych od czasu równania Maxwella łączą ze sobą pola elektryczne i magnetyczne."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 8. Fale elektromagnetyczne", "subject_id": 302, "subject": "Widmo fal elektromagnetycznych", "paragraphs": ["Maxwell nie tylko połączył w jedną całość podstawowe równania opisujące zjawiska elektromagnetyczne, ale wyciągnął z tych równań szereg wniosków o znaczeniu fundamentalnym. Z równań wiążących ze sobą pola elektryczne i magnetyczne", "oraz", "wynika, że każda zmiana w czasie pola elektrycznego wywołuje powstanie zmiennego pola magnetycznego, które z kolei indukuje wirowe pole elektryczne itd. Taki ciąg sprzężonych pól elektrycznych i magnetycznych tworzy falę elektromagnetyczną (zob. Rys. 1 ).", "Maxwell wykazał, że wzajemnie sprzężone pola elektryczne i magnetyczne są do siebie prostopadłe i prostopadłe do kierunku rozchodzenia się fali, i że prędkość tych fal elektromagnetycznych w próżni jest dana wyrażeniem", "Pokazał też, że przyspieszony ładunek elektryczny będzie promieniować pole elektryczne i magnetyczne w postaci fali elektromagnetycznej oraz, że w wypromieniowanej fali stosunek amplitudy natężenia pola elektrycznego do amplitudy indukcji magnetycznej jest równy prędkości \\( c \\)", "Znany nam obecnie zakres widma fal elektromagnetycznych przedstawia Rys. 2. Wszystkie wymienione fale są falami elektromagnetycznymi i rozchodzą się w próżni z prędkością \\( c. \\) Różnią się natomiast częstotliwością (długością) fal. Przedstawiony podział wiąże się z zastosowaniem określonych fal lub sposobem ich wytwarzania.", "Poszczególne zakresy długości fal zachodzą na siebie, ich granice nie są ściśle określone."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 8. Fale elektromagnetyczne", "subject_id": 303, "subject": "Równanie falowe", "paragraphs": ["Przypomnijmy sobie równanie ruchu falowego (zob. moduł ) dla struny", "Równanie to opisuje falę poprzeczną rozchodzącą się w kierunku \\( x \\) (cząstki ośrodka wychylały się w kierunku \\( y \\)). Równanie falowe w tej postaci, stosuje się do wszystkich rodzajów rozchodzących się fal, np.: fal dźwiękowych i fal elektromagnetycznych. Możemy więc przez analogię napisać (pomijając wyprowadzenie) równanie falowe dla fali elektromagnetycznej (rozchodzącej się w kierunku osi \\( x \\))", "Oczywiście pole elektryczne \\( \\bf E \\) spełnia takie samo równanie", "Pola \\( \\bf E \\) i \\( \\bf B \\) są do siebie prostopadłe."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 8. Fale elektromagnetyczne", "subject_id": 304, "subject": "Rozchodzenie się fal elektromagnetycznych", "paragraphs": ["Dla zilustrowania rozchodzenia się fal elektromagnetycznych i wzajemnego sprzężenia pól elektrycznych i magnetycznych rozpatrzymy jedną z najczęściej stosowanych linii transmisyjnych jaką jest kabel koncentryczny. Na Rys. 1 pokazany jest rozkład pola elektrycznego i magnetycznego w kablu koncentrycznym w danej chwili \\( t \\). Pole elektryczne jest radialne, a pole magnetyczne tworzy współosiowe koła wokół wewnętrznego przewodnika. Pola te poruszają się wzdłuż kabla z prędkością \\( c \\) (zakładamy, że linia transmisyjna ma zerowy opór). Mamy do czynienia z falą bieżącą.", "Rysunek pokazuje tylko jedną z możliwych konfiguracji pól odpowiadającą jednej z różnych fal jakie mogą rozchodzić wzdłuż kabla. Pola \\( E \\) i \\( B \\) są do siebie prostopadłe w każdym punkcie. Innym przykładem linii transmisyjnej (obok kabli koncentrycznych) są tzw. falowody, które stosuje się do przesyłania fal elektromagnetycznych w zakresie mikrofal. Falowody wykonywane są w postaci pustych rur metalowych o różnych kształtach przekroju poprzecznego (bez przewodnika wewnętrznego). Ściany takiego falowodu mają znikomą oporność. Jeżeli do końca falowodu przyłożymy generator mikrofalowy (klistron) to przez falowód przechodzi fala elektromagnetyczna. Przykładowy rozkład pól \\( E \\), \\( B \\) takiej fali jest pokazany na Rys. 2 dla falowodu, którego przekrój jest prostokątem. Fala rozchodzi się w kierunku zaznaczonym strzałką.", "Typ transmisji czyli rozkład pól (typ fali) w falowodzie zależy od jego rozmiarów. Zwróćmy uwagę, że rozkład pól nie musi być sinusoidalnie zmienny. Elektromagnetyczna linia transmisyjna może być zakończona w sposób umożliwiający wypromieniowanie energii elektromagnetycznej do otaczającej przestrzeni. Przykładem takiego zakończenia jest antena dipolowa umieszczona na końcu kabla koncentrycznego pokazana na Rys. 3.", "Jeżeli różnica potencjałów pomiędzy między drutami zmienia się sinusoidalnie to taka antena zachowuje się jak dipol elektryczny, którego moment dipolowy zmienia się co do wielkości jak i kierunku. Energia elektromagnetyczna przekazywana wzdłuż kabla jest wypromieniowywana przez antenę tworząc falę elektromagnetyczną w ośrodku otaczającym antenę. Na rysunku Rys. 4 oraz Rys. 5 pokazane jest pole \\( \\bf E \\) wytwarzane przez taki oscylujący dipol (przez taką antenę) w dwu przykładowo wybranych chwilach. Rysunek przedstawia położenie ładunków dipola i pole elektryczne wokół niego.", "Zwróćmy uwagę na jeszcze jedną bardzo istotną cechę fal elektromagnetycznych. Fale elektromagnetyczne mogą rozchodzić się w próżni w przeciwieństwie do fal mechanicznych, na przykład fal akustycznych, które wymagają ośrodka materialnego. Prędkość fal elektromagnetycznych w próżni jest dana wzorem", "lub", "gdzie \\( v \\) jest częstotliwością, \\( \\lambda \\) długością fali, \\( \\omega \\) częstością kołową, a \\( k \\) liczbą falową."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 8. Fale elektromagnetyczne", "subject_id": 305, "subject": "Wektor Poyntinga", "paragraphs": ["Fale elektromagnetyczne posiadają zdolność do przenoszenia energii od punktu do punktu. Szybkość przepływu energii przez jednostkową powierzchnię płaskiej fali elektromagnetycznej opisujemy wektorem \\( {\\bf S } \\) zwanym wektorem Poyntinga. Wektor \\( {\\bf S } \\) definiujemy za pomocą iloczynu wektorowego", "W układzie SI jest on wyrażony w \\( W/m^{2} \\), kierunek \\( {\\bf S } \\) pokazuje kierunek przenoszenia energii. Wektory \\( {\\bf E } \\) i \\( {\\bf B } \\) są chwilowymi wartościami pola elektromagnetycznego w rozpatrywanym punkcie."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 8. Fale elektromagnetyczne", "subject_id": 306, "subject": "Podsumowanie z indukcji EM i fal EM", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 8. Fale elektromagnetyczne", "subject_id": 307, "subject": "Zadania z indukcji EM i fal EM", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 9. Optyka geometryczna", "subject_id": 308, "subject": "Optyka geometryczna i falowa - wstęp", "paragraphs": ["Promieniowanie świetlne, o którym będziemy mówić jest pewnym, niewielkim wycinkiem widma elektromagnetycznego wyróżnionym przez fakt, że oko ludzkie reaguje na ten zakres promieniowania.", "Jeżeli rozwiązałeś powyższe zadanie możesz porównać ten wynik z przedstawioną na Rys. 1 względną czułością oka ludzkiego.", "Maksimum czułości oka ludzkiego przypada dla barwy zielono-żółtej dla \\( \\lambda \\) = 550 nm. Więcej o widzeniu barwnym możesz przeczytać w module Widzenie barwne."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 9. Optyka geometryczna", "subject_id": 323, "subject": "Widzenie barwne", "paragraphs": ["Obraz w oku powstaje na siatkówce oka. Światło po przejściu przez soczewkę pada na znajdujące się w siatkówce komórki wrażliwe na światło - fotoreceptory. Są dwa podstawowe rodzaje fotoreceptorów: pręciki i czopki.", "Pręciki rejestrują zmiany jasności, a dzięki czopkom możemy rozróżnić kolory. Pręcik są bardziej czułe na światło niż czopki. W nocy gdy jest ciemno, komórki odpowiedzialne za widzenie barwne (czopki) nie są stymulowane. Reagują jedynie pręciki. Dlatego o zmierzchu wszystko wydaje się szare.", "W oku znajdują się trzy rodzaje czopków, które są wrażliwe na trzy podstawowe barwy widmowe:", "W zależności od stopnia stymulacji poszczególnych rodzajów czopków widzimy określony kolor, który można przedstawić jako kombinację tych trzech podstawowych barw. Barwę białą zobaczymy, gdy wszystkie trzy rodzaje czopków podrażnione będą jednakowo silnie.", "Okazuje się, że czopki w największym stopniu pochłaniają żółtozielone światło o długości fali około 550 nanometrów i dlatego właśnie oko ludzkie najsilniej reaguje na światło o tej długości fali. Jednak odbiór konkretnej barwy uzależniony jest od czułości poszczególnych czopków, a ich czułość jest uzależniona od fizjologicznych cech poszczególnych osób więc każdy człowiek te same barwy odbiera trochę inaczej."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 9. Optyka geometryczna", "subject_id": 309, "subject": "Odbicie i załamanie", "paragraphs": ["Wiemy już, że światło rozchodzi się w próżni z prędkością \\( c \\). Natomiast, jak pokazują wyniki doświadczeń, w ośrodkach materialnych prędkość światła jest mniejsza. Jeżeli w jednorodnym ośrodku światło przebędzie w czasie \\( t \\) drogę \\( l_{1} = vt \\) to droga \\( l \\) jaką w tym samym czasie światło przebyłoby w próżni wynosi", "gdzie", "nosi nazwę bezwzględnego współczynnika załamania. Natomiast iloczyn drogi geometrycznej l \\( _{1} \\) i współczynnika załamania \\( n \\) nosi nazwę drogi optycznej. Poniżej w Tabela 1 podane zostały bezwzględne współczynniki załamania wybranych substancji.", "Bezwzględne współczynniki załamania wybranych ośrodków (dla \\( \\lambda \\) = 589 nm - żółte światło sodu)", "W nagłówku powyższej tabeli podano dla jakiej fali zostały wyznaczone współczynniki załamania. Jest to ważna informacja bo, jak pokazuje doświadczenie, prędkość fali przechodzącej przez ośrodek zależy od częstotliwości światła. Zjawisko to nazywamy dyspersją światła. Dla większości materiałów obserwujemy, że wraz ze wzrostem częstotliwości fali świetlnej maleje jej prędkość czyli rośnie współczynnik załamania ( Prawo odbicia i załamania-Rys. 1 )."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 9. Optyka geometryczna", "subject_id": 310, "subject": "Prawo odbicia i załamania", "paragraphs": ["Jeżeli światło pada na granicę dwóch ośrodków, to ulega zarówno odbiciu na powierzchni granicznej, jak i załamaniu przy przejściu do drugiego ośrodka tak, jak pokazano to na Rys. 1 dla powierzchni płaskiej.", "Na Rys. 1 pokazana jest też dyspersja światła; promień niebieski jest bardziej załamany niż czerwony. Światło białe, złożone z fal o wszystkich długościach z zakresu widzialnego, uległo rozszczepieniu to jest rozdzieleniu na barwy składowe. Na rysunku pokazano promienie świetlne tylko dla dwu skrajnych barw niebieskiej i czerwonej.", "Odbiciem i załamaniem rządzą dwa następujące prawa:", "lub", "gdzie skorzystaliśmy z definicji bezwzględnego współczynnika załamania \\( {n=c/{v}} \\).", "Powyższe prawa dotyczące fal elektromagnetycznych można wyprowadzić z równań Maxwella, ale jest to matematycznie trudne. Można też skorzystać z prostej (ale ważnej) zasady odkrytej w XVII w. przez Fermata.", "Więcej o zasadzie Fermata możesz przeczytać w module Zasada Fermata.", "Omawiając odbicie i załamanie, ograniczyliśmy się do fal płaskich i do płaskich powierzchni. Uzyskane wyniki stosują się jednak do bardziej ogólnego przypadku fal kulistych. Stosują się również do kulistych powierzchni odbijających - zwierciadeł kulistych i kulistych powierzchni załamujących - soczewek. Te ostatnie mają szczególne znaczenie ze względu na to, że stanowią część układu optycznego oka i wielu przyrządów optycznych takich jak, np. lupa, teleskop, mikroskop.", "Przystępna demonstracja prawa odbicia i załamania została zamieszczona poniżej:"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 9. Optyka geometryczna", "subject_id": 311, "subject": "Zasada Fermata", "paragraphs": ["Zasadę Fermata formułujemy w następujący sposób:", "Zasada ta wyjaśnia prostoliniowy bieg światła w ośrodku jednorodnym bo linia prosta odpowiada minimum drogi, a tym samym i minimum czasu. Właśnie z tej zasady można wyprowadzić prawa odbicia i załamania.", "Na Rys. 1 poniżej są przedstawione dwa punkty A i B oraz łączący je promień APB, który odbija się od powierzchni granicznej w punkcie P.", "Całkowita długość drogi promienia wynosi", "gdzie x jest zmienną zależną od położenia punktu P (punkt odbicia promienia).", "Zgodnie z zasadą Fermata punkt P (zmienną \\( x \\)) wybieramy tak, żeby czas przebycia drogi APB był minimalny (lub maksymalny, lub niezmieniony). Matematycznie oznacza to warunek", "więc otrzymujemy", "a po przekształceniu", "Porównując z Rys. 1 widzimy, że jest to równoważne zapisowi", "co wyraża prawo odbicia.", "Podobnie postępujemy w celu wyprowadzenia prawa załamania. Rozpatrzmy sytuację przedstawioną na Rys. 2.", "Czas przelotu z A do B przez punkt P jest dany jest wzorem", "Uwzględniając, że \\( n = c/v \\) możemy przepisać to równanie w postaci", "Wyrażenie w liczniku \\( {l=n_{{1}}l_{{1}}+n_{{2}}l_{{2}}} \\) jest drogą optyczną promienia. Ponownie dobieramy zmienną x (położenie punktu P), tak aby droga l była minimalna czyli, aby \\( dl/dx \\) = 0. Ponieważ droga optyczna jest równa", "więc otrzymujemy", "a po przekształceniu", "Porównując ten wynik z Rys. 2 otrzymujemy", "co jest prawem załamania."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 9. Optyka geometryczna", "subject_id": 312, "subject": "Optyka geometryczna dla soczewek", "paragraphs": ["Soczewkami nazywamy ciała przeźroczyste ograniczone dwoma powierzchniami o promieniach krzywizn \\( R_{1} \\) i \\( R_{2} \\).", "Nasze rozważania własności optycznych soczewek ograniczymy do soczewek cienkich to znaczy takich, których grubość jest znacznie mniejsza od promieni krzywizn \\( R_{1} \\) i \\( R_{2} \\) powierzchni ograniczających soczewkę. Ponadto zakładamy, że promienie świetlne padające na soczewkę tworzą małe kąty z osią soczewki to jest prostą przechodząca przez środki krzywizn obu powierzchni. Takie promienie (prawie prostopadłe do powierzchni soczewki) leżące w pobliżu osi soczewki nazywamy promieniami przyosiowymi.", "Z wyjątkiem promienia biegnącego wzdłuż osi soczewki, każdy promień przechodzący przez soczewkę ulega dwukrotnemu załamaniu na obu powierzchniach soczewki.", "Jeżeli przy przejściu przez soczewkę promienie równoległe do osi soczewki zostają odchylone w stronę tej osi, to soczewkę nazywamy skupiającą, a jeżeli odchylają się od osi, soczewka jest rozpraszająca. Soczewka skupiająca odchyla promienie równoległe w taki sposób, że są one skupiane w punkcie F, w odległości \\( f \\) od soczewki. Punkt F nosi nazwę ogniska, a odległość \\( f \\) nazywamy ogniskową soczewki.", "Na Rys. 1 pokazany jest sposób wyznaczania położenia obrazu przedmiotu rozciągłego (strzałki). W celu jego wyznaczenia rysujemy promień równoległy do osi soczewki. Promień ten po przejściu przez soczewkę przechodzi przez ognisko F. Drugi promień przechodzi przez środek soczewki i nie zmienia swojego kierunku. Jeżeli obraz powstaje w wyniku przecięcia się tych promieni, to taki obraz nazywamy rzeczywistym (zob. Rys. 1a). Natomiast gdy promienie po przejściu przez soczewkę są rozbieżne, to obraz otrzymujemy z przecięcia się promieni przedłużonych i taki obraz nazywamy pozornym (zob. Rys. 1b).", "Bieg promienia świetlnego w soczewce zależy od kształtu soczewki tzn. od \\( R_{1} \\) i \\( R_{2} \\), od współczynnika załamania \\( n \\) materiału z jakiego wykonano soczewkę oraz od współczynnika załamania \\( n_{o} \\) ośrodka, w którym umieszczono soczewkę. Ogniskowa soczewki jest dana równaniem:", "Przy opisie soczewek przyjmujemy konwencję, że promienie krzywizn wypukłych powierzchni są wielkościami dodatnimi, a promienie krzywizn wklęsłych powierzchni są wielkościami ujemnymi; powierzchni płaskiej przypisujemy nieskończony promień krzywizny.", "Gdy ogniskowa jest dodatnia \\( f >0 \\) to soczewka jest skupiająca, a gdy \\( f<0 \\) to soczewka jest rozpraszająca.", "Odległość \\( x \\) przedmiotu od soczewki i odległość \\( y \\) obrazu od soczewki (zob. Rys. 1 ) są powiązane równaniem dla cienkich soczewek", "a powiększenie liniowe obrazu jest dane wyrażeniem", "Przyjmuje się umowę, że odległości obrazów pozornych od soczewki są ujemne.", "Odwrotność ogniskowej soczewki \\( D = 1/f \\) nazywa się zdolnością zbierającą soczewki.", "Dla układu blisko siebie leżących soczewek ich zdolności skupiające dodają się", "Wszystkie powyżej podane związki są prawdziwe dla cienkich soczewek i dla promieni przyosiowych.", "Tymczasem dla soczewek w rzeczywistych układach optycznych mamy do czynienia z aberracjami to jest ze zjawiskami zniekształcającymi obrazy i pogarszającymi ich ostrość.", "Przykładem takiego zjawiska jest aberracja sferyczna. Polega ona na tym, że w miarę oddalania się od osi zwierciadła promienie zaczynają odchylać się od ogniska. W ten sposób zamiast otrzymać obraz punktowy (jak dla promieni przyosiowych) otrzymujemy obraz rozciągły (plamkę). Inną wadą soczewek jest aberracja chromatyczna. Jest na związana ze zjawiskiem dyspersji. Światło o różnych barwach (różnych częstotliwościach) ma różne prędkości, więc i różne współczynniki załamania w szkle, z którego zrobiono soczewkę. W konsekwencji różne barwy są różnie ogniskowane i obraz białego punktu jest barwny.", "Te jak i jeszcze inne wady soczewek można korygować, stosując zestawy soczewek oraz wykonując soczewki o odpowiednich krzywiznach i z materiału o odpowiednim współczynniku załamania."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 9. Optyka geometryczna", "subject_id": 313, "subject": "Warunki stosowalności optyki geometrycznej", "paragraphs": ["W module Prawo odbicia i załamania zakładaliśmy, że energia świetlna rozprzestrzenia się wzdłuż linii prostych. Posługiwanie się pojęciem promienia świetlnego było przydatne do opisu tych zjawisk, ale nie możemy się nim posłużyć przy opisie ugięcia światła. Żeby to sprawdzić, prześledźmy zachowanie fali płaskiej padającej na szczeliny o różnej szerokości. To zachowanie jest przedstawione schematycznie na Rys. 1 poniżej dla szczelin o szerokości \\( a = 5 \\lambda \\), \\( a = 3 \\lambda \\) oraz \\( a = \\lambda \\).", "Widzimy, że światło padające na szczelinę ulega ugięciu. Wiązka staje się rozbieżna i nie możemy wydzielić z niej pojedynczego promienia metodą zmniejszania szerokości szczeliny tym bardziej, że ugięcie staje się coraz bardziej wyraźne, gdy szczelina staje się coraz węższa ( \\( a/\\lambda \\rightarrow 0 \\)). W tym zjawisku ujawnia się falowa natura światła. To ugięcie jest charakterystyczne dla wszystkich rodzajów fal. Dzięki temu możemy, np. słyszeć rozmowę (fale głosowe) znajdując się za załomem muru. Ugięcie fal na szczelinie (albo na przeszkodzie) wynika z zasady Huygensa (zob. moduł Dodatek: Zasada Huygensa )."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 9. Optyka geometryczna", "subject_id": 1455, "subject": "Dodatek: Zasada Huygensa", "paragraphs": ["Huygens podał swoją teorię rozchodzenia się światła w XVII w., znacznie przed sformułowaniem teorii Maxwella. Nie znał więc elektromagnetycznego charakteru światła, ale założył, że światło jest falą. Teoria Huygensa oparta jest na konstrukcji geometrycznej (zwanej zasadą Huygensa), która pozwala przewidzieć położenie czoła fali w dowolnej chwili w przyszłości, jeżeli znamy jego obecne położenie.", "Jako przykład prześledźmy jak za pomocą elementarnych fal Huygensa, można przedstawić rozchodzenie się fali płaskiej w próżni.", "Na Rys. 1 widzimy czoło fali płaskiej rozchodzącej się w próżni. Fala na rysunku biegnie w stronę prawą. Zgodnie z zasadą Huygensa kilka dowolnie wybranych punktów na tej powierzchni traktujemy jako źródła fal kulistych. Ponieważ fala w próżni rozchodzi się z prędkością \\( c \\) to po czasie \\( t \\) promienie tych kul będą równe \\( ct \\). Powierzchnia styczna do tych kul po czasie t jest nową powierzchnią falową. Oczywiście powierzchnia falowa fali płaskiej jest płaszczyzną rozchodzącą się z prędkością \\( c \\).", "Zauważmy, że w oparciu o tę zasadę można by oczekiwać, że fala Huygensa może się rozchodzić zarówno do tyłu jak i do przodu. Tę „niezgodność” modelu z obserwacją eliminuje się poprzez założenie, że natężenie fal kulistych Huygensa zmienia się w sposób ciągły od maksymalnego dla kierunku 'do przodu' do zera dla kierunku 'do tyłu'.", "Metoda Huygensa daje się zastosować jakościowo do wszelkich zjawisk falowych. Można przedstawić za pomocą elementarnych fal Huygensa zarówno odbicie fal, jak i ich załamanie. My zastosujemy je do wyjaśnienia ugięcia fal na szczelinie (lub przeszkodzie) pokazanych w module Warunki stosowalności optyki geometrycznej.", "Rozpatrzmy czoło fali dochodzącej do szczeliny. Każdy jej punkt możemy potraktować jako źródło fal kulistych Huygensa. Jednak przez szczelinę przechodzi tylko część fal. Fale leżące poza brzegami szczeliny zostają wyeliminowane i nie dają fali płaskiej razem z falami przechodzącymi. Z tym właśnie związane jest zaginanie wiązki.", "Zwróćmy uwagę na to, że gdy szerokość szczeliny staje się duża w stosunku do długości fali \\( a>>\\lambda \\), to ugięcie można zaniedbać. Możemy przyjąć wówczas, że światło rozchodzi się po liniach prostych (zwanych promieniami) podlegających prawom odbicia i załamania. Mówimy, że stosujemy optykę geometryczną. Warunkiem stosowalności optyki geometrycznej jest więc, aby wymiary liniowe wszystkich obiektów (soczewek, pryzmatów, szczelin, itp.) były o wiele większe od długości fali.", "Jeżeli tak nie jest to nie możemy przy opisie światła posługiwać się promieniami, lecz trzeba wziąć pod uwagę falowy charakter światła. Widać jak znaczące jest ugięcie fali, gdy szczelina ma rozmiar porównywalny z długością fali. Mówimy wtedy, że stosujemy optykę falową. Optyka geometryczna jest szczególnym (granicznym) przypadkiem optyki falowej."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 314, "subject": "Interferencja i doświadczenie Younga", "paragraphs": ["Doświadczenie wykonane przez Younga (w 1801 r.) wykazało zachodzenie interferencji (nakładania się fal) dla światła. Był to pierwszy eksperyment wskazujący na falowy charakter światła.", "W swoim doświadczeniu, Young oświetlił światłem słonecznym ekran, w którym był zrobiony mały otwór \\( S_{0} \\). Przechodzące światło padało następnie na drugi ekran z dwoma szczelinami \\( S_{1} \\) i \\( S_{2} \\) i dalej rozchodziły się dwie, nakładające się na siebie fale kuliste tak jak na Rys. 1.", "Warunki stosowalności optyki geometrycznej nie są spełnione i na szczelinach następuje ugięcie fal. Mamy do czynienia z optyką falową.", "Jeżeli umieścimy ekran w jakimkolwiek miejscu, tak aby przecinał on nakładające się na siebie fale to możemy oczekiwać pojawienia się na nim miejsc ciemnych i jasnych następujących po sobie kolejno w zależności od wyniku nakładania się fal (zob. Rys. 1 ). Miejsca ciemne powstają w wyniku wygaszania się interferujących fal, a jasne w wyniku ich wzajemnego wzmocnienia. Obserwujemy tak zwane prążki interferencyjne (zob. Rys. 1 ).", "Przeanalizujemy teraz doświadczenie Younga ilościowo. Zakładamy, że światło padające zawiera tylko jedną długość fali (jest monochromatyczne). Na Rys. 2 poniżej punkt \\( P \\) jest dowolnym punktem na ekranie, odległym o \\( r_{1} \\) i \\( r_{2} \\) od wąskich szczelin \\( S_{1} \\) i \\( S_{2} \\).", "Linia \\( S_{2}B \\) została poprowadzona tak, aby \\( PS_{2} \\) = \\( PB \\). Zwrócić uwagę, że dla przejrzystości na rysunku nie zachowano proporcji \\( d/D \\). Naprawdę \\( d << D \\) i wtedy kąt \\( S_{1} \\) \\( S_{2}B \\) jest równy \\( \\theta \\) z dużą dokładnością.", "Oba promienie wychodzące ze szczelin \\( S_{1} \\) i \\( S_{2} \\) są zgodne w fazie, gdyż pochodzą z tego samego czoła fali płaskiej. Jednak drogi, po których docierają do punktu \\( P \\) są różne więc i ich fazy w punkcie \\( P \\) mogą być różne. Odcinki \\( PB \\) i \\( PS_{2} \\) są identyczne (tak to skonstruowaliśmy) więc o różnicy faz decyduje różnica dróg optycznych tj. odcinek \\( S_{1}B \\).", "Aby w punkcie \\( P \\) wystąpiło maksimum natężenia światła, odcinek \\( S_{1}B \\) musi zawierać całkowitą liczbę długości fal. Jest tak dlatego, że po przebyciu odcinka równego \\( \\lambda \\) faza fali powtarza się więc po przebyciu drogi równej m \\( \\lambda \\) (m - liczba całkowita) fala ma fazę taką jak na początku tej drogi. Odcinek \\( S_{1}B \\) nie wpływa na różnicę faz, a ponieważ fale były zgodne w źródle więc będą zgodne w fazie w punkcie \\( P \\).", "Warunek na maksimum możemy zatem zapisać w postaci", "Zgodnie z Rys. 2, \\( {S_{{1}}B=d\\text{sin}\\theta } \\) więc", "Zauważmy, że każdemu maksimum powyżej środkowego punktu \\( O \\) odpowiada położone symetrycznie maksimum poniżej punktu \\( O \\). Istnieje też centralne maksimum opisywane przez \\( m = 0 \\).", "Dla uzyskania minimum natężenia światła w punkcie \\( P \\), odcinek \\( S_{1}B \\) musi zawierać połówkową liczbę długości fal, to jest", "czyli", "lub inaczej", "Równanie ( 2 ) opisujące położenie kątowe maksimów interferencyjnych może posłużyć do wyznaczenia długości fali", "Tak właśnie Young wyznaczył długości fal światła widzialnego."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 315, "subject": "Spójność (koherencja) fal świetlnych", "paragraphs": ["Podstawowym warunkiem powstania dobrze określonego obrazu interferencyjnego jest, aby interferujące fale świetlne miały dokładnie określoną różnicę faz \\( \\varphi \\) stałą w czasie. Przypomnijmy, że faza określa stan fali w danym miejscu i czasie. Przykładowo, jeżeli w jakimś miejscu na ekranie różnica faz interferujących fal wynosi \\( \\pi \\) to oznacza fizycznie, że fale docierające tam wygaszają się (przy założeniu równych amplitud); mamy ciemny prążek. I tak jest przez cały czas o ile różnica faz nie zmieni się. Gdyby taka zmiana nastąpiła to w tym miejscu natężenie światła nie będzie już dłużej równe zeru. Widzimy, że warunkiem stabilności obrazu jest stałość w czasie różnicy faz fal wychodzących ze źródeł \\( S_{1} \\) i \\( S_{2} \\). Mówimy, że te źródła są koherentne czyli spójne.", "Jeżeli szczeliny \\( S_{1} \\) i \\( S_{2} \\) zastąpimy przez dwa niezależne źródła fal (np. żarówki), to nie otrzymamy prążków interferencyjnych, ekran będzie oświetlony prawie równomiernie. Interpretujemy to w ten sposób, że różnica faz dla fal pochodzących z niezależnych źródeł zmienia się w czasie w sposób nieuporządkowany. W jednej chwili są spełnione warunki dla maksimum za moment warunki pośrednie, a jeszcze za chwilę warunki dla minimum. I tak dla każdego punktu na ekranie wypadkowe natężenie światła jest sumą natężeń od poszczególnych źródeł. Mówimy, że te źródła są niespójne, niekoherentne.", "Na zakończenie zapamiętajmy, że zwykłe źródła światła takie jak żarówki (żarzące się włókna) dają światło niespójne bo emitujące światło atomy działają zupełnie niezależnie. Natomiast współcześnie szeroko stosowanymi źródłami światła spójnego są lasery. Szczegóły dotyczące emisji światła przez lasery jak i zasada działania lasera są omówione w modułach Spontaniczna i wymuszona emisja fotonów oraz Laser."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 316, "subject": "Natężenie światła w doświadczeniu Younga", "paragraphs": ["W tym punkcie określimy ilościowo wypadkowe natężenie interferujących fal spójnych. Opisując interferencję fal elektromagnetycznych zajmiemy się wyłącznie opisem pola elektrycznego \\( E \\) tych fal ponieważ działanie pola \\( B \\) na detektory światła (w tym oko ludzkie) jest znikomo małe.", "Załóżmy, że składowe pola elektrycznego obu fal w punkcie P, w którym rozpatrujemy wynik interferencji (zob. Interferencja i doświadczenie Younga-Rys. 2 ) zmieniają się następująco", "oraz", "gdzie \\( \\omega \\) = 2 \\( \\pi \\nu \\) jest częstością kołową fal, a \\( \\varphi \\) różnicą faz między nimi.", "Zauważmy, że różnica faz w punkcie P zależy od położenia tego punktu na ekranie, a tym samym od kąta \\( \\theta \\). Przyjmijmy natomiast, że amplituda \\( E_{0} \\) nie zależy od kąta \\( \\theta \\). Jeżeli wektory \\( E \\) interferujących fal są do siebie równoległe to wypadkowe pole elektryczne w punkcie P obliczmy jako sumę algebraiczną poszczególnych zaburzeń", "Podstawiając równania obu fal obliczamy pole wypadkowe", "lub", "gdzie \\( \\beta \\) = \\( \\varphi \\)/2 oraz \\( E_{theta}= 2E_{0} \\)cos \\( \\beta = E_{m} \\)cos \\( \\beta \\).", "Energia drgań harmonicznych jest proporcjonalna do kwadratu amplitudy więc natężenie fali wypadkowej", "Obliczmy teraz stosunek natężeń fali wypadkowej do fali pojedynczej", "czyli", "Zgodnie z tym wyrażeniem natężenie wypadkowe zmienia się od zera, dla punktów, w których różnica faz \\( \\varphi \\) = 2 \\( \\beta = 0 \\), do maksymalnego, dla punktów, w których różnica faz \\( \\varphi \\) = 2 \\( \\beta \\) = 0.", "Różnica faz wiąże się z różnicą dróg poprzez prostą relację", "czyli dla sytuacji pokazanej na Interferencja i doświadczenie Younga-Rys. 2.", "skąd", "To równanie wyraża zależność przesunięcia fazowego, a tym samym i natężenia fali wypadkowej od kąta \\( \\theta \\) (miejsca na ekranie). Na Rys. 1 wykreślony został rozkład natężeń otrzymany w wyniku interferencji światła spójnego wychodzącego z dwóch szczelin w porównaniu z wynikiem dla źródeł niespójnych (równomierne oświetlenie ekranu) jak i dla pojedynczego źródła."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 317, "subject": "Interferencja w cienkich warstwach", "paragraphs": ["Dobrze nam znane tęczowe zabarwienie cienkich warstewek, np. baniek mydlanych czy plam oleju na wodzie jest wynikiem interferencji. Na Rys. 1 pokazana jest warstwa o grubości \\( d \\) i współczynniku załamania \\( n \\).", "Warstwa jest oświetlona przez rozciągłe źródło światła monochromatycznego. Dwa promienie wychodzące z punktu S źródła docierają do oka po przejściu przez punkt P. Promienie te przebiegają różne drogi gdyż jeden odbija się od górnej, a drugi od dolnej powierzchni błonki. To czy punkt P widzimy jako jasny czy ciemny zależy od wyniku interferencji fal w tym punkcie.", "Fale te są spójne, bo pochodzą z tego samego punktu źródła światła. Jeżeli światło pada prawie prostopadle to geometryczna różnica dróg pomiędzy obu promieniami wynosi z dobrym przybliżeniem \\( 2d \\). Można by więc oczekiwać, że maksimum interferencyjne (punkt P jasny) wystąpi, gdy odległość \\( 2d \\) będzie całkowitą wielokrotnością długości fali. Tymczasem wynik doświadczenia jest inny.", "Dzieje się tak z dwóch powodów:", "Chcemy teraz uwzględnić oba czynniki czyli różnice dróg optycznych oraz zmiany fazy przy odbiciu. Dla dwóch promieni pokazanych na Rys. 1 warunek na maksimum ma więc postać", "Czynnik \\( \\lambda \\) \\( _{n} \\)/2 opisuje zmianę fazy przy odbiciu (od górnej powierzchni) bo zmiana fazy o 180° ( \\( \\pi \\)) jest równoważna, zgodnie z Natężenie światła w doświadczeniu Younga-( 9 ), różnicy dróg równej połowie długości fali. Ponieważ \\( \\lambda_{n} = \\lambda/n \\) otrzymujemy ostatecznie", "Analogiczny warunek na minimum ma postać"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 318, "subject": "Interferencja fal z wielu źródeł", "paragraphs": ["Interferencja i doświadczenie Younga-( 2 ) opisujące położenie kątowe maksimów interferencyjnych w doświadczeniu Younga z dwoma punktowymi szczelinami może posłużyć do wyznaczenia długości fali światła monochromatycznego. W praktyce jest to jednak trudne, bo ze względu na małe natężenia światła nie można w sposób dokładny wyznaczyć położenia maksimów interferencyjnych. Dlatego do wyznaczenia długości fali świetlnej stosuje się układ wielu równoległych do siebie szczelin czyli siatkę dyfrakcyjną.", "Na Rys. 1 pokazany jest układ \\( N \\) szczelin odległych od siebie o \\( d \\). Odległość d nazywamy stałą siatki dyfrakcyjnej.", "Obraz powstały przy oświetleniu siatki dyfrakcyjnej składa się z serii prążków interferencyjnych podobnie jak dla dwóch szczelin. Na Rys. 2 rozkład natężeń dla \\( N \\) = 5 szczelin jest porównany z wynikiem uzyskanym w doświadczeniu Younga dla dwóch szczelin.", "Z tego porównania wynika, że nie zmienia się odległości pomiędzy głównymi maksimami (przy zachowaniu odległości między szczelinami \\( d \\) i długości fali \\( \\lambda \\)). Położenia maksimów głównych nie zależą więc od \\( N \\). Nastąpił natomiast bardzo wyraźny wzrost natężenia maksimów głównych, ich zwężenie oraz pojawiły się wtórne maksima pomiędzy nimi.", "Maksima główne występują, gdy różnica dróg optycznych promieni wychodzących z sąsiednich szczelin (zob. Rys. 1 ) zawiera całkowitą liczbę długości fal \\( \\lambda \\) czyli gdy spełniony jest warunek", "Wzór ten jest identyczny jak Interferencja i doświadczenie Younga-( 2 ) opisujące położenie kątowe maksimów interferencyjnych dla dwóch szczelin. Tym razem jednak ścisłe określenie położenia maksimów interferencyjnych jest łatwiejsze ze względu na ich większe natężenie i mniejszą szerokość.", "W miarę wzrostu liczby szczelin siatki maksima główne stają się coraz węższe, a maksima wtórne zanikają i dlatego w praktyce stosuje się siatki dyfrakcyjne zawierające nawet kilka tysięcy szczelin, w których odległość między szczelinami jest rzędy tysięcznych części milimetra. Natężenie maksimów głównych ma wartość \\( {I=I_{{0}}N^{{2}}} \\) czyli \\( N^{ 2} \\) razy większe niż dla pojedynczego źródła.", "Możliwość rozróżnienia maksimów obrazów dyfrakcyjnych dla dwóch fal o niewiele różniących się długościach decyduje o jakości siatki dyfrakcyjnej. Mówimy, że siatka powinna mieć dużą zdolność rozdzielczą, którą definiujemy jako", "Praktyczne działanie jednowymiarowej siatki dyfrakcyjnej na promień lasera przedstawia film:"], "definitions": [{"name": "Definicja 1: Zdolność rozdzielcza", "content": "\n(4)\n\n\t\t\t\t\t\t\t\t\\( {R=\\frac{\\lambda }{\\mathit{\\Delta \\lambda }}} \\)\n\ngdzie \\( \\lambda \\) jest średnią długością fali dwóch linii ledwie rozróżnialnych, a \\( \\Delta \\lambda \\) różnicą długości fal miedzy nimi. Widać, że im mniejsza \\( \\Delta \\lambda \\) tym lepsza zdolność rozdzielcza.\n\n"}]} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 319, "subject": "Wprowadzenie do zjawiska dyfrakcji", "paragraphs": ["W doświadczeniu Younga i doświadczeniu z siatką dyfrakcyjną mamy do czynienia z interferencją fal ugiętych na dwóch i wielu szczelinach (przeszkodach). Doświadczenia te stanowią więc dowód nie tylko interferencji, ale także dyfrakcji czyli ugięcia światła.", "Na Rys. 1a pokazano na czym polega dyfrakcja. Fala ze źródła S przechodzi przez otwór w przesłonie i pada na ekran. Natężenie w punkcie P na ekranie można obliczyć dodając do siebie wszystkie zaburzenia falowe (wektory pola elektrycznego \\( E \\)) docierające z różnych punktów szczeliny. Nie jest to łatwe bo te elementarne fale mają różne amplitudy i fazy. Wynika to z tego że:", "Taka sytuacja, gdy fale opuszczające otwór nie są płaskie, (promienie nie są równoległe) pojawia się gdy źródło fal i ekran, na którym powstaje obraz znajdują się w skończonej odległości od przesłony ze szczeliną. Taki przypadek nosi nazwę dyfrakcji Fresnela.", "Całość upraszcza się, gdy źródło S i ekran odsuniemy na bardzo duże odległości od otworu uginającego. Ten graniczny przypadek nazywamy dyfrakcją Fraunhofera. Czoła fal padających jak i ugiętych są płaszczyznami (promienie są równoległe) tak jak na Rys. 1b.", "Dyfrakcję Fraunhofera można zrealizować w laboratorium za pomocą dwu soczewek skupiających. Pierwsza soczewka zmienia falę rozbieżną w równoległą, a druga skupia, w punkcie P, fale płaskie opuszczające otwór w przesłonie."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 334, "subject": "Dyfrakcja na pojedyńczej szczelinie", "paragraphs": ["Rozpatrzmy falę płaską padającą prostopadle na szczelinę tak jak na Rys. 1. Zacznijmy od najprostszego przypadku tj. rozpatrzenia punktu środkowego O na ekranie. W tym punkcie są skupiane przez soczewkę S równoległe promienie wychodzące ze szczeliny. Te równoległe promienie przebywają do tego punktu te same drogi optyczne (choć różne geometryczne) tzn. promienie zawierają tę samą ilość długości fal. Ponieważ w szczelinie promienie są zgodne w fazie to po przebyciu takich samych dróg optycznych nadal pozostają zgodne w fazie. Dlatego w środkowym punkcie O będziemy obserwować maksimum.", "Rozpatrzmy teraz inny punkt P na ekranie pokazany na Rys. 1. Promienie docierające do P wychodzą ze szczeliny o szerokości a pod kątem \\( \\theta \\). Jeden promień ma początek u góry szczeliny, a drugi w jej środku. Dodatkowo pokazany jest (linią przerywaną) promień przechodzący przez środek soczewki. Promień ten nie jest odchylany i dlatego określa kąt \\( \\theta \\).", "Jeżeli wybierzemy punkt P tak, żeby różnica dróg BB' wynosiła \\( \\lambda \\)/2 to promienie, które mają zgodne fazy w szczelinie będą miały w punkcie P fazy przeciwne i wygaszą się. Podobnie każdy inny promień wychodzący z górnej połowy szczeliny będzie się wygaszał z odpowiednim promieniem z dolnej połówki leżącym w odległości \\( a \\)/2 poniżej. Punkt P będzie miał natężenie zerowe (pierwsze minimum dyfrakcyjne). Warunek opisujący to minimum ma następującą postać", "Zauważmy, że gdyby szerokość szczeliny była równa \\( \\lambda \\) wtedy pierwsze minimum pojawiłoby się dla \\( \\theta \\) = 90° czyli środkowe maksimum wypełniłoby cały ekran.", "Podobne rozważania możemy powtórzyć dla wielu punktów szczeliny i otrzymamy ogólne wyrażenie dla minimów obrazu dyfrakcyjnego w postaci", "Mniej więcej w połowie między każdą para sąsiednich minimów występują oczywiście maksima natężenia określone przez warunek"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 320, "subject": "Natężenie światła w obrazie dyfrakcyjnym", "paragraphs": ["Chcemy teraz znaleźć wyrażenie na rozkład natężenia w całym ekranie w funkcji kąta \\( \\theta \\). Szczelinę dzielimy na \\( N \\) odcinków i każdy z nich traktujemy jak źródło zaburzenia falowego. Zakładamy, że dla małych kątów \\( \\theta \\) zaburzenia falowe docierające do punktu P z różnych miejsc szczeliny mają jednakowe amplitudy \\( E_{0} \\). Wtedy w punkcie P dodaje się \\( N \\) wektorów natężenia pola elektrycznego \\( E \\) o tej samej amplitudzie \\( E_{0} \\) i tej samej częstości. Różnica faz między falami pochodzącymi z sąsiednich odcinków szczeliny wynosi \\( \\varphi \\). Szukamy zatem zaburzenia wypadkowego dla różnych punktów P, to jest dla różnych kątów \\( \\theta \\), co równocześnie odpowiada różnym wartościom \\( \\varphi \\).", "Skorzystamy tu z graficznej metody dodawania amplitud zaburzeń falowych. W tej metodzie każdej fali odpowiada wektor (nazywany wskazem), którego długość reprezentuje amplitudę fali, a kąt względem osi \\( x \\) fazę. Amplitudę wypadkową fali znajdujemy jako sumę wektorów amplitud (wskazów) uwzględniając tym samym amplitudy fal składowych jak i różnice faz między falami.", "Na Rys. 1 poniżej jest przedstawiona konstrukcja geometryczna, za pomocą której obliczymy natężenie światła w przypadku dyfrakcji na jednej szczelinie.", "Łuk okręgu jest utworzony z wektorów amplitud fal pochodzących z \\( N \\) elementarnych źródeł w szczelinie. Długość łuku wynosi \\( E_{m} \\) czyli jest równa maksymalnej amplitudzie w środku obrazu dyfrakcyjnego (linia prosta strzałek). Kąt \\( \\phi \\) w dolnej części rysunku przedstawia różnicę fazy między skrajnymi wektorami w łuku to znaczy \\( \\phi \\) jest różnicą faz pomiędzy promieniami wychodzącymi z góry i dołu szczeliny.", "Z Rys. 1 widać, że zachodzi związek", "skąd", "W mierze łukowej kąt \\( \\varphi =E_{{m}}/{R} \\) więc", "Podstawiając tę zależność do równania ( 2 ), otrzymujemy", "lub", "gdzie \\( \\alpha \\) = \\( \\phi \\) /2.", "Wektory na Rys. 1 odpowiadają amplitudom pola elektrycznego. Żeby otrzymać natężenie światła trzeba amplitudy podnieść do kwadratu, więc na podstawie równania ( 5 ) otrzymujemy", "Jak widzimy, w przeciwieństwie do obrazu interferencyjnego, natężenia kolejnych maksimów dyfrakcyjnych nie są jednakowe.", "Ponieważ \\( \\phi \\) jest różnicą faz dla promieni wychodzących z brzegów szczeliny o szerokości \\( a \\), więc różnica dróg jakie przebywają te promienie do punktu P wynosi asin \\( \\theta \\). Korzystając z relacji", "otrzymujemy", "Łącząc równania ( 6 ) i ( 9 ), możemy obliczyć natężenie światła dla obrazu dyfrakcyjnego otrzymanego dla pojedynczej szczeliny. Widzimy, że natężenie \\( I_\\theta \\) przyjmuje wartości minimalne dla", "Podstawiając tę zależność do równania ( 8 ) otrzymujemy wynik zgodny z uzyskaną poprzednio zależnością Dyfrakcja na pojedyńczej szczelinie-( 2 ).", "Podobnie jest z wartościami maksymalnymi natężenia, które otrzymujemy dla", "Na Rys. 2 przedstawiono rozkład natężenia światła (krzywe I \\( _\\theta \\)) w funkcji położenia na ekranie (kąta \\( \\theta \\)) dla różnych szerokości szczeliny (w stosunku do długości fali \\( \\lambda \\))."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 321, "subject": "Interferencja i dyfrakcja na dwóch szczelinach", "paragraphs": ["W doświadczeniu Younga przyjmowaliśmy, że szczeliny są punktowe tj. \\( a<<\\lambda \\). W wyniku interferencji fal spójnych ugiętych na takich szczelinach otrzymywaliśmy prążki interferencyjne o jednakowym natężeniu. Dla realnych szczelin trudno jest zrealizować warunek \\( a<<\\lambda \\). Oznacza to, że pojedyncza szczelina będzie dawała obraz dyfrakcyjny i w wyniku interferencji fal z dwóch szczelin otrzymamy obraz, w którym natężenia prążków nie będą stałe (jak w doświadczeniu Younga), ale zależne od tego obrazu dyfrakcyjnego.", "Przypomnijmy, że natężenie światła w obrazie interferencyjnym dla dwóch punktowych szczelin dane jest wyrażeniem", "oraz", "gdzie \\( d \\) jest odległością między szczelinami.", "Natomiast natężenie fali ugiętej na szczelinie jest dane równaniem", "oraz", "gdzie \\( a \\) jest szerokością szczeliny.", "Teraz chcemy otrzymać łączny efekt. Dlatego w równaniu ( 1 ) stałą amplitudę obrazu interferencyjnego (dla wąskich szczelin) zastępujemy realnym natężeniem dyfrakcyjnym ( 3 ). Otrzymujemy", "Ten wynik opisuje następujące fakty. W danym punkcie na ekranie natężenie światła, z każdej szczeliny osobno, jest dane przez obraz dyfrakcyjny tej szczeliny. Obrazy dyfrakcyjne dwóch szczelin rozpatrywanych oddzielnie nakładają się, fale interferują.", "Na Rys. 1 pokazany jest ten wynik dla \\( d \\) = 50 \\( \\lambda \\) i trzech wartości stosunku \\( a/ \\lambda \\). Widzimy, że im szersze szczeliny tym wpływ dyfrakcji jest silniejszy (natężenia prążków są bardziej zmienione). Uzyskany obraz jest zgodnie z równaniem ( 5 ) iloczynem czynnika interferencyjnego i dyfrakcyjnego.", "To nakładanie się czynnika interferencyjnego i dyfrakcyjnego jest jeszcze lepiej widoczne na Rys. 2. Czynnik interferencyjny ~cos \\( ^{2} \\) \\( \\beta \\) jest pokazany na górnym wykresie, czynnik dyfrakcyjny ~(sin \\( \\alpha /\\alpha )^{2} \\) na środkowym, a ich iloczyn na dolnym. Widzimy, że obwiednie prążków interferencyjnych pokrywają się dokładnie z obrazem dyfrakcyjnym."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 322, "subject": "Dyfrakcja promieni Roentgena (promieni X)", "paragraphs": ["W krystalicznych ciałach stałych atomy ułożone są w przestrzeni w sposób regularny tworząc tzw. sieć krystaliczną. Na Rys. 1 pokazane jest rozmieszczenie atomów w krysztale NaCl. Małe kule przedstawiają atomy (jony) sodu, a duże jony chloru. Na Rys. 1 pokazana jest tzw. komórka elementarna. Jest to najmniejsza jednostka (cegiełka), z której można zbudować kryształ.", "Takie ułożenie atomów w powtarzający się regularny wzór powoduje, że krystaliczne ciało stałe stanowi naturalny, trójwymiarowy układ szczelin (przeszkód) czyli trójwymiarową siatkę dyfrakcyjną.", "Takie ułożenie atomów w powtarzający się regularny wzór powoduje, że krystaliczne ciało stałe stanowi naturalny, trójwymiarowy układ szczelin (przeszkód) czyli trójwymiarową siatkę dyfrakcyjną.", "Jednak w tym przypadku światło widzialne jest bezużyteczne, ponieważ długość jego fal jest dużo większa od odległości między atomami \\( \\lambda \\) a. Przykładowo, światło żółte ma długość równą 589 nm, a odległość między najbliższymi atomami w krysztale NaCl wynosi a \\( {\\approx} \\) 0.281 nm.", "Musimy więc posłużyć się promieniowaniem X (promieniowanie rentgenowskie). Więcej o promieniowaniu rentgenowskim dowiemy się w dalszych rozdziałach, teraz zapamiętajmy jedynie, że jest to promieniowanie elektromagnetyczne o długościach fal rzędu 0.1 nm, to jest tego samego rzędu co odległości międzyatomowe w kryształach. Na Rys. 2 poniżej pokazana jest wiązka promieni X padająca na kryształ. Wiązki fal ugiętych na atomach padają na kliszę tworząc na niej w wyniku interferencji charakterystyczny obraz (układ punktów) zwany od nazwiska niemieckiego fizyka odkrywcy tej metody obrazem Lauego.", "Natężenia linii w obrazie dyfrakcyjnym zależą od geometrii pojedynczej szczeliny. W idealnym przypadku zależą od szerokości szczeliny. Tak samo natężenia wiązek rozproszonych na krysztale zależą od geometrii pojedynczej rozpraszającej komórki elementarnej. Analiza położeń i natężeń tych punktów pozwala na określenie struktury kryształu.", "Kierunki (kąty \\( \\theta \\)), dla których otrzymujemy wzmocnienie promieni X ugiętych na krysztale, określa prawo Bragga.", "Więcej o prawie Bragga możesz przeczytać w module Prawo Bragga.", "Widzimy, że znając długość fali \\( \\lambda \\) możemy z prawa Bragga wyznaczyć odległości międzyatomowe. Dyfrakcja promieni X jest ważną metodą doświadczalną w badaniu ciała stałego."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 330, "subject": "Prawo Bragga", "paragraphs": ["Prawo Bragga podaje warunki, w jakich zachodzi dyfrakcja promieni Roentgena na krysztale. Rys. 1 pokazuje ugięcie wiązki promieni X na zespole równoległych płaszczyzn (linie przerywane). Odległość między płaszczyznami wynosi d.", "Promienie ugięte będą się wzmacniać gdy różnica dróg pomiędzy sąsiednimi promieniami (zob. Rys. 1 ) będzie równa całkowitej wielokrotności długości fali", "Dla \\( m \\) = 0 otrzymujemy \\( \\beta \\) = \\( \\theta \\) to znaczy płaszczyzna wyznaczona przez atomy działa jak „zwierciadło” odbijające falę padającą (kąt padania = kąt odbicia) to znaczy w tym kierunku obserwujemy wzmocnienie promieniowania ugiętego.", "Jeżeli chcemy otrzymać wzmocnienie promieniowania odbitego od całej rodziny płaszczyzn, dla kierunku określonego przez kąt \\( \\theta \\), to muszą się wzmacniać promienie odbite od poszczególnych płaszczyzn. Oznacza to, że różnica dróg dla promieni odbitych od sąsiednich płaszczyzn ( Rys. 1a) musi być równa całkowitej wielokrotności \\( \\lambda \\), co sprowadza się do warunku zwanego prawem Bragga.", "W równaniu tym d oznacza odległość między sąsiednimi płaszczyznami. Należy tu zwrócić uwagę, że w krysztale znajduje się wiele różnych rodzin płaszczyzn o różnych odległościach międzypłaszczyznowych.", "Pomiar dyfrakcji promieni X jest doświadczalną metodą badania rozmieszczenia atomów w kryształach."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 324, "subject": "Polaryzacja - podstawowe informacje", "paragraphs": ["Teoria Maxwella przewiduje, że światło jest falą poprzeczną tzn. kierunki drgań wektorów \\( E \\) i \\( B \\) są prostopadłe do kierunku rozchodzenia się fali.", "Na Rys. 1 poniżej przedstawiono falę elektromagnetyczną, która wyróżnia się tym, że wektory \\( E \\) są do siebie równoległe we wszystkich punktach fali. Dotyczy to również wektorów \\( B \\). O takiej fali mówimy, że jest płasko spolaryzowana lub spolaryzowana liniowo. Wektory \\( E \\) tworzą z kierunkiem ruchu fali płaszczyznę zwaną płaszczyzną drgań.", "Przykładem fal spolaryzowanych liniowo są fale elektromagnetyczne radiowe emitowane przez antenę dipolową omawiane w module Rozchodzenie się fal elektromagnetycznych.", "W dużej odległości od dipola, wektor pola elektrycznego jest równoległy do osi dipola, anteny (zob. Rozchodzenie się fal elektromagnetycznych-Rys. 3 ). Emitowana fala jest więc spolaryzowana liniowo. Kiedy taka fala pada na antenę odbiorczą wówczas zmienne pole elektryczne (zmienny wektor \\( E \\) fali) wywołuje w antenie odbiorczej drgania elektronów w górę i w dół. W efekcie prąd zmienny popłynie w układzie wejściowym odbiornika. Jeżeli jednak obrócimy antenę o 90° wokół kierunku padania fali, to wektor \\( E \\) będzie prostopadły do anteny i nie wywoła ruchu elektronów (antena nie odbiera sygnału).", "Źródła światła widzialnego różnią się od źródeł fal radiowych między innymi tym, że atomy (cząsteczki) emitujące światło działają niezależnie. W konsekwencji rozchodzące się światło składa się z niezależnych ciągów fal, których płaszczyzny drgań zorientowane są przypadkowo wokół kierunku ruchu fali. Takie światło chociaż jest falą poprzeczną jest niespolaryzowane.", "Na Rys. 2 pokazana jest schematycznie różnica między falą poprzeczną spolaryzowaną liniowo Rys. 2a i falą poprzeczną niespolaryzowaną Rys. 2b. Na rysunku Rys. 2a wektor \\( E \\) drga w jednej płaszczyźnie, podczas gdy w sytuacji pokazanej na rysunku Rys. 2b płaszczyzny drgań wektora \\( E \\) zorientowane są przypadkowo.", "Rys. 2c przedstawia inny równoważny opis niespolaryzowanej fali poprzecznej: traktujemy ją jako złożenie dwóch spolaryzowanych liniowo fal o przypadkowo zmiennej różnicy faz. Oznacza to, że wypadkowy wektor \\( E \\) ma zmienną (ale prostopadłą) orientację względem kierunku rozchodzenia się fali. Orientacja kierunków drgań składowych pól \\( E \\) jest też przypadkowa chociaż zawsze prostopadła względem kierunku rozchodzenia się fali.", "Z dotychczas omawianych doświadczeń z interferencją i dyfrakcją nie wynika poprzeczny charakter fal świetlnych bo fale podłużne też interferują i ulegają ugięciu. Natomiast zjawisko polaryzacji jest charakterystyczne dla fal poprzecznych. Jednak, aby móc odróżnić od siebie różne fale poprzeczne biegnące w tym samym kierunku potrzebna jest metoda, która pozwoliłaby rozdzielić fale o różnych płaszczyznach drgań. Dotyczy to również badania fal świetlnych niespolaryzowanych."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 325, "subject": "Płytki polaryzujące", "paragraphs": ["Na Rys. 1 pokazana jest niespolaryzowana fala świetlna padająca na płytkę z materiału polaryzującego, zwanego polaroidem.", "W płytce istnieje pewien charakterystyczny kierunek polaryzacji zaznaczony równoległymi liniami przerywanymi. Kierunek polaryzacji polaroidu ustala się w procesie produkcji. Cząsteczki o strukturze łańcuchowej osadza się na elastycznej warstwie plastycznej, a następnie warstwę rozciąga się co powoduje równoległe ułożenie cząsteczek.", "Płytka przepuszcza tylko te fale, dla których kierunki drgań wektora elektrycznego są równoległe do kierunku polaryzacji, a pochłania te fale, w których kierunki te są prostopadłe. Jeżeli wektor \\( E \\) wyznaczający płaszczyznę drgań tworzy kąt \\( \\theta \\) z kierunkiem polaryzacji płytki to przepuszczana jest składowa równoległa \\( {E_{{\\text{II}}}=E\\text{cos}\\theta } \\) podczas gdy składowa prostopadła \\( {E_{{⊥}}=E\\text{sin}\\theta } \\) jest pochłaniana (zob. Rys. 2 ).", "Jeżeli więc oprócz płytki polaryzującej (polaryzatora) ustawimy na drodze światła drugą taką płytkę (nazywaną analizatorem), to obracając analizator wokół kierunku padania światła, możemy zmieniać natężenie światła przechodzącego przez obie płytki. Jeżeli amplituda pola elektrycznego fali padającej na analizator jest równa \\( E_{0} \\), to amplituda fali wychodzącej z analizatora wynosi \\( E_{{0}}\\text{cos}\\theta \\), gdzie \\( \\theta \\) jest kątem pomiędzy kierunkami polaryzacji obu płytek.", "Ponieważ natężenie światła jest proporcjonalne do kwadratu amplitudy więc", "Zauważmy, że natężenie światła osiąga maksimum dla \\( \\theta \\) = 0° lub \\( \\theta \\) = 180° to jest dla równoległych kierunków polaryzacji, a minimum dla \\( \\theta \\) = 90° lub \\( \\theta \\) = 270° to jest dla prostopadłych kierunków polaryzacji.", "Działanie filtrów polaryzacyjnych na fale linowo spolaryzowana możemy zaobserwować na filmie:"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 326, "subject": "Polaryzacja przez odbicie", "paragraphs": ["Innym sposobem, w jaki światło może być spolaryzowane, częściowo lub całkowicie, jest odbicie od powierzchni dielektryka (np. szkła). Na Rys. 1 pokazana jest wiązka niespolaryzowana padająca na powierzchnię szkła.", "Doświadczalnie stwierdzono, że istnieje pewien kąt padania, nazywanykątem całkowitej polaryzacji \\( \\alpha_{p} \\), dla którego wiązka odbita jest całkowicie spolaryzowana liniowo w kierunku prostopadłym do płaszczyzny padania. Oznacza to, że odbiciu ulega tylko składowa \\( \\sigma \\) prostopadła do płaszczyzny padania (płaszczyzny Rys. 1 ) natomiast współczynnik odbicia składowej \\( \\pi \\) leżącej w płaszczyźnie padania jest równy zeru. Natomiast wiązka przechodząca jest tylko częściowo spolaryzowana (składowa \\( \\pi \\) jest całkowicie załamana, a składowa \\( \\sigma \\) tylko częściowo).", "Doświadczalnie stwierdzono, że gdy kąt padania jest równy kątowi całkowitej polaryzacji to wówczas wiązka odbita i załamana tworzą kąt prosty czyli", "Ponieważ zgodnie z prawem załamania", "więc łącząc oba te równania, otrzymujemy", "lub", "Poniżej znajduje się film ilustrujący omawiane zagadnienia:"], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 327, "subject": "Dwójłomność", "paragraphs": ["Jedna z metod uzyskania światła spolaryzowanego polega na wykorzystujaniu, występującej w pewnych kryształach, zależności współczynnika załamania światła od kierunku polaryzacji. W module Prawo odbicia i załamania zakładaliśmy, że współczynnik załamania, nie zależy od kierunku rozchodzenia się światła w ośrodku ani od jego polaryzacji. Ciała spełniające te warunki nazywamy ciałami optycznie izotropowymi. Istnieje jednak szereg ciał anizotropowych i dotyczy to nie tylko własności optycznych, ale wielu innych. Na przykład, pewne kryształy łamią się łatwo tylko w jednej płaszczyźnie, a opór elektryczny mierzony w różnych kierunkach jest różny, niektóre kryształy łatwiej magnesuje się w jednym kierunku niż innych, itd.", "Na Rys. 1 pokazana jest niespolaryzowana wiązka światła padająca na kryształ kalcytu (CaCO \\( _{3} \\)) prostopadle do jednej z jego ścian.", "Pojedyncza wiązka światła rozszczepia się, przechodząc przez kryształ, na dwa promienie. Mamy do czynienia z dwójłomnością czyli podwójnym załamaniem.", "Jeżeli zbadamy obie wychodzące wiązki za pomocą płytki polaryzującej, to okaże się, że obie wiązki są spolaryzowane liniowo, przy czym ich płaszczyzny drgań są wzajemnie prostopadłe. Wiązki te noszą odpowiednio nazwy promienia zwyczajnego (o) i promienia nadzwyczajnego (e). Ponadto okazuje się, że promień zwyczajny spełnia prawo załamania (tak, jak dla ośrodka izotropowego), a promień nadzwyczajny tego prawa nie spełnia.", "Zjawisko to tłumaczy się tym, że promień o przechodzi przez kryształ z jednakową prędkością we wszystkich kierunkach (ma jeden współczynnik załamania \\( n_{o} \\)) tak, jak izotropowe ciało stałe, natomiast prędkość promienia e zależy od kierunku w krysztale i zmienia się od wartości \\( v_{o} \\) do \\( v_{e} \\), a współczynnik załamania od \\( n_{o} \\) do \\( n_{e} \\). Dla kalcytu \\( n_{o} \\) = 1.486, a \\( n_{e} \\) = 1.658. Wielkości \\( n_{e} \\) i \\( n_{o} \\) nazywamy głównymi współczynnikami załamania kryształu.", "Niektóre podwójnie załamujące kryształy wykazują ponadto własność nazywaną dichroizmem. Kryształy te pochłaniają jeden z promieni (o lub e) silniej niż drugi. Na wykorzystaniu tego zjawiska opiera się działanie szeroko stosowanych polaroidów."], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 328, "subject": "Podsumowanie informacji o optyce", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elektromagnetyzm i Optyka", "chapter": "Rozdział 10. Optyka falowa", "subject_id": 329, "subject": "Zadania z optyki", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 1. Światło a fizyka kwantowa", "subject_id": 335, "subject": "Promieniowanie termiczne", "paragraphs": ["Z codziennego doświadczenia wiemy, że rozgrzane do wysokiej temperatury ciała są źródłami światła widzialnego. Typowym przykładem są wolframowe włókna żarówek.", "Promieniowanie wysyłane przez ogrzane ciała nazywamy promieniowaniem termicznym. Wszystkie ciała emitują takie promieniowanie do otoczenia, a także z tego otoczenia je absorbują w każdej temperaturze wyższej od zera bezwzględnego. Jeżeli ciało ma wyższą temperaturę od otoczenia, to będzie się oziębiać ponieważ szybkość promieniowania przewyższa szybkość absorpcji (oba procesy zawsze występują jednocześnie). Gdy osiągnięta zostanie równowaga termodynamiczna wtedy te szybkości będą równe.", "Za pomocą siatki dyfrakcyjnej możemy zbadać światło emitowane przez te źródła to znaczy dowiedzieć się jakie są długości fal wypromieniowywanych przez ciało i jakie jest ich natężenie Wyniki takiej analizy dla taśmy wolframowej ogrzanej do \\( T = 2000 \\) K są pokazane na Rys. 1.", "Wielkość \\( R_{\\lambda} \\) przedstawiona na osi pionowej nazywana jest widmową zdolnością emisyjną promieniowania i jest tak zdefiniowana, że wielkość \\( R_{\\lambda} d \\lambda \\) oznacza moc promieniowania czyli szybkość, z jaką jednostkowy obszar powierzchni wypromieniowuje energię odpowiadającą długościom fal zawartym w przedziale od \\( \\lambda \\), do \\( \\lambda+d \\lambda \\).", "Całkowitą energię wysyłanego promieniowania w całym zakresie długości fal możemy obliczyć, sumując emisję dla wszystkich długości fal, tzn. całkując \\( R_{\\lambda} \\) po wszystkich długościach fal. Wielkość ta nazywana jest całkowitą emisją energetyczną promieniowania \\( R \\) i wyraża się wzorem", "Oznacza to, że możemy interpretować emisję energetyczną promieniowania \\( R \\) jako powierzchnię pod wykresem \\( R_{\\lambda} \\) od \\( \\lambda \\).", "Widmo emitowane przez ciało stałe ma charakter ciągły i silnie zależy od temperatury. Ponadto szczegóły tego widma są prawie niezależne od rodzaju substancji.", "Zauważmy, że w \"zwykłych\" temperaturach większość ciał jest dla nas widoczna dlatego, że odbijają one (lub rozpraszają) światło, które na nie pada, a nie dlatego, że ciała te wysyłają promieniowanie widzialne (świecą). Jeżeli nie pada na nie światło (np. w nocy) to są one niewidoczne. Dopiero gdy ciała mają wysoką temperaturę wtedy świecą własnym światłem. Ale jak widać z Rys. 1 i tak większość emitowanego promieniowania jest niewidzialna, bo przypada na zakres podczerwieni czyli promieniowania cieplnego. Dlatego ciała, świecące własnym światłem są bardzo gorące. Jeżeli będziemy rozgrzewać kawałek metalu to początkowo chociaż jest on gorący to z jego wyglądu nie można tego stwierdzić bo nie świeci; można to tylko zrobić dotykiem. Emituje promieniowanie podczerwone. Ze wzrostem temperatury kawałek metalu staje się początkowo ciemnoczerwony, następnie jasnoczerwony, aż wreszcie świeci światłem niebiesko-białym.", "Ponieważ ilościowe interpretacje takich widm promieniowania są trudne to posługujemy się wyidealizowanym ciałem stałym, zwanym ciałem doskonale czarnym. Tak postępowaliśmy już w przypadku gazów; rozważaliśmy modelowy obiekt tak zwany gaz doskonały (zob. moduł Temperatura, równanie stanu gazu doskonałego ). Ciało doskonale czarne charakteryzuje się tym, że pochłania całkowicie padające nań promieniowanie. Wiecej informacji o ciele doskonale czarnym można znaleźć w module Ciało doskonale czarne."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 1. Światło a fizyka kwantowa", "subject_id": 336, "subject": "Ciało doskonale czarne", "paragraphs": ["Rozważmy pokazany na Rys. 1 blok metalowy posiadający pustą wnękę wewnątrz. W ściance bocznej tego bloku znajduje się niewielki otwór.", "Promieniowanie pada na otwór z zewnątrz i po wielokrotnych odbiciach od wewnętrznych ścian zostaje całkowicie pochłonięte. Oczywiście ścianki wewnętrzne też emitują promieniowanie, które może wyjść na zewnątrz przez otwór. Otwór wnęki ma więc własności ciała doskonale czarnego.", "Z obserwacji światła wysyłanego przez takie ciało wynika, że:", "Zdolność emisyjna promieniowania \\( R_{\\lambda} \\) dla ciała doskonale czarnego zmienia się z temperaturą tak, jak na Rys. 2.", "Długość fali, dla której przypada maksimum emisji jest zgodnie z prawem Wiena odwrotnie proporcjonalna do temperatury ciała.", "Podkreślmy, że pokazane krzywe zależą tylko od temperatury i są całkiem niezależne od materiału oraz kształtu i wielkości ciała doskonale czarnego.", "Żeby się o tym przekonać rozpatrzmy, pokazane na Rys. 3 dwa ciała doskonale czarne, tzn. dwie wnęki o dowolnym kształcie i jednakowej temperaturze ścianek obu wnęk (ciała stykają się). Promieniowanie oznaczone \\( R_{A} \\) przechodzi z wnęki A do wnęki B, a promieniowanie \\( R_{B} \\) w odwrotnym kierunku. Jeżeli te szybkości nie byłyby równe, wówczas jeden z bloków ogrzewałby się, a drugi stygł. Oznaczałoby to pogwałcenie drugiej zasady termodynamiki. Otrzymujemy więc \\( R_{A} \\) = \\( R_{B} \\) = \\( R_{C} \\) gdzie \\( R_{C} \\) opisuje całkowite promieniowanie dowolnej wnęki.", "Nie tylko energia całkowita, ale również jej rozkład musi być taki sam dla obu wnęk. Stosując to samo rozumowanie co poprzednio, można pokazać, że \\( {R_{{\\mathit{\\lambda A}}}=R_{{\\mathit{\\lambda B}}}=R_{{\\mathit{\\lambda C}}}} \\), gdzie \\( R_{\\lambda C} \\) oznacza widmową zdolność emisyjną dowolnej wnęki."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 1. Światło a fizyka kwantowa", "subject_id": 337, "subject": "Teoria promieniowania we wnęce, prawo Plancka", "paragraphs": ["Na przełomie ubiegłego stulecia Rayleigh i Jeans wykonali obliczenia energii promieniowania we wnęce (czyli promieniowania ciała doskonale czarnego). Zastosowali oni teorię pola elektromagnetycznego do pokazania, że promieniowanie wewnątrz wnęki ma charakter fal stojących. Promieniowanie elektromagnetyczne odbija się od ścian wnęki tam i z powrotem tworząc fale stojące z węzłami na ściankach wnęki (tak jak omawiane w module Interferencja fal i fale stojące ). Następnie Rayleigh i Jeans obliczyli wartości średniej energii w oparciu o znane nam prawo ekwipartycji energii i w oparciu o nią znaleźli widmową zdolność emisyjną.", "Wynik jaki uzyskali został pokazany linią przerywaną na Ciało doskonale czarne-Rys. 2. Jak widać rozbieżność między wynikami doświadczalnymi i teorią jest duża. Dla fal długich (małych częstotliwości) wyniki teoretyczne są bliskie krzywej doświadczalnej, ale dla wyższych częstotliwości wyniki teoretyczne dążą do nieskończoności. Ten sprzeczny z rzeczywistością wynik rozważań klasycznych nazywany jest „katastrofą w nadfiolecie”.", "Pierwszy wzór empiryczny dający wyniki widmowej zdolności emisyjnej w przybliżeniu zgodne z doświadczeniem przedstawił Wien. Wzór ten został następnie zmodyfikowany przez Plancka tak, że uzyskano wynik w pełni zgodny z doświadczeniem. Wzór Plancka ma postać", "gdzie \\( C_{1} \\) i \\( C_{2} \\) są stałymi wyznaczanymi doświadczalnie.", "Planck nie tylko zmodyfikował wzór Wiena, ale zaproponował zupełnie nowe podejście mające na celu stworzenie teorii promieniowania ciała doskonale czarnego. Założył on, że każdy atom zachowuje się jak oscylator elektromagnetyczny posiadający charakterystyczną częstotliwość drgań.", "Ten postulat zmieniał radykalnie istniejące teorie. Wiemy, że zgodnie z fizyką klasyczną, energia każdej fali może mieć dowolną wartość, i że jest ona proporcjonalna do kwadratu amplitudy. Tymczasem według Plancka energia może przyjmować tylko ściśle określone wartości czyli jest skwantowana.", "Ponadto oscylatory nie wypromieniowują energii w sposób ciągły, lecz porcjami czyli kwantami. Kwanty są emitowane, gdy oscylator przechodzi ze stanu (stanu kwantowego) o danej energii do drugiego o innej, mniejszej energii. Odpowiada to zmianie liczby kwantowej n o jedność, a w konsekwencji wypromieniowana zostaje energia w ilości", "Oznacza to, że", "Sprawdźmy teraz czy ta nowatorska hipoteza stosuje się do znanych nam oscylatorów. Jako przykład rozpatrzmy wahadło proste złożone z ciała o masie 1 kg zawieszonego na lince o długości 1 m.", "Częstotliwość drgań własnych takiego wahadła wynosi", "Jeżeli wahadło wykonuje drgania o amplitudzie 10 cm, to jego energia całkowita wynosi", "Zgodnie z hipotezą Plancka zmiany energii dokonują się skokowo przy czym \\( \\Delta E = h\\nu \\). Względna zmiana energii wynosi więc", "Żeby zaobserwować nieciągłe zmiany energii, musielibyśmy wykonać pomiar energii z dokładnością przewyższającą wielokrotnie czułość przyrządów pomiarowych.", "Kwantowa natura drgań nie jest więc widoczna dla makroskopowych oscylatorów podobnie, jak nie widzimy dyskretnej natury materii to jest cząsteczek, atomów, elektronów, itp., z których zbudowane są ciała. Wnioskujemy, że doświadczenia z wahadłem prostym nie mogą rozstrzygnąć o słuszności postulatu Plancka."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 1. Światło a fizyka kwantowa", "subject_id": 338, "subject": "Zastosowanie prawa Plancka w termometrii", "paragraphs": ["Promieniowanie emitowane przez gorące ciało można wykorzystać do wyznaczenia jego temperatury. Jeżeli mierzy się całkowite promieniowanie emitowane przez ciało, to korzystając z prawa Stefana-Boltzmana (por. moduł Ciało doskonale czarne ) można obliczyć jego temperaturę. Sprawdź ten sposób wykonując zadanie 1 Temperatura powierzchni Ziemi.", "Ponieważ dla większości źródeł trudno dokonać pomiaru całkowitego promieniowania, więc mierzy się ich zdolność emisyjną dla wybranego zakresu długości fal. Z prawa Plancka wynika, że dla dwu ciał o temperaturach \\( T_{1} \\) i \\( T_{2} \\) stosunek natężeń promieniowania o długości fali \\( \\lambda \\) wynosi", "Jeżeli \\( T_{1} \\) przyjmiemy jako standardową temperaturę odniesienia, to możemy wyznaczyć \\( T_{2} \\) wyznaczając doświadczalnie stosunek \\( I_{1}/I_{2} \\). Do tego celu posługujemy się urządzeniem zwanym pirometrem (zob. Rys. 1 ).", "Obraz źródła \\( S \\) (o nieznanej temperaturze) powstaje w miejscu gdzie znajduje się włókno żarowe pirometru \\( P \\). Dobieramy prąd żarzenia tak, aby włókno stało się niewidoczne na tle źródła, tzn. świeciło tak samo jasno jak źródło \\( S \\). Ponieważ urządzenie jest wyskalowane odczytując wartość prądu żarzenia, możemy wyznaczyć temperaturę źródła."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 1. Światło a fizyka kwantowa", "subject_id": 339, "subject": "Zjawisko fotoelektryczne zewnetrzne", "paragraphs": ["Potwierdzeniem kwantowej natury promieniowania jest zjawisko fotoelektryczne zewnętrzne.", "Zjawisko fotoelektryczne zewnętrzne polega na wyrzucaniu elektronów z powierzchni ciała stałego pod wpływem padającego promieniowania. Na Rys. 1 pokazano aparaturę do badania zjawiska fotoelektrycznego.", "W szklanej bańce, w której panuje wysoka próżnia, znajdują się dwie metalowe elektrody A i B. Światło przechodząc przez otwór w elektrodzie B pada na metalową płytkę A i uwalnia z niej elektrony, które nazywamy fotoelektronami.", "Fotoelektrony są rejestrowane jako prąd elektryczny płynący między płytką A oraz elektrodą zbierającą B przy przyłożonym napięciu \\( U \\). Do pomiaru prądu stosujemy czuły miliamperomierz (mA). Poniżej na Rys. 2 pokazana jest zależność prądu fotoelektrycznego od przyłożonego napięcia \\( U \\), dla dwóch różnych wartości natężenia światła.", "Widzimy, że gdy U jest dostatecznie duże, wtedy prąd fotoelektryczny osiąga maksymalną wartość (prąd nasycenia \\( I_{a} \\), \\( I_{b} \\)). Odpowiada to sytuacji, gdy wszystkie elektrony wybijane z płytki A docierają do elektrody B.", "Jeżeli zmienimy znak napięcia \\( U \\), to prąd nie spada natychmiast do zera (przy \\( U = 0 \\) mamy niezerowy prąd). Oznacza to, że fotoelektrony emitowane z płytki A mają pewną energię kinetyczną, dzięki której docierają do B (nawet wtedy, gdy nie są przyspieszane napięciem \\( U \\)).", "Ponadto zauważmy, że nie wszystkie elektrony mają jednakowo dużą energię kinetyczną, bo tylko część z nich dolatuje do elektrody B; przy \\( U = 0 \\) prąd jest mniejszy od maksymalnego. Wreszcie przy dostatecznie dużym napięciu równym \\( U_{h} \\) zwanym napięciem hamowania prąd zanika. Różnica potencjałów \\( U_{h} \\) pomnożona przez ładunek elektronu 'e' jest więc miarą energii najszybszych elektronów (przy \\( U = U_{h} \\) nawet najszybsze elektrony są zahamowane, nie dochodzą do elektrody B )", "Krzywe na Rys. 1 różnią się natężeniem padającego światła. Zauważmy, że przy silniejszym oświetleniu (krzywa 'a') otrzymujemy większy prąd nasycenia, ale takie samo napięcie hamowania jak dla układu oświetlonego słabiej (krzywa 'b').", "Widać więc, że \\( E_{kmax} \\) nie zależy od natężenia światła. Zmienia się tylko prąd nasycenia, a to oznacza, że wiązka światła o większym natężeniu wybija więcej elektronów ale nie szybszych.", "Wynik innego doświadczenia pokazuje Rys. 3. Wykreślono tu zależność napięcia hamowania od częstotliwości (barwy) światła padającego na powierzchnie sodu metalicznego. Zauważmy, że otrzymano zależność liniową oraz, że istnieje pewna wartość progowa częstotliwości \\( u_{0} \\), poniżej której zjawisko fotoelektryczne nie występuje.", "Opisane zjawisko fotoelektryczne ma cechy, których nie można wyjaśnić na gruncie klasycznej falowej teorii światła:", "W module Kwantowa teoria Einsteina zjawiska fotoelektrycznego przedstawiono kwanotowomechaniczny opis tego zjawiska."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 1. Światło a fizyka kwantowa", "subject_id": 340, "subject": "Kwantowa teoria Einsteina zjawiska fotoelektrycznego", "paragraphs": ["Einsteinowi udało się wyjaśnić te własności zjawiska fotoelektrycznego dzięki nowemu rewolucyjnemu założeniu, że energia wiązki świetlnej rozchodzi się w przestrzeni w postaci skończonych porcji (kwantów) energii zwanych fotonami.", "Energia pojedynczego fotonu jest dana wzorem", "Przypomnijmy sobie, że według Plancka źródła emitują światło w sposób nieciągły, ale w przestrzeni rozchodzi się ono jako fala elektromagnetyczna.", "Natomiast Einstein zapostulował, że kwanty światła rozchodzą się w przestrzeni jak cząstki materii, i gdy foton zderzy się z elektronem w metalu to może zostać przez elektron pochłonięty. Wówczas energia fotonu zostanie przekazana elektronowi.", "Zgodnie z powyższą zależnością energia \\( h\\nu \\) fotonu, w części ( \\( W \\)) zostaje zużyta na wyrwanie elektronu z materiału (jego przejście przez powierzchnię), a ewentualny nadmiar energii ( \\( h\\nu - W \\)) elektron otrzymuje w postaci energii kinetycznej, przy czym część z niej może być stracona w zderzeniach wewnętrznych (przed opuszczeniem materiału).", "Teoria Einsteina pozwala na wyjaśnienie, przedstawionych wcześniej, osobliwych własności zjawiska fotoelektrycznego:", "Korzystając z zależności Zjawisko fotoelektryczne zewnetrzne-( 1 ), możemy przekształcć równanie ( 2 ) do postaci", "Widzimy, że teoria Einsteina przewiduje liniową zależność pomiędzy napięciem hamowania, a częstotliwością, co jest całkowicie zgodne z doświadczeniem (zob. Zjawisko fotoelektryczne zewnetrzne-Rys. 3 ). Teoria fotonowa potwierdza więc fakty związane ze zjawiskiem fotoelektrycznym, ale jest sprzeczna z teorią falową, która też została potwierdzona doświadczalnie (zjawisko dyfrakcji, interferencji, polaryzacji).", "Jak jest więc możliwe żeby światło było falą i jednocześnie zbiorem cząstek?", "Nasz obecny punkt widzenia na naturę światła jest taki, że ma ono złożony charakter, to znaczy, że w pewnych warunkach zachowuje się jak fala, a w innych jak cząstka, czyli foton. Tę własność światła nazywa się dualizmem korpuskularno-falowym. W zjawisku fotoelektrycznym ujawnia się właśnie korpuskularna (cząstkowa) natura światła."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 1. Światło a fizyka kwantowa", "subject_id": 341, "subject": "Efekt Comptona", "paragraphs": ["Cząsteczkową naturę światła można w pełni zaobserwować w doświadczeniu związanym z rozpraszaniem fal elektromagnetycznych na swobodnych elektronach, nazywanym zjawiskiem Comptona.", "Po raz pierwszy taki proces został zaobserwowany przez Comptona w 1923 r. W doświadczeniu wiązka promieni X, o dokładnie określonej długości fali pada na blok grafitowy tak jak na Rys. 1.", "Compton mierzył natężenie wiązki rozproszonej pod różnymi kątami \\( \\phi \\) jako funkcję długości fali \\( \\lambda \\). Wyniki doświadczenia są pokazane na Rys. 2.", "Widać, że chociaż wiązka padająca na grafit ma jedną długość fali to w promieniowaniu rozproszonym występują dwie długości fal. Jedna z nich ma długość \\( \\lambda \\) identyczną jak fala padająca, druga długość \\( \\lambda \\)' większą o \\( \\Delta\\lambda \\). To tak zwane przesunięcie Comptona \\( \\Delta \\lambda \\) zmienia się wraz z kątem obserwacji \\( \\phi \\) rozproszonego promieniowania X tzn. \\( \\lambda \\)' zmienia się wraz z kątem.", "Jeżeli padające promieniowanie potraktujemy jako falę to pojawienie się fali rozproszonej o zmienionej długości \\( \\lambda \\)' nie daje się wyjaśnić. Dopiero przyjęcie hipotezy, że wiązka promieni X nie jest falą ale strumieniem fotonów o energii \\( h\\nu \\) pozwoliło Comptonowi wyjaśnić uzyskane wyniki.", "Założył on, że fotony (jak cząstki) zderzają się z elektronami swobodnymi w bloku grafitu. Podobnie jak w typowych zderzeniach (np. kul bilardowych) zmienia się w wyniku zderzenia kierunek poruszania się fotonu oraz jego energia (część energii została przekazana elektronowi). To ostatnie oznacza zmianę częstotliwości i zarazem długości fali. Sytuacja ta jest schematycznie pokazana na Rys. 3.", "Stosując do tego zderzenia zasadę zachowania pędu oraz zasadę zachowania energii otrzymujemy wyrażenie na przesunięcie Comptona", "gdzie \\( m_{0} \\) jest masą elektronu (spoczynkową). Tak więc przesunięcie Comptona zależy tylko od kąta rozproszenia.", "W tym miejscu konieczny jest komentarz: ponieważ odrzucone elektrony mogą mieć prędkości porównywalne z prędkością światła więc dla obliczenia energii kinetycznej elektronu stosujemy wyrażenie relatywistyczne.", "Na koniec musimy jeszcze wyjaśnić występowanie maksimum dla nie zmienionej długości fali \\( \\lambda \\). Ten efekt jest związany z rozpraszaniem fotonów na elektronach rdzenia atomowego. W takim zderzeniu odrzutowi ulega cały atom o masie M. Dla grafitu M = 22000 \\( m_{0} \\), więc otrzymujemy niemierzalnie małe przesunięcie Comptona."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 2. Model Bohra atomu wodoru", "subject_id": 342, "subject": "Wstęp do modelu atomu", "paragraphs": ["Na początku XX w. znano wiele wyników eksperymentalnych, które wskazywały na to, że atomy zawierają elektrony. Z faktu, że atomy są elektrycznie obojętne wnioskowano, że mają one również ładunek dodatni równy ujemnemu. Ponadto, ponieważ masa elektronów jest bardzo mała w porównaniu z masą najlżejszych nawet atomów oznaczało to, że ładunki dodatnie związane są ze znaczną masą.", "Na tej podstawie Thomson zaproponował model budowy atomu, zgodnie z którym ujemnie naładowane elektrony są równomiernie rozłożone wewnątrz obszaru wypełnionego w sposób ciągły ładunkiem dodatnim. Ładunek dodatni tworzył kulę o promieniu rzędu 10 \\( ^{-10} \\) m.", "Dowód nieadekwatności modelu Thomsona podał jego uczeń Rutherford, analizując wyniki rozpraszania cząstek alfa na atomach złota. Z przeprowadzonej przez Rutherforda analizy wynikało, że ładunek dodatni nie jest rozłożony równomiernie wewnątrz atomu, ale skupiony w małym obszarze zwanym jądrem (o rozmiarze 10 \\( ^{-15} \\) - 10 \\( ^{-14} \\) m) leżącym w środku atomu.", "Zgodnie z modelem jądrowym Rutherforda:", "Taki obraz atomu był zgodny z wynikami doświadczeń nad rozpraszaniem cząstek alfa, ale pozostało wyjaśnienie zagadnienia stabilności takiego atomu.", "Elektrony w atomie nie mogą być nieruchome ponieważ w wyniku przyciągania z dodatnim jądrem zostałyby do niego przyciągnięte i wtedy „wrócilibyśmy” do modelu Thomsona. Dlatego Rutherford zapostulował, że elektrony w atomach krążą wokół jądra po orbitach. Jeżeli jednak dopuścimy ruch elektronów wokół jądra (tak jak planet wokół Słońca w układzie słonecznym), to też natrafiamy na trudność interpretacyjną:", "Zgodnie z prawami elektrodynamiki klasycznej każde naładowane ciało poruszające się ruchem przyspieszonym wysyła promieniowanie elektromagnetyczne.", "Przypomnijmy sobie antenę dipolową, którą omawialiśmy w module Rozchodzenie się fal elektromagnetycznych. Zmienne pole elektryczne w antenie wywołuje oscylacje ładunku i antena emituje falę elektromagnetyczną. Podobnie, krążący elektron doznawałby stale przyspieszenia (dośrodkowego) i zgodnie z elektrodynamiką klasyczną wysyłałby energię kosztem swojej energii mechanicznej. Oznaczałoby to, że poruszałby się po spirali, ostatecznie spadając na jądro (model Thomsona).", "Zagadnienie stabilności atomów doprowadziło do powstania nowego modelu zaproponowanego przez Bohra. Podstawową cechą tego modelu było to, że umożliwiał przewidywanie widm promieniowania wysyłanego przez atomy (których nie wyjaśniał model Rutherforda)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 2. Model Bohra atomu wodoru", "subject_id": 343, "subject": "Widmo atomowe", "paragraphs": ["Na Rys. 1 pokazany jest typowy układ do pomiaru widm atomowych. Źródłem promieniowania jest jednoatomowy gaz pobudzony do świecenia metodą wyładowania elektrycznego (tak jak w jarzeniówce). Promieniowanie przechodzi przez szczelinę kolimującą, a następnie pada na pryzmat (lub siatkę dyfrakcyjną), który rozszczepia promieniowanie na składowe o różnych długościach fal.", "Na Rys. 2 pokazana jest widzialna część widma atomu wodoru.", "Na Rys. 2 uwidacznia się cecha szczególna obserwowanych widm. W przeciwieństwie do widma ciągłego emitowanego na przykład przez powierzchnie ciał ogrzanych do wysokich temperatur, widma promieniowania pierwiastków w postaci gazów i par, pobudzonych do świecenia na przykład za pomocą wyładowania elektrycznego, są złożone z jasnych, ostrych linii, odpowiadających ściśle określonym długościom fal.", "Promieniowanie wysyłane przez swobodne atomy (tzw. widmo emisyjne) zawiera tylko pewną liczbę długości fal. Takie widmo nazywamy widmem liniowym, a każdą z takich składowych długości fal nazywana jest linią widmową.", "Obok widm emisyjnych badano również widma absorpcyjne, tym razem obserwując promieniowanie pochłaniane przez gazy zamiast emitowanego.", "Okazało się, że jeżeli światło o widmie ciągłym, na przykład światło żarówki, przechodzi przez gaz lub parę, to w widmie ciągłym wysyłanym przez żarówkę widoczne są ciemne linie, promieniowanie o pewnych długościach fal zostało pochłonięte przez gaz (zaabsorbowane). Długości tych fal dokładnie odpowiadają długościom fal widma emisyjnego danego pierwiastka.", "Doświadczenia pokazują więc, że pojedyncze atomy (cząsteczki) zarówno emitują, jak i absorbują, promieniowanie o ściśle określonych długościach fali.", "To właśnie badanie widma wodoru doprowadziło Bohra do sformułowania nowego modelu atomu (zob. Model Bohra atomu wodoru ). Model ten chociaż posiada pewne braki to ilustruje idę kwantowania w sposób prosty matematycznie."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 2. Model Bohra atomu wodoru", "subject_id": 344, "subject": "Model Bohra atomu wodoru", "paragraphs": ["Fizyka klasyczna przewidywała, że atom krążący po orbicie będzie wypromieniowywał energię, tak że częstość z jaką krąży elektronu i w konsekwencji także częstość wysyłanego promieniowania będą się zmieniać w sposób ciągły. Tymczasem obserwujemy bardzo ostre linie widmowe o ściśle określonej częstotliwości (długości fali).", "Sprzeczności te usunął Niels Bohr, proponując nowy kwantowy model budowy atomu. Klasyczny obraz planetarnego atomu zbudowanego z masywnego jądra i krążących wokół niego pod wpływem siły kulombowskiej elektronów Bohr rozszerzył o nowe kwantowe postulaty:", "Częstotliwość emitowanego promieniowania jest równa:", "Natomiast \\( h\\nu \\) jest energią fotonu, który zostaje w trakcie przejścia wypromieniowany przez atom. Zwróćmy uwagę, że taki był postulat Einsteina głoszący, że częstotliwość fotonu promieniowania elektromagnetycznego jest równa energii fotonu podzielonej przez stałą Plancka.", "Wynika stąd, że trzeba wyznaczyć energie stanów stacjonarnych i wtedy obliczając możliwe różnice tych energii, będzie można przewidzieć wygląd widma promieniowania emitowanego przez atom.", "W tym celu zakładamy, że elektron porusza się po orbitach kołowych o promieniu \\( r \\) ze środkiem w miejscu jądra oraz że jądro (pojedynczy proton) jest tak ciężkie, że środek masy pokrywa się ze środkiem protonu. Korzystając z drugiej zasady dynamiki Newtona i prawa Coulomba (zob. moduł Prawo Coulomba ), otrzymujemy", "gdzie uwzględniliśmy tylko przyciąganie elektrostatyczne pomiędzy dodatnim jądrem i ujemnym elektronem, zaniedbując oddziaływanie grawitacyjne. (Słuszność tego założenia sprawdziliśmy rozwiązując zadanie w module Pole elektryczne ).", "Na podstawie wzoru ( 2 ) można obliczyć energię kinetyczną elektronu", "Natomiast energia potencjalna układu elektron-proton jest dana równaniem", "Całkowita energia układu będąca sumą energii kinetycznej i potencjalnej wynosi", "Ze wzoru ( 3 ) na energię kinetyczną możemy wyznaczyć prędkość liniową elektronu", "Na tej podstawie pęd elektronu dany jest równaniem", "a moment pędu", "Zwróćmy uwagę, że jeżeli znamy promień orbity \\( r \\), to znamy również pozostałe wielkości \\( E_{k} \\), \\( E_{p} \\), \\( E \\), \\( \\nu \\), \\( p \\) oraz \\( L \\).", "Oznacza to również, że jeżeli jakakolwiek z tych wielkości jest skwantowana (może przyjmować tylko ściśle określone, a nie dowolne wartości), to wszystkie wymienione wielkości też muszą być skwantowane.", "Bohr poszukiwał zasady, która dopuszczałaby tylko pewne promienie orbit, czyli tylko pewne wartości energii elektronów i wysunął hipotezę, według której najprostszą jest kwantyzacja parametrów orbity i która mówiła, że moment pędu elektronu musi być całkowitą wielokrotnością stałej Plancka podzielonej przez \\( 2\\pi \\).", "Postulat Bohra dotyczy kwantyzacji momentu pędu \\( L \\) (równanie ( 9 ) ). Jednak jeżeli jakakolwiek z wielkości \\( E_{k} \\), \\( E_{p} \\), \\( E \\), \\( \\nu \\), \\( p \\) oraz \\( L \\) jest skwantowana, to wszystkie muszą być skwantowane.", "Łącząc wyrażenie na moment pędu ( 8 ) z postulatem Bohra ( 9 ), otrzymujemy", "Widzimy jak skwantowane jest \\( r \\). Podstawiając ten wynik do wyrażenia na energię całkowitą ( 5 ), otrzymujemy wartości energii dozwolonych stanów stacjonarnych", "To równanie przedstawia wartości energii dozwolonych stanów stacjonarnych.", "Stan z liczbą kwantową \\( n = 1 \\) tzw. stan podstawowy odpowiada najniższej energii \\( E_{1} \\) = -13.6 eV, a stan z liczbą kwantową \\( n \\rightarrow {\\infty} \\) odpowiada stanowi o zerowej energii \\( E = 0 \\), w którym elektron jest całkowicie usunięty poza atom.", "Jak widać wprowadzenie kwantowania orbitalnego momentu pędu elektronu prowadzi do kwantowania jego energii całkowitej."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 2. Model Bohra atomu wodoru", "subject_id": 345, "subject": "Stany energetyczne i widmo atomowe wodoru", "paragraphs": ["Teoria Bohra przewiduje, że całkowita energia elektronu (i w konsekwencji energia atomu) jest wielkością skwantowaną. Dozwolone wartości energii elektronu są dane wzorem", "Na podstawie tych wartości możemy, korzystając z zależności Model Bohra atomu wodoru-( 1 ), obliczyć energie kwantów promieniowania emitowanych (lub absorbowanych) przy przejściu między orbitami", "gdzie \\( j \\), \\( k \\) są liczbami kwantowymi opisującymi niższy i wyższy stan stacjonarny, \\( \\nu \\) jest częstotliwością promieniowania, \\( \\lambda \\) długością fali , a \\( c \\) prędkością światła.", "Na Rys. 1 poniżej zaznaczone są symbolicznie (strzałkami) przeskoki między różnymi orbitami, a na rysunku Rys. 2 energie emitowanych kwantów promieniowania przy przeskokach elektronów pomiędzy odpowiadającymi im stanami stacjonarnymi. Długość każdej ze strzałek odpowiada różnicy energii między dwoma stanami stacjonarnymi czyli równa jest energii \\( \\nu \\) wypromieniowanego kwantu.", "(Na rysunku Rys. 1 nie są zachowane proporcje pomiędzy promieniami orbit, które zmieniają się zgodnie z relacją \\( r_{n} = r_{1}n^{2} \\).)", "Przejścia pomiędzy stanami stacjonarnymi i odpowiadające im linie widmowe tworzą serie widmowe. Dana seria obejmuje promieniowanie emitowane przy przejściu elektronu z poziomów wyższych na dany, np. seria Balmera obejmuje przejścia ze stanów o \\( n > 2 \\) do stanu o \\( n = 2 \\).", "Zauważmy ponadto, że tylko przejściom elektronu na drugą orbitę (seria Balmera) towarzyszy emisja promieniowania z zakresu widzialnego. Seria Lymana obejmuje promieniowanie w zakresie nadfioletu, a seria Paschena w podczerwieni.", "Na gruncie kwantowego modelu Bohra budowy atomu można łatwo zrozumieć własności widm emisyjnych i absorpcyjnych atomów jednoelektronowych. Jednak ten model nie wyjaśniał fundamentalnego faktu, dlaczego pojęć mechaniki klasycznej nie można stosować w świecie atomów (cząstek elementarnych).", "Model Bohra został zastąpiony nowym udoskonalonym modelem budowy atomu, w którym położenie elektronu w danej chwili czasu nie jest określone dokładnie lecz z pewnym prawdopodobieństwem, a sam elektron traktowany jest nie jak cząstka, ale jako fala materii."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 346, "subject": "Fale materii", "paragraphs": ["W 1924 r. L. de Broglie zapostulował, że skoro światło ma dwoistą, falowo-cząstkową, naturę, to także materia może mieć taką naturę. Taką sugestię zaprezentował między innymi w oparciu o obserwację, że Wszechświat składa się wyłącznie ze światła i materii, oraz że pod wieloma względami przyroda jest symetryczna. De Broglie zasugerował, że należy zbadać czy materia nie wykazuje również własności falowych.", "Posługując się klasyczną teorią elektromagnetyzmu, można pokazać, że światło o energii \\( E \\) ma pęd \\( p = E/c \\). Zatem foton (kwant światła) ma pęd równy", "De Broglie nie tylko zasugerował istnienie fal materii, ale również przewidział ich długość. Założył, że długość przewidywanych fal materii jest określona tym samym związkiem, który stosuje się do światła", "Wyrażenie to wiąże pęd cząstki materialnej z długością przewidywanych fal materii. Oba równania ( 1 ) i ( 2 ) zawierają wielkość charakteryzującą fale ( \\( \\lambda \\)), jak i wielkość związaną z cząstkami ( \\( p \\)).", "Takie doświadczenie przeprowadzili, w 1926 roku, Davisson i Germer w USA oraz Thomson w Szkocji. Na Rys. 1 przedstawiono schemat aparatury pomiarowej.", "Elektrony emitowane z ogrzewanego włókna przyspieszane są napięciem \\( U \\), które można regulować. Wiązka elektronów zostaje skierowana na kryształ niklu, a detektor jest ustawiony pod pewnym szczególnym kątem \\( \\phi \\). Natężenie wiązki ugiętej na krysztale jest odczytywane przy różnych napięciach przyspieszających czyli przy różnej energii kinetycznej elektronów.", "Okazuje się, że prąd w detektorze ujawnia maksimum dyfrakcyjne przy kącie równym 50° dla \\( U \\) = 54 V. Jeżeli skorzystamy z prawa Bragga (zob. moduł Dyfrakcja promieni Roentgena (promieni X) ) to możemy obliczymy wartość \\( \\lambda \\), dla której obserwujemy maksimum w tych warunkach", "gdzie zgodnie z przyjętymi oznaczeniami \\( \\theta \\) =90°- \\( \\phi \\)/2.", "Długość fali obliczona dla niklu ( \\( d \\) = 0.091 nm) w oparciu o powyższe dane doświadczalne wynosi", "\\( \\lambda \\) = 0.165 nm.", "Z drugiej strony w oparciu o znaną energię elektronów (54 eV) możemy obliczyć długość fali de Broglie’a (tak jak w przykładzie powyżej) \\( {\\lambda=\\frac{h}{p}=0{.}{165}\\;\\text{nm}} \\). Ta doskonała zgodność stanowiła argument za tym, że w pewnych okolicznościach elektrony wykazują naturę falową.", "Dzisiaj wiemy, że inne cząstki, zarówno naładowane, jak i nienaładowane, wykazują cechy charakterystyczne dla fal. Dyfrakcja neutronów jest powszechnie stosowaną techniką eksperymentalną używaną do badania struktury ciał stałych. Tak więc, zarówno dla materii, jak i dla światła, przyjmujemy istnienie dwoistego ich charakteru."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 347, "subject": "Struktura atomu", "paragraphs": ["Teoria sformułowana przez Bohra pozwoliła na wyjaśnienie własności widma atomu wodoru, a przede wszystkim stabilnej struktury atomu. Jednak nie podawała uzasadnienia postulatów, na których się opierała, zwłaszcza reguły kwantowania momentu pędu.", "Taką fizyczną interpretację reguł kwantowania Bohra zaproponował de Broglie, przyjmując, że elektron krążący wokół jądra po orbicie kołowej ze stałą prędkością jest reprezentowany przez pewną falę materii - falę elektronową.", "Ta fala, tak jak elektron, przebiega wielokrotnie wzdłuż orbity kołowej, przy czym w każdym kolejnym okresie przebieg ulega dokładnemu powtórzeniu, to znaczy fala jest zgodna w fazie z falami z poprzednich obiegów. W przeciwnym razie powstająca fala wypadkowa miałaby natężenie równe zeru.", "Ten warunek zgodności faz oznacza, że orbita musi na swym obwodzie mieścić całkowitą liczbę długości fal de Broglie'a", "Co w połączeniu z postulatem de Broglie'a, prowadzi do wyrażenia", "Stąd moment pędu elektronu", "Otrzymaliśmy warunek Bohra kwantyzacji momentu pędu, który jest teraz konsekwencją przyjęcia założenia, że elektron jest reprezentowany przez odpowiednią falę materii.", "Na Rys. 1 przedstawione są fale materii związaną z elektronem poruszającym się po orbicie o promieniu \\( r \\). Długość fali de Broglie’a została dobrana tak, aby orbita o promieniu \\( r \\) zawierała całkowitą liczbę \\( n \\) fal materii.", "Przedstawiony powyżej obraz sugeruje powstawanie stojących fal materii.", "Mamy do czynienia z sytuacją, w której ruch fal jest ograniczony przez nałożenie pewnych warunków fizycznych ( 1 ), analogicznie jak dla drgań struny zamocowanej na obu końcach. Przypomnijmy sobie, że mamy wtedy do czynienia z falę stojącą (a nie bieżącą), a co ważniejsze w strunie mogą występować tylko pewne długości fal. Mamy więc do czynienia z kwantyzacją długości fal, wynikającą z ograniczeń nałożonych na falę.", "Co więcej, fale stojące nie przenoszą energii (nie może ona płynąc przez węzły, jest na stałe zmagazynowana w poszczególnych punktach przestrzeni), elektron krążący po orbicie nie emituje promieniowania elektromagnetycznego, jest w stanie stacjonarnym.", "Postulat de Broglie'a wiążący elektron ze stojąca falą materii przyniósł zadawalające uzasadnienie reguł kwantowania Bohra i stworzył fundament współczesnej teorii opisu stanów atomowych.", "Sam jednak nie był wystarczający, bo miedzy innymi nie dawał informacji o sposobie rozchodzenia się fal materii. Nie odpowiadał na pytanie jaką postać może mieć funkcja opisująca fale materii - funkcja falowa, jak ją wyznaczyć oraz jaka jest jej interpretacja.", "Problem ten został wyjaśniony przez Heisenberga i Schrödingera, którzy zaproponowali nowy sposób opisu świata mikrocząstek - mechanikę kwantową."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 348, "subject": "Funkcja falowa", "paragraphs": ["W 1926 roku E. Schrödinger sformułował mechanikę falową (jedno ze sformułowań fizyki kwantowej) zajmującą się opisem falowych własności materii. Według tej teorii, elektron w stanie stacjonarnym w atomie może być opisany za pomocą stojących fal materii, przy czym podstawę stanowi związek de Broglie'a \\( p = h/\\lambda \\) wiążący własności cząsteczkowe z falowymi.", "Teoria ta określa prawa ruchu falowego cząstek w dowolnym układzie mikroskopowym. Formułuje równanie opisujące zachowanie się funkcji falowej (funkcja opisująca fale materii) dla takiego układu i określa związek pomiędzy zachowaniem się cząstek, a zachowaniem funkcji falowej opisującej cząstki. Teoria Schrödingera stanowi uogólnienie hipotezy de Broglie'a.", "Do pełnego opisu własności falowych cząstek nie wystarczy przypisac im własności falowych podając długość fali be Broglie'a, należy posłużyć się funkcją reprezentującą falę de Broglie'a, tak zwaną funkcją falową \\( \\psi \\).", "Przypomnijmy, że dla fal w strunie zaburzenie opisywaliśmy za pomocą równania fali opisującego poprzeczne wychylenie y struny (zob. moduł Rozchodzenie się fal w przestrzeni ), a dla fal elektromagnetycznych poprzez równanie opisujące wektor natężenia pola elektrycznego \\( E \\) (zob. moduł Natężenie światła w doświadczeniu Younga ). Analogiczną miarą dla fal materii jest właśnie funkcja falowa \\( \\psi \\).", "Najogólniej, jest to funkcja współrzędnych przestrzennych i czasu \\( \\psi(x,y,z,t) \\). Na przykład dla swobodnej cząstki poruszającej się w kierunku osi \\( x \\) można ją zapisać w postaci prostej funkcji sinusoidalnej o amplitudzie \\( A \\)", "Zauważmy, że wyrażenie to jest identyczne jak wzór Rozchodzenie się fal w przestrzeni-( 4 ) opisujący rozchodzenie się (w kierunku \\( x \\)) fali harmonicznej wzdłuż długiego naprężonego sznura.", "O ile jednak znamy fizyczne znaczenie funkcji opisującej zaburzenie falowe dla struny czy fali elektromagnetycznej to pozostaje odpowiedzieć na pytanie jaki jest związek pomiędzy funkcją falową, a opisywanym przez nią elektronem (cząstką), pozostaje wyjaśnić z czym wiąże się funkcja \\( \\psi \\).", "Jako pierwszy fizyczną interpretację funkcji falowej zaproponował M. Born.", "Ponieważ funkcja falowa może przyjmować wartości zespolone to uwzględniamy kwadrat modułu funkcji falowej.", "Ta interpretacja funkcji \\( \\psi \\) daje statystyczny związek pomiędzy falą i związaną z nią cząstką. Nie mówimy gdzie cząstka jest ale gdzie prawdopodobnie się znajdzie.", "Jeżeli w jakiejś chwili \\( t \\), dokonamy pomiaru mającego na celu ustalenie położenia cząstki opisywanej funkcją falowa \\( \\psi(x,t) \\) to prawdopodobieństwo, że znajdziemy cząstkę w przedziale \\( x-dx \\) wynosi \\( {|\\psi(x,t)|^{{2}}\\mathit{dx}} \\). Wielkość \\( {|\\psi |^{{2}}} \\) jest więc miarą gęstością prawdopodobieństwa.", "Ponieważ ruch cząstki jest opisywany stowarzyszoną z nią falą materii, to oczekujemy, że w miejscu przebywania cząstki fala materii ma dużą amplitudę. Natomiast gdy amplituda fali materii jest równa zeru w pewnych punktach przestrzeni to prawdopodobieństwo znalezienia cząstki w tym miejscu jest zaniedbywalnie małe."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 349, "subject": "Zasada nieoznaczoności", "paragraphs": ["Zauważmy, że jedną z konsekwencji falowo-cząsteczkowej natury materii jest to, że jedyne czego możemy dowiedzieć się o ruchu elektronów to prawdopodobieństwo znalezienia ich w przestrzeni. Powstaje pytanie czy musimy zadowolić się taką informacją czy też jest możliwy pomiar, który da nam odpowiedź na przykład na temat ewentualnych orbit po których poruszają się elektrony. Czy możemy \"dokładnie\" opisać ruch elektronu to znaczy równocześnie określić jego położenie i prędkość?", "Negatywna odpowiedź na to pytanie jest zawarta w zasadzie nieoznaczoności Heisenberga. Pierwsza część tej zasady dotyczy jednoczesnego pomiaru położenia i pędu.", "Zauważmy, że im dokładniej mierzymy pęd, np. zmniejszamy \\( \\Delta p_{x} \\), tym bardziej rośnie nieoznaczoność położenia \\( \\Delta x \\).", "Druga część zasady nieoznaczoności dotyczy pomiaru energii i czasu potrzebnego na wykonanie tego pomiaru.", "Na szczególne podkreślenie zasługuje fakt, że ograniczenie dokładności pomiarów nie ma nic wspólnego z wadami i niedokładnościami aparatury pomiarowej lecz jest wynikiem falowej natury cząstek. Tak małe obiekty jak cząstki elementarne czy atomy nie podlegają prawom mechaniki klasycznej, ale prawom mechaniki kwantowej.", "Sama zasada stanowi podstawę stwierdzenia, że w fizyce kwantowej musimy posługiwać się pojęciem prawdopodobieństwa.", "Zauważmy, na przykład, że określenie położenia przedmiotów opiera się na rejestrowaniu światła odbitego przez te przedmioty. Po prostu widzimy gdzie są przedmioty. Światło w „zderzeniu” z przedmiotami o dużej masie praktycznie nie zaburza ich ruchu, ale całkiem inną sytuację mamy w przypadku elektronów. Tutaj też moglibyśmy się spodziewać, że zobaczymy elektron gdy odbije się od niego światło. Jednak elektron w zderzeniu z fotonem doznaje odrzutu, który całkowicie zmienia jego ruch (zob. moduł Efekt Comptona ). Tej zmiany ruchu elektronu nie można uniknąć ani dokładnie ocenić. Gdyby więc elektron poruszał się po ściśle określonym torze to znaczy istniałyby orbity to byłyby one całkowicie niszczone przy próbie pomiarów mających potwierdzić ich istnienie. Dlatego właśnie mówimy o prawdopodobieństwie znalezienia elektronu a nie o określonych orbitach.", "Więcej o zasadzie nieoznaczoności możesz przeczytać w module Dodatek: Zasada nieoznaczoności w pomiarach."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 350, "subject": "Teoria Schroedingera atomu wodoru", "paragraphs": ["Znajomość ścisłej postaci funkcji falowej jest niezbędna do określenia ruchu cząstek w konkretnych przypadkach (zjawiskach fizycznych). Przykładem może być funkcja falowa \\( \\psi \\), opisująca ruch cząstki swobodnej, która została przedstawiona w module Funkcja falowa.", "Taką ścisłą postać funkcji falowej dla dowolnego układu można znaleźć, rozwiązując równanie Schrödingera. Jest to równanie różniczkowe opisujące zachowanie się układu kwantowego w czasie i przestrzeni, które w szczególności przyjmuje postać", "gdzie \\( E \\) jest energią całkowitą cząstki, \\( U(x) \\) jej energią potencjalną zależną od jej położenia, a \\( {\\hbar =h/{2\\pi}} \\). Zależność ( 1 ) przedstawia najprostszą formę równania Schrödingera to jest równanie w jednym wymiarze i niezależne od czasu.", "Rozwiązanie równania Schrödingera polega na znalezieniu postaci funkcji falowej \\( \\psi \\) i wartości energii cząstki \\( E \\) przy znanej działającej na cząstkę sile zadanej poprzez energię potencjalną \\( U \\).", "Omówimy teraz zastosowanie teorii Schrödingera do atomu wodoru. Ten przypadek ma szczególne znaczenie, gdyż był to pierwszy układ, do którego Schrödinger zastosował swoją teorię kwantową i który stanowił pierwszą jej weryfikację.", "Ponieważ atom wodoru jest układem trójwymiarowym równanie Schrödingera dla atomu wodoru ma bardziej skomplikowaną postać niż podane wcześniej równanie ( 1 )", "Zgodnie z równaniem energia potencjalna dwóch ładunków punktowych (elektronu i protonu) znajdujących się w odległości \\( r \\) jest dana wyrażeniem", "Równanie Schrödingera ( 2 ) rozwiązuje się zazwyczaj we współrzędnych sferycznych \\( (r, \\theta, \\phi) \\) (zob. Rys. 1 ) bo energia potencjalna oddziaływania elektronu z jądrem (równanie ( 3 ) ) zapisana we współrzędnych sferycznych jest funkcją tylko jednej zmiennej ( \\( r \\)) podczas gdy we współrzędnych prostokątnych funkcją wszystkich trzech współrzędnych \\( (x,y,z) \\).", "Rozwiązanie równania Schrödingera w trzech wymiarach jest problem trudnym matematycznie między innymi ze względu na obliczenia w trzech wymiarach. Dlatego nie będziemy go rozwiązywać, a jedynie omówimy wybrane rozwiązania tego równania dla atomu wodoru."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 351, "subject": "Orbitale i funkcje falowe elektronów w atomie wodoru", "paragraphs": ["Okazuje się, że we współrzędnych sferycznych można funkcję falową przedstawić najogólniej jako iloczyn dwóch funkcji: funkcji radialnej \\( R(r) \\) zależnej tylko od promienia \\( r \\) oraz funkcji kątowej \\( Y \\)( \\( \\theta \\), \\( \\phi \\)) zależnej tylko od kątów.", "Rozwiązując równanie Schrödingera dla atomu wodoru stwierdzamy, że funkcja falowa elektronu zależy od trzech liczb całkowitych - iczb kwantowych:", "Przypomnijmy, że w dotychczas prezentowanych modelach atomu wodoru, zarówno energia elektronu jak i długość stojącej fali materii stowarzyszonej z elektronem zależały od jednej liczby kwantowej \\( n \\).", "Tak jest w przypadku ruchu w jednym wymiarze. Jednak trójwymiarowa funkcja falowa zależy od trzech liczb kwantowych co wynika z faktu, że ruch cząstki w przestrzeni jest opisany przez trzy niezależne zmienne; na każdą współrzędną przestrzenną przypada jedna liczba kwantowa.", "Te trzy liczby kwantowe oznaczane \\( n \\), \\( l \\), \\( m_{l} \\) spełniają następujące warunki:", "Ze względu na rolę jaką odgrywa liczba \\( n \\) w określeniu energii całkowitej atomu, jest nazywana główną liczbą kwantową. Liczba \\( l \\) nosi nazwę azymutalnej liczby kwantowej, a liczba \\( m_{l} \\) magnetyczną liczbą kwantową.", "Równania Schrödingera ma poprawne fizycznie rozwiązania tylko dla liczb kwantowych spełniających warunki ( 2 ).", "Z tych warunków widać, że dla danej wartości \\( n \\) (danej energii) istnieje na ogół kilka różnych możliwych wartości \\( l \\), \\( m_{l} \\).", "Zgodnie z interpretację Borna związek pomiędzy falą materii i związaną z nią cząstką wyraża się poprzez kwadrat modułu funkcji falowej \\( {|\\psi |^{{2}}} \\), który wyraża gęstość prawdopodobieństwa znalezienia cząstki w danym punkcie przestrzeni", "Na Rys. 1 pokazane są (dla kilku stanów kwantowych) wykresy radialnej gęstości prawdopodobieństwa, danej wyrażeniem", "(Czynnik \\( r^{2} \\) w powyższym równaniu wynika stąd, że prawdopodobieństwo znalezienia elektronu w obszarze pomiędzy \\( r \\) i \\( r+dr \\), w trzech wymiarach, jest proporcjonalne do elementarnej objętości \\( r^{2}dr \\).).", "Na Rys. 1 na osi x odłożona jest odległość elektronu od jądra \\( r \\) podzielona przez promień pierwszej orbity Bohra \\( r_{1} \\), natomiast na osi \\( y \\) przyjęto jednostki umowne.", "Maksima gęstości prawdopodobieństwa, zaznaczone linią przerywaną, odpowiadają promieniom orbit w modelu Bohra dla \\( n \\) =1, 2, 3 ( \\( r_{n} = r_{1}n^{2} \\)).", "Kątową gęstość prawdopodobieństwa \\( {|Y_{{l,\\;m_{{l}}}}(\\theta,\\phi )|^{2}} \\) też można przedstawić graficznie w postaci tak zwanych wykresów biegunowych.", "Na Rys. 2 pokazane są wykresy biegunowe gęstości prawdopodobieństwa dla kilku stanów kwantowych atomu wodoru.", "Początek takiego wykresu umieszczamy w punkcie \\( r = 0 \\) (jądro), a kąt \\( \\theta \\) mierzymy od osi pionowej ( \\( z \\)). Dla danej wartości kąta \\( \\theta \\) punkt wykresu leży w odległości (mierzonej pod kątem \\( \\theta \\)) równej \\( {|Y_{{l,\\;m_{{l}}}}(\\theta ,\\phi )|^{2}} \\) od początku układu tak jak to zaznaczono na jednym z wykresów.", "Obraz przestrzenny otrzymujemy przez obrót wykresów biegunowych wokół pionowej osi (układ jest symetryczny ze względu na kąt \\( \\phi \\)).", "Kątowe rozkłady prawdopodobieństwa (takie jak na Rys. 2 ) noszą nazwę orbitali. Do oznaczenia orbitali stosuje się litery: \\( l = 0 \\) - orbital s, \\( l = 1 \\) - orbital p, \\( l = 2 \\) - orbital d, \\( l = 3 \\) - orbital f, itd.", "Orbitale można traktować jako rozkłady ładunku elektronu wokół jądra. Gdy mówimy, że jądro atomowe jest otoczone chmurą elektronową mamy właśnie na myśli orbitale."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 352, "subject": "Energia elektronu w atomie wodoru", "paragraphs": ["Rozwiązanie równania Schrödingera dla atomu wodoru dostarcza oprócz funkcji falowych również wartości energii elektronu związanego w atomie. Te energie wyrażają się wzorem", "Otrzymane wartości są identyczne z przewidywaniami modelu Bohra i wartościami obserwowalnymi doświadczalnie. Wynik ten stanowił pierwszą weryfikację teorii Schrödingera.", "Teoria Schrödingera atomu jednoelektronowego ma ogromne znaczenie, ponieważ podając obraz struktury atomu, stworzyła podstawy kwantowego opisu wszystkich atomów wieloelektronowych, cząsteczek oraz jąder atomowych.", "Opis falowy mikroświata jest już dzisiaj dobrze ugruntowaną teorią, a rozwój technik eksperymentalnych takich jak na przykład skaningowy mikroskop tunelowy pozwala na prowadzenie badań w świecie atomów."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 355, "subject": "Orbitalny moment pędu i spin elektronu", "paragraphs": ["Pokażemy teraz w jaki sposób mechanika kwantowa pozwala zrozumieć strukturę atomów wieloelektronowych, wyjaśniając między innymi dlaczego w atomie znajdującym się w stanie podstawowym wszystkie elektrony nie są związane na najbardziej wewnętrznej powłoce (orbicie). Fizyka klasyczna nie wyjaśnia tego problemu; dopiero mechanika kwantowa przyniosła podstawy teoretyczne, na gruncie których można przewidzieć własności pierwiastków.", "Rozwiązując równanie Schrödingera dla atomu wodoru, stwierdziliśmy, że funkcja falowa elektronu zależy od trzech liczb kwantowych \\( n \\), \\( l \\), \\( m_{l} \\), przy czym stwierdziliśmy, że główna liczba kwantową \\( n \\) jest związana z kwantowaniem energii całkowitej elektronu w atomie wodoru.", "Okazuje się, że liczby kwantowe \\( l \\), \\( m_{l} \\) opisują z kolei kwantowanie przestrzenne momentu pędu elektronu.", "Zgodnie z zasadami mechaniki klasycznej moment pędu elektronu krążącego wokół jądra w odległości \\( r \\) jest dany wyrażeniem", "Jednak z zasady nieoznaczoności wynika, że nie można jednocześnie w dokładny sposób wyznaczyć położenia i pędu elektronu więc nie można też dokładnie wyznaczyć momentu pędu.", "Okazuje się, że dla elektronu krążącego wokół jądra można dokładnie wyznaczyć jego wartość (długość wektora \\( L \\)) oraz rzut wektora \\( L \\) na pewną wyróżnioną oś w przestrzeni (na przykład oś \\( z \\)) to znaczy wartość jednej jego składowej \\( L_{z} \\). Pozostałe składowe \\( L_{x} \\) i \\( L_{y} \\) mają wartości nieokreślone. Wartości \\( L \\) oraz \\( L_{z} \\) są skwantowane", "gdzie \\( l \\) = 0, 1, 2, ...; \\( m_{l} \\) = 0, ±1, ±2, ±3, ...., ± \\( l \\).", "Podsumowując", "Na podstawie badania widm optycznych atomów wodoru i metali alkalicznych oraz doświadczeń nad oddziaływaniem momentów magnetycznych atomów z polem magnetycznym (doświadczenie Sterna-Gerlacha) odkryto, że wszystkie elektrony mają, oprócz orbitalnego, również wewnętrzny moment pędu, który został nazwany spinowym momentem pędu (spinem). Okazało się, że elektron zachowuje się tak, jakby był kulką wirującą wokół pewnej osi obrotu (analogicznie jak Ziemia obiegająca Słońce i obracająca się wokół swej osi).", "Okazuje się ponadto, że spin jest skwantowany przestrzennie i że dla danego stanu orbitalnego są możliwe dwa kierunki spinu czyli, że rzut wektora spinu na oś \\( z \\) może przyjmować tylko dwie wartości co określa spinowa liczba kwantowa \\( s \\), która może przyjmować dwie wartości \\( s \\) = ± ½.", "Moment pędu atomu jest sumą momentów pędów orbitalnych i spinów wszystkich elektronów w atomie i jest też skwantowany przestrzennie."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 356, "subject": "Zakaz Pauliego", "paragraphs": ["W 1869 r. Mendelejew jako pierwszy zauważył, że większość własności pierwiastków chemicznych jest okresową funkcją liczby atomowe \\( Z \\), określającej liczbę elektronów w atomie, co najlepiej uwidacznia się w odpowiednio skonstruowanym układzie okresowym pierwiastków. Właściwości chemiczne i fizyczne pierwiastków powtarzają się jeżeli zebrać je w grupy zawierające 2, 8, 8, 18, 18, 32 elementów.", "W 1925 r. Pauli podał prostą zasadę (nazywaną zakazem Pauliego), dzięki której automatycznie są generowane grupy o liczebności 2, 8, 18, 32. Pauli zapostulował, że", "Ponieważ stan kwantowy charakteryzuje zespół czterech liczb kwantowych", "więc zasada Pauliego może być sformułowana następująco", "Na zakończenie warto dodać, że na podstawie danych doświadczalnych stwierdzono, że zasada (zakaz) Pauliego obowiązuje dla każdego układu zawierającego elektrony, nie tylko dla elektronów w atomach."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 357, "subject": "Układ okresowy pierwiastków", "paragraphs": ["Posługując się zasadą Pauliego można określić jakie stany w atomie są obsadzane elektronami. Skorzystamy z niej, żeby rozpatrzyć przewidywaną przez teorię kwantową strukturę niektórych pierwiastków.", "Wprowadźmy do opisu konfiguracji następującą konwencję: numer powłoki ( \\( n \\)) piszemy cyfrą, natomiast podpowłoki (orbitale): \\( l \\) = 0, 1, 2, 3, oznaczmy literami s, p, d, f itd. Wskaźnik górny przy symbolu podpowłoki określa liczbę znajdujących się w niej elektronów, a wskaźnik dolny przy symbolu chemicznym pierwiastka określa wartość Z.", "Jako pierwszy rozpatrzymy atom helu ( \\( Z \\) = 2) \\( \\rightarrow_{2} \\)He :1s \\( ^{2} \\).", "Najpierw przeanalizujemy zjonizowany atom He \\( ^{+} \\). Jest to układ jedoelektronowy podobny do atomu wodoru, a różnica polega tylko na tym, że w jądrze helu znajdują się dwa ( \\( Z \\) = 2) protony. W związku z tym energia takiego jonu jest dana wzorem analogicznym jak dla atomu wodoru", "a czynniki Z \\( ^{2} \\) jest związany z różnicą ładunku jądra.", "Jeżeli teraz dodamy drugi elektron na powłokę \\( n \\) = 1, to każdy z elektronów będzie oddziaływał nie tylko z jądrem, ale i z drugim elektronem; będzie się poruszał w wypadkowym polu elektrycznym jądra (przyciąganie) i elektronu (odpychanie). Jeżeli elektron znajduje się blisko jądra (bliżej niż drugi elektron) to porusza się w polu kulombowskim jądra \\( Z \\) = 2, a jeżeli znajduje się dalej to wówczas oddziałuje z ładunkiem jądra \\( Z \\) i ładunkiem drugiego elektronu czyli porusza się w polu ładunku jądra pomniejszonego o ładunek drugiego elektronu \\( Z \\) -1. Mówimy, że elektron ekranuje ładunek jądra. Średnia arytmetyczna tych dwóch wartości daje efektywną wartość \\( Z_{ef} \\) = 1.5 odpowiadającą wypadkowemu ładunkowi, jaki „czują” elektrony w atomie helu. Możemy więc uogólnić wzór ( 1 ) do postaci", "Na podstawie tak oszacowanego ładunku efektywnego otrzymujemy energię jonizacji czyli energię oderwania jednego elektronu równą \\( E_{jonizacji} = - 13.6 (1.5)^2/1^2 eV ≈ 30eV \\).", "W rzeczywistości elektrony nie tylko ekranują ładunek jądra, ale też odpychają się nawzajem (dodatnia energia potencjalna), więc energia wiązania jest mniejsza. Zmierzona energia jonizacji helu wynosi 24.6 eV (co odpowiada \\( Z_{ef} \\) = 1.35).", "Jest to największa energia jonizacji spośród wszystkich pierwiastków i siły chemiczne nie mogą dostarczyć takiej energii jaka jest potrzebnej do utworzenia jonu He \\( ^{+} \\). Również utworzenie jonu He \\( ^{-} \\) jest niemożliwe, bo powłoka \\( n \\) = 1 jest już 'zapełniona' i dodatkowy elektron obsadzałby powłokę \\( n \\) = 2 znacznie bardziej oddaloną od jądra. Ładunek efektywny widziany przez ten elektron będzie więc równy zeru i nie działa żadna siła, mogąca utrzymać ten elektron.", "W rezultacie hel jest chemicznie obojętny, nie tworzy cząsteczek z żadnym pierwiastkiem. Podobnie zachowują się atomy innych pierwiastków o całkowicie wypełnionych powłokach. Nazywamy je gazami szlachetnymi.", "Jako kolejny omówimy atom litu ( \\( Z \\) = 3) \\( \\rightarrow_{3} \\)Li :1s \\( ^{2} \\)2s \\( ^{1} \\).", "Zgodnie z zasadą Pauliego dwa elektrony znajdują się w stanie \\( n \\) = 1, a trzeci elektron na powłoce \\( n \\) = 2. Zmierzona wartość energii jonizacji litu wynosi 5.4 eV (co odpowiada \\( Z_{ef} \\) = 1.25).", "Taki jednokrotnie zjonizowany atom litu jest podobny do atomu helu z tą różnicą, że ze względu na ładunek jądra ( \\( Z \\) = 3) \\( Z_{ef} \\) = 2.35 (jest większe o 1 niż dla helu). Oznacza to, że oderwanie drugiego elektronu wymaga energii aż 75.6 eV. Dlatego spodziewamy się, że w związkach chemicznych lit będzie wykazywać wartościowość +1.", "Kolejnym pierwiastkiem jest beryl ( \\( Z = 4) \\rightarrow_{4} \\)Be : 1s \\( ^{2} \\)2s \\( ^{2} \\).", "Beryl jest podobny do litu bo zgodnie z zasadą Pauliego w stanie 2s \\( ^{2} \\) mogą znajdować się dwa elektrony. Dla berylu energia oderwania (jonizacji) drugiego elektronu nie jest dużo większa niż dla pierwszego i beryl w związkach chemicznych ma wartościowość +2.", "Od boru ( \\( Z \\) = 5) do neonu ( \\( Z \\) = 10):", "W tych sześciu pierwiastkach elektrony zapełniają podpowłokę 2p (n = 2, l = 1)", "Wśród tych pierwiastków na uwagę zasługują fluor i tlen, którym do zapełnienia orbity p brakuje odpowiednio jednego i dwóch elektronów. Te 'wolne' miejsca są stanami o niskiej energii i dlatego pierwiastki te wykazują silną tendencję do przyłączenia dodatkowych elektronów tworząc trwałe jony Fl \\( ^{-} \\) i O \\( ^{--} \\). To zjawisko jest zwane powinowactwem elektronowym. Fluor i tlen są więc aktywnymi pierwiastkami chemicznymi.", "Kontynuując powyższy schemat można napisać konfigurację elektronową dowolnego atomu. Okazuje się jednak, że w niektórych przypadkach przewidywane konfiguracje nie pokrywają się z obserwowanymi. Wnioskujemy, że różnice energii pomiędzy niektórymi podpowłokami muszą być tak małe, że w pewnych wypadkach może zostać odwrócona kolejność ich zapełniania. Można to zobaczyć na Rys. 1. Krzywe kończą się na \\( Z \\) = 80 (rtęć). Uwaga: skala energii nie jest liniowa.", "Zwróćmy uwagę, że każda podpowłoka p ma wyższą energię od poprzedzającej ją powłoki s. Natomiast różnice energii pomiędzy każdą podpowłoką s i poprzedzającą ją powłoką p są szczególnie duże. W konsekwencji wzbudzenie elektronu w atomach pierwiastków, w których zakończyło się właśnie zapełnianie powłoki p jest bardzo trudne (gazy szlachetne).", "W ten sposób na gruncie mechaniki kwantowej można przeanalizować własności wszystkich pierwiastków."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 358, "subject": "Promienie X", "paragraphs": ["Na Rys. 1 pokazana jest lampa rentgenowska.", "Elektrony emitowane z katody są przyspieszane przez wysokie napięcie rzędu 10 \\( ^{4} \\) V (przyłożone pomiędzy katodą i anodą) i uderzają w anodę (tarczę). W anodzie elektrony są hamowane aż do ich całkowitego zatrzymania.", "Zgodnie z fizyką klasyczną, w wyniku tego hamowania powinna nastąpić emisja promieniowania elektromagnetycznego o widmie ciągłym ponieważ ładunek doznaje przyspieszenia (opóźnienia).", "Przykładowy rozkład widmowy rentgenowski otrzymany dla wolframu jest pokazany na Rys. 2.", "Najbardziej charakterystycznymi cechami obserwowanych rozkładów widmowych promieniowania X są:", "Istnienie krótkofalowej granicy widma ciągłego promieniowania X nie może być wyjaśnione przez klasyczną teorię elektromagnetyzmu, bo nie istnieją żadne powody, aby z anody nie mogły być wysłane fale o długości mniejszej od jakiejś wartości granicznej.", "Jeżeli jednak potraktujemy promieniowanie rentgenowskie jako strumień fotonów to wyjaśnienie obserwowanego zjawiska jest proste. Elektron o początkowej energii kinetycznej \\( E_{k} \\) (uzyskanej dzięki przyspieszeniu napięciem \\( U \\)) w wyniku oddziaływania z ciężkim jądrem atomu tarczy (anody) jest hamowany i energia jaką traci pojawia się w formie kwantów (zob. Rys. 3 ).", "Energia powstającego fotonu jest dana wzorem", "gdzie \\( E_{k} \\)' jest energią elektronu po zderzeniu. Elektron w trakcie zderzenia przekazuje jądru pewną energię jednak ze względu na to, że jądra tarczy są bardzo ciężkie (w porównaniu do elektronu) możemy ją zaniedbać.", "Długość fali fotonu można obliczyć z relacji", "W wyniku zderzeń elektrony tracą różne ilości energii (typowo elektron zostaje zatrzymany w wyniku wielu zderzeń z jądrami tarczy), otrzymujemy więc szereg fotonów o różnych energiach (różnych \\( \\lambda \\)). Wobec tego promieniowanie rentgenowskie wytwarzane przez wiele elektronów będzie miało widmo ciągłe.", "Powstaje wiele fotonów o długościach od \\( \\lambda_{min} \\) do \\( \\lambda \\rightarrow \\infty \\), co odpowiada różnym energiom traconym w zderzeniach. Foton o najmniejszej długości fali \\( \\lambda_{min} \\) (zarazem maksymalnej energii) będzie emitowany wtedy, gdy elektron straci całą energię w jednym procesie zderzenia. Oznacza to, że po tym zderzeniu \\( E_{k} \\)' = 0 więc", "Ponieważ energia kinetyczna elektronu jest równa \\( eU \\) (elektron przyspieszony napięciem \\( U \\)), więc otrzymujemy związek", "skąd", "Tak więc minimalna długość fali odpowiadająca całkowitej zamianie energii kinetycznej elektronów na promieniowanie zależy jedynie od napięcia \\( U \\), a nie zależy na przykład od materiału z jakiego zrobiono tarczę.", "Podobnie na gruncie fizyki kwantowej można wyjaśnić powstawanie widma liniowego (charakterystycznego).", "Elektron z wiązki padającej przelatując przez atom anody, może wybić elektrony z różnych powłok atomowych. Na opróżnione miejsce (po wybitym elektronie) może przejść elektron z wyższych powłok. Towarzyszy temu emisja fotonu o ściśle określonej energii równej różnicy energii elektronu w stanie początkowym (przed przeskokiem) i stanie końcowym (po przeskoku). Z kolei powstało miejsce wolne, tak zwana dziura po elektronie, który przeskoczył na niższą powłokę. Miejsce to może być zapełnione przez kolejny elektron z wyższej powłoki, itd.", "Zazwyczaj proces powrotu atomu do stanu podstawowego składa się więc z kilku kroków przy czym każdemu towarzyszy emisja fotonu. W ten sposób powstaje widmo liniowe.", "Częstotliwość (długość fali) promieniowania charakterystycznego możemy obliczyć, korzystając ze wzoru analogicznego do wyrażenia Stany energetyczne i widmo atomowe wodoru-( 2 ), który podaliśmy dla atomu wodoru", "gdzie \\( R \\) jest stałą Rydberga. We wzorze tym uwzględniono fakt, że w atomie wieloelektronowym elektron jest przyciągany przez jądro o ładunku \\( +Ze \\), a równocześnie obecność innych elektronów osłabia to oddziaływanie. Efekt ten nazywamy ekranowaniem jądra i uwzględniamy go poprzez wprowadzenie stałej ekranowania \\( a \\).", "Widzimy, że częstotliwość promieniowania charakterystycznego jest proporcjonalna do kwadratu liczby atomowej \\( Z \\) więc jest charakterystyczna dla atomów pierwiastka anody. Ta zależność jest nazywana prawem Moseleya. Możemy się nią posłużyć przy analizie liniowych widm rentgenowskich w celu identyfikacji pierwiastków lub ich zawartości w badanym materiale."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 359, "subject": "Spontaniczna i wymuszona emisja fotonów", "paragraphs": ["Omówimy teraz przykład wykorzystania zjawisk kwantowych w praktyce. Przedstawimy kwantowy generator światła nazwany laserem. Urządzenie to znalazło bardzo szerokie zastosowanie min. w telekomunikacji, badaniach naukowych, technologii obróbki metali i medycynie.", "Zgodnie z postulatem Bohra, promieniowanie elektromagnetyczne zostaje wysłane tylko wtedy gdy elektron poruszający się po orbicie o całkowitej energii \\( E_{k} \\) zmienia swój ruch skokowo, tak że porusza się następnie po orbicie o energii \\( E_{j} \\). Mówimy, że cząstka (elektron) przechodzi ze stanu wzbudzonego (o wyższej energii) do stanu podstawowego. Takiemu samoistnemu przejściu towarzyszy emisja fotonu o częstotliwości", "Zjawisko takie jest nazywane emisją spontaniczną.", "Jeżeli różnica energii wynosi kilka elektronowoltów (na przykład tak jak w atomie wodoru, gdzie \\( E_{1} \\) = -13.6 eV) to czas charakterystyczny dla procesu emisji spontanicznej ma wartość rzędu 10 \\( ^{-8} \\) s.", "Oczywiście atomy (cząsteczki) nie tylko emitują ale i absorbują promieniowanie o ściśle określonych częstotliwościach (długościach fali). Ponieważ elektron w atomie ma energię całkowitą równą jednej z energii dozwolonych (stan stacjonarny) więc z padającego promieniowania absorbuje tylko określone kwanty energii przechodząc ze stanu podstawowego do wzbudzonego. Energia absorbowanych kwantów \\( h\\nu \\) jest dokładnie równa różnicy pomiędzy energiami dozwolonych stanów.", "Teoria kwantowa przewiduje także, że oprócz emisji spontanicznej oraz procesów absorpcji może wystąpić także inny proces, nazywany emisją wymuszoną.", "Przypuśćmy, że atom znajduje się w stanie wzbudzonym \\( E_{k} \\) i może przy przejściu do stanu podstawowego \\( E_{j} \\) emitować foton o energii ( \\( E_{k} - E_{j} \\)). Jeżeli taki atom zostanie oświetlony promieniowaniem, które zawiera fotony o energii właśnie równej ( \\( E_{k} - E_{j} \\)) to prawdopodobieństwo wypromieniowania energii przez atom wzrośnie.", "Takie zjawisko przyspieszenia wypromieniowania energii przez oświetlenie atomów wzbudzonych odpowiednim promieniowaniem nazywamy właśnie emisją wymuszoną.", "Ponadto, bardzo ważne jest to, że", "Emisja wymuszona stwarza więc szansę uzyskania promieniowania spójnego.", "Procesy absorpcji, emisji spontanicznej i emisji wymuszonej pokazane są schematycznie na Rys. 1.", "Żeby przeanalizować możliwość emisji wymuszonej, musimy wiedzieć, jak atomy (cząsteczki) układu obsadzają różne stany energetyczne to znaczy musimy określić ile atomów jest w stanie podstawowym (stanie o najniższej energii), a ile w stanach wzbudzonych (o wyższych energiach)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 360, "subject": "Podstawowe informacje o rozkładzie Boltzmanna", "paragraphs": ["Szczegółowy układ fizyczny złożony z dużej liczby cząstek jest bardzo skomplikowany i dlatego podstawowe własności układu wyprowadzamy z samych rozważań statystycznych. Przykładem jest rozkład Maxwella prędkości cząsteczek gazu, który daje informację o prawdopodobieństwie znalezienia cząsteczki o prędkości z przedziału \\( v, v + dv \\). Znając funkcję rozkładu \\( N(v) \\) możemy obliczyć takie wielkości mierzalne jak ciśnienie czy temperaturę.", "Prawdopodobieństwo z jakim cząstki układu zajmują różne stany energetyczne jest również opisane przez odpowiednią funkcję rozkładu", "gdzie A jest stałą proporcjonalności, a \\( k \\) stałą Boltzmana. Jest to tak zwany rozkład Boltzmana. Więcej o rozkładzie Boltzmana możesz przeczytać w Dodatkowe informacje o rozkładzie Boltzmanna.", "Widzimy, że prawdopodobna ilość cząstek układu, w temperaturze \\( T \\), znajdujących się w stanie o energii \\( E \\) jest proporcjonalna do \\( \\exp(-E/kT) \\).", "Na Rys. 1 pokazana jest zależność \\( N(E) \\) dla trzech różnych temperatur i trzech odpowiednich wartości stałej \\( A \\)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 361, "subject": "Dodatkowe informacje o rozkładzie Boltzmanna", "paragraphs": ["Na początku rozważmy układ zawierający pewną niewielką ilość identycznych cząstek (np. cztery), których energia może przyjmować jedną z następujących wartości \\( E = 0 \\), \\( \\Delta E \\), \\( 2\\Delta E \\), \\( 3\\Delta E \\), \\( 4\\Delta E \\)...... Energia całkowita układu ma wartość \\( 3\\Delta E \\), a cząstki znajdują się w równowadze w temperaturze \\( T \\).", "By osiągnąć ten stan równowagi cząstki muszą wymieniać energię ze sobą (na przykład poprzez zderzenia). Podczas tej wymiany ich energie zmieniają się, przyjmując różne wartości.", "W ten sposób może być realizowany każdy możliwy podział energii całkowitej \\( 3\\Delta E \\) pomiędzy te cząstki. W Tabela 1 pokazane są te wszystkie możliwe podziały.", "Zwróćmy uwagę, że obliczając ilość sposobów realizacji danego podziału traktujemy jako rozróżnialny podział, który można otrzymać z danego w drodze przestawiania cząstek pomiędzy różnymi stanami. Przestawienia cząstek w tym samym stanie energetycznym nie prowadzą do nowych sposobów realizacji podziałów, bo nie można eksperymentalnie odróżnić od siebie takich samych cząstek o tej samej energii.", "Ponadto przyjmujemy, że wszystkie sposoby podziału energii mogą wydarzyć się z tym samym prawdopodobieństwem.", "Następnie obliczamy \\( N(E) \\) czyli prawdopodobną ilość cząstek w danym stanie energetycznym \\( E \\). Rozpatrzmy stan \\( E = 0 \\).", "Dla podziału \\( k = 1 \\) mamy \\( N_{1} \\) = 3 cząstki w stanie o \\( E = 0 \\), a prawdopodobieństwo, że taki podział ma miejsce wynosi \\( P_{1} \\) = 4/20.", "Dla podziału \\( k = 2 \\) mamy \\( N_{2} \\) = 2 cząstki w stanie o \\( E = 0 \\), a prawdopodobieństwo, że taki podział ma miejsce wynosi \\( P_{2} \\) = 12/20.", "Dla podziału \\( k = 3 \\) mamy \\( N_{3} \\) = 1 cząstkę w stanie o \\( E = 0 \\), a prawdopodobieństwo, że taki podział ma miejsce wynosi \\( P_{3} \\) = 4/20.", "Zatem prawdopodobna ilość cząstek w stanie \\( E = 0 \\) wynosi:", "Analogicznie obliczamy \\( N(E) \\) dla pozostałych wartości \\( E \\) (patrz ostatni wiersz Tabela 1 ).", "Zauważmy, że suma tych liczb wynosi cztery, tak że jest równa całkowitej liczbie cząstek we wszystkich stanach energetycznych. Wykres zależności \\( N(E) \\) jest pokazany na Rys. 1.", "Ciągła krzywa na rysunku jest wykresem malejącej wykładniczo funkcji \\( N(E)=\\text{Ae}^{-\\frac{E}{E_{0}}} \\).", "Możemy teraz wybierać coraz mniejsze \\( \\Delta E \\) (zwiększając ilość dozwolonych stanów) przy tej samej co poprzednio wartości całkowitej energii. Oznacza to, że będziemy dodawać coraz więcej punktów do naszego wykresu, aż w granicy gdy \\( \\Delta E \\rightarrow 0 \\) przejdziemy do funkcji ciągłej danej powyższym równaniem.", "Potrzebujemy jeszcze znaleźć wartość \\( E_{0} \\). Obliczenia te choć proste wykraczają poza ramy tego wykładu. Wystarczy więc zapamiętać, że \\( E_{0} = kT \\), toznaczy jest równa średniej energii układu cząstek w temperaturze \\( T \\). Ostatecznie więc", "Jest to rozkład Boltzmana, który mówi, że prawdopodobna ilość cząstek układu w równowadze w temperaturze \\( T \\), znajdujących się w stanie o energii \\( E \\) jest proporcjonalna do \\( \\exp(-E/kT) \\). Sposób wyboru stałej proporcjonalności A zależy od tego jaki układ rozważamy."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 386, "subject": "Laser", "paragraphs": ["Z rozkładu Boltzmana wynika, że w danej temperaturze liczba atomów w stanie podstawowym jest większa niż liczba atomów w stanach o wyższej energii. Jeżeli zatem taki układ atomów (cząsteczek) oświetlimy odpowiednim promieniowaniem to światło padające jest silnie absorbowane, a emisja wymuszona jest znikoma.", "Żeby w układzie przeważała emisja wymuszona, to w wyższym stanie energetycznym powinno znajdować się więcej atomów (cząsteczek) niż w stanie niższym. Mówimy, że rozkład musi być antyboltzmannowski.", "Taki układ można przygotować na kilka sposobów m.in. za pomocą zderzeń z innymi atomami lub za pomocą tzw. pompowania optycznego czyli wzbudzania atomów na wyższe poziomy energetyczne przez ich oświetlanie.", "Ten pierwszy sposób jest wykorzystywany w laserze helowo-neonowym. Schemat poziomów energetycznych dla takiego lasera jest pokazany na Rys. 1.", "W tym laserze atomy neonu są wzbudzane na poziom E \\( _{3} \\) w wyniku zderzeń z atomami helu. Przejście na poziom E \\( _{2} \\) zachodzi wskutek emisji wymuszonej. Następnie atomy neonu przechodzą szybko do stanu podstawowego E \\( _{1} \\) oddając energię w wyniku zderzeń ze ściankami.", "Przebieg emisji wymuszonej w laserze przedstawiony jest na Rys. 2.", "Foton wprowadzony do gazu ( Rys. 2a) wymusza emisję drugiego fotonu przez wzbudzony atom ( Rys. 2b). Przez układ poruszają się więc dalej dwa fotony, które wymuszają kolejne procesy emisji i w efekcie coraz więcej fotonów, o tej samej fazie, porusza się przez układ ( Rys. 2c).", "Jeżeli na końcach zbiornika umieścimy zwierciadła, to ten proces będzie trwał aż wszystkie atomy wypromieniują nadmiar energii. Spójna wiązka fotonów może opuścić układ jeżeli jedno z tych zwierciadeł będzie częściowo przepuszczające.", "Inny sposób „odwrócenia” rozkładu boltzmanowskiego jest wykorzystany w laserze rubinowym pokazanym na Rys. 3.", "Laser zbudowany na ciele stałym składa się z pręta wykonanego z kryształu Al \\( _{2} \\)O \\( _{3} \\), w którym jonami czynnymi są atomy domieszki np. atomy chromu. Na końcach pręta są naniesione zwierciadła odbijające. Promieniowanie 'pompujące' jest wytwarzane przez lampę błyskową umieszczoną wokół kryształu. Absorbując światło z lampy błyskowej atomy chromu przechodzą do stanu wzbudzonego.", "Od czasu uruchomienia pierwszego lasera to jest od 1960 r. technologia tych urządzeń bardzo się rozwinęła. Obecnie działają zarówno lasery impulsowe, jak i lasery o pracy ciągłej. Ośrodkami czynnymi w laserach są gazy, ciała stałe i ciecze, a zakres długości fal jest bardzo szeroki; od podczerwieni przez obszar widzialny aż do nadfioletu"], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 353, "subject": "Podsumowanie informacji o fizyce kwantowej", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 354, "subject": "Zadania z fizyki kwantowej", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 3. Elementy mechaniki kwantowej", "subject_id": 1456, "subject": "Dodatek: Zasada nieoznaczoności w pomiarach", "paragraphs": ["Aby przetestować nasze możliwości pomiarowe rozważmy wiązkę elektronów padających z prędkością \\( v_{0} \\) na szczelinę o szerokości \\( \\Delta y \\), tak jak na Rys. 1.", "Jeżeli elektron przechodzi przez szczelinę, to znamy jego położenie z dokładnością \\( \\Delta y \\). Elektrony ulegają ugięciu na szczelinie tak, że na ekranie obserwujemy obraz dyfrakcyjny. Oznacza to, że elektrony mają teraz oprócz prędkości poziomej także składową w kierunku pionowym \\( y \\) (są odchylone). Spróbujmy ocenić tę składową pionową prędkości.", "Rozpatrzmy elektron padający na ekran w miejscu pierwszego minimum dyfrakcyjnego (punkt A na Rys. 1 ). Pierwsze minimum jest dane równaniem", "a dla małego kąta \\( \\theta \\)", "Elektron dolatujący do punktu a (1-sze minimum) ma prędkość pionową \\( \\Delta v_{y} \\) taką, że", "Korzystając z obu powyższych równań, otrzymujemy", "lub", "Długość fali wiązki elektronowej jest dana przez relację de Broglie'a", "Podstawiając tę zależność do równania ( 5 ), otrzymujemy", "co można zapisać", "Jeżeli chcemy poprawić pomiar położenia \\( y \\) (zmniejszyć \\( \\Delta y \\)), to w wyniku zmniejszenia szerokości szczeliny otrzymujemy szersze widmo dyfrakcyjne (mocniejsze ugięcie). Innymi słowy, zwiększone zostało \\( \\Delta p_{y} \\).", "Otrzymany wynik zgadza się z granicą wyznaczaną przez zasadę nieoznaczoności."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 4. Elementy fizyki materii skondensowanej", "subject_id": 362, "subject": "Rodzaje kryształów", "paragraphs": ["Kiedy pierwiastek lub związek chemiczny, będący w stanie gazowym lub ciekłym, zostanie dostatecznie ochłodzony to krzepnie czyli przechodzi do stanu stałego.", "Ciała stałe dzielimy na kryształy, polikryształy i ciała bezpostaciowe. Jak już mówiliśmy w module Dyfrakcja promieni Roentgena (promieni X), atomy w krysztale ułożone są w powtarzający się regularny wzór zwany siecią krystaliczną (na Rys. 1 pokazane jest przykładowo rozmieszczenie atomów w krysztale NaCl).", "Wiele ciał stałych nie posiada jednolitej struktury krystalicznej dlatego, że są zbudowane z bardzo wielu malutkich kryształków; mówimy, że te ciała mają strukturę polikrystaliczną. Wreszcie w przyrodzie występują ciała niekrystaliczne takie, jak na przykład szkło, w których uporządkowanie atomowe nie rozciąga się na duże odległości.", "W dalszej części modułu zajmiemy się ciałami krystalicznymi. Ich klasyfikację prowadzi się zarówno według ich struktury geometrycznej, jak i według dominującego rodzaju wiązania.", "Ze względu na typy wiązań kryształy dzielimy na:", "Kryształy cząsteczkowe (molekularne) składają się ze stabilnych cząsteczek, oddziaływujących ze sobą słabymi siłami wiążącymi, tzw. siłami van der Waalsa, takimi jakie występują pomiędzy cząsteczkami w fazie gazowej.", "Oddziaływanie to jest związane z przesunięciami ładunków w cząsteczkach. Cząsteczki zachowują się jak dipole elektryczne i oddziaływanie pomiędzy dipolami stanowi siłę wiążącą kryształ.", "Ciała cząsteczkowe tworzą między innymi w stanie stałym gazy szlachetne i zwykłe gazy, takie jak tlen, azot, wodór. Energia wiązania jest słaba, rzędu 10 \\( ^{-2} \\) eV to jest 10 \\( ^{-21} \\) J. Przypomnijmy sobie, że energia cieplna cząsteczki w temperaturze pokojowej to około 300 K wynosi \\( {\\frac{3}{2}k_{{B}}T≈ 6\\cdot \\text{10}^{{-\\text{21}}}} \\)J. Ta energia ruchu termicznego jest odpowiedzialna za rozrywanie wiązań. Widać więc, z porównania jej z energią wiązania, dlaczego zestalenie kryształów cząsteczkowych zachodzi dopiero w bardzo niskich temperaturach. Na przykład temperatura zestalania wodoru wynosi 14 K (tj. -259 °C).", "Kryształy cząsteczkowe, ze względu na brak elektronów swobodnych są na ogół bardzo złymi przewodnikami ciepła i elektryczności.", "W pewnych warunkach atomy wodoru mogą tworzyć silne wiązania z atomami pierwiastków elektroujemnych, takich jak na przykład tlen czy azot. Te wiązania zwane wodorowymi odgrywają ważną rolę min. w kryształach ferroelektrycznych i w cząsteczkach kwasu DNA (dezoksyrybonukleinowego).", "Kryształy jonowe składają się z trójwymiarowego naprzemiennego ułożenia dodatnich i ujemnych jonów. Jony, ułożone jak gęsto upakowane kulki, przyciągają się siłami kulombowskimi. Przykładem takiego kryształu jest pokazany na Rys. 1 kryształ chlorku sodu (NaCl).", "Kryształy jonowe, ze względu na brak swobodnych elektronów są złymi przewodnikami elektryczności i ciepła. Ponieważ siły kulombowskie wiążące kryształy jonowe są duże więc kryształy te są zazwyczaj twarde i mają wysoką temperaturę topnienia.", "Kryształy kowalentne składają się z atomów połączonych ze sobą parami wspólnych elektronów walencyjnych to jest elektronów z najbardziej zewnętrznej powłoki. Chmura wspólnych elektronów skupiona jest pomiędzy parą atomów, więc wiązania te mają kierunek i wyznaczają ułożenie atomów w strukturze krystalicznej. Przykładami kryształów kowalentnych są diament, german, krzem.", "Kryształy kowalentne są twarde i posiadają wysoką temperaturę topnienia. Brak elektronów swobodnych powoduje, że ciała atomowe nie są dobrymi przewodnikami elektryczności i ciepła. Czasami jednak, jak w przypadku wymienionych Ge i Si są one półprzewodnikami.", "Wiązanie metaliczne można sobie wyobrazić jako graniczny przypadek wiązania kowalentnego, w którym elektrony walencyjne są wspólne dla wszystkich jonów w krysztale, a nie tylko dla sąsiednich jonów.", "Wynika to z tego, że w atomach, z których jest zbudowany kryształ metaliczny, elektrony na zewnętrznych powłokach są słabo związane i mogą zostać uwolnione z tych atomów kosztem bardzo małej energii. Te swobodne elektrony poruszają się w całym krysztale; są więc wspólne dla wszystkich jonów. Mówimy, że tworzą one gaz elektronowy wypełniający przestrzeń pomiędzy dodatnimi jonami.", "Gaz elektronowy działa na każdy jon siłą przyciągania większą od odpychania pozostałych jonów w wyniku czego tworzy się wiązanie. Ponieważ istnieje wiele nie obsadzonych stanów elektronowych (na zewnętrznych powłokach są wolne miejsca) to elektrony mogą poruszać się swobodnie w krysztale od atomu do atomu. W konsekwencji kryształy metaliczne są doskonałymi przewodnikami elektryczności i ciepła. Przykładem kryształów metalicznych są kryształy tworzone przez metale alkaliczne.", "W podsumowaniu należy zaznaczyć, że istnieją kryształy, w których wiązania muszą być interpretowane jako mieszanina opisanych powyżej głównych typów wiązań. Typ wiązania w poszczególnych kryształach wyznacza się doświadczalnie m.in. przez badanie dyfrakcji promieni X."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 4. Elementy fizyki materii skondensowanej", "subject_id": 363, "subject": "Podstawowe informacje o fizyce półprzewodników", "paragraphs": ["Przykładowymi materiałami półprzewodnikowymi są german i krzem. Są to pierwiastki z IV grupy układu okresowego, mają po cztery elektrony walencyjne. Elektrony te biorą udział w wiązaniach atomowych z czterema innymi atomami. Pary wspólnych elektronów walencyjnych zaznaczono na Rys. 1 podwójnymi liniami.", "Ponieważ wszystkie elektrony walencyjne biorą udział w wiązaniach więc brak jest elektronów swobodnych.", "Istnieje jednak możliwość wzbudzenia, na przykład termicznie, elektronu walencyjnego, tak że stanie się on swobodnym elektronem przewodnictwa. Powstaje wtedy w powłoce walencyjnej puste miejsce po elektronie nazywane dziurą. Na Rys. 1 zaznaczono symbolicznie tę sytuację.", "W obecności zewnętrznego pola elektrycznego inny elektron walencyjny, sąsiadujący z dziurą może zająć jej miejsce, pozostawiając po sobie nową dziurę, która zostanie zapełniona przez kolejny elektron, itd. Zatem dziura w polu elektrycznym przemieszcza się w kierunku przeciwnym niż elektron i zachowuje jak nośnik ładunku dodatniego (dodatni elektron). Liczba dziur jest równa liczbie elektronów przewodnictwa. Takie półprzewodniki nazywamy samoistnymi.", "Jeżeli w trakcie wzrostu kryształów do krzemu dodamy na przykład niewielką ilość arsenu (grupa V układu okresowego) to arsen wbudowuje się w strukturę krzemu, wykorzystując cztery spośród pięciu elektronów walencyjnych. Piąty elektron walencyjny arsenu nie bierze udziału w wiązaniu i łatwo staje się elektronem przewodnictwa poprzez dostarczenie mu niewielkiej ilości energii (np. cieplnej). Dzięki temu mamy prawie tyle elektronów przewodnictwa, ile jest atomów domieszki. Zauważmy, że w tym wypadku nie powstaje dziura po oderwanym elektronie, bo wszystkie wiązania atomowe są wypełnione. Oczywiście możemy, tak jak w półprzewodniku samoistnym, wzbudzić elektrony walencyjne krzemu i wytworzyć dziury, ale pod warunkiem dostarczenia znacznie większej energii. Taki półprzewodnik nazywany jest półprzewodnikiem typu n (negative - ujemny), bo atom domieszki oddaje elektron.", "Krzem można też domieszkować pierwiastkiem z III grupy układu okresowego na przykład galem. Ponieważ atom galu ma tylko trzy elektrony walencyjne, to ma tendencję do wychwytywania elektronu z sąsiedniego atomu krzemu, aby uzupełnić cztery wiązania kowalencyjne. Zatem atom galu wprowadza do systemu dziurę i mamy półprzewodnik typu p (positive - dodatni)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 4. Elementy fizyki materii skondensowanej", "subject_id": 364, "subject": "Zastosowania półprzewodników", "paragraphs": ["Właściwości materiałów półprzewodnikowych omówione w module Podstawowe informacje o fizyce półprzewodników, przyczyniły sie do niezwykłej popularności takich materiałów w stosowanej dziś technice. Przykłady niektórych zastosowań półprzewodników omawiamy w tym module.", "W miarę wzrostu temperatury obserwujemy szybki wzrost przewodności półprzewodników związany z termicznym wzbudzeniami elektronów walencyjnych, które stają się elektronami przewodnictwa.", "Przykładowo, przewodność czystego krzemu zwiększa się aż dwukrotnie przy wzroście temperatury od 0° C do 10° C. Dlatego czysty krzem może być stosowany w czułych miernikach temperatury. Taki przyrząd półprzewodnikowy do pomiaru temperatury jest nazywany termistorem.", "Jeżeli półprzewodniki typu n i typu p zostaną ze sobą zetknięte to część elektronów z obszaru typu n (nadmiar elektronów) będzie przepływała do obszaru typu p, a dziury będą przepływały z obszaru typu p (nadmiar dziur) do obszaru typu n. W wyniku tego obszar p naładuje się ujemnie, a obszar typu n dodatnio. Powstaje kontaktowa różnica potencjałów pokazana na Rys. 1.", "Jeżeli do takiego złącza p - n przyłożymy zewnętrzny potencjał to wielkość prądu płynącego przez złącze zależy od kierunku i wartości tego napięcia. Jeżeli przyłożymy potencjał dodatni \\( V \\) (napięcie przewodzenia) do półprzewodnika typu p to zmniejszymy różnicę potencjału na złączu p - n (do wartości \\( V – V_{0} \\)). Przez złącze popłynie wówczas duży prąd tak jak pokazano na Rys. 2. Natomiast przyłożenie ujemnego potencjału (napięcie zaporowe) do obszaru typu p powiększa różnicę potencjałów na złączu (do wartości \\( V + V_{0} \\)) i wartość prądu przez złącze jest bardzo mała (praktycznie równa zeru).", "To urządzenie jest nazywane diodą p - n. Zauważmy, że ta dioda nie spełnia prawa Ohma. Natężenie płynącego prądu nie jest wprost proporcjonalne do przyłożonego napięcia jak w przypadku metali. Mówimy, że dioda jest elementem nieliniowym. Jednym z jej zastosowań są detektory radioodbiorników o modulacji amplitudowej.", "Jeżeli oświetlimy obszar przejściowy złącza p - n to elektron walencyjny pochłaniając foton zostanie wzbudzony do stanu przewodnictwa (tak samo jak energią cieplną). Pochłonięty foton kreuje parę elektron - dziura. Powstałe dziury są wciągane do obszaru p, a elektrony do obszaru n. W obwodzie zawierającym złącze p - n płynie prąd. W ten sposób można zamienić energię światła bezpośrednio na energię elektryczną.", "Urządzeniem, którego współcześnie spowodowało prawdziwą rewolucję techniczną jest niewątpliwie tranzystor. Schemat tranzystora pnp jest pokazany na Rys. 3a, a rozkład potencjału wewnątrz tranzystora na Rys. 3b.", "Jak widać tranzystor jest diodą, do której dołączono dodatkowy obszar p (kolektor). Do „diody” jest przyłożone napięcie w kierunku przewodzenia więc płynie duży prąd (dziurowy) z emitera do bazy.", "Baza jest na tyle cienka, że większość dziur przechodzi (dyfunduje) do kolektora, a tylko niewielka część (około \\( 1\\% \\)) wypływa z bazy ( \\( I_{be} \\)). Pozostały prąd ( \\( 99\\% \\)) wypływa przez kolektor. Jak widać na Rys. 3b kolektor jest na bardziej ujemnym potencjale niż baza aby dodatnie dziury łatwiej mogły do niego przechodzić.", "Stosunek prądu kolektora do prądu bazy \\( {\\beta =I_{{{ke}}}/I_{{{be}}}} \\) nazywamy współczynnikiem wzmocnienia prądu. W typowych tranzystorach \\( \\beta \\) = 100. Oznacza to, że jeżeli na wejściu tranzystora prąd \\( I_{be} \\) jest sygnałem zmiennym o danej charakterystyce to na wyjściu tranzystora otrzymamy prąd \\( I_{ke} \\) o takiej samej charakterystyce ale 100 razy silniejszy.", "Charakterystyki tranzystorów npn są takie same z tym, że nośnikami większościowymi ładunku są elektrony, a nie dziury.", "Istnieje jeszcze wiele innych urządzeń półprzewodnikowych mających szerokie zastosowania. Z konieczności ograniczymy się tylko do wymienienia najważniejszych takich jak układy scalone dużej skali integracji, diody tunelowe, tyrystory, tranzystory polowe, lasery półprzewodnikowe."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 4. Elementy fizyki materii skondensowanej", "subject_id": 385, "subject": "Własności magnetyczne materii - wstęp", "paragraphs": ["Ze zjawiskami magnetycznymi spotykamy się na co dzień. Najczęściej mamy do czynienia z magnesami stałymi ponieważ są one powszechnie wykorzystywane we wszelkich urządzeniach technicznych. Na przykład w urządzeniach w gospodarstwie domowym posiadamy do kilkunastu kilogramów magnesów trwałych (wszystkie urządzenia posiadające silnik elektryczny - robot kuchenny, blender, krajalnica, maszynka do miesa, ale także głosniki i mikrofony).", "Omówienie własności magnetycznych rozpoczniemy od przypomnienia obliczeń, z modułu Działanie pola magnetycznego na przewodnik z prądem. Pokazaliśmy tam, że elektron krążący w odległości \\( r \\) wokół jądra w atomie posiada magnetyczny moment dipolowy \\( {\\mu _{{e}}=\\frac{e}{2m}L} \\) związany z orbitalnym momentem pędu \\( L \\). Podobnie jak z orbitalnym momentem pędu elektronu również z jego spinem związany jest moment magnetyczny tak zwany spinowy moment magnetyczny.", "Własności magnetyczne ciał są określone przez zachowanie się tych elementarnych momentów (dipoli) magnetycznych w polu magnetycznym.", "Przy opisie własności magnetycznych ciał posługujemy się pojęciem wektora polaryzacji magnetycznej \\( M \\) nazywanej też namagnesowaniem lub magnetyzacją. Wektor ten określa sumę wszystkich momentów magnetycznych, czyli wypadkowy moment magnetyczny jednostki objętości.", "Jeżeli próbkę zawierającą elementarne dipole magnetyczne umieścimy w jednorodnym polu magnetycznym o indukcji \\( B_{0} \\) to pole to dąży do ustawienia dipoli w kierunku pola i w efekcie powstaje w próbce wypadkowe pole o indukcji", "Względną przenikalnością magnetyczną ośrodka \\( \\mu_{r} \\) można na podstawie wzoru ( 1 ) zapisać jako", "gdzie wielkość \\( \\chi \\) nazywana jest podatnością magnetyczną.", "W zależności od wielkości i znaku podatności magnetycznej \\( \\chi \\) , dzielimy ciała na następujące trzy grupy:"], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 4. Elementy fizyki materii skondensowanej", "subject_id": 365, "subject": "Diamagnetyzm i paramagnetyzm", "paragraphs": ["Diamagnetyzm jest związany ze zmianą orbitalnego momentu pędu elektronów wywołaną zewnętrznym polem magnetycznym. Oznacza to, że diamagnetyzm występuje w każdym materiale umieszczonym w polu magnetycznym (w każdym materiale są elektrony). Jednak doświadczalnie jest on obserwowany tylko w ciałach, w których momenty magnetyczne elektronów wchodzących w skład danego atomu znoszą się wzajemnie (kompensują) tak, że moment magnetyczny atomu jest równy zeru. W innym przypadku efekt ten jest maskowany przez wypadkowy moment magnetyczny atomów. Diamagnetykami są na przykład te ciała, których atomy lub jony posiadają wypełnione powłoki elektronowe.", "Jeżeli atom diamagnetyczny umieścimy w zewnętrznym polu magnetycznym to na elektrony działa siła magnetyczna \\( \\mathbf{F} = e\\mathbf{v} \\times \\mathbf{B} \\), która powoduje zmianę siły dośrodkowej działającej na elektron i zmienia prędkość kątową elektronów.", "Zmiana ta zależy od kierunku ruchu elektronu względem pola \\( B \\) i dlatego nie jest jednakowa dla wszystkich elektronów. Oznacza to, że momenty magnetyczne elektronów przestały się kompensować. W zewnętrznym polu magnetycznym \\( B \\) został wyindukowany moment magnetyczny, o kierunku przeciwnym do \\( B \\). W efekcie próbka diamagnetyczna jest odpychana od bieguna silnego magnesu, a jej podatność magnetyczna \\( \\chi \\) jest ujemna.", "Przykładem idealnego diamagnetyka, który całkowicie wypycha pole magnetyczne ze swego wnętrza, są nadprzewodniki, czyli materiały wykazujące m.in. zerowy opór elektryczny w niskich temperaturach. Pokazano to na poniższym filmie:", "Paramagnetykami są ciała, których atomy posiadają wypadkowy moment magnetyczny różny od zera. Przykładem mogą być atomy o nieparzystej liczbie elektronów, w których wypadkowy spin elektronów będzie zawsze większy od zera.", "Podatność paramagnetyków ma wartość nieznacznie większą od zera. W zewnętrznym polu magnetycznym atomowe dipole magnetyczne dążą do ustawienia równoległego do kierunku pola. Jednak ten proces jest silnie zakłócany przez energię drgań termicznych (energię cieplną) tak, że efektywny moment magnetyczny jest dużo mniejszy od maksymalnego, możliwego do uzyskania. Te ruchy cieplne są odpowiedzialne za to, że po usunięciu pola magnetycznego znika namagnesowanie i momenty dipolowe paramagnetyka są całkowicie nieuporządkowane.", "Dla paramagnetyków (nie zawierających elektronów swobodnych) podatność magnetyczna zależy od temperatury zgodnie z prawem Curie.", "Jedną z nietypowych substancji paramagnetycznych jest tlen, co można zobrazować po jego skropleniu:"], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 4. Elementy fizyki materii skondensowanej", "subject_id": 366, "subject": "Ferromagnetyzm", "paragraphs": ["Istnieją pierwiastki takie, jak Fe, Co, Ni oraz wiele różnych stopów, w których obserwujemy uporządkowanie magnetyczne pomimo, przeciwdziałających temu, ruchów termicznych atomów. Substancje te zwane ferromagnetykami charakteryzują się dużą podatnością, przy czym wielkość namagnesowania zależy zarówno od pola magnesującego, jak i od tego czy były one magnesowane wcześniej.", "Jest to związane z silnym oddziaływaniem wymiennym jakie występuje pomiędzy spinowymi momentami magnetycznymi atomów. Ferromagnetyzm jest więc własnością kryształów, a nie pojedynczych atomów.", "Poszczególne atomy (tak jak w paramagnetyku) posiadają momenty magnetyczne, które podczas krystalizacji, w wyniku oddziaływania wymiennego, ustawiają się równolegle do siebie w dużych obszarach kryształu zwanych domenami. Każda domena jest więc całkowicie magnetycznie uporządkowana. Natomiast kierunki momentów magnetycznych poszczególnych domen są różne i próbka jako całość może nie mieć wypadkowego namagnesowania.", "Zjawisko porządkowania momentów magnetycznych w domeny prezentuje poniższy film", "Na Rys. 1 pokazano fragment nienamagnesowanego ferromagnetyka. Linie pokazują granice domen, a strzałki oznaczają kierunek momentu magnetycznego w domenie.", "Jeżeli taki materiał ferromagnetyczny umieścimy w zewnętrznym polu magnetycznym zaobserwujemy, że próbka uzyskuje duże namagnesowanie w relatywnie niskim polu magnetycznym. Dzieje się tak dlatego, że momenty magnetyczne atomów wewnątrz domen dążą do ustawienia się zgodnie z polem oraz, że przesuwają się ściany domen: domeny zorientowane zgodnie z polem rosną kosztem domen o innej orientacji.", "Ten proces nie jest całkowicie odwracalny. Po usunięciu pola granice domen nie wracają do położeń początkowych i materiał pozostaje namagnesowany trwale. Zjawisko to nazywamy histerezą magnetyczną.", "Na Rys. 2 pokazana jest krzywa (ab) namagnesowania ferromagnetyka (początkowo nienamagnesowanego) i towarzysząca jej pętla histerezy (bcdeb).", "Nienamagnesowany (punkt a) materiał ferromagnetyczny magnesujemy zewnętrznym polem magnetycznym \\( B_{0} \\) aż do wartości odpowiadającej punktowi b. Następnie zmniejszamy pole magnesujące do zera. Namagnesowanie materiału maleje, ale nie znika całkowicie (punkt c); materiał został namagnesowany trwale. Namagnesowanie w punkcie c nosi nazwę pozostałości magnetycznej.", "Następnie, ponownie zwiększamy pole magnesujące, ale w kierunku przeciwnym do namagnesowania. Trwałe namagnesowanie ferromagnetyka zostaje usunięte dopiero po osiągnięciu wartości pola magnetycznego nazywanego polem koercji (punkt d). Dalsze zwiększanie pola magnesującego pozwala ponownie namagnesować materiał, ale w nowym kierunku (punkt e). Możemy teraz powtórzyć postępowanie opisane powyżej i w efekcie powrócić do punktu b. Krzywa (bcdeb) nosi nazwę pętli histerezy.", "Pozostałość magnetyczna i pole koercji są parametrami, które decydują o przydatności danego materiału jako magnesu trwałego. Duża pozostałość magnetyczna gwarantuje, że będziemy mieli silny magnes, a duże pole koercji, że będzie on trwały (nie zostanie łatwo rozmagnesowany). Materiałami, które posiadają najlepsze wartości tych parametrów są obecnie SmCo \\( _{5} \\) i Nd \\( _{2} \\)Fe \\( _{14} \\)B.", "O przydatności ferromagnetyka jako magnesu trwałego decyduje również zależność jego podatności od temperatury, bo powyżej pewnej charakterystycznej temperatury \\( T_{C} \\) ferromagnetyk staje się paramagnetykiem. Temperaturę \\( T_{C} \\) nazywamy temperaturą Curie. Z punktu widzenia zastosowań istotne jest, aby materiał ferromagnetyczny miał możliwie wysoką temperaturę przejścia w stan paramagnetyczny."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 4. Elementy fizyki materii skondensowanej", "subject_id": 367, "subject": "Podsumowanie informacji o materii skondensowanej", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 4. Elementy fizyki materii skondensowanej", "subject_id": 368, "subject": "Zadania z fizyki materii skondensowanej", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 5. Elementy fizyki jądrowej", "subject_id": 369, "subject": "Podstawowe informacje o fizyce jądrowej", "paragraphs": ["Każde jądro atomowe składa się z protonów i neutronów wiązanych siłami jądrowymi, niezależnymi od ładunku. Ponieważ neutron i proton mają prawie taką samą masę i bardzo zbliżone inne własności, obydwa określa się wspólną nazwą nukleon. Nazwa nuklid jest używana zamiennie z terminem jądro.", "Nuklidy o tej samej liczbie protonów, różniące się liczbą neutronów nazywamy izotopami. Łączną liczbę protonów i neutronów w jądrze nazywamy liczbą masową jądra i oznaczamy literą \\( A \\). Liczba neutronów jest dana równaniem \\( A-Z \\), gdzie \\( Z \\) jest liczbą protonów zwaną liczbą atomową. Wartość liczby \\( A \\) dla jądra atomowego jest bardzo bliska masie odpowiadającego mu atomu. Atom pierwiastka X o liczbie atomowej \\( Z \\) i liczbie masowej \\( A \\) oznaczamy symbolem \\( _{Z}^{A} \\)X.", "Wyniki pomiarów rozpraszania wysokoenergetycznych protonów lub neutronów na jądrach atomowych pozwalają wyznaczyć rozkład masy w jądrze i jego rozmiar. \\( Z \\) tych pomiarów wynika, że jądra mają kształt kulisty oraz że średni promień dla wszystkich jąder (oprócz najmniejszych) jest dany wyrażeniem", "W tabeli przedstawione zostały gęstości wybranych obiektów między innymi gęstość jądra uranu \\( \\rho \\) = 10 \\( ^{17 } \\)kg/m \\( ^{3} \\). Obliczymy teraz tę gęstość na podstawie wzoru ( 1 ).", "Dla jądra o promieniu \\( R \\) i liczbie masowej \\( A \\) liczba cząstek na jednostkę objętości wynosi", "Gęstość \\( \\rho \\) obliczamy jako iloczyn liczby nukleonów N w jądrze i masy nukleonu. Masa protonu jest z dobrym przybliżeniem równa masie neutronu i wynosi \\( M \\) = 1.67·10 \\( ^{-27} \\) kg. Stąd", "Zauważmy, że gęstość materii jądrowej nie zależy od rozmiarów jądra, ponieważ jego objętość jest proporcjonalna do liczby masowej \\( A \\)."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 5. Elementy fizyki jądrowej", "subject_id": 370, "subject": "Oddziaływanie nukleon-nukleon", "paragraphs": ["Oddziaływania grawitacyjne, elektromagnetyczne nie pozwalają na wyjaśnienie struktury jądra atomowego. Aby wyjaśnić co tak silnie wiąże nukleony w jądrach atomowych, trzeba wprowadzić nowe oddziaływanie. Ta siła wiążąca musi być większa niż siła odpychania elektrostatycznego występująca pomiędzy protonami. Określamy ją mianem siły jądrowej lub oddziaływania silnego.", "Potencjał opisujący to oddziaływanie jest pokazany na Rys. 1 w porównaniu z potencjałem elektrostatycznego odpychania proton - proton.", "Oddziaływanie proton - proton, proton - neutron i neutron - neutron jest identyczne (jeżeli zaniedbamy relatywnie małe efekty odpychania elektrostatycznego) i nazywamy go oddziaływaniem nukleon - nukleon.", "Masy atomowe i energie wiązań można wyznaczyć doświadczalnie w oparciu o spektroskopię masową lub bilans energii w reakcjach jądrowych. W Tabela 1 poniżej zestawione są masy atomowe i energie wiązań \\( \\Delta E \\) jąder atomów wybranych pierwiastków.", "Masy atomowe i energie wiązań jąder atomów Z", "Analizując bliżej dane zestawione w Tabela 1 można uzyskać dalsze informacje o jądrach atomowych. Dla przykładu porównajmy masę atomu \\( {{_{{2}}^{{4}}}{}{}{\\text{}}{}\\text{He}} \\) z sumą mas jego składników. Z Tabela 1 można odczytać", "\\( M({{_{{2}}^{{4}}}{}{}{\\text{}}{}\\text{He}}) \\)= 4.0026033 u.", "Natomiast całkowita masa jego składników równa jest sumie mas dwu atomów wodoru \\( {{_{{1}}^{{1}}}{}{}{\\text{}}{}H} \\) i dwu neutronów:", "\\( 2M({{_{{1}}^{{1}}}{}{}{\\text{}}{}H}) \\) + \\( 2M({{_{{0}}^{{1}}}{}{}{\\text{}}{}n}) \\) = 2·1.0078252 u + 2·1.0086654 u = 4.0329812 u.", "Masy dwu elektronów są uwzględnione w masie helu jak i w masach dwóch atomów wodoru. Zauważmy, że masa helu jest mniejsza od masy składników o wartość 0.0303779 u. Analogiczny rachunek pokazuje, że dla każdego atomu jego masa jest mniejsza od masy składników o wielkość \\( \\Delta M \\) zwaną niedoborem masy lub defektem masy.", "Wynik ten jest świadectwem istnienia energii wiązania jąder jak i równoważności masy i energii. Zauważmy, że energia nukleonów tworzących jądro zmienia się w miarę ich zbliżania od wartości E = 0 dla nukleonów swobodnych ( \\( r \\rightarrow \\infty \\)) do wartości ujemnej \\( E<0 \\) dla nukleonów w jądrze (zob. Rys. 1 ). Oznacza to, że gdy układ oddzielnych swobodnych nukleonów łączy się w jądro energia układu zmniejsza się o wartość \\( \\Delta E \\) energii wiązania jądra.", "Zgodnie ze wzorem Einsteina całkowita energia spoczywającego jądra jest związana z jego masą zależnością (patrz uzupełnienie) \\( {E={mc}^{{2}}} \\). Oznacza to, że zmniejszeniu o \\( \\Delta E \\) całkowitej energii układu musi towarzyszyć, zgodnie z teorią względności, zmniejszenie masy układu o \\( \\Delta M \\)", "W ostatniej kolumnie Tabela 1 podana jest wielkość energii wiązania przypadającej na nukleon w jądrze \\( \\Delta E/A \\). Jest to jedna z najważniejszych cech charakteryzujących jądro. Zauważmy, że początkowo wielkość \\( \\Delta E/A \\) wzrasta ze wzrostem liczby \\( A \\), ale potem przybiera w przybliżeniu stałą wartość około 8 MeV. Wyniki średniej energii wiązania na nukleon w funkcji liczby masowej jądra \\( A \\) są pokazane na Rys. 2 poniżej.", "Widzimy, że najsilniej są wiązane nukleony w jądrach pierwiastków ze środkowej części układu okresowego. Gdyby każdy nukleon w jądrze przyciągał jednakowo każdy z pozostałych nukleonów to energia wiązania byłaby proporcjonalna do \\( A \\) (wielkość \\( \\Delta E/A \\) byłaby stała). To, że tak nie jest wynika głównie z krótkiego zasięgu sił jądrowych."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 5. Elementy fizyki jądrowej", "subject_id": 371, "subject": "Rodzaje rozpadów jądrowych", "paragraphs": ["Rozpady jądrowe zachodzą zawsze (prędzej czy później) jeśli jądro o pewnej liczbie nukleonów znajdzie się w stanie energetycznym, nie będącym najniższym możliwym dla układu o tej liczbie nukleonów. Takie nietrwałe (w stanach niestabilnych) jądra mogą powstać w wyniku reakcji jądrowych. Niektóre reakcje są wynikiem działań laboratoryjnych, inne dokonały się podczas powstawania naszej części Wszechświata.", "Jądra nietrwałe pochodzenia naturalnego są nazywane promieniotwórczymi, a ich rozpady noszą nazwę rozpadów promieniotwórczych. Rozpady promieniotwórcze dostarczają wielu informacji zarówno o jądrach atomowych ich budowie, stanach energetycznych, oddziaływaniach ale również wielu zasadniczych informacji o pochodzeniu Wszechświata.", "Badając własności promieniotwórczości stwierdzono, że istnieją trzy rodzaje promieniowania alfa ( \\( \\alpha \\)), beta( \\( \\beta \\)) i gamma ( \\( \\gamma \\)). Po dalszych badaniach stwierdzono, że promienie \\( \\alpha \\) to jądra helu, promienie \\( \\gamma \\) to fotony, a promienie \\( \\beta \\) to elektrony lub pozytony (cząstka elementarna dodatnia o masie równej masie elektronu).", "Szczególnie ważnym rozpadem promieniotwórczym jest rozpad alfa ( \\( \\alpha \\)) występujący zazwyczaj w jądrach o \\( Z \\) ≥ 82. Rozpad alfa polega na przemianie niestabilnego jądra w nowe jądro przy emisji jądra \\( ^{4} \\)He tzn. cząstki \\( \\alpha \\).", "Zgodnie z Oddziaływanie nukleon-nukleon-Rys. 2 dla ciężkich jąder energia wiązania pojedynczego nukleonu maleje ze wzrostem liczby masowej, więc zmniejszenie liczby nukleonów (w wyniku wypromieniowania cząstki \\( \\alpha \\)) prowadzi do powstania silniej związanego jądra. Proces zachodzi samorzutnie bo jest korzystny energetycznie. Energia wyzwolona w czasie rozpadu (energetyczny równoważnik niedoboru masy) jest unoszona przez cząstkę \\( \\alpha \\) w postaci energii kinetycznej. Przykładowa reakcja dla jądra uranu wygląda następująco", "Istnieją optymalne liczby protonów i neutronów, które tworzą jądra najsilniej związane (stabilne). Jądra, których ilość protonów \\( Z \\) różni się od wartości odpowiadającej stabilnym jądrom o tej samej liczbie masowej \\( A \\), mogą zmieniać \\( Z \\) w kierunku jąder stabilnych poprzez rozpad beta ( \\( \\beta \\)).", "Jeżeli rozpatrywane jądro ma większą od optymalnej liczbę neutronów to w jądrze takim zachodzi przemiana neutronu w proton", "Neutron n rozpada się na proton p, elektron e \\( ^{-} \\) i antyneutrino \\( {\\overline{{v}}} \\) (cząstka elementarna o zerowym ładunku i praktycznie zerowej masie spoczynkowej). Ten proces nosi nazwę rozpadu \\( \\beta \\) \\( ^{-} \\) (beta minus). Przykładem takiej przemiany jest rozpad uranu \\( ^{239} \\)U", "Powstały izotop też nie jest trwały i podlega dalszemu rozpadowi", "Zauważmy, że w takim procesie liczba protonów \\( Z \\) wzrasta o jeden, a liczba nukleonów \\( A \\) pozostaje bez zmiany. \\( Z \\) kolei, gdy jądro ma nadmiar protonów to zachodzi proces przemiany protonu w neutron", "Proton p rozpada się na neutron n, pozyton e \\( ^{-} \\) i neutrino v (cząstka elementarna o własnościach bardzo zbliżonych do antyneutrina). Ten proces nosi nazwę rozpadu \\( \\beta ^{+} \\) (beta plus). W tym procesie liczba protonów \\( Z \\) maleje o jeden, a liczba nukleonów \\( A \\) pozostaje bez zmiany.", "Pierwiastki powstające w rozpadach alfa i beta są na ogół także promieniotwórcze i ulegają dalszemu rozpadowi. Większość naturalnych pierwiastków promieniotwórczych można podzielić na trzy grupy, nazywane szeregami promieniotwórczymi. W szeregu uranu rozpoczynającym się od \\( _{\\text{92}}^{\\text{238}} \\)U liczby masowe zmieniają się według wzoru 4n + 2. W szeregu aktynu rozpoczynającym się od \\( _{\\text{92}}^{\\text{235}} \\)U liczby masowe zmieniają się według wzoru 4n + 3, a w szeregu toru rozpoczynającym się od \\( _{\\text{90}}^{\\text{232}} \\)Th liczby masowe są opisane wzorem 4n. Wszystkie trzy szeregi kończą się na trwałych izotopach ołowiu.", "Każdy naturalny materiał promieniotwórczy zawiera wszystkie pierwiastki wchodzące w skład danej rodziny i dlatego promieniowanie wysyłane, np. przez minerały jest bardzo złożone.", "Rozpadom alfa i beta towarzyszy zazwyczaj emisja wysokoenergetycznego promieniowania elektromagnetycznego zwanego promieniowaniem gamma ( \\( \\gamma \\)). Ta samoczynna emisja fotonów następuje gdy jądra posiadające nadmiar energii czyli znajdujące się w stanie wzbudzonym przechodzą do niższych stanów energetycznych. Widmo promieniowania \\( \\gamma \\) ma charakter liniowy tak jak charakterystyczne promieniowanie X i bardzo wysoką energię, tysiące razy większą od energii fotonów wysyłanych przez atomy.", "Jądra w stanie wzbudzonym można również otrzymać za pomocą neutronów o małej energii. Przykładowo, jeżeli skierujemy wiązkę takich powolnych neutronów na próbkę uranu \\( ^{238} \\)U, to część neutronów zostanie wychwyconych i powstaną jądra uranu \\( ^{239} \\)U* w stanie wzbudzonym (oznaczone *). Takie jądra przechodzą do stanu podstawowego emitując kwanty \\( \\gamma \\). Proces ten przebiega następująco", "oraz", "Podkreślmy, że emisji promieniowania gamma nie towarzyszy zmiana liczby masowej ani liczby atomowej."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 5. Elementy fizyki jądrowej", "subject_id": 372, "subject": "Prawo rozpadu nuklidów", "paragraphs": ["Rozpatrzmy układ zawierający w chwili początkowej wiele jąder tego samego rodzaju. Jądra te podlegają rozpadowi promieniotwórczemu ( \\( \\alpha \\) lub \\( \\beta \\)). Chcemy określić liczbę jąder pozostałych po czasie \\( t \\) od chwili początkowej to jest tych, które nie uległy rozpadowi.", "W tym celu oznaczamy przez \\( N \\) liczbę jąder w materiale, w chwili \\( t \\). Wtedy \\( dN \\) jest liczbą jąder, które rozpadają się w czasie \\( dt \\), tzn. w przedziale \\( (t, t + dt) \\). Spodziewana liczba rozpadów (liczba jąder, które się rozpadną) w czasie \\( dt \\) jest dana wyrażeniem", "gdzie \\( \\lambda \\) jest stałą rozpadu. Określa ona prawdopodobieństwo rozpadu w jednostce czasu. Stała \\( \\lambda \\) nie zależy od czynników zewnętrznych takich, jak temperatura czy ciśnienie. Znak minus w równaniu ( 1 ) wynika stąd, że \\( dN \\) jest liczbą ujemną, bo liczba jąder \\( N \\) maleje z czasem.", "Zależność ( 1 ) opisuje doświadczalny fakt, że liczba jąder rozpadających się w jednostce czasu jest proporcjonalna do aktualnej liczby jąder \\( N \\). Równanie to możemy przekształcić do postaci", "a następnie scałkować obustronnie", "Skąd", "lub", "Skąd ostatecznie otrzymujemy wykładnicze prawo rozpadu.", "Często wyraża się \\( N \\) poprzez średni czas życia jąder \\( \\tau \\), który z definicji jest równy odwrotności stałej rozpadu \\( \\lambda \\)", "Możemy teraz przepisać prawo rozpadu w postać", "Do scharakteryzowania szybkości rozpadu używa się czasu połowicznego rozpadu (zaniku) \\( T \\). Jest to taki czas, po którym liczba jąder danego rodzaju maleje do połowy to znaczy \\( N \\) = (½) \\( N_{0} \\). Podstawiając tę wartość do równania ( 8 ), otrzymujemy", "Skąd", "i ostatecznie", "Czasy połowicznego zaniku pierwiastków leżą w bardzo szerokim przedziale. Przykładowo dla uranu \\( ^{238} \\)U czas połowicznego zaniku wynosi 4.5·10 \\( ^{9} \\) lat (jest porównywalny z wiekiem Ziemi), a dla polonu \\( ^{212} \\)Po jest rzędu 10 \\( ^{-6} \\)s."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 5. Elementy fizyki jądrowej", "subject_id": 373, "subject": "Rozszczepienie jąder atomowych", "paragraphs": ["Z modułu Oddziaływanie nukleon-nukleon-Rys. 2 wynika, że energia wiązania na jeden nukleon wzrasta z liczbą masową aż do \\( A \\) > 50. Dzieje się tak dlatego, że dany nukleon jest przyciągany przez coraz większą liczbę sąsiednich nukleonów. Jednak przy dalszym wzroście liczby nukleonów nie obserwujemy wzrostu energii wiązania nukleonu w jądrze, a jej zmniejszanie.", "Wyjaśnienie tego efektu można znaleźć, analizując Oddziaływanie nukleon-nukleon-Rys. 1. Widać na nim, że siły jądrowe mają bardzo krótki zasięg i jeżeli odległość między dwoma nukleonami jest większa niż 2.5·10 \\( ^{-15} \\) m to oddziaływanie pomiędzy nimi jest słabsze. Jądra zawierające dużą liczbę nukleonów mają większe rozmiary i odległości pomiędzy poszczególnymi nukleonami mogą być relatywnie duże, a stąd słabsze przyciąganie pomiędzy nimi.", "Konsekwencją takich zmian energii wiązania ze wzrostem liczby nukleonów w jądrze jest występowanie zjawisk rozszczepienia i syntezy jądrowej.", "Jeżeli ciężkie jądro rozdzielimy na dwie części, to powstałe dwa mniejsze jądra są silniej wiązane od jądra wyjściowego, to znaczy te dwie części mają masę mniejszą niż masa jądra wyjściowego. Dzięki temu w reakcji rozszczepienia wydziela się energia. Źródłem energii bomby atomowej i reaktora jądrowego są procesy rozszczepienia jądrowego.", "Spontaniczne rozszczepienie naturalnego jądra jest na ogół mniej prawdopodobne niż rozpad \\( \\alpha \\) tego jądra. Można jednak zwiększyć prawdopodobieństwo rozszczepienia, bombardując jądra neutronami o odpowiednio wysokiej energii. Właśnie takie neutrony powodują reakcje rozszczepienia uranu \\( ^{235} \\)U i plutonu \\( ^{239} \\)Pu.", "Analizując liczby masowe i atomowe pierwiastków (na podstawie ), można zauważyć, że pierwiastki lekkie zawierają w jądrze zbliżone ilości protonów i neutronów podczas, gdy dla pierwiastków ciężkich przeważa liczba neutronów.", "W związku z tym w reakcji rozszczepienia powstaje na ogół kilka neutronów. W konsekwencji rozszczepienie jądrowe może stać się procesem samopodtrzymującym w wyniku tak zwanej reakcji łańcuchowej. Jeżeli przynajmniej jeden z powstałych neutronów wywoła kolejne rozszczepienie to proces będzie sam się podtrzymywał. Ilość materiału powyżej, której spełniony jest powyższy warunek nazywamy masą krytyczną.", "Jeżeli liczba rozszczepień na jednostkę czasu jest utrzymywana na stałym poziomie to mamy do czynienia z kontrolowaną reakcją łańcuchową. Po raz pierwszy taką reakcję rozszczepienia przeprowadzono (E. Fermi) na Uniwersytecie Chicago w 1942 r.", "Masa materiału rozszczepianego (np. \\( ^{235} \\)U czy \\( ^{239} \\)Pu) może też być nadkrytyczna. Wówczas neutrony powstałe w wyniku jednego rozszczepienia wywołują więcej niż jedną reakcję wtórną. Mamy do czynienia z lawinową reakcją łańcuchową. Cała masa nadkrytyczna może być rozszczepiona (zużyta) w bardzo krótkim czasie, \\( t = \\)0.001 s, ze względu na dużą prędkość neutronów (3·10 \\( ^{5} \\) m/s). Tak eksploduje bomba atomowa. Najczęściej przygotowuje się kulę o masie nadkrytycznej, ale rozrzedzonej. Następnie otacza się ją klasycznymi ładunkami wybuchowymi, których detonacja wywołuje wzrost ciśnienia zewnętrznego i gwałtownie zwiększenie gęstości materiału (zmniejsza się objętość kuli). W konsekwencji osiągnięty zostaje stan nadkrytyczny.", "Oczywiście w elektrowniach atomowych spalanie paliwa odbywa się bardzo powoli. W związku z tym konieczne jest spowalnianie neutronów i dobór warunków stacjonarnej pracy reaktora. Wymaga to stosowania skomplikowanych instalacji dużo droższych niż w elektrowniach konwencjonalnych spalających węgiel. Dodatkowe, bardzo znaczne koszty w elektrowni atomowej są związane z budową i eksploatacją systemu ochrony i zabezpieczeń oraz ze składowaniem odpadów promieniotwórczych. Jednak pomimo tak wysokich kosztów energia jądrowa skutecznie konkuruje z paliwem tradycyjnym i jest bardziej ekonomiczna na dużą skalę. Również zanieczyszczenia powstające przy spalaniu węgla w tradycyjnych elektrowniach stanowią nie mniejszy (a w opinii wielu znacznie większy) problem niż odpady promieniotwórcze.", "Energia jądrowa powinna ułatwić pokrycie światowego zapotrzebowania na energię w obliczu wyczerpywania się tradycyjnych źródeł energii."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 5. Elementy fizyki jądrowej", "subject_id": 374, "subject": "Reakcja syntezy jądrowej", "paragraphs": ["Z analizy Oddziaływanie nukleon-nukleon-Rys. 2 wynika, że masa dwóch lekkich jąder jest większa niż masa jądra powstającego po ich połączeniu. Jeżeli więc takie jądra zbliżymy do siebie na dostatecznie małą odległość, to z ich połączenia powstawanie nowe jądro i wydzieli się energia związana z różnicą mas.", "Przykładowo przy połączeniu dwóch deuteronów \\( _{1}^{2}\\text{H} \\) (jądro izotopu wodoru) w jądro helu, \\( 0.6\\% \\) masy zostanie zamieniona na energię. Zauważ, że ta metoda jest wydajniejsza od rozszczepiania jąder uranu (zob. moduł Rozszczepienie jąder atomowych-Porównanie elektrowni konwencjonalnych z atomowymi ). Poza tym dysponujemy nieograniczonym źródłem deuteru w wodzie mórz i oceanów.", "Jednak istnieje przeszkoda w otrzymywaniu energii tą metodą. Jest nią odpychanie kulombowskie, które nie pozwala zbliżyć się deuteronom na odległość niezbędną do ich połączenia (porównywalną z zasięgiem przyciągających sił jądrowych). Reakcja ta nie jest możliwa w temperaturze pokojowej, ale byłaby możliwa, gdyby deuter mógł być ogrzany do temperatury około 5·10 \\( ^{7} \\) K.", "Reakcje, które wymagają takich temperatur nazywamy reakcjami termojądrowymi. Temperatury osiągane podczas wybuchu bomby atomowej są wystarczające do zapoczątkowania takiej reakcji. Raz zapoczątkowana reakcja termojądrowa wytwarza dostateczną ilość energii do utrzymania wysokiej temperatury (dopóki materiał nie zostanie spalony). Tak działa bomba wodorowa.", "Nam jednak zależy na uzyskaniu użytecznej energii z reakcji syntezy jądrowej, to znaczy na prowadzeniu reakcji w sposób kontrolowany. Dlatego prowadzone są próby skonstruowania reaktora termojądrowego. Podstawowym problemem jest utrzymanie gazu o tak wysokiej temperaturze, w pewnej ograniczonej objętości. Czas trwania reakcji musi być wystarczająco długi żeby wytworzona energia była większa od energii zużytej na uzyskanie tak gorącego gazu (uruchomienie reaktora). Stwarza to wiele problemów technicznych i jak dotąd nie udało się przeprowadzić zakończonej sukcesem kontrolowanej reakcji termojądrowej.", "W przyrodzie obserwuje się ciągłe wytwarzanie energii termojądrowej. Procesy termojądrowe są źródłem energii gwiazd w tym i „naszego” Słońca."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 5. Elementy fizyki jądrowej", "subject_id": 375, "subject": "Źródła energii gwiazd", "paragraphs": ["Ewolucja wielu gwiazd rozpoczyna się od wyodrębnienia się chmury wodoru z materii międzygwiezdnej. Chmura ta zapada się pod wpływem siły grawitacji. Zagęszczaniu materii pod wpływem grawitacji towarzyszy wzrost temperatury do momentu, aż osiągnięte zostaje stadium protogwiazdy.", "Ponieważ energia protogwiazdy, źródłem której jest grawitacyjne zapadanie się, zmniejsza się przez promieniowanie elektromagnetyczne (protogwiazda świeci) trwa dalsze jej kurczenie się aż do pojawienia się nowego źródła energii, które może temu przeciwdziałać. Tym nowym źródłem są reakcje termojądrowe.", "Obliczmy teraz rozmiar (promień) Słońca w funkcji jego masy. W tym celu zakładamy, że gęstość Słońca jest stała (w rzeczywistości rdzeń ma większą gęstość niż warstwy przy powierzchni), a jego masę przyjmujemy równą \\( M_{S} \\) = 2·10 \\( ^{30} \\) kg.", "Zapadanie się masy gazu w Słońcu zostanie zatrzymane, gdy ciśnienie termiczne wywołane ogrzewaniem gazu przez energię z reakcji termojądrowych wyrówna ciśnienie grawitacyjne. Obliczamy więc ciśnienie grawitacyjne wewnątrz jednorodnej kuli o promieniu \\( R \\). Korzystamy z równania \\( {p=\\rho \\overline{{g}}h} \\), gdzie \\( {\\overline{{g}}=\\frac{1}{2}g} \\) jest wartością średnią przyspieszenia (na powierzchni kuli przyspieszenie jest równe \\( g \\), a w środku przyspieszenie jest równe zeru). Stąd", "gdzie \\( {g=\\frac{{GM}_{{S}}}{R^{{2}}}} \\). Ostatecznie więc", "Na podstawie równania stanu gazu doskonałego ciśnienie termiczne gazu wynosi", "gdzie \\( m_{p} \\) jest masą protonu (masa atomu wodoru \\( {\\approx} \\) masa protonu).", "Porównanie tych dwóch ciśnień daje wyrażenie na promień Słońca", "skąd", "Teraz oceńmy, jaka jest najniższa temperatura potrzebna do zbliżenia dwóch protonów na odległość 2·10 \\( ^{-15} \\)m wystarczającą do ich połączenia się. Każdy proton ma energię \\( (3/2)kT \\), więc energia kinetyczna pary protonów jest równa \\( 3kT \\). Ta energia musi zrównoważyć energię odpychania elektrostatycznego równą \\( e^2 / 4 \\pi \\epsilon _0 R \\). Z porównania tych energii otrzymujemy temperaturę \\( T≈2.8·10^{9} \\) K.", "We wnętrzu gwiazdy wystarcza temperatura o jeden lub nawet dwa rzędy wielkości niższa, bo zawsze znajdzie się wystarczająca ilość protonów o prędkościach większych od średniej (przypomnij sobie Maxwella rozkład prędkości - moduł Rozkład Maxwella prędkości cząstek ), aby podtrzymać reakcję. Tak więc temperatura, dla której zaczynają zachodzić reakcje termojądrowe jest rzędu 10 \\( ^{7} \\) K. Na podstawie tych danych otrzymujemy wartość promienia Słońca zbliżoną do wartości obserwowanej \\( R = 7·10^{8} \\) m.", "Temperatura rzędu 10 \\( ^{7} \\) K jest więc dostatecznie wysoka, aby wywołać następujące reakcje termojądrowe", "gdzie \\( D \\) oznacza izotop wodoru \\( _1^2\\text{H} \\) - deuter. Ten ciąg reakcji termojądrowych pokazany na Rys. 1 jest znany jako cykl wodorowy.", "W cyklu wodorowym wytworzona zostaje cząstka alfa, 2 pozytony, 2 neutrina i 2 fotony gamma. Masa jądra helu stanowi \\( 99.3\\% \\) masy czterech protonów więc wydziela się energia związana z różnicą mas. Cykl wodorowy jest głównym mechanizmem produkcji energii przez Słońce i inne gwiazdy bogate w wodór.", "Energia wytwarzana przez Słońce jest ogromna. W ciągu sekundy 592 miliony ton wodoru zamieniają się w 587.9 milionów ton helu. Różnica tj. 4.1 miliony ton jest zamieniana na energię (w ciągu sekundy). Odpowiada to mocy około 4·10 \\( ^{26} \\) W."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 5. Elementy fizyki jądrowej", "subject_id": 376, "subject": "Podsumowanie informacji o fizyce jądrowej", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 5. Elementy fizyki jądrowej", "subject_id": 377, "subject": "Zadania z fizyki jądrowej", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 6. Elementy teorii względności", "subject_id": 378, "subject": "Transformacja Galileusza", "paragraphs": ["Spróbujemy teraz opisać zjawiska widziane z dwóch różnych inercjalnych układów odniesienia, poruszających się względem siebie (zob. Rys. 1 ). W tym celu wyobraźmy sobie, obserwatora na Ziemi, który rejestruje dwa zdarzenia (na przykład dwie eksplozje) zachodzące na pewnej, jednakowej wysokości.", "Odległość między miejscami wybuchów wynosi (według ziemskiego obserwatora) \\( \\Delta x \\), natomiast czas między wybuchami \\( \\Delta t \\). Te same dwa zdarzenia obserwowane są przez pasażera samolotu lecącego z prędkością \\( V \\) po linii prostej łączącej miejsca wybuchów. Względem lokalnego układu odniesienia związanego z lecącym samolotem różnica położeń wybuchów wynosi \\( \\Delta x' \\), a różnica czasu \\( \\Delta t' \\).", "Porównajmy teraz spostrzeżenia obserwatorów na ziemi i w samolocie. Zróbmy to na przykład z pozycji obserwatora na ziemi, który próbuje opisać to co widzą pasażerowie samolotu. Jeżeli, pierwszy wybuch nastąpił w punkcie \\( x_{1} \\)’ (wg samolotu), a drugi po czasie \\( \\Delta t \\), to w tym czasie samolot przeleciał drogę \\( V\\Delta t \\) (względem obserwatora na Ziemi) i drugi wybuch został zaobserwowany w punkcie", "czyli", "Jednocześnie, ponieważ samolot leci wzdłuż linii łączącej wybuchy, to \\( \\Delta y' = \\Delta z' \\) = 0. Oczywistym wydaje się też, że \\( \\Delta t' = \\Delta t \\). Otrzymaliśmy więc wzory przekładające wyniki obserwacji jednego obserwatora na spostrzeżenia drugiego", "Te równania noszą nazwę transformacji Galileusza.", "Sprawdźmy czy stosując powyższe wzory do opisu doświadczeń, otrzymamy takie same wyniki, niezależnie od układu, w którym to doświadczenie opisujemy. Jako przykład wybierzmy ciało poruszające wzdłuż osi x ruchem jednostajnie przyspieszonym z przyspieszeniem a.", "W układzie nieruchomym prędkość chwilowa ciała wynosi", "Jego przyspieszenie jest stałe i równe \\( a \\). Natomiast obserwator w pojeździe poruszającym się wzdłuż osi \\( x \\) ze stałą prędkością \\( V \\) rejestruje, że w czasie \\( \\Delta t' \\) ciało przebywa odległość \\( \\Delta x' \\). Zatem prędkość chwilowa ciała zmierzonego przez tego obserwatora wynosi", "Zgodnie z transformacją Galileusza \\( \\Delta x' = \\Delta x - V\\Delta t \\), oraz \\( \\Delta t' = \\Delta t \\), więc", "Otrzymaliśmy prędkość względną jednego obiektu względem drugiego, co jest wynikiem intuicyjnie oczywistym. Natomiast przyśpieszenie w układzie poruszającym się wynosi", "Widać, że w tym przypadku zastosowanie wzorów transformacji Galileusza daje wynik zgodny z doświadczeniem. Jednak nie jest to prawdą w każdym przypadku. Miedzy innymi stwierdzono, że ta transformacja zastosowana do równań Maxwella nie daje tych samych wyników dla omawianych układów inercjalnych. W szczególności z praw Maxwella wynika, że prędkość światła jest podstawową stałą przyrody i powinna być sama w każdym układzie odniesienia. Oznacza to na przykład, że gdy impuls światła rozchodzący się w próżni w kierunku \\( x \\) jest obserwowany przez dwóch obserwatorów pokazanych na Rys. 1 to zarówno obserwator nieruchomy jak poruszający się z prędkością \\( V \\) (względem pierwszego) zmierzą identyczną prędkość impulsu \\( c = 2.998·10^{8} \\) m/s. Tymczasem zgodnie z transformacją Galileusza i ze zdrowym rozsądkiem powinniśmy otrzymać wartość \\( c - V \\).", "Wykonano szereg doświadczeń, w których próbowano podważyć równania Maxwella, a w szczególności próbowano pokazać, że prędkość światła, tak jak prędkość dźwięku zależy od układu odniesienia (stosuje się do transformacji Galileusza). Najsławniejsze z nich, to doświadczenie Michelsona-Morleya mające na celu wykrycie wpływu ruchu orbitalnego Ziemi na prędkość światła poprzez pomiar prędkości światła w kierunku prostopadłym i równoległym do ruchu Ziemi. Wszystkie te doświadczenia dały wynik negatywny i musimy uznać, że", "Niektóre wnioski wynikające ze stałości prędkości światła, pomówione zostały w modułach Transformacja Lorentza oraz Dylatacja czasu."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 6. Elementy teorii względności", "subject_id": 379, "subject": "Dylatacja czasu", "paragraphs": ["Rozpatrzmy rakietę, w której znajduje się przyrząd wysyłający impuls światła z punktu A, który następnie odbity przez zwierciadło Z, odległe o \\( d \\), powraca do tego punktu A, gdzie jest rejestrowany (zob. Rys. 1 ).", "Czas \\( \\Delta t' \\) jaki upływa między wysłaniem światła, a jego zarejestrowaniem przez obserwatora będącego w rakiecie ( Rys. 1a) jest oczywiście równy \\( \\Delta t' = 2d/c \\). Teraz to samo zjawisko opisujemy z układu nieruchomego obserwatora ( Rys. 1b), względem którego rakieta porusza się w prawo z prędkością \\( V \\). Chcemy, w tym układzie, znaleźć czas \\( \\Delta t \\) przelotu światła z punktu A do zwierciadła i z powrotem do A. Jak widać na Rys. 1b światło przechodząc od punktu A do zwierciadła Z, porusza się po linii o długości \\( S \\)", "Zatem czas potrzebny na przebycie drogi AZA (to jest dwóch odcinków o długości \\( S \\)) wynosi", "Przekształcając to równanie, otrzymujemy ostatecznie", "Widzimy, że warunek stałości prędkości światła w różnych układach odniesienia może być spełniony tylko wtedy gdy, czas pomiędzy dwoma zdarzeniami obserwowanymi i mierzonymi z różnych układów odniesienia jest różny. Prowadzi to do efektu tzw. dylatacji czasu.", "To zjawisko dylatacji czasu jest własnością samego czasu i dlatego spowolnieniu ulegają wszystkie procesy fizyczne gdy są w ruchu. Dotyczy to również reakcji chemicznych, więc i biologicznego starzenia się.", "Dylatację czasu zaobserwowano doświadczalnie między innymi za pomocą nietrwałych cząstek. Cząstki takie przyspieszano do prędkości bliskiej prędkości światła i mierzono zmianę ich czasu połowicznego zaniku."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 6. Elementy teorii względności", "subject_id": 380, "subject": "Transformacja Lorentza", "paragraphs": ["Szukamy ponownie (jak przy module Transformacja Galileusza ) wzorów przekładających spostrzeżenia jednego obserwatora na obserwacje drugiego. Chcemy znaleźć transformację współrzędnych, ale taką, w której obiekt poruszający się z prędkością równą \\( c \\) w układzie nieruchomym \\( (x, y, z, t) \\), również w układzie \\( (x', y', z', t') \\) poruszającym się z prędkością \\( V \\) wzdłuż osi \\( x \\) będzie poruszać się z prędkością \\( c \\). Transformacja współrzędnych, która uwzględnia niezależność prędkości światła od układu odniesienia ma postać", "\\( {x^\\prime=\\frac{x-\\text{Vt}}{\\sqrt{1-\\frac{V^{{2}}}{c^{{2}}}}}=\\frac{x-\\text{Vt}}{\\sqrt{1-\\beta^{{2}}}}} \\), \\( y^\\prime=y \\), \\( z^\\prime=z \\), \\( {t^\\prime=\\frac{t-\\frac{V}{c^{{2}}}x}{\\sqrt{1-\\frac{V^{{2}}}{c^{{2}}}}}=\\frac{t-\\frac{V}{c^{{2}}}x}{\\sqrt{1-\\beta^{{2}}}}} \\),", "gdzie \\( \\beta = V/c \\). Te równania noszą nazwę transformacji Lorentza. Omówimy teraz niektóre wnioski wynikające z transformacji Lorentza.", "Przyjmijmy, że według obserwatora w rakiecie poruszającej się wzdłuż osi \\( x' \\) (czyli także wzdłuż osi \\( x \\), bo zakładamy, że te osie są równoległe) pewne dwa zdarzenia zachodzą równocześnie \\( \\Delta t' \\) = \\( t_{2} \\)'- \\( t_{1} \\)' = 0, ale w rożnych miejscach \\( x_{2} \\)' - \\( x_{1} \\)' = \\( \\Delta x' \\) \\( {\\neq} \\) 0. Sprawdźmy, czy te same zdarzanie są również jednoczesne dla obserwatora w spoczynku. Z transformacji Lorentza wynika, że", "oraz", "Łącząc te równania, otrzymujemy związek", "Jeżeli teraz uwzględnimy fakt, że zdarzenia w układzie związanym z rakietą są jednoczesne \\( \\Delta t' \\) = 0, to otrzymamy ostatecznie", "Widzimy, że równoczesność zdarzeń nie jest bezwzględna, w układzie nieruchomym te dwa zdarzenia nie są jednoczesne.", "Teraz rozpatrzmy inny przykład. W rakiecie poruszającej się z prędkością \\( V \\), wzdłuż osi \\( x' \\) leży pręt o długości \\( L' \\). Sprawdźmy jaką długość tego pręta zaobserwuje obserwator w układzie nieruchomym.", "Pomiar długości pręta polega na zarejestrowaniu dwóch zjawisk zachodzących równocześnie na końcach pręta (np. zapalenie się żarówek). Ponieważ żarówki zapalają się na końcach pręta to \\( \\Delta x'= L' \\). Ponadto żarówki zapalają się w tym samym czasie (dla obserwatora w układzie spoczywającym), to dodatkowo \\( \\Delta t \\) = 0. Uwzględniając te warunki otrzymujemy na podstawie transformacji Lorentza", "gdzie \\( \\Delta x \\) jest długością pręta \\( L \\) w układzie nieruchomym. Stąd", "Okazuje się, że pręt ma mniejszą długość, jest krótszy."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 6. Elementy teorii względności", "subject_id": 381, "subject": "Dodawanie prędkości w transformacji Lorentza", "paragraphs": ["Zajmiemy się przypadkiem, gdy obiekt ma już pewną prędkość \\( U_{x} \\)' w ruchomym układzie odniesienia (to jest względem rakiety). Sprawdzimy jaką prędkość \\( U_{x} \\) zarejestruje nieruchomy obserwator, w układzie którego rakieta porusza się z prędkością \\( V \\) wzdłuż osi \\( x \\). Z transformacji Lorentza wynika, że", "oraz", "Dzieląc te równania przez siebie, otrzymujemy", "a po podstawieniu \\( {U_{{x}}'=\\frac{\\mathit{\\Delta x'}}{\\mathit{\\Delta t'}}} \\) oraz \\( {U_{{x}}=\\frac{\\mathit{\\Delta x}}{\\mathit{\\Delta t}}} \\)", "Powyższe równanie można rozwiązać ze względu na \\( U_{x} \\)"], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 6. Elementy teorii względności", "subject_id": 382, "subject": "Zależność masy od prędkości w szczególnej teorii względności", "paragraphs": ["Aby odpowiedzieć na pytanie: jak można opisać zachowanie ciała pod wpływem sił w sytuacji, gdy transformacja Lorentza (a nie Galileusza) jest prawdziwa. Chodzi o to, czy druga zasada dynamiki Newtona \\( F = dp/dt \\) może być stosowana i czy zasada zachowania pędu ma taką samą postać we wszystkich układach inercjalnych.", "Okazuje się, że warunkiem zachowania pędu przy transformacji z jednego układu odniesienia do innego jest uwzględnienie zależność masy ciała \\( m \\) od jego prędkości \\( V \\), danej następującym wyrażeniem", "w którym \\( m_{0} \\) oznacza masę spoczynkową, czyli masę nieruchomego ciała. Zauważmy ponadto, że masa cząstki rośnie wraz z prędkością i zmierza do nieskończoności, gdy \\( V{\\rightarrow}c \\).", "Rozpatrzmy teraz ruch ciała pod wpływem stałej siły \\( F \\) działającej równolegle do kierunku ruchu. Zależność prędkości ciała od czasu obliczamy na podstawie drugiej zasad dynamiki Newtona. Uwzględniając zależność masy od prędkości ( 1 ), otrzymujemy", "Porównanie zależność prędkości ciała od czasu działania siły w mechanice klasycznej i relatywistycznej jest pokazane na Rys. 1. W przeciwieństwie do opisu klasycznego, z powyższej zależności wynika, że cząstki nie da się przyspieszać w nieskończoność działając stałą siłą.", "Zmiana masy z prędkością została potwierdzona wieloma doświadczeniami przeprowadzonymi dla cząstek elementarnych."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 6. Elementy teorii względności", "subject_id": 383, "subject": "Równoważność masy i energii w szczególnej teorii względności", "paragraphs": ["Einstein pokazał, że zasada zachowania energii jest spełniona w mechanice relatywistycznej pod warunkiem, że pomiędzy masą i całkowitą energią ciała zachodzi związek", "gdzie \\( m \\) zależy od prędkości ciała \\( V \\) zgodnie z równaniem Zależność masy od prędkości w szczególnej teorii względności-( 1 ). To znane powszechnie równanie Einsteina opisuje równoważność masy i energii. Wynika z niego, że ciało w spoczynku ma zawsze pewną energię związaną z jego masa spoczynkową", "Energię kinetyczną ciała poruszającego się z prędkością \\( V \\) obliczamy, odejmując od energii całkowitej energię spoczynkową (nie związaną z ruchem)", "Widzimy, że mechanika relatywistyczna wiąże energię kinetyczną z przyrostem masy ciała.", "Na zakończenie zobaczmy jaką wartość przyjmuje energia całkowita, jeśli prędkość \\( V \\) jest mała. Dla małego \\( V \\) równanie Zależność masy od prędkości w szczególnej teorii względności-( 1 ) można przybliżyć (rozwijając w szereg) do postaci", "Podstawiając tę wartość do wyrażenia na energię całkowitą otrzymujemy", "Pierwszy wyraz jest energią związaną z istnieniem samej masy (energia spoczynkowa), natomiast drugi jest klasyczną energią kinetyczną związaną z ruchem ciała. Otrzymaliśmy rozwiązanie klasyczne jako graniczny przypadek (dla małych prędkości) rozwiązania relatywistycznego."], "definitions": []} {"field": "Fizyka", "coursebook": "Elementy Fizyki Współczesnej", "chapter": "Rozdział 6. Elementy teorii względności", "subject_id": 384, "subject": "Zadania ze szczególnej teorii względności", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 1. Wiadomości wstępne", "subject_id": 155, "subject": "Wielkości fizyczne i jednostki", "paragraphs": ["Prawa fizyki wyrażają związki między różnymi wielkościami fizycznymi. Prawa te formułowane są w postaci równań matematycznych wyrażających ścisłe ilościowe relacje między tymi wielkościami, a to wiąże się zawsze z pomiarami określającymi liczbowo stosunek danej wielkości do przyjętej jednostki.", "Wiele z wielkości fizycznych jest współzależnych. Na przykład prędkość jest długością podzieloną przez czas, gęstość masą podzieloną przez objętość itd. Dlatego spośród wszystkich wielkości fizycznych wybieramy pewną ilość tak zwanych wielkości podstawowych, za pomocą których wyrażamy wszystkie pozostałe wielkości nazywane wielkościami pochodnymi. Z tym podziałem związany jest również wybór jednostek. Jednostki podstawowe wielkości podstawowych są wybierane (ustalane), a jednostki pochodne definiuje się za pomocą jednostek podstawowych.", "Aktualnie obowiązującym w Polsce układem jednostek jest układ SI (Systeme International Unites). Układ SI ma siedem jednostek podstawowych i dwie uzupełniające niezbędne w sformułowaniach praw fizyki. Wielkości podstawowe i ich jednostki są zestawione w Tabela 1 poniżej.", "Definicje jednostek podstawowych są związane albo ze wzorcami jednostek albo z pomiarem. Przykładem jednostki związanej ze wzorcem jest masa. Obecnie światowym wzorcem kilograma (kg) jest walec platynowo-irydowy przechowywany w Międzynarodowym Biurze Miar i Wag w Sevres (Francja). Natomiast przykładem jednostki związanej z pomiarem jest długość. Metr (m) definiujemy jako długość drogi przebytej w próżni przez światło w czasie 1/299792458 s.", "Oprócz jednostek w fizyce posługujemy się pojęciem wymiaru jednostki danej wielkości fizycznej. Wymiarem jednostki podstawowej jest po prostu ona sama. Natomiast dla jednostek pochodnych wymiar jest kombinacją jednostek podstawowych (w odpowiednich potęgach). Na przykład, jednostka siły ma wymiar kgm/s \\( {^2} \\) wynikający ze wzoru \\( F = ma \\). Niektóre jednostki pochodne mają swoje nazwy tak jak jednostka siły - Niuton.", "Wreszcie, oprócz jednostek podstawowych i pochodnych posługujemy się także jednostkami wtórnymi, które są ich wielokrotnościami. Wyraża się je bardzo prosto poprzez dodanie odpowiedniego przedrostka określającego odpowiednią potęgę dziesięciu, która jest mnożnikiem dla jednostki (patrz Tabela 2 )."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 1. Wiadomości wstępne", "subject_id": 1464, "subject": "Użyteczne wzory matematyczne", "paragraphs": ["Pole okręgu", "Pole kuli", "Objętość kuli"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 1. Wiadomości wstępne", "subject_id": 157, "subject": "Wektory w opisie ruchu", "paragraphs": ["W fizyce mamy do czynienia zarówno z wielkościami skalarnymi jak i wielkościami wektorowymi. Wielkości skalarne takie jak, np. masa, objętość, czas, ładunek, temperatura, praca, mają jedynie wartość. Natomiast wielkości wektorowe, np. prędkość, przyspieszenie, siła, pęd, natężenie pola, posiadają wartość, kierunek, zwrot i punkt przyłożenia. Poniżej przypominamy podstawowe działania na wektorach.", "W działaniach na wektorach operuje się składowymi tych wektorów wyznaczonymi w wybranym układzie odniesienia.", "Składowe wektora wyznaczamy umieszczając początek wektora w początku układu współrzędnych i rzutując koniec wektora na poszczególne osie wybranego układu współrzędnych.", "W wybranym układzie współrzędnych wektor jest definiowany przez podanie jego współrzędnych, np.", "Zwróćmy w tym miejscu uwagę na przyjętą konwencję. Wszystkie wektory wyróżnione są w tekście czcionką wytłuszczoną.", "Sumą dwóch wektorów jest nowy wektor o współrzędnych", "Geometrycznie jest to przekątna równoległoboku zbudowanego na tych wektorach. Różnicę dwóch wektorów przedstawia druga przekątna (zob. Rys. 2 ).", "Iloczyn skalarny dwóch wektorów \\( a \\cdot b \\) jest liczbą (skalarem) równą iloczynowi wartości bezwzględnych (długości) tych wektorów pomnożony przez cosinus kąta między nimi", "Iloczyn skalarny jest często stosowany do opisu wielkości fizycznych. Przykładem wielkości fizycznej, którą można przedstawić jako iloczyn skalarny dwóch wielkości wektorowych jest praca. Praca jest iloczynem skalarnym siły i przesunięcia.", "Iloczyn wektorowy dwóch wektorów \\( {\\bf a} \\times {\\bf b} \\) jest nowym wektorem \\( {\\bf c} \\), którego długość (wartość bezwzględna) jest równa iloczynowi długości tych wektorów i sinusa kąta pomiędzy nimi", "Wektor \\( {\\bf c} \\) jest prostopadły do płaszczyzny wyznaczonej przez wektory \\( {{\\bf a}} \\) i \\( {\\bf b} \\). Zwrot jego jest określony regułą śruby prawoskrętnej lub regułą prawej ręki. Jeżeli palce prawej ręki zginają się w kierunku obrotu wektora \\( {\\bf a} \\) do wektora \\( {\\bf b} \\) (po mniejszym łuku) to kciuk wskazuje kierunek wektora \\( {\\bf c}={\\bf a} \\times {\\bf b} \\) tak jak na Rys. 3"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 1. Wiadomości wstępne", "subject_id": 156, "subject": "Średnia ważona", "paragraphs": ["W celu przybliżenia pojęcia średniej ważonej rozważmy prosty układ, w którym mamy do czynienia ze skrzynką zawierającą, np. jabłka o różnej masie. W skrzynce mamy \\( n_{1} \\) jabłek, każde o masie \\( m_{1} \\), oraz \\( n_{2} \\) jabłek, każde o masie \\( m_{2} \\). Spróbujmy policzyć jaka jest średnia masa jabłka:", "czyli", "To jest średnia ważona (wagami są ułamki ilości jabłek w skrzynce). Uwzględniamy w ten sposób fakt, że liczby jabłek (wchodzące do średniej) nie są równe."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 2. Kinematyka", "subject_id": 158, "subject": "Ruch jednowymiarowy", "paragraphs": ["Dział Fizyki zajmujący się opisem ruchu ciał nazywamy kinematyką.", "Położenie określamy względem układu odniesienia, tzn. wybranego ciała lub układu ciał. Zwróćmy uwagę na to, że ruch tego samego ciała widziany z różnych układów odniesienia może być różny. W szczególności można wybrać taki układ odniesienia, w którym ciało nie porusza się. Oznacza to, że ruch jest pojęciem względnym. Ponadto, w naszych rozważaniach będziemy posługiwać się pojęciem punktu materialnego.", "Rzeczywiste ciała mają zawsze skończoną objętość, ale dopóki rozpatrujemy ich ruch postępowy (ciała nie obracają się, ani nie wykonują drgań) to z dobrym przybliżeniem możemy je traktować jako punkty materialne. To przybliżenie może być z powodzeniem stosowane do opisu ruchu obiektów o różnej wielkości, zarówno \"małych\" cząsteczek, jak i \"dużych\" planet.", "Jeżeli wskazania prędkościomierza samochodu nie zmieniają się, oznacza to, że samochód porusza się ze stałą prędkością \\( v \\), i jeżeli w pewnej chwili \\( t_{0} \\) znajdował się w położeniu \\( x_{0} \\) to po czasie \\( t_{} \\) znajdzie się w położeniu \\( x \\)", "skąd", "Zależność między położeniem \\( x \\) i czasem \\( t \\) pokazana jest na Rys. 1 dla dwóch ciał (np. pojazdów). Jak wynika ze wzoru ( 1 ) nachylenie wykresu \\( x(t) \\) przedstawia prędkość danego ciała. Różne nachylenia wykresów \\( x(t) \\) odpowiadają więc różnym prędkościom. Prędkość \\( {\\bf v} \\) (wektor) może być dodatnia albo ujemna; jej znak wskazuje kierunek ruchu. Wektor \\( {\\bf v} \\) dodatni - ruch w kierunku rosnących \\( x \\), ujemny to ruch w kierunku malejących \\( x \\).", "Gdy samochód przyspiesza lub hamuje to wskazania prędkościomierza zmieniają się i nie możemy mówić o jednej stałej prędkości. Prędkość zmienia się i w każdej chwili jest inna. Nie można wtedy stosować wzoru ( 1 ) chyba, że ograniczymy się do bardzo małych wartości \\( x - x_{0} \\) ( \\( \\Delta x \\)) czyli również bardzo małego przedziału czasu \\( \\Delta t = t - t_{0} \\) (chwili). Prędkość chwilową w punkcie x otrzymamy, gdy \\( \\Delta t \\) dąży do zera.", "Tak definiuje się pierwszą pochodną więc", "Nachylenie krzywej \\( x(t) \\) ponownie przedstawia prędkość \\( v \\), a znajdujemy je (zgodnie z definicją pochodnej) jako nachylenie stycznej do wykresu \\( x(t) \\) , w danym punkcie tj. dla danej chwili \\( t \\) ( Rys. 2 ).", "Często określenie zależności \\( x(t) \\) nie jest możliwe, np. przy oszacowaniu czasu dojazdu do wybranej miejscowości nie jesteśmy w stanie przewidzieć wszystkich parametrów podróży wpływających na prędkość takich, jak natężenie ruchu, konieczność ograniczenia prędkości w terenie zabudowanym, itp. Posługujemy się wtedy pojęciem prędkości średniej. Prędkość średnia ciała w przedziale czasu \\( t \\) jest zdefiniowana jako", "Wartość średnia daje praktyczne wyniki. Zilustrujmy to jeszcze jednym ćwiczeniem.", "Jeżeli ciało przyspiesza lub hamuje i jego prędkość zmienia się jednostajnie z czasem to przyspieszenie \\( \\bf a \\) tego ciała jest stałe", "Gdy prędkość rośnie ( \\( a > 0 \\) to ruch nazywamy jednostajnie przyspieszonym, a gdy prędkość maleje ( \\( a < 0 \\)) to ruch określamy jako jednostajnie opóźniony.", "Jeżeli przyspieszenie nie jest stałe, zmienia się z czasem, musimy wtedy ograniczyć się do pomiaru zmian prędkości \\( \\Delta v \\) w bardzo krótkim czasie \\( \\Delta t \\) (podobnie jak dla prędkości chwilowej). Wówczas przyspieszenie chwilowe definiujemy jako pierwszą pochodną v względem \\( t \\).", "Z ruchem jednostajnie zmiennym spotykamy się na co dzień, np. gdy obserwujemy swobodny spadek ciał w pobliżu powierzchni Ziemi. Jeżeli możemy zaniedbać opór powietrza (w porównaniu z ciężarem ciała) to każde ciało upuszczone swobodnie porusza się ruchem jednostajnie przyspieszonym z przyspieszeniem równym \\( 9.81 \\) m/s \\( ^{2} \\).", "Wyrażenie na prędkość ciała poruszającego się ze stałym przyspieszeniem możemy otrzymać wprost ze wzoru ( 6 )", "Natomiast do policzenia położenia korzystamy ze wzoru ( 6 ) na prędkość średnią przekształconego do postaci", "Ponieważ w ruchu jednostajnie przyspieszonym prędkość rośnie jednostajnie od \\( v_{0} \\) do \\( v \\) więc prędkość średnia wynosi", "Łącząc powyższe trzy równania otrzymujemy", "Jako podsumowanie, pokazane jest graficzne przedstawienie ruchu prostoliniowego jednostajnego i jednostajnie zmiennego w postaci wykresów \\( x(t) \\), \\( v(t) \\) oraz \\( a(t) \\).", "Rozważając ruch po linii prostej możemy operować liczbami, a nie wektorami bo mamy do czynienia z wektorami równoległymi. Jednak trzeba sobie przy opisie zjawisk (rozwiązywaniu zadań) uświadamiać, że w równaniach ruchu mamy do czynienia z wektorami. Prześledzimy to wykonując następujące ćwiczenie:", "Pamiętanie o tym, że liczymy na wektorach jest bardzo istotne przy rozpatrywaniu ruchu w dwóch lub trzech wymiarach, np. w ruchu na płaszczyźnie."], "definitions": [{"name": "Definicja 1: Pojęcie ruchu", "content": "Pod pojęciem ruchu rozumiemy zmiany wzajemnego położenia jednych ciał względem drugich wraz z upływem czasu."}, {"name": "Definicja 2: Punkt materialny", "content": "Punkty materialne to obiekty obdarzone masą, których rozmiary (objętość) możemy zaniedbać."}, {"name": "Definicja 3: Prędkość", "content": "Prędkość definiujemy jako zmianę położenia ciała w jednostce czasu."}, {"name": "Definicja 4: Prędkość chwilowa", "content": "\nPrędkość chwilowa jest pochodną drogi względem czasu.\n\n(4)\n\n\t\t\t\t\t\t\t\t\\( {\\bf v}=\\frac{d\\;{\\bf x}}{d\\;t} \\)\n\n\n\n"}, {"name": "Definicja 5: Prędkość średnia", "content": "\n(5)\n\n\t\t\t\t\t\t\t\t\\( \\overline{{v}}=\\frac{x-x_{{0}}}{t} \\)\n\n\t\t\t\t\tgdzie\n \\( x - x_{0} \\) jest odległością przebytą w czasie \\( t \\)"}, {"name": "Definicja 6: Przyspieszenie", "content": "Przyspieszeniem nazywamy tempo zmian prędkości."}, {"name": "Definicja 7: Przyspieszenie", "content": "\n(7)\n\n\t\t\t\t\t\t\t\t\\( {\\bf a}=\\frac{\\mathit{d{\\bf v}}}{\\mathit{dt}} \\)\n\n"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 2. Kinematyka", "subject_id": 159, "subject": "Ruch na płaszczyźnie", "paragraphs": ["Ruch w dwóch wymiarach będziemy opisywać w układzie współrzędnych \\( x \\) i \\( y \\). Na przykład \\( y \\) - wysokość, \\( x \\) - odległość w kierunku poziomym. Pokażemy, że taki ruch można traktować jak dwa niezależne ruchy jednowymiarowe.", "Położenie punktu w chwili \\( t \\) przedstawia wektor \\( {\\bf r}(t) \\) ; prędkość wektor \\( {\\bf v}(t) \\) , przyspieszenie wektor \\( {\\bf a}(t) \\) . Wektory \\( {\\bf r}(t), {\\bf v}(t), {\\bf a}(t) \\) są wzajemnie zależne od siebie i dadzą się przedstawić za pomocą wersorów \\( {\\bf i} \\text{ oraz } {\\bf j} \\) czyli wektorów jednostkowej długości zorientowanych odpowiednio wzdłuż osi \\( x \\) i \\( y \\).", "Położenie punktu określić można podając wektor \\( {\\bf r} \\) lub, dla wybranego układu odniesienia, poprzez podanie współrzędnych tego wektora np. \\( x \\), \\( y \\). Oczywiście wektor \\( {\\bf r} \\) i jego współrzędne zmieniają się z czasem więc trzeba podać zależności czasowe \\( {\\bf r}(t) \\), \\( x(t) \\), \\( y(t) \\) tak jak na Rys. 1.", "Warto w tym miejscu również zapamiętać, że wektor prędkości jest zawsze styczny do toru poruszającego się punktu. Punkty, przez które przechodzi poruszający się punkt tworzą krzywą, którą nazywamy torem ruchu.", "Jako przykład rozpatrzmy ruchu jednostajnie zmienny na płaszczyźnie. Ponieważ ruch odbywa się ze stałym przyspieszeniem tzn. nie zmieniają się ani kierunek ani wartość przyspieszenia to nie zmieniają się też składowe przyspieszenia. Spróbujmy najpierw napisać równania wektorowe dla tego ruchu. Mają one następującą postać", "Przypuśćmy, że chcemy znaleźć położenie ciała (wektor \\( \\bf r \\)) po czasie \\( t \\). W tym celu, jak widać z równań ( 4 )( 5 ) i ( 6 ) trzeba wyznaczyć (znaleźć wartość, kierunek i zwrot) i dodać do siebie geometrycznie trzy wektory: \\( {\\bf r_{0}} \\), \\( {\\bf v_{0}} \\)t oraz \\( {1/2\\bf a}t^{2} \\). Zadanie możemy jednak znacznie uprościć korzystając z tego, że równania wektorowe ( 4 )( 5 ) i ( 6 ) są równoważne równaniom w postaci skalarnej (zestawionym w Tabela 1 poniżej) i zamiast dodawania geometrycznego wektorów możemy poprostu dodawać liczby. Znalezienie wektora \\( {\\bf r} \\) prowadza się teraz do znalezienia jego składowych.", "Na przykładzie modułu Rzut ukośny opisano ruch krzywoliniowy ze stałym przyspieszeniem."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 2. Kinematyka", "subject_id": 160, "subject": "Rzut ukośny", "paragraphs": ["Piłka kopnięta przez piłkarza lub rzucona przez koszykarza, oszczep lub dysk rzucony przez atletę czy wreszcie pocisk wystrzelony z działa poruszają się po torze krzywoliniowym. Naszym celem jest znalezienie prędkości i położenia rzuconego ciała w dowolnej chwili, opisanie toru ruchu i wyznaczenie zasięgu rzutu.", "Jeżeli pominiemy opory powietrza to ruch odbywa się ze stałym przyspieszeniem grawitacyjnym \\( {\\bf g}=(0, -g) \\) ; możemy więc zastosować równania z w module Ruch na płaszczyźnie. Ponieważ przyspieszenie jest skierowane \"w dół\" wygodnie jest wybrać układ współrzędnych tak, że \\( x \\) będzie współrzędną poziomą, a \\( y \\) pionową. Ponadto, przyjmijmy, że początek układu współrzędnych pokrywa się z punktem, z którego wylatuje ciało tzn. \\( r_{0} \\) = 0 oraz, że prędkość w chwili początkowej \\( t=0 \\) jest równa \\( v_{0} \\) i tworzy kąt \\( \\theta \\) z dodatnim kierunkiem osi \\( x \\) ( Rys. 1 poniżej).", "Składowe prędkości początkowej (zgodnie z Rys. 1 ) wynoszą odpowiednio", "Stąd dla składowej \\( x \\) (poziomej) prędkości otrzymujemy (porównaj z w module Ruch na płaszczyźnie )", "Ponieważ \\( g_{x}= 0 \\) (przyspieszenie jest skierowane w \"dół\") więc", "Składowa pozioma prędkości jest stała, ruch w kierunku \\( x \\) jest jednostajny. Natomiast dla składowej pionowej \\( y \\) otrzymujemy", "Ponieważ \\( g_{y}=-g \\) (przyspieszenie jest skierowane \"w dół\") więc", "Wartość wektora prędkości w dowolnej chwili wynosi", "Teraz obliczamy położenie ciała w dowolnej chwili \\( t \\). Ponownie korzystamy z równań z i otrzymujemy odpowiednio", "Wartość wektora położenia w dowolnej chwili obliczamy z zależności", "Sprawdźmy teraz po jakim torze porusza się nasz obiekt tzn. znajdźmy równanie krzywej \\( y(x) \\). Równania ( 8 ), ( 9 ) przedstawiają zależność \\( x(t) \\) oraz \\( y(t) \\). Równanie \\( y(x) \\) możemy więc obliczyć eliminując czas \\( t \\) z tych równań. Z zależności \\( x(t) \\) obliczamy \\( t \\), a następnie wstawiamy do równania \\( y(t) \\), które przyjmuje postać", "Otrzymaliśmy równanie paraboli (skierowanej ramionami w dół) i taki kształt ma tor ruchu \\( y(x) \\) pokazany na rysunku poniżej.", "Gdy mówimy o ruchu prostoliniowym to ewentualne przyspieszenie ciała związane jest ze zmianą wartości prędkości ale nie ze zmianą jej kierunku czy zwrotu. Dlatego mówimy wtedy o przyspieszeniu stycznym", "W omawianym rzucie ukośnym zmienia się zarówno wartości prędkości jak i jej kierunek i zwrot. Zanim jednak omówimy ten przypadek zaczniemy od rozpatrzenia prostszej sytuacji gdy wartość prędkości się nie zmienia, a zmienia się jej kierunek i zwrot tj. Ruch jednostajny po okręgu."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 2. Kinematyka", "subject_id": 190, "subject": "Ruch jednostajny po okręgu", "paragraphs": ["Rozważać będziemy ciało poruszające się ze stałą prędkością po okręgu o promieniu \\( R \\) pokazane na rysunku poniżej. Punkt materialny poruszający się jednostajnie po okręgu znajduje się w punkcie \\( P \\) w chwili \\( t \\), a w punkcie \\( P' \\) w chwili \\( t+\\Delta t \\). Wektory prędkości \\( {\\bf v},{\\bf v}' \\) mają jednakowe długości, ale różnią się kierunkiem; pamiętajmy, że wektor prędkości jest zawsze styczny do toru. Chcąc znaleźć przyspieszenie musimy wyznaczyć różnicę prędkości \\( {\\bf v } \\) i \\( {\\bf v }' \\).", "W tym celu przerysowujemy wektor \\( {\\bf v'} \\) w punkcie \\( P \\) i wyznaczamy różnicę \\( \\Delta {\\bf v} \\). Zauważmy, że kąt pomiędzy wektorami \\( {\\bf v } \\) i \\( {\\bf v }' \\) jest równy kątowi \\( \\theta \\) więc korzystając z podobieństwa trójkątów możemy zapisać równość", "gdzie \\( l \\) jest długością odcinka \\( PP' \\), a dla małych wartości \\( l \\) długością łuku \\( PP' \\). Ponieważ \\( l = v \\Delta t \\) więc", "Znając już \\( \\Delta v \\) możemy obliczyć przyspieszenie", "Jak widać na Rys. 1, wektor \\( \\Delta {\\bf v} \\) jest prostopadły do toru to znaczy pokrywa się z kierunkiem promienia i jest zwrócony do środka okręgu. Oznacza to, że i wektor przyspieszenia ma taki sam kierunek i zwrot ( Rys. 2 ). W ruchu po okręgu przyspieszenie to nazywamy przyspieszeniem dośrodkowym (jest zwrócone do środka okręgu), a dla ruchu po dowolnej krzywej przyspieszeniem normalnym \\( a_{n} \\) (jest prostopadłe do toru) lub radialnym \\( a_{r} \\) (jest skierowane wzdłuż promienia).", "Przyspieszenie normalne jest związane ze zmianą kierunku prędkości, a przyspieszenie styczne za zmianę jej wartości.", "Przyspieszenie dośrodkowe często wyraża się poprzez okres \\( T \\) czyli czas, w którym punkt materialny wykonuje pełen obieg okręgu. Ponieważ", "więc"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 2. Kinematyka", "subject_id": 182, "subject": "Ruch przyspieszony po okręgu", "paragraphs": ["W module tym uzupełnimy wiadomości z ruchu po okręgu wyprowadzając równania na przyspieszenie w tymże ruchu.", "Współrzędne \\( x, y \\) punktu poruszającego się po okręgu można wyrazić za pomocą promienia \\( R \\) (o stałej wartości) oraz kąta ( Rys. 1 poniżej).", "Przy czym związek między drogą liniową \\( s \\), a drogą kątową \\( \\varphi \\), jest dany z miary łukowej kąta \\( \\varphi = s/R \\).", "Różniczkując powyższe równania możemy obliczyć zgodnie ze wzorami Ruch na płaszczyźnie-( 1 ), Ruch na płaszczyźnie-( 2 ), Ruch na płaszczyźnie-( 3 ) składowe prędkości", "gdzie wprowadzono prędkość kątową \\( \\omega =d\\varphi/dt. \\)", "Różniczkując z kolei uzyskane równania otrzymamy zgodnie ze wzorami Ruch na płaszczyźnie-( 1 ), Ruch na płaszczyźnie-( 2 ), Ruch na płaszczyźnie-( 3 ) składowe przyspieszenia", "lub", "gdzie wprowadzono przyspieszenie kątowe \\( \\alpha = d \\omega /dt \\).", "Na podstawie powyższych zależności możemy obliczyć wektor całkowitego przyspieszenia", "Wektor przyspieszenia całkowitego a jest sumą dwóch wektorów: przyspieszenia stycznego a \\( _{s} \\) (równoległego do wektora prędkości v)", "i przyspieszenia normalnego a \\( _{n} \\) (przeciwnego do wektora R czyli skierowanego do środka okręgu)"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 2. Kinematyka", "subject_id": 161, "subject": "Ruch krzywoliniowy", "paragraphs": ["Prześledźmy przykład, w którym zmieniają się i wartość i kierunek prędkości. Całkowite przyspieszenie w ruchu krzywoliniowym jest sumą przyspieszenia stycznego \\( a_{s} \\) i prostopadłego do niego przyspieszenia normalnego \\( a_{n} \\).", "Ponownie rozpatrzymy rzut ukośny. W tym ruchu przyspieszenie grawitacyjne \\( g \\) jest odpowiedzialne zarówno za zmianę wartości prędkości i jej kierunku tak jak przedstawiono na Rys. 1 poniżej.", "Teraz obliczymy obie składowe przyspieszenia. Przyspieszenie styczne obliczamy na podstawie zależności \\( {a_{{s}}=\\mathit{dv}/{\\mathit{dt}}} \\) (obliczamy zmianę wartości prędkości) i wyrażenia na prędkość w rzucie ukośnym \\( {v=\\sqrt{v_{{0}}{{^2}}-2v_{{0}}gt\\sin\\theta+g{{^2}}t{{^2}}}} \\) (równanie Rzut ukośny-( 7 ) )", "Natomiast przyspieszenie normalne możemy obliczyć korzystając z zależności \\( {a_{{r}}=\\sqrt{g^{{2}}-a_{{s}}{{^2}}}} \\) ( Rys. 1 )", "Można oczywiście skorzystać z równania Ruch jednostajny po okręgu-( 3 ) \\( {a=v^{{2}}/{R}} \\), ale trzeba umieć obliczyć promień krzywizny \\( R \\) w każdym punkcie toru."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 3. Dynamika", "subject_id": 162, "subject": "Podstawy dynamiki", "paragraphs": ["Dotychczas zajmowaliśmy się wyłącznie opisem ruch (za pomocą wektorów \\( {\\bf r} \\), \\( {\\bf v} \\), oraz \\( {\\bf a} \\)). Były to rozważania geometryczne. Teraz omówimy przyczyny ruchu, zajmiemy się dynamiką. Nasze rozważania ograniczymy do przypadku ciał poruszających się z małymi (w porównaniu z prędkością światła \\( c \\)) prędkościami tzn. zajmujemy się mechaniką klasyczną.", "Żeby móc przewidzieć jaki będzie ruch ciała wywołany siłą na nie działającą trzeba wiedzieć jakiego rodzaju jest to siła i skąd się bierze. Dlatego rozpoczniemy nasze rozważania od poznania podstawowych oddziaływań oraz od zdefiniowania masy, pędu i wprowadzenia pojęcia siły \\( {\\bf F} \\). Następnie poszukamy praw rządzących oddziaływaniami, a w dalszych częściach zajmiemy się poszczególnymi oddziaływaniami występującymi w przyrodzie.", "Według naszej dotychczasowejj wiedzy istnieją tylko cztery podstawowe oddziaływania (siły), z których wynikają wszystkie siły i oddziaływania zaobserwowane we Wszechświecie:", "W tabeli poniżej zestawione są cztery oddziaływania podstawowe.", "Nasze rozważania rozpoczynamy od przypisania ciałom masy \\( m \\). Chcemy w ten sposób opisać fakt, że różne ciała wykonane z tego samego materiału, w tym samym otoczeniu uzyskują pod działaniem tej samej siły różne przyspieszenia (np. pchamy z jednakową siłą dwa rożne pojazdy \"lekki\" i \"ciężki\" i uzyskują one różne \\( {\\bf a} \\)).", "Zaproponowana poniżej metoda postępowania jest jednym z równoważnych sposobów definiowania masy. Opiera się ona na porównaniu nieznanej masy \\( m \\) z wzorcem masy \\( m_0=1 \\) kg. Pomiędzy masami umieszczamy ściśniętą sprężynę i następnie zwalniamy ją. Masy \\( m \\) i \\( m_0 \\), które początkowo spoczywały polecą odrzucone w przeciwnych kierunkach odpowiednio z prędkościami \\( v \\) i \\( v_0 \\) ( Rys. 1 ).", "Nieznaną masę \\( m \\) definiujemy jako", "Podstawiając wyrażenie ( 2 ) i wykonując różniczkowanie otrzymujemy", "a dla ciała o stałej masie \\( m= const \\) .", "Wprowadziliśmy w ten sposób pojęcie siły \\( \\bf F \\). Teraz podamy metodę obliczania sił działających na ciała; poznamy prawa rządzące oddziaływaniami.", "Na zakończenie tej części zapoznajmy się z jednostkami siły i masy."], "definitions": [{"name": "Definicja 1: Masa", "content": "\n(1)\n\n\t\t\t\t\t\t\t\t\\( m=m_{{0}}\\frac{v_{{0}}}{v} \\)\n\n"}, {"name": "Definicja 2: Pęd", "content": "Pęd ciała definiujemy jako iloczyn jegomasy i prędkości (wektorowej)\n\t\t\t\t\t(2)\n\n\t\t\t\t\t\t\t\t\\( {\\bf p}=\\mathit{m{\\bf v}} \\)\n\n"}, {"name": "Definicja 3: Siła", "content": "Jeżeli na ciało o masie \\( m \\) działa siła \\( \\bf F \\), to definiujemy ją jako zmianę w czasie pędu tego ciała. \n\t\t\t\t\t(3)\n\n\t\t\t\t\t\t\t\t\\( {\\bf F}=\\frac{\\mathit{d{\\bf p}}}{\\mathit{dt}} \\)\n\n"}, {"name": "Definicja 4: Jednostki", "content": "Jednostką masy w układzie SI jest kilogram (kg), natomiast jednostką siły jest niuton (N); 1N = 1kg·m/s \\( {^2} \\)"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 3. Dynamika", "subject_id": 163, "subject": "Zasady dynamiki Newtona", "paragraphs": ["Podstawowa teoria, która pozwala przewidywać ruch ciał, składa się z trzech równań, które nazywają się zasadami dynamiki Newtona.", "Sformułowanie pierwszej zasady dynamiki Newtona:", "Siła wypadkowa \\( {\\bf F}_{\\text{wyp}} \\) jest sumą wektorową wszystkich sił działających na ciało. Jeżeli \\( {\\bf F}_{\\text{wyp}}=0 \\), to również przyspieszenie ciała \\( {\\bf a}=0 \\), a to oznacza, że nie zmienia się ani wartość ani kierunek prędkości, tzn. ciało jest w stanie spoczynku lub porusza się ze stałą co do wartości prędkością po linii prostej.", "Zgodnie z pierwszą zasadą dynamiki nie ma rozróżnienia między ciałami spoczywającymi i poruszającymi się ze stałą prędkością. Nie ma też różnicy pomiędzy sytuacją, gdy nie działa żadna siła i przypadkiem, gdy wypadkowa wszystkich sił jest równa zeru.", "Sformułowanie drugiej zasady dynamiki Newtona:", "Sformułowanie trzeciej zasady dynamiki Newtona:", "Pierwsza zasada dynamiki wydaje się być szczególnym przypadkiem drugiej, bo, gdy \\( {\\bf a}=0 \\), to i \\( {\\bf F}_{\\text{wyp}}=0 \\). Przypisujemy jej jednak wielką wagę dlatego, że zawiera ważne pojęcie fizyczne: definicję inercjalnego układu odniesienia.", "Układy inercjalne są tak istotne, bo we wszystkich takich układach ruchami ciał rządzą dokładnie te sama prawa. Większość omawianych zagadnień będziemy rozwiązywać właśnie w inercjalnych układach odniesienia. Zazwyczaj przyjmuje się, że są to układy, które spoczywają względem gwiazd stałych, ale układ odniesienia związany z Ziemią w większości zagadnień jest dobrym przybliżeniem układu inercjalnego.", "Ponieważ przyspieszenie ciała zależy od przyspieszenia układu odniesienia (od przyspieszenia obserwatora), w którym jest mierzone, więc druga zasada dynamiki jest słuszna tylko, gdy obserwator znajduje się w układzie inercjalnym. Inaczej mówiąc, prawa strona równania \\( {\\bf F}=m{\\bf a} \\) zmieniałaby się w zależności od przyspieszenia obserwatora.", "Więcej o układach inercjalnych i nieinercjalnych dowiesz się w module Siły bezwładności.", "Zwróćmy jeszcze raz uwagę na fakt, że w równaniu drugiej zasady dynami Niutona występuje siła wypadkowa. Oznacza to, że trzeba brać sumę wektorową wszystkich sił działających na ciało. Doświadczenia potwierdzają zasadę addytywności sił. Zasada ta dotyczy również masy: masa układu jest sumą mas poszczególnych ciał tego układu.", "Siły oddziaływania pomiędzy punktami materialnymi należącymi do danego układu nazywamy siłami wewnętrznymi. Na przykład w ciałach stałych są to siły oddziaływania sprężystego pomiędzy atomami, cząsteczkami. Zgodnie z trzecią zasadą dynamiki Newtona, jeżeli punkt \\( i \\) układu działa na punkt \\( j \\), to równocześnie punkt \\( j \\) działa na punkt \\( i \\) siłą równą co do wartości, ale przeciwnie skierowaną \\( {{\\bf F}_{{i\\rightarrow j}}=-{\\bf F}_{{j\\rightarrow i}}} \\) .", "Na punkty materialne układ mogą ponadto działać siły zewnętrzne, to jest siły pochodzące spoza układu. Druga zasada dynamiki Newtona dla układu \\( n \\) punktów materialnych przyjmuje więc postać", "gdzie \\( m_{i} \\) oznacza masę \\( i \\)-tego punktu, \\( a_{i} \\) - jego przyspieszenie, \\( F_{i} \\) - wypadkową siłę działająca na ten punkt. W równaniu tym występuje suma wszystkich sił, to znaczy zarówno wewnętrznych jak i zewnętrznych. Jednak na podstawie pierwszego równania widzimy, że siły wewnętrzne znoszą się parami, więc ostatecznie wypadkowa wszystkich sił jest równa wypadkowej sił zewnętrznych.", "Prześledźmy teraz zastosowanie zasad dynamiki na następującym przykładzie.", "Zwróćmy uwagę na addytywność mas. Taki sam wynik otrzymalibyśmy traktując ciała jak jedną masę. Doświadczenia potwierdzają zasadę addytywności masy: masa układu jest sumą mas poszczególnych ciał układu.", "Podstawiając wynik ( 6 ) do równań ( 5 ) obliczamy naciągi nitek", "Spróbuj teraz samodzielnie rozwiązać podobny problem.", "Zwróćmy jeszcze raz uwagę na fakt, że w drugiej zasadzie dynamiki Newtona występuje siła wypadkowa. Oznacza to, że trzeba brać sumę wektorową wszystkich sił działających na ciało. Możesz się o tym przekonać rozwiązując podane poniżej zadanie.", "Bardziej zaawansowany przykład zastosowania zasad dynamiki możesz poznać w module Dodatek: Ruch w polu grawitacyjnym z uwzględnieniem oporu powietrza."], "definitions": [{"name": "Definicja 1: Inercjalny układ odniesienia", "content": "Pierwsza zasada dynamiki stwierdza, że jeżeli na ciało nie działa żadna siła (lub, gdy siła wypadkowa jest równa zeru), to istnieje taki układ odniesienia, w którym to ciało spoczywa lub porusza się ruchem jednostajnym prostoliniowym. Taki układ nazywamy układem inercjalnym."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 3. Dynamika", "subject_id": 165, "subject": "Siły kontaktowe i tarcie", "paragraphs": ["Gdy dwa ciała są dociskane do siebie, to występują między nimi siły kontaktowe. Źródłem tych sił jest odpychanie pomiędzy atomami. Przy dostatecznie małej odległości występuje przekrywanie chmur elektronowych i ich odpychanie rosnące wraz z malejącą odległością. Jest to siła elektromagnetyczna. Żeby prześledzić ten problem rozważmy następujący przykład.", "Siły kontaktowe, o których mówiliśmy, są normalne (prostopadłe) do powierzchni. Istnieje jednak składowa siły kontaktowej leżąca w płaszczyźnie powierzchni. Jeżeli ciało pchniemy wzdłuż stołu, to po pewnym czasie ciało to zatrzyma się. Z drugiej zasady dynamiki wiemy, że jeżeli ciało porusza się z przyspieszeniem (opóźnieniem), to musi na nie działać siła. Tę siłę, która przeciwstawia się ruchowi nazywamy siłą tarcia.", "Siła tarcia zawsze działa stycznie do powierzchni zetknięcia ciał i może istnieć nawet wówczas, gdy powierzchnie są nieruchome względem siebie. Żeby się o tym przekonać wystarczy wykonać proste ćwiczenie. Połóżmy na stole jakiś obiekt np. książkę i spróbujmy wprawić ją w ruch stopniowo zwiększając przykładaną siłę. Początkowo, gdy siła jest \"mała\", obiekt nie porusza się. Oznacza to, że naszej sile \\( F \\) przeciwstawia się siła tarcia \\( T \\) równa co do wartości, lecz przeciwnie do niej skierowana. Zwiększamy dalej siłę \\( F \\) , aż książka zacznie się poruszać. Zauważmy, że im gładsza powierzchnia tym szybciej to nastąpi. Siłę tarcia działającą między nieruchomymi powierzchniami nazywamy tarciem statycznym. Maksymalna siła tarcia statycznego \\( T_s \\) jest równa tej krytycznej sile, którą musieliśmy przyłożyć, żeby ruszyć ciało z miejsca. Dla suchych powierzchni \\( T_s \\) spełnia dwa prawa empiryczne.", "Stosunek maksymalnej siły \\( {T}_s \\) do siły nacisku \\( F_N \\) nazywamy współczynnikiem tarcia statycznego \\( \\mu_s \\)", "Zwróćmy uwagę, że we wzorze ( 3 ) występują tylko wartości bezwzględne sił (a nie wektorowe), bo te siły są do siebie prostopadłe.", "Wiemy już, że gdy działająca siła \\( F \\) jest większa od \\( T_s \\), to ciało zostanie wprawione w ruch, ale nadal będzie istniała siła tarcia, tarcia kinetycznego \\( T_{k} \\), przeciwstawiająca się ruchowi. Siła \\( T_{k} \\) spełnia dodatkowo, oprócz dwóch wymienionych powyżej, trzecie empiryczne prawo.", "Istnieje, analogiczny do \\( \\mu_s \\), odpowiedni współczynnik tarcia kinetycznego \\( \\mu_k \\)", "Dla większości materiałów \\( \\mu_k \\)jest nieco mniejszy od \\( \\mu_s \\).", "Tarcie jest bardzo złożonym zjawiskiem i wyjaśnienie go wymaga znajomości oddziaływań atomów na powierzchni. Dlatego ograniczmy się do zauważenia, że tarcie odgrywa bardzo istotną rolę w życiu codziennym. Na przykład w samochodzie na pokonanie siły tarcia zużywa się około \\( 20\\% \\) mocy silnika. Tarcie powoduje zużywanie się trących powierzchni i dlatego staramy się je zmniejszać. Z drugiej strony wiemy, że bez tarcia nie moglibyśmy chodzić, jeździć samochodami, czy też pisać ołówkiem.", "W przykładach pokazujących zastosowanie zasad dynamiki Newtona opisywaliśmy ruch ciał z punktu widzenia inercjalnych układów odniesienia, to znaczy takich, w których ciało nie poddane działaniu sił pozostaje w spoczynku lub porusza się ruchem jednostajnym prostoliniowym. Teraz zajmiemy się układami nieinercjalnymi i występującymi w nich siłami bezwładności."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 3. Dynamika", "subject_id": 249, "subject": "Środek masy", "paragraphs": ["Traktowanie przedmiotów jak punktów materialnych, tzn. obdarzonych masą cząstkek bezwymiarowych (o zerowej objętości), wystarczało w przypadku ruchu postępowego ciał, ponieważ ruch jednego punktu odzwierciedlał ruch całego ciała. Jednak rzeczywiste ciała są układami ogromnej liczby atomów, a ich ruch może być bardzo skomplikowany. Ciało może wirować lub drgać, w trakcie ruchu cząstki mogą zmieniać swoje wzajemne położenie. Przykład takiego ruchu jest przedstawiony na Rys. 1.", "Zauważmy, że istnieje w tym układzie jeden punkt, który porusza się po linii prostej ze stałą prędkością. Żaden inny punkt nie porusza się w ten sposób. Ten punkt to środek masy. Sposób wyznaczania środka masy zilustrujemy następującym przykładem.", "Widzimy, że położenie środka masy układu punktów materialnych wyznaczamy jak średnią ważoną, przy czym masa tych punktów jest czynnikiem ważącym przy tworzeniu średniej. Przez analogię dla układu \\( n \\) cząstek (punktów materialnych) współrzędna \\( x \\) środka masy jest dana zależnością", "gdzie suma mas \\( m_i \\) poszczególnych punktów układu jest całkowitą masą \\( M \\) układu. Postępując w ten sam sposób, możemy wyznaczyć pozostałe współrzędne \\( y \\), \\( z \\). W wyniku otrzymujemy trzy równania skalarne (analogiczne do ( 3 ) ), które możemy zastąpić jednym równaniem wektorowym", "Zauważmy, że środek masy układu punktów materialnych zależy tylko od mas tych punktów i od wzajemnego ich rozmieszczenia, a nie zależy od wyboru układu odniesienia. Dla ciał o regularnym kształcie środek masy pokrywa się ze środkiem geometrycznym."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 3. Dynamika", "subject_id": 166, "subject": "Ruch środka masy", "paragraphs": ["Rozważmy układ punktów materialnych o masach \\( m_1 \\), \\( m_2 \\), \\( m_3 \\) ..., \\( m_{n} \\) i o stałej całkowitej masie \\( M \\). Na podstawie równania Środek masy-( 4 ) możemy napisać", "Różniczkując (względem czasu) powyższe równanie otrzymujemy zgodnie z równaniami Ruch na płaszczyźnie-( 1 ), Ruch na płaszczyźnie-( 2 ) oraz Ruch na płaszczyźnie-( 3 )", "a po ponownym różniczkowaniu", "To ostatnie równanie możemy zapisać w postaci", "Suma (wektorowa) wszystkich sił działających na poszczególne punkty materialne układu jest równa wypadkowej sile zewnętrznej więc", "Z równania ( 7 ) wynika, że", "Z twierdzenia o ruchu środka masy wynika, że nawet ciała materialne będące układami złożonymi z dużej liczby punktów materialnych możemy w pewnych sytuacjach traktować jako pojedynczy punkt materialny. Tym punktem jest środek masy. To twierdzenie obowiązuje dla każdego układu punktów materialnych. W szczególności układ może być ciałem o budowie ciągłej (np. ciało stałe). Wtedy przy obliczeniach środka masy sumowanie występujące w równaniach Środek masy-( 3 ) i Środek masy-( 4 ) zastępujemy całkowaniem. Układ może też być zbiorem cząstek, w którym występują wszystkie rodzaje ruchu wewnętrznego. Pojęcie środka masy jest bardzo użyteczne np. do obliczania energii kineycznej.", "Bardziej zaawansowany przykład wykorzystania pojęcia środka masy (do obliczania energii kinetycznej) możesz poznać w Energia kinetyczna w układzie środka masy"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 3. Dynamika", "subject_id": 164, "subject": "Siły bezwładności", "paragraphs": ["Omawiając zasady dynamiki Newtona wprowadziliśmy ważne pojęcie fizyczne: zdefiniowaliśmy inercjalny układ odniesienia. Stwierdziliśmy wtedy, że układy inercjalne są tak istotne, bo we wszystkich takich układach ruchami ciał rządzą dokładnie te sama prawa, i dlatego większość zagadnień staramy się rozwiązywać właśnie w inercjalnych układach odniesienia. Nasuwa się jednak pytanie, jak stosować zasady dynamiki Newtona w układzie odniesienia, który doznaje przyspieszenia. Na przykład, co możemy powiedzieć o siłach, jakich działania \"doznajemy\", gdy znajdujemy się w samochodzie, który przyspiesza, hamuje lub zakręca?", "W tym celu rozpatrzymy ruch ciała o masie \\( m \\) poruszającego się wzdłuż osi \\( x \\) ruchem przyspieszonym, pod wpływem działania siły \\( F= ma \\) .", "Ruch ten jest obserwowany z dwóch różnych układów odniesienia (dwaj obserwatorzy), z których jeden \\( xy \\) jest układem inercjalnym, a drugi \\( x'y' \\) porusza się względem pierwszego wzdłuż osi \\( x \\) ( Rys. 1 ).", "Odległość miedzy dwoma obserwatorami (układami) wynosi w danej chwili \\( x_0(t) \\), więc związek między położeniem ciała rejestrowanym przez obu obserwatorów ma postać", "Natomiast przyspieszenie w obu układach znajdujemy korzystając z równań Ruch na płaszczyźnie-( 1 ), Ruch na płaszczyźnie-( 2 ), Ruch na płaszczyźnie-( 3 )", "to znaczy, różniczkując dwukrotnie równanie ( 1 )", "Widać, że przyspieszenia w obu układach są równe tylko wtedy, gdy \\( a_0=0 \\), więc gdy układ \\( x'y' \\) porusza się względem układu \\( xy \\) ruchem jednostajnym lub względem niego spoczywa, to znaczy, gdy układ \\( x'y' \\) też jest układem inercjalnym tak jak \\( xy \\). Natomiast gdy \\( a_0{\\neq}0 \\), to układ \\( xy \\) nazywamy układem nieinercjalnym, a jego przyspieszenie \\( a_0 \\) przyspieszeniem unoszenia.", "Widzimy, że przyspieszenie ciała zależy od przyspieszenia układu odniesienia (od przyspieszenia obserwatora), w którym jest mierzone, więc druga zasada dynamiki jest słuszna tylko, gdy obserwator znajduje się w układzie inercjalnym. Inaczej mówiąc, prawa strona równania \\( F= ma \\) zmienia się w zależności od przyspieszenia obserwatora. Jeżeli pomnożymy równanie ( 3 ) obustronnie przez \\( m \\), to otrzymamy", "Widzimy, że w układzie \\( x'y' \\) (przyspieszającym) nie obowiązują zasady dynamiki Newtona, bo:", "Ze wzorów ( 4 ) i ( 5 ) wynika, że jeżeli w układach nieinercjalnych chcemy stosować drugą zasadę dynamiki Newtona, to musimy uwzględniać siły bezwładności.", "Jak już mówiliśmy, istnieją tylko cztery podstawowe oddziaływania, z których wynikają wszystkie siły zaobserwowane we Wszechświecie. Wszystkie te siły nazywamy siłami rzeczywistymi, ponieważ możemy je zawsze związać z działaniem pochodzącym od konkretnym ciał materialnych. Inaczej jest z siłami bezwładności, które nie pochodzą od innych ciał, a ich obserwowanie jest związane wyłącznie z wyborem nieinercjalnego układu odniesienia. Dlatego siły bezwładności nazywamy siłami pozornymi.", "Działanie sił bezwładności odczuwamy nie tylko podczas przyspieszania i hamowania (przyspieszenie styczne), ale również gdy zmienia się kierunek prędkości. Zgodnie z definicją siły bezwładności", "a dla ruchu krzywoliniowego przyspieszenie układu jest przyspieszeniem normalnym (dośrodkowym w ruchu po okręgu)", "więc wartość siły bezwładności wynosi", "Tę siłę bezwładności nazywamy siłą odśrodkową. Z taką siłą mamy do czynienia na przykład podczas jazdy samochodem na zakręcie. Również Ziemia nie jest idealnym układem inercjalnym, ponieważ wiruje. Jednak w większości rozpatrywanych przez nas zjawisk można zaniedbać wpływ ruchu Ziemi na ich przebieg.", "Wpływ ruchu obrotowego układu na ruch względny ciała (siła bezwładności Coriolisa) została omówiona w module Siła Coriolisa."], "definitions": [{"name": "Definicja 1: Siła bezwładności", "content": "Iloczyn masy i przyspieszenia unoszenia (ze znakiem minus) nazywamy siłą bezwładności \\( F_{b} \\)."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 3. Dynamika", "subject_id": 243, "subject": "Zadania z kinematyki i dynamiki", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 3. Dynamika", "subject_id": 173, "subject": "Podsumowanie kinematyki i dynamiki", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 3. Dynamika", "subject_id": 1449, "subject": "Dodatek: Ruch w polu grawitacyjnym z uwzględnieniem oporu powietrza", "paragraphs": ["Naszym zadaniem jest opisanie ruchu ciała o masie \\( m \\) puszczonego z pewnej wysokości nad powierzchnią Ziemi, które spadając doznaje oporu powietrza. Z codziennych doświadczeń wiemy, że opór powietrza zależy od prędkości, na przykłady podczas jazdy na rowerze, i jest tym większy im szybciej jedziemy. Przyjmiemy więc, założenie że siła oporu powietrza jest proporcjonalna do prędkości \\( v \\)", "Znak minus wskazuje, że siła oporu działa przeciwnie do kierunku ruchu (wektora prędkości \\( {\\bf v} \\)).", "Ruch ciała odbywa się pod działaniem dwóch sił: stałej siły grawitacji i zmiennej siły oporu. Wraz ze wzrostem prędkości rośnie siła oporu, aż do momentu gdy stanie się ona równa co do wartości sile grawitacji. Wówczas siła wypadkowa działająca na ciało staje się równa zeru, prędkość dalej już nie rośnie i nie rośnie też siła oporu, zgodnie z pierwszą zasadą dynamiki ciało porusza się od tej chwili ruchem jednostajnym, prostoliniowym. Graniczną prędkość \\( v_gr \\) jaką osiąga ciało obliczamy z warunku", "Teraz poszukujemy odpowiedzi napytanie jak zmienia się prędkość podczas ruchu. W tym celu korzystamy z Zasady dynamiki Newtona-Druga zasada dynamiki Newtona, która przyjmuje postać równania", "Rozwiązaniem równania różniczkowego ( 4 ) jest funkcja \\( v(t) \\)", "Zależność ta jest wykreślona na Rys. 1 poniżej. Widać, że po odpowiednio długim czasie prędkość osiąga wartość graniczną.", "Otrzymaliśmy więc równanie \\( v(t) \\) opisujące ruch ciała."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 4. Praca i energia", "subject_id": 167, "subject": "Energia i praca wykonana przez siłę stałą", "paragraphs": ["Znajomość zagadnień związanych z szeroko rozumianym pojęciem energii jest konieczna dla wszelkich rozważań zarówno technologicznych, ekonomicznych, ekologicznych jak i społecznych. Żeby się o tym przekonać wystarczy sprawdzić jak istotną pozycją w budżecie domowym stanowią wydatki związane z zapotrzebowaniem na energię (zakupy żywności, opłaty za prąd, gaz, ogrzewanie czy paliwo do samochodu).", "Z energią związana jest najważniejsza chyba zasada całej fizyki - zasada zachowania energii. Nakłada ona sztywne granice na przetwarzanie energii i jej wykorzystanie. Do zasady tej będziemy się odwoływali wielokrotnie w kolejnych rozdziałach dotyczących różnych zagadnień fizyki. W mechanice zasada zachowania energii pozwala obliczać w bardzo prosty sposób ruch ciał, stanowi alternatywę do stosowania zasad dynamiki Newtona.", "W najprostszym przypadku, punkt materialny przemieszcza się pod wpływem stałej siły \\( F \\). Traktując przesunięcie \\( s \\) jako wektor o długości równej drodze jaką przebywa ten punkt i kierunku zgodnym z kierunkiem ruchu, możemy zdefiniować pracę \\( W \\).", "gdzie \\( \\alpha \\) jest kątem między kierunkami siły i przesunięcia. Zwróćmy uwagę, że kąt \\( \\alpha \\) może być różny od zera bo stała siła nie musi mieć kierunku zgodnego z kierunkiem ruchu punktu materialnego. Dzieje się tak gdy działają jeszcze inne siły (np. ciężar, tarcie). Ale nawet gdy działała tylko jedna siła to i tak ciało nie musi poruszać się w kierunku jej działania np. siła grawitacji w rzucie ukośnym. Rozpatrzmy teraz następujący przykład.", "Ze wzoru ( 1 ) wynika, że praca może przyjmować zarówno wartości dodatnie gdy \\( \\alpha < 90° \\) , jak i ujemne gdy \\( \\alpha > 90° \\). W omawianym przykładzie, poza siłą ciągnącą ciało, działa jeszcze siła tarcia kinetycznego \\( T \\) (zob. Rys. 1 ) przeciwstawiająca się ruchowi ( \\( \\alpha= 180° \\)). Praca wykonana przez siłę tarcia jest ujemna \\( W={\\bf T}\\cdot {\\bf s}=Ts\\cos 180° = -Ts \\). W szczególności praca może być równa zeru, gdy kierunek siły jest prostopadły do kierunku przesunięcia ( \\( \\alpha = 90° \\) , \\( \\cos 90°= 0 \\) ). Przykładem może być siła dośrodkowa. Przyspieszenie dośrodkowe jest prostopadłe do toru więc siła dośrodkowa nie wykonuje pracy.", "Rozpatrzmy jeszcze raz powyższy przykład, ale w sytuacji gdy człowiek ciągnący ciało porusza się ze stałą prędkością. Z pierwszej zasady dynamiki wynika, że wtedy \\( {\\bf F}_{wyp}= 0 \\). W kierunku poziomym \\( F_{wyp}=F\\cos\\alpha-T=0 \\), zatem \"dodatnia\" praca wykonana przez człowieka jest równa co do wartości bezwzględnej \"ujemnej\" pracy wykonanej przez siłę tarcia.", "Z podobna sytuacją mamy do czynienia przy podnoszeniu w górę (ze stałą prędkością) ciała o masie \\( m \\) na wysokość \\( h \\) (zob. Rys. 2 ).", "Zauważmy, że w trakcie podnoszenia ciała człowiek działa siłą \\( F \\) równą ciężarowi ale przeciwnie skierowaną, więc \"dodatnia\" praca \\( W = mgh \\) wykonana na drodze \\( h \\) przez siłę \\( F \\) (człowieka) jest równa co do wartości \"ujemnej\" pracy wykonanej przez siłę ciężkości.", "Wzór ( 1 ) pozwala obliczyć pracę dla siły stałej; do obliczeń \"podstawiamy\" za \\( F \\) konkretną jej wartość. W module Praca wykonana przez siłę zmienną poznamy jak obliczyć pracę gdy siła zmienia się, przyjmuje różne wartości."], "definitions": [{"name": "Definicja 1: Praca", "content": "\nPraca \\( W \\) wykonana przez stałą siłę \\( {\\bf F} \\) jest iloczynem skalarnym tej siły \\( {\\bf F} \\) i wektora przesunięcia \\( {\\bf s} \\).\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( W={\\bf F}\\cdot {\\bf s}=Fs{\\cos}\\alpha \\)\n\n"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 4. Praca i energia", "subject_id": 168, "subject": "Praca wykonana przez siłę zmienną", "paragraphs": ["Rozważmy teraz siłę będącą funkcją położenia \\( F(x), \\) której kierunek jest zgodny z osią \\( x. \\) Szukamy pracy jaką wykona ta siła przy przesuwaniu ciała od położenia \\( x_1 \\) do położenia \\( x_2. \\) Wzór \\( W={\\bf F}\\cdot {\\bf s} \\) pozwala obliczyć pracę dla stałej siły \\( {\\bf F}. \\) Natomiast gdy wartość siły zmienia się, na przykład tak jak na Rys. 1, Rys. 2 oraz Rys. 3 (linia ciągła), trzeba stosować inny algorytm.", "Zacznijmy od zastosowania przybliżenia. Dzielimy całkowite przemieszczenie \\( x \\) na \\( n \\) jednakowych odcinków \\( \\Delta x \\) tak, jak na Rys. 1. Wewnątrz takiego przedziału \\( \\Delta x \\) przyjmujemy (i to jest to przybliżenie), że siła jest stała i możemy już teraz skorzystać ze wzoru ( 1 ) do obliczenia pracy w dowolnym przedziale \\( \\Delta x \\)", "gdzie \\( F_i \\) jest wartością siły na \\( i \\)-tym odcinku \\( \\Delta x \\). Następnie sumujemy prace wykonane na poszczególnych odcinkach, otrzymując całkowitą pracę", "Zwróćmy uwagę, że od strony czysto formalnej liczenie pracy jest równoważne liczeniu sumy powierzchni kolejnych prostokątów o podstawie \\( \\Delta x \\) i wysokości \\( F_i. \\)", "Możemy \"poprawić\" nasze przybliżenie. W tym celu, w kolejnym kroku dzielimy przedział ( \\( x_1 \\), \\( x_2 \\)) na więcej (mniejszych) odcinków \\( \\Delta x \\), tak jak pokazano na Rys. 2. Widać, że nowe przybliżenie jest lepsze. Wartości sił \\( F_i \\) dla poszczególnych przedziałów są znacznie bliższe rzeczywistej funkcji \\( F(x) \\), a co za tym idzie obliczona (wzór ( 2 ) ) wartość pracy całkowitej jest bliższa wartości rzeczywistej (pola powierzchni prostokątów bardziej pokrywają się z polem pod krzywą).", "Widać, że rozwiązaniem problemu jest przejście (w granicy) \\( \\Delta x \\rightarrow 0 \\). Stosujemy tę samą procedurę, obliczając całkowitą pracę.", "W taki sposób w matematyce definiujemy całkę. Całkowanie funkcji \\( F(x) \\) w zadanych granicach odpowiada liczeniu pola powierzchni pod krzywą \\( F(x) \\) w zadanym przedziale (zob. Rys. 3 ). Ta procedura odpowiada też z definicji liczeniu wartości średniej \\( {W=\\overset{{\\text{__}}}{{F}}(x_{{2}}-x_{{1}})} \\), co zgadza się z intuicyjnym podejściem.", "Żeby obliczyć pracę wykonaną przez zmienną siłę trzeba albo umieć obliczyć całkę (ewentualnie poszukać rozwiązania w tablicach), albo umieć obliczyć pole powierzchni pod krzywą, co w szczególnych przypadkach nie jest trudne."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 4. Praca i energia", "subject_id": 169, "subject": "Energia kinetyczna", "paragraphs": ["Rozpatrzmy jeszcze raz ruch ciała pod wpływem stałej, niezrównoważonej siły \\( {\\bf F} \\) i obliczmy pracę jaką wykonuje ona na drodze \\( {\\bf s} \\). Stałość siły oznacza, że ruch odbywa się ze stałym przyspieszeniem \\( {\\bf a} \\). Zakładamy ponadto, że kierunek siły \\( {\\bf F} \\) i przyspieszenia \\( {\\bf a} \\) pokrywa się z kierunkiem przesunięcia \\( {\\bf s} \\). Dla ruchu jednostajnie przyspieszonego możemy napisać", "co w połączeniu daje", "Wykonana praca jest równa", "Na podstawie wzorów ( 3 ) i ( 4 ) widzimy, że", "To jest twierdzenie o pracy i energii.", "Z tego twierdzenia wynika, że jednostki pracy i energii są takie same.", "Spróbuj teraz wykonać proste ćwiczenie."], "definitions": [{"name": "Definicja 1: Energia kinetyczna", "content": "\nPołowę iloczynu masy ciała i kwadratu prędkości nazywamy energią kinetyczną \\( E_{k} \\) ciała o masie \\( m \\).\n\n(5)\n\n\t\t\t\t\t\t\t\t\\( E_{{k}}=\\frac{1}{2}\\mathit{mv}{{^2}} \\)\n\n\n\n"}, {"name": "Definicja 2: Jednostki", "content": "\nJednostką pracy i energii jest w układzie SI dżul (J); 1J = 1N·m.\nW fizyce atomowej powszechnie używa się jednostki elektronowolt (eV) 1eV \\( =1.6·10{^{-19}} \\) J.\n\n"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 4. Praca i energia", "subject_id": 170, "subject": "Moc", "paragraphs": ["Z punktu widzenia zastosowań praktycznych często istotnym jest nie to ile energii można uzyskać ze źródła ale to jak szybko można ją uzyskać (zamienić w użyteczną postać). Na przykład, ważnym parametrem samochodu, istotnym przy wyprzedzaniu, jest to jak szybko samochód przyspiesza tzn. jak szybko silnik wykonuje pracę związaną z rozpędzaniem samochodu. Inny przykład to, dwa dźwigi, które podnoszą jednakowe masy na jednakową wysokość \\( h \\) ale w różnym czasie. Tak jak zostało to już pokazane na wcześniejszym przykładzie, każdy z dźwigów wykonuje taką samą pracę równą \\( mgh \\). Jednak jeden zdźwigów wykonuje tę pracę w czasie krótszym niż drugi. Mówimy, że ten dźwig ma większą moc.", "Jeżeli praca \\( W \\) została wykonana w czasie \\( t \\) to średnia moc jest dana wzorem", "Dla stałej siły \\( F \\) wzór ten przyjmuje postać", "Dla czasu \\( t\\rightarrow 0 \\) mówimy o mocy chwilowej", "Moc chwilową obliczamy jako pochodną pracy względem czasu."], "definitions": [{"name": "Definicja 1: Moc", "content": "Moc definiujemy jako ilość wykonanej pracy (lub przekazanej energii) do czasu w jakim została ona wykonana."}, {"name": "Definicja 2: Jednostki", "content": "Jednostką mocy w układzie SI jest wat (W); 1 W = 1 J/ s. Dla celów praktycznych powszechnie stosowaną jednostką mocy jest kilowat (kW), a jednostką energii (iloczyn mocy i czasu) jest kilowatogodzina (kWh)."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 4. Praca i energia", "subject_id": 174, "subject": "Siły zachowawcze i niezachowawcze", "paragraphs": ["Praca wykonana przez siłę wypadkową działającą na punkt materialny (ciało) wzdłuż pewnej drogi, jest równa zmianie energii kinetycznej \\( E_k \\) tego punktu materialnego", "Skorzystamy z tego związku dla rozróżnienia sił zachowawczych i niezachowawczych. W tym celu rozpatrzmy ciało rzucone pionowo do góry, któremu nadano prędkość początkową \\( v_0 \\), a tym samym energię kinetyczną \\( E_k=\\frac{mv_0^2}{2} \\). Podczas wznoszenia się ciała, siła grawitacji działa przeciwnie do kierunku ruchu więc prędkość ciała, a także i jego energia kinetyczna maleją aż do zatrzymania ciała. Następnie ciało porusza się w przeciwnym kierunku pod wpływem siły grawitacji, która teraz jest zgodna z kierunkiem ruchu. Przy zaniedbywalnym oporze powietrza, prędkość i energia kinetyczna rosną aż do wartości jaką ciało miało początkowo. Ciało rzucone do góry, wraca z tą samą prędkością i energią kinetyczną. Widzimy, że po przebyciu zamkniętej drogi (cyklu) energia kinetyczna ciała nie zmieniła się, więc na podstawie równania ( 1 ) oznacza to, że praca wykonana przez siłę grawitacji podczas pełnego cyklu jest równa zeru. Praca wykonana przez siłę grawitacji podczas wznoszenia się ciała jest ujemna, bo siła jest skierowana przeciwnie do przemieszczenia (kąt pomiędzy przemieszczeniem i siłą wynosi \\( 180°; \\cos 180° = -1 \\)). Gdy ciało spada siła i przemieszczenie są jednakowo skierowane, praca jest dodatnia, tak że całkowita praca jest równa zeru.", "Siła grawitacji jest siłą zachowawczą. Wszystkie siły, które działają w ten sposób, np. siła sprężysta wywierana przez idealną sprężynę, nazywamy siłami zachowawczymi.", "Jeżeli jednak, opór powietrza nie jest do zaniedbania, to ciało rzucone pionowo w górę powraca do położenia początkowego i ma inną energię kinetyczną niż na początku, ponieważ siła oporu przeciwstawia się ruchowi bez względu na to, w którym kierunku porusza się ciało (nie tak jak siła grawitacji). Praca wykonywana przez siłę oporu jest ujemna dla każdej części cyklu, zarówno przy wznoszeniu jak i opadaniu ciała, więc podczas tego cyklu została wykonana praca różna od zera.", "Siła oporu powietrza jest siłą niezachowawczą. Wszystkie siły, które działają w ten sposób, np. siła tarcia, nazywamy siłami niezachowawczymi.", "Różnicę między siłami niezachowawczymi i zachowawczymi możemy zobrazować jeszcze inaczej. W tym celu rozpatrzmy pracę wykonaną przez siłę grawitacji podczas ruchu ciała z punktu \\( A \\) do punktu \\( B \\) po dwóch różnych drogach tak jak pokazano na rysunku poniżej.", "Z naszych poprzednich rozważań wiemy, że praca wykonana przez siłę grawitacji podczas ruchu ciała w górę jest ujemna, bo siła jest skierowana przeciwnie do przemieszczenia (kąt pomiędzy przemieszczeniem i siłą wynosi \\( 180°; \\cos 180° = -1 \\)). Gdy ciało przemieszcza się w dół, to siła grawitacji i przemieszczenie są jednakowo skierowane, praca jest dodatnia. Natomiast przy przemieszczaniu w bok, siła grawitacji nie wykonuje żadnej pracy, bo jest prostopadła do przemieszczenia ( \\( \\cos90° = 0 \\)). Widzimy, że przesunięcia w górę znoszą się z przemieszczeniami w dół, tak że wypadkowe przemieszczenie w pionie wynosi \\( h \\) i w konsekwencji wypadkowa praca wykonana przez siłę grawitacji wynosi \\( W = mgh \\) bez względu na wybór drogi. Praca w polu grawitacyjnym nie zależy od wyboru drogi łączącej dwa punkty, ale od ich wzajemnego położenia.", "Możemy uogólnić nasze rozważania na dowolną siłę zachowawczą. Jeszcze raz rozpatrzmy ruch ciała z punktu \\( A \\) do punkt \\( B \\) po jednej drodze (1) oraz powrót z \\( B \\) do \\( A \\) po innej drodze (2) ( Rys. 2a).", "Ponieważ siła działająca na ciało jest zachowawcza, to dla drogi zamkniętej z \\( A \\) do \\( B \\) i z powrotem praca jest równa zeru", "lub zapisując to inaczej", "Jeżeli teraz odwrócimy kierunek ruchu i przejdziemy z \\( A \\) do \\( B \\) po drodze (2) ( Rys. 2b) to, ponieważ zmieniamy tylko kierunek ruchu, to otrzymujemy pracę tę samą, co do wartości ale różniącą się znakiem", "Porównując dwa ostatnie równania otrzymujemy", "Widać z tego, że praca wykonana przez siłę zachowawczą przy przemieszczaniu ciała od \\( A \\) do \\( B \\) jest taka sama dla obu dróg. Drogi (1) i (2) mogą mieć dowolny kształt o ile tylko łączą te same punkty \\( A \\) i \\( B \\)", "Przedstawione definicje siły zachowawczej są równoważne.", "Teraz, kiedy znasz już definicję sił zachowawczych, wykonaj poniższe ćwiczenie."], "definitions": [{"name": "Definicja 1: Siła zachowawcza", "content": "Siła jest zachowawcza, jeżeli praca wykonana przez tę siłę nad punktem materialnym, który porusza się po dowolnej drodze zamkniętej, jest równa zeru."}, {"name": "Definicja 2: Siła nie zachowawcza", "content": "Siła jest niezachowawcza, jeżeli praca wykonana przez tę siłę nad punktem materialnym, który porusza się po dowolnej drodze zamkniętej, nie jest równa zeru."}, {"name": "Definicja 3: Siła zachowawcza i niezachowawcza", "content": "Siłę nazywamy zachowawczą, jeżeli praca wykonana przez nią nad punktem materialnym poruszającym się między dwoma punktami zależy tylko od tych punktów, a nie od łączącej je drogi. Siłę nazywamy niezachowawczą, jeżeli praca wykonana przez nią nad punktem materialnym poruszającym się między dwoma punktami zależy od drogi łączącej te punkty. "}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 4. Praca i energia", "subject_id": 171, "subject": "Energia potencjalna", "paragraphs": ["Gdy rozpatrywaliśmy (w module Siły zachowawcze i niezachowawcze ) ruch ciała pod wpływem siły grawitacji lub siły sprężystości widzieliśmy, że energia kinetyczna poruszającego się ciała zmieniała się (malała i rosła) podczas ruchu, tak że w cyklu zamkniętym powracała do początkowej wartości. W tej sytuacji, gdy działają siły zachowawcze, do opisania tych zmian celowe jest wprowadzenie pojęcia energii potencjalnej \\( E_{p} \\). Mówimy, że zmianie energii kinetycznej ciała o wartość \\( \\Delta E_k \\) towarzyszy zmiana energii potencjalnej \\( \\Delta E_p \\) tego ciała równa co do wartości, ale przeciwnego znaku, tak że suma tych zmian jest równa zeru", "Każda zmiana energii kinetycznej ciała \\( E_k \\) jest równoważona przez zmianę energii potencjalnej \\( E_p \\), tak że ich suma pozostaje przez cały czas stała", "Energię potencjalną można traktować jako energię nagromadzoną, która może być w przyszłości całkowicie odzyskana i zamieniona na inną użyteczną formę energii. Oznacza to, że nie możemy wiązać energii potencjalnej z siłą niezachowawczą. Energię potencjalną często nazywa się energią stanu. Mówimy, że jeżeli energia układu zmieniła się to zmienił się stan układu.", "Z twierdzenia o pracy i energii Energia kinetyczna-( 6 ) wynika, że", "więc zgodnie z wprowadzonym pojęciem energii potencjalnej, dla zachowawczej siły \\( F \\), zachodzi związek", "Korzystając z ogólnego wzoru na pracę Praca wykonana przez siłę zmienną-( 3 ) otrzymujemy ogólną zależność", "Możemy również zapisać zależność odwrotną między siłą i energią potencjalną", "Zauważmy, że na podstawie równania ( 5 ) potrafimy obliczyć zmianę energii potencjalnej \\( \\Delta E_p \\), a nie samą energię potencjalną \\( E_p \\). Ponieważ \\( \\Delta E_p=E_p(r)-E_p(r_0) \\), to żeby znaleźć \\( E_p(r) \\) trzeba nie tylko znać siłę ale jeszcze wartość \\( E_p(r_0) \\)", "Punkt \\( r_0 \\) nazywamy punktem odniesienia i zazwyczaj wybieramy go tak, żeby energia potencjalna w tym punkcie odniesienia \\( E_p(r_0) \\) była równa zeru. Jako punkt odniesienia \\( r_0 \\) często wybiera się położenie, w którym siła działająca na ciało jest równa zeru. Trzeba jednak podkreślić, że wybór punktu odniesienia jest sprawą czysto umowną.", "Energia potencjalna związana z siłą grawitacyjną wynosi \\( mgy \\), gdzie \\( y \\) jest wysokością ponad punktem (poziomem) odniesienia i jest równa pracy jaką trzeba wykonać przy podnoszeniu ciała na tę wysokość (przykład Energia i praca wykonana przez siłę stałą-Sanki ). Energia potencjalna przedstawia tu formę nagromadzonej w wyniku wykonanej pracy energii, która może być całkowicie odzyskana i zamieniona na energię kinetyczną, podczas spadku ciała z danej wysokości.", "W analogiczny sposób obliczymy teraz energię potencjalną idealnej nieważkiej sprężyny. Gdy sprężyna jest rozciągnięta na odległość \\( x \\) od położenia równowagi to siła sprężystości wynosi \\( F = - kx \\). Jako punkt odniesienia przyjmujemy tym razem \\( x_0=0 \\). Odpowiada to położeniu równowagi, w którym sprężyna jest nierozciągnięta i siła sprężystości jest równa zeru. Energię potencjalną ponownie obliczamy z równania ( 7 ) przy czym korzystamy z podanego wyrażenia Praca wykonana przez siłę zmienną-( 4 ) na pracę wykonaną przy rozciąganiu sprężyny", "Spróbuj teraz, korzystając z definicji energii potencjalnej, wykonać następujące ćwiczenie"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 4. Praca i energia", "subject_id": 172, "subject": "Zasada zachowania energii", "paragraphs": ["Pokazaliśmy, że gdy na ciało działa tylko siła zachowawcza, to dla dowolnej drogi z \\( A \\) do \\( B \\)", "skąd wynika, że", "lub", "Równanie ( 4 ) wyraża zasadę zachowania energii mechanicznej.", "Podaliśmy zasadę zachowania energii mechanicznej dla pojedynczego ciała, ale ta zasada jest bardziej ogólna i obowiązuje dla wszystkich odosobnionych układów ciał. Układy odosobnione to takie, na które nie działają siły zewnętrzne (spoza układu). W takich układach suma energii kinetycznych i potencjalnych wszystkich ciał pozostaje stała bez względu na oddziaływania w nich zachodzące.", "Teraz spróbujemy odpowiedzieć na pytanie czy energia jest zachowana w przypadku, gdy w układzie działa siła niezachowawcza. Jeżeli oprócz siły zachowawczej \\( F_z \\) działa jeszcze siła niezachowawcza \\( F_{nz} \\) (np. tarcie), to z twierdzenia o pracy i energii otrzymujemy", "a ponieważ \\( {W_{{z}}=-\\mathit{\\Delta E}_{{p}}} \\), to", "Widzimy, że siła tarcia zmienia energię mechaniczną układu (zmniejsza ją bo tarcie jest siłą rozpraszającą). Pozostaje wyjaśnić co stało się ze \"straconą\" energią mechaniczną. Okazuje się, że zostaje ona przekształcona na energię wewnętrzną \\( U \\), która objawia się wzrostem temperatury ciała i otoczenia. Zmiana energii wewnętrznej \\( \\Delta U \\) jest równa rozproszonej energii mechanicznej", "Z równania ( 13 ) wynika, że", "Na zakończenie uwzględnijmy jeszcze dodatkowo siłę \\( F_{zew} \\) wywieraną na układ przez czynnik zewnętrzny. Jeżeli działa taka siła to równanie ( 11 ) przyjmuje postać", "i w konsekwencji otrzymujemy", "Praca wykonana przez czynnik zewnętrzny równa jest sumie zmian energii kinetycznej, potencjalnej i energii wewnętrznej układu. W ten sposób uwzględniliśmy już całą energię.", "Zasada zachowania energii należy do najbardziej podstawowych praw fizyki. Wszystkie nasze doświadczenia pokazują, że jest to prawo bezwzględnie obowiązujące; nie znamy wyjątków od tego prawa.", "Jak widzieliśmy na przykładzie omawianym w ćwiczeniu powyżej, w zderzeniach nie musi być zachowana energia mechaniczna. Okazuje się jednak, że w zderzeniach spełniona jest też inna zasada zachowania; Zasada zachowania pędu."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 4. Praca i energia", "subject_id": 175, "subject": "Energia kinetyczna w układzie środka masy", "paragraphs": ["Rozpatrzmy układ, o stałej masie \\( M \\), złożony z \\( n \\) punktów materialnych o masach \\( m_1 \\),. ..., \\( m_{n} \\) oraz prędkościach \\( v_{1} \\), ....., \\( v_{n} \\). Energia kinetyczna tego układu mierzona względem środka masy jest dana wyrażeniem", "gdzie \\( v_{śr.m.} \\) jest prędkością środka masy, a \\( v_{i,wzg} \\) jest prędkością \\( i \\)-tego punktu mierzoną w układzie środka masy. Wykonując mnożenie skalarne otrzymujemy", "Zgodnie z równaniem Ruch środka masy-( 3 )", "a ponieważ prędkość środka masy mierzona względem środka masy jest równa zeru \\( v_{śr.m.,wzg}= 0 \\) więc drugi wyraz w równaniu ( 2 ) znika. Ostatecznie", "gdzie \\( E_k' \\) jest energią kinetyczną mierzoną w układzie środka masy. Zastosowanie tego równania zilustrujemy obliczając energię kinetyczną obręczy o masie \\( m \\) toczącej się po płaszczyźnie tak, że środek obręczy ma prędkość \\( v \\) ( Rys. 1 )", "Ponieważ w układzie środka masy ciało sztywne może mieć tylko energię obrotową (rotacyjną ) więc równanie ( 4 ) przyjmuje postać", "gdzie \\( v_{{\\text{obrot}\\text{.}\\text{wzg}}} \\) to prędkość obręczy w układzie środka masy. Ponieważ obserwator w układzie środka masy widzi obręcz obracającą się z prędkością \\( v \\) więc \\( v_{{\\text{obrot}\\text{.}\\text{wzg}}} \\) = \\( v \\).", "Stąd", "Zauważmy, że obręcz ma energię dwa razy większą od ciała o masie \\( m \\) poruszającego się z tą samą prędkością \\( v \\) (ale nie obracającego się)."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 5. Pęd i zderzenia", "subject_id": 176, "subject": "Pęd układu punktów materialnych", "paragraphs": ["Zdefiniowaliśmy pęd punktu materialnego jako iloczyn jego masy \\( m \\) i jego prędkości \\( {\\bf v} \\). Poznaliśmy też, drugą zasadę dynamiki Newtona w postaci", "Jeżeli jednak zamiast pojedynczego punktu mamy do czynienia z układem, o stałej masie \\( M \\), złożonym z \\( n \\) punktów materialnych o masach \\( m_1 \\), ......, \\( m_{n} \\) oraz prędkościach \\( {\\bf v}_{1} \\), ..., \\( {\\bf v}_{n} \\) to układ jako całość będzie miał całkowity pęd \\( {\\bf P} \\) będący sumą wektorową pędów poszczególnych punktów", "Porównując tę zależność z równaniem Ruch środka masy-( 2 ) otrzymujemy zależność", "Zgodnie z równaniem Ruch środka masy-( 3 )", "więc druga zasada dynamiki Newtona dla układu punktów materialnych przyjmuje postać", "Ponownie widzimy, że nawet ciała materialne będące układami złożonymi z dużej liczby punktów materialnych możemy w pewnych sytuacjach traktować jako pojedynczy punkt materialny. Tym punktem jest środek masy.", "Z równania ( 5 ) wynika, że gdy wypadkowa siła zewnętrzna równa jest zeru \\( {\\bf F}_{zew}=0 \\), to dla układu o stałej masie, środek masy pozostaje w spoczynku lub porusza się ruchem jednostajnym prostoliniowym, przy czym poszczególne punkty układu mogą poruszać się po różnych torach.", "To stwierdzenie wprowadza nas w zasadę zachowania pędu Zasada zachowania pędu."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 5. Pęd i zderzenia", "subject_id": 177, "subject": "Zasada zachowania pędu", "paragraphs": ["Ponownie rozpatrzmy układ \\( n \\) punktów materialnych. Jeżeli układ jest odosobniony, to znaczy nie działają siły zewnętrzne, to zgodnie z równaniem Pęd układu punktów materialnych-( 5 )", "Ten warunek wyraża zasadę zachowania pędu.", "Zobaczymy teraz jak ta zasada stosuje się do wybranej sytuacji.", "Analogicznie posługując się zasadą zachowania pędu można wytłumaczyć zjawisko odrzutu występujące przy strzelaniu z broni palnej. Zjawisko odrzutu ma jednak ważne praktyczne znaczenie. Zostało wykorzystane w silnikach odrzutowych i rakietowych, w których wyrzucane spaliny nadają samolotowi (rakiecie) przeciwnie skierowany pęd. Zjawisko to jednak różni się od opisanych powyżej, bo w przeciwieństwie do układów, gdzie masa elementów składowych pozostawała stała, masa wyrzucanych spalin i masa rakiety zmieniają się.", "Przykład zastosowania zasad zachowania pędu dla układu o zmiennej masie (rakieta) możesz poznać w Układy o zmiennej masie.", "Wiemy już, że jeżeli wypadkowa sił zewnętrznych działających na układ jest równa zeru, to spełniona jest zasada zachowania pędu. W takim układzie mogą jednak działać siły wewnętrzne, na przykład siły występujące przy zderzeniach między cząsteczkami gazu. I właśnie dlatego możemy skorzystać z zasady zachowania pędu do opisu zderzeń."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 5. Pęd i zderzenia", "subject_id": 178, "subject": "Zderzenia", "paragraphs": ["Termin zderzenia obejmuje w fizyce szeroką klasę zjawisk. Dotej kategorii zaliczamy na przykład zderzenia kul bilardowych czy uderzenia piłki o ścianę. W tych przypadkach zderzające się ciała stykają się bezpośrednio i w punkcie ich zetknięcia pojawia się bardzo duża siła kontaktowa. Jednak oddziaływujące ciała nie muszą się stykać ze sobą, a i tak możemy mówić o ich zderzeniu. Dotyczy to na przykład oddziaływania cząstek naładowanych za pośrednictwem pola elektrycznego: odpychanie elektrostatyczne wpływa na ruch \"zderzających się\" cząstek. Pod pojęcie zderzeń możemy podciągnąć również reakcje jądrowe. Przykładowo, proton w trakcie zderzenia zjądrem może wniknąć do niego. Możemy również rozszerzyć definicję zderzeń o rozpady cząstek. Cechą charakterystyczną tych wszystkich zjawisk jest występowanie sił impulsowych, to jest sił działających przez bardzo krótki czas.", "Właśnie ze względu na krótki czas działania nie możemy na ogół zmierzyć sił działających podczas zderzenia. Wiemy jednak, że musi być spełniona zasada zachowania pędu (występują tylko siły wewnętrzne oddziaływania między zderzającymi się obiektami, a siły zewnętrzne są równe zeru), oraz zasada zachowania energii całkowitej. Wobec tego nawet nie znając szczegółów oddziaływania można, stosując te zasady, spróbować przewidzieć wynik zderzenia.", "W zderzeniu sprężystym całkowita energia kinetyczna jest zachowana podczas, gdy w zderzeniu niesprężystym ciała tracą część energii kinetycznej. Kiedy dwa ciała po zderzeniu łączą się, mówimy, że zderzenie jest całkowicie niesprężyste.", "Zobacz też Zderzenia w przestrzeni jednowymiarowej oraz Zderzenia na płaszczyźnie."], "definitions": [{"name": "Definicja 1: Zderzenia sprężyste i nie sprężyste", "content": "Gdy dwa ciała zderzają się, to zderzenie może być sprężyste (elastyczne) lub niesprężyste (nieelastyczne), w zależności od tego, czy energia kinetyczna jest zachowana podczas tego zderzenia czy też nie."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 5. Pęd i zderzenia", "subject_id": 250, "subject": "Zderzenia w przestrzeni jednowymiarowej", "paragraphs": ["Rozpatrzymy zderzenie sprężyste dwóch gładkich niewirujących kul o masach \\( m_1 \\) i \\( m_2 \\). Przed zderzeniem kule poruszają się wzdłuż linii łączącej ich środki (zderzenie centralne) z prędkościami odpowiednio \\( v_{1} \\) i \\( v_{2} \\), na przykład tak, jak na Rys. 1. Naszym celem jest znalezienie prędkości \\( u_1 \\) i \\( u_2 \\) tych kul po zderzeniu.", "Z zasady zachowania pędu dla układu obu kul otrzymujemy", "Ponieważ zderzenie jest sprężyste, to zgodnie z definicją energia kinetyczna jest zachowana w tym zderzeniu", "Rozwiązujemy układ dwóch równań ( 1 ) i ( 2 ) z dwoma niewiadomymi \\( u_1 \\), \\( u_2 \\) i otrzymujemy", "oraz", "Rozpatrzmy teraz kilka przypadków. W każdym z nich, posługując się zależnościami ( 3 ) i ( 4 ), obliczymy prędkości ciał po zderzeniu \\( u_1 \\) i \\( u_2 \\).", "Powyższa analiza pokazuje, na przykład jak dobierać materiał spowalniający neutrony w reaktorze. Neutrony muszą być spowalniane, aby podtrzymać proces rozszczepienia. W tym celu zderza się je sprężyście z jądrami (spoczywającymi) spowalniacza. Gdyby w spowalniaczu były ciężkie jądra, to neutrony zderzając się \"odbijałyby\" się nie tracąc nic z prędkości (przypadek b). Gdyby natomiast spowalniaczem były cząstki lekkie, np. elektrony, to neutrony poruszałyby się wśród nich praktycznie bez zmiany prędkości (przypadek c). Zatem trzeba wybrać moderator (spowalniacz) o masie jąder porównywalnej z masą neutronów (przypadek a).", "Rozważmy teraz przypadek zderzenia całkowicie niesprężystego. Przy zderzeniach niesprężystych energia kinetyczna nie jest zachowana. Energia będąca różnicą pomiędzy początkową i końcową energią kinetyczną przechodzi w inne formy energii, na przykład w ciepło lub energię potencjalną związaną z deformacją ciała podczas zderzenia. Tak jest w przypadku wahadła balistycznego, które służy do pomiaru prędkości pocisków. Składa się ono z bloku drewnianego o masie \\( M \\), wiszącego na dwóch sznurach. Pocisk o masie \\( m \\), mający prędkość poziomą \\( v \\), wbija się w klocek i zatrzymuje w nim. Po zderzeniu wahadło, tzn. klocek z tkwiącym w nim pociskiem, wychyla się i podnosi na maksymalną wysokość \\( h \\) tak, jak pokazano na Rys. 2.", "Pęd przed zderzeniem jest równy pędowi pocisku, poniważ klocek jest nieruchomy. Natomiast po zderzeniu klocek i pocisk poruszają się razem. Stosując zasadę zachowania pędu, otrzymujemy", "gdzie \\( u \\) jest prędkością układu klocek - pocisk zaraz po zderzeniu. W zderzeniu część energii kinetycznej pocisku jest tracona m.in. na ciepło i odkształcenie klocka, w który pocisk się wbija. Pozostała część energii kinetycznej zamienia się po zderzeniu w potencjalną energię grawitacji, co możemy zapisać w postaci równania", "Rozwiązując ostatnie dwa równania, otrzymujemy", "Wystarczy więc zmierzyć wysokość \\( h \\) oraz masy \\( m \\) i \\( M \\), aby móc wyznaczyć prędkość pocisku \\( v \\)."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 5. Pęd i zderzenia", "subject_id": 179, "subject": "Zderzenia na płaszczyźnie", "paragraphs": ["Dotychczas zajmowaliśmy się zderzeniami cząstek w przestrzeni jednowymiarowej. Teraz rozpatrzymy najprostszy przypadek wielowymiarowy; zajmiemy się zderzeniami sprężystymi na płaszczyźnie. Zaczniemy od analizy zderzenia sprężystego ukośnego kuli o masie \\( m \\) i prędkości \\( v \\) ze ścianą. Naszym celem jest znalezienie prędkości kuli po zderzeniu.", "Ruch kuli opisujemy w układzie współrzędnych \\( x \\) i \\( y \\) związanym ze ścianą, oś \\( x \\) pokazuje kierunek prostopadły do ściany, y - kierunek równoległy, a początek układu umieszczamy na powierzchni ściany w punkcie zderzenia. W tak wybranym układzie współrzędnych rozkładamy na składowe wektor prędkości \\( v \\) ( Rys. 1 )", "Na przykładzie rzutu ukośnego (moduł Rzut ukośny ) pokazaliśmy, że taki ruch na płaszczyźnie można traktować jak dwa niezależne ruchy jednowymiarowe. Ruch kuli w kierunku y odbywa się równolegle do ściany, więc składowa \\( v_{y} \\) nie ulega zmianie przy odbiciu. Natomiast składowa prostopadła do powierzchni ściany, po zderzeniu zmienia znak na przeciwny, kula odbija się od ściany jak w przykładzie (b) w poprzednim rozdziale ( Zderzenia w przestrzeni jednowymiarowej ). Stąd prędkość kuli po zderzeniu (odbiciu się od ściany)", "Prędkość po odbiciu od ściany jest taka sama jak przed odbiciem, a kąt odbicia jest równy kątowi padania ( Rys. 1 ).", "Teraz rozpatrzymy ukośne, sprężyste zderzenie kuli bilardowej poruszającej się z prędkością \\( v_{1} \\) z drugą identyczną spoczywająca kulą. Takie zagranie stosuje się, żeby skierować wybraną kulę pod pewnym kątem w bok. Dzieje się tak, gdy środek kuli spoczywającej nie leży na linii wzdłuż, której porusza się pierwsza kula. Takie zderzenie jest pokazane na rysunku poniżej ( Rys. 2 ).", "Zgodnie z zasadą zachowania pędu i zasadą zachowania energii", "lub", "Z równań tych wynika, że wektory \\( {\\bf v}_1 \\), \\( {\\bf u}_{1} \\) i \\( {\\bf u}_{2} \\) tworzą boki trójkąta prostokątnego (twierdzenie Pitagorasa) tak jak na Rys. 3.", "Oznacza to, że dla dowolnego kąta \\( \\alpha (0,\\pi/2 ) \\) po zderzeniu kule będą zawsze poruszały się względem siebie pod kątem prostym. Wartość kąta \\( \\alpha \\) zależy natomiast od tak zwanego parametru zderzenia czyli odległości między pierwotnym kierunkiem ruchu kuli pierwszej, a środkiem kuli spoczywającej."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 5. Pęd i zderzenia", "subject_id": 204, "subject": "Układy o zmiennej masie", "paragraphs": ["Rozpatrzymy układ, który stanowi rakieta wyrzucająca ze swej dyszy gorący gaz z dużą prędkością, zmniejszając w ten sposób swoją masę i zwiększając prędkość ( Rys. 1 ).", "Spaliny opuszczają silnik rakiety ze stałą prędkością \\( {\\bf v}_{s} \\) względem Ziemi. Prędkość chwilowa rakiety względem Ziemi jest równa \\( \\bf{ v} \\), zatem prędkość spalin względem rakiety \\( v_{wzg} \\) jest dana zależnością", "Jeżeli w przedziale czasu \\( dt \\) z rakiety wyrzucona zostaje masa \\( dm_s \\) z prędkością \\( v_{s} \\), to masa rakiety maleje o \\( dm \\), a jej prędkość rośnie o \\( dv \\), przy czym", "Znak minus wynika stąd, że masa rakiety maleje. Obliczamy teraz zmianę pędu \\( {\\bf P} \\) układu w czasie \\( dt \\)", "lub", "skąd ostatecznie", "Równanie to uwzględnia fakt, że w przypadku rakiety zmienia się zarówno jej masa jak i prędkość, podczas gdy spaliny są wyrzucane ze stałą prędkością.", "Zmiana pędu układu jest, zgodnie z drugą zasadą dynamiki Newtona, równa sile zewnętrznej działającej na układ. Uwzględniając zależności ( 1 ) i ( 2 ) możemy przekształcić równanie ( 5 ) do postaci", "Ostatni wyraz w równaniu ( 6 ) może być interpretowany jako siła wywierana na układ przez substancję (spaliny), która z niego wylatuje. W przypadku rakiety (samolotu) nosi ona nazwę siły ciągu.", "Jeżeli ruch rakiety odbywa się w przestrzeni kosmicznej, to siły zewnętrzne \\( {\\bf F}_{zew} \\) są do zaniedbania i wtedy zmiana pędu rakiety jest równa sile ciągu (jest spełniona zasada zachowania pędu). Natomiast gdy ruch odbywa się w pobliżu Ziemi (np. tuż po starcie), to wówczas \\( {\\bf F}_{zew} \\) reprezentuje ciężar rakiety i siłę oporu atmosfery i trzeba ją uwzględnić. Konstruktorzy rakiet starają się uzyskać jak największą siłę ciągu aby przezwyciężyć \\( {\\bf F}_{zew} \\). Na przykład rakieta Saturn 5, o masie ponad \\( 3000 \\) ton, wytwarzała przy starcie siłę ciągu \\( 40 \\) MN."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 5. Pęd i zderzenia", "subject_id": 180, "subject": "Podsumowanie o pracy, energii i pędzie", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 5. Pęd i zderzenia", "subject_id": 244, "subject": "Zadania z pracy, energii i pędu", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 181, "subject": "Kinematyka ruchu obrotowego", "paragraphs": ["Rozważania dotyczące ruchu obrotowego zaczniemy od wyprowadzenia równań kinematyki ruchu obrotowego, podobnych do równań kinematyki ruchu postępowego. W ruchu obrotowym wielkością analogiczną do przesunięcia jest przesunięcie kątowe \\( \\varphi \\). Kąt \\( \\varphi \\) określa położenie (kątowe) punktu P względem układu odniesienia, jak pokazano na Rys. 1.", "Związek \\( \\varphi = s/R \\) między drogą liniową \\( s \\), a przesunięciem kątowym \\( \\varphi \\) wynika bezpośrednio z miary łukowej kąta \\( \\varphi \\). W ruchu obrotowym wielkością analogiczną chwilowej prędkości liniowej \\( v \\) jest chwilowa prędkość kątowa  \\( \\omega \\)", "W ruchu obrotowym podobnie jak w ruchu po okręgu  \\( \\omega \\), jest też nazywana częstością kątową i jest związana z częstotliwością \\( f \\) relacją", "Podobnie jak chwilowe przyspieszenie liniowe \\( a \\) zostało zdefiniowane chwilowe przyspieszenie kątowe \\( {\\alpha} \\)", "Możemy teraz podać opis ruchu obrotowego ze stałym przyspieszeniem kątowym \\( \\alpha \\) poprzez analogię do ruchu postępowego jednostajnie zmiennego.", "Pamiętajmy, że zarówno prędkość kątowa jak i przyspieszenie kątowe są wektorami. Na Rys. 2 poniżej, pokazane są wektory: prędkości liniowej \\( \\mathbf{v} \\), prędkości kątowej \\( \\boldsymbol{\\omega} \\), przyspieszenia stycznego \\( \\mathbf{a_{s}} \\), przyspieszenia normalnego \\( \\mathbf{a_{n}} \\) i przyspieszenia kątowego \\( \\boldsymbol{\\alpha} \\) punktu P obracającego się ciała sztywnego. Punkt P porusza się ruchem przyspieszonym po okręgu.", "Związki pomiędzy wielkościami liniowymi i kątowymi w postaci skalarnej są dane równaniami ( 1 ), ( 3 ) oraz równaniem Ruch jednostajny po okręgu-( 3 ). Natomiast te zależności w postaci wektorowej mają postać", "Więcej o ruchu przyspieszonym po okręgu możesz przeczytać w module Ruch przyspieszony po okręgu", "Z powyższych rozważań wynika, że jeżeli kąt \\( \\varphi \\) jest mierzony w radianach (rad) to jednostką prędkości kątowej \\( \\omega \\) jest radian na sekundę (rad/s), a przyspieszenia kątowego \\( \\alpha \\) radian na sekundę do kwadratu (rad/s \\( ^{2} \\)).", "Na koniec rozwiążemy przykładowe zadanie dotyczące kinematyki ruchu obrotowego."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 183, "subject": "Dynamika ruchu obrotowego", "paragraphs": ["W module tym wprowadzimy dwie wielkości wektorowe o zasadniczym znaczeniu dla opisu ruchu obrotowego - moment siły i moment pędu, obie powiązanie drugą zasadą dynamiki Newtona dla ruchu obrotowego.", "Jak wynika z naszego codziennego doświadczenia w ruchu obrotowym ważna jest nie tylko wartość siły, ale to gdzie i pod jakim kątem jest ona przyłożona. Na przykład, drzwi najłatwiej jest otworzyć przykładając siłę na ich zewnętrznej krawędzi i pod kątem prostym do płaszczyzny drzwi. Siła przyłożona wzdłuż płaszczyzny drzwi jak i siła przyłożona w miejscu zawiasów nie pozwalają na ich obrót. Dla ruchu obrotowego wielkością, która odgrywa rolę analogiczną do siły w ruchu postępowym jest moment siły (tzw. moment obrotowy) \\( \\boldsymbol{\\tau} \\), zdefiniowany następująco:", "Moment siły jest wielkością wektorową, której wartość bezwzględna wynosi", "Wielkość \\( r \\) nazywamy ramieniem siły. Z równania ( 1 ) wynika, że tylko składowa siły prostopadła do ramienia \\( {F_{\\bot}=F\\text{sin}\\theta } \\) wpływa na moment siły.", "Zdefiniujmy wielkość, która w ruchu obrotowym odgrywa rolę analogiczną do pędu. Wielkość L nazywamy momentem pędu i definiujemy jako:", "Istnieje bezpośrednia zależność pomiędzy momentem siły i momentem pędu. Żeby ją wyprowadzić zróżniczkujmy obie strony równania ( 2 ):", "Ponieważ wektory v oraz p są równoległe to ich iloczyn wektorowy jest równy zeru. Natomiast drugi składnik równania jest zgodnie z definicją moment siły wypadkowym momentem siły. Otrzymujemy więc", "To jest sformułowanie drugiej zasady dynamiki ruchu obrotowego. Równanie ( 5 ) jest analogiczne do równania Zasady dynamiki Newtona-( 1 ) dla ruchu postępowego. Analogicznie możemy sformułować pierwszą zasadę dynamiki ruchu obrotowego", "oraz trzecią zasadę dynamiki ruchu obrotowego"], "definitions": [{"name": "Definicja 1: moment siły", "content": "\nJeżeli siła F jest przyłożona w punkcie którego położenie opisuje wektor wodzący r to moment \\( \\boldsymbol{\\tau} \\) siły F względem początku układu współrzędnych\n\n \\( \\boldsymbol{\\tau} = {\\bf r} \\times {\\bf F} \\)"}, {"name": "Definicja 2: Moment pędu", "content": "\n(2)\n\n\t\t\t\t\t\t\t\t\\( {\\bf L} = {\\bf r} \\times {\\bf p}, \\)\n\ngdzie p jest pędem punktu materialnego, a r reprezentuje jego położenie względem wybranego inercjalnego układu odniesienia. Wartość L wynosi\n\n(3)\n\n\t\t\t\t\t\t\t\t\\( L = r p \\sin(\\theta) \\)\n\n"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 184, "subject": "Zasada zachowania momentu pędu", "paragraphs": ["Dla układu n cząstek możemy zsumować momenty sił działające na poszczególne punkty materialne", "gdzie L oznacza teraz całkowity moment pędu układu. Zauważmy, że jeśli  \\( \\underset{i}{\\sum }{\\bf \\unicode[Times]{x3C4}}_i = 0 \\), to  \\( \\frac{d{\\bf L}}{dt} = 0 \\), zatem L= const. Zależność ta wyraża zasadę zachowania momentu pędu:", "Zasadę zachowania momentu pędu ilustruja poniższe filmy:"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 185, "subject": "Ciało sztywne i moment bezwładności", "paragraphs": ["Większość ciał w przyrodzie to nie punkty materialne, ale rozciągłe ciała sztywne. Przeanalizujmy teraz ruch takiej bryły sztywnej obracającej się ze stałą prędkością kątową \\( \\omega \\) wokół stałej osi obrotu w układzie środka masy. Zauważmy, że chociaż wszystkie punkty mają te samą prędkość kątową \\( \\omega \\), to punkty znajdujące się w różnych odległościach od osi obrotu mają różną prędkość liniową \\( v \\) ( Rys. 1 ). Prędkość \\( i \\)-tego punktu o masie  \\( \\Delta m_i \\)wynosi \\( v_{i} = r_{i}\\omega \\), gdzie \\( r_{i} \\) jest odległością od osi obrotu.", "Obliczamy teraz wartość momentu pędu \\( L \\) tego ciała", "Wielkość w nawiasie nazywamy momentem bezwładności \\( I \\), który definiujemy jako", "Zwróćmy uwagę, że moment bezwładności \\( I \\) zależy od osi obrotu. Możemy teraz wyrazić moment pędu poprzez moment bezwładności", "a ponieważ zgodnie z równaniem Dynamika ruchu obrotowego-( 5 ) \\( \\tau = dL/dt \\)  więc", "gdzie \\( \\alpha \\) jest przyspieszeniem kątowym.", "Obliczmy teraz energię kinetyczną obracającego się ciała", "więc", "Zestawmy teraz odpowiednie wielkości obliczone dla ruchu obrotowego z ich odpowiednikami dla ruchu postępowego.", "Z tego porównania widać, że moment bezwładności \\( I \\) jest analogiczną wielkością do masy m w ruchu postępowym. Zwróćmy uwagę, że w przeciwieństwie do masy moment bezwładności zależy od osi, wokół której obraca się ciało. Momenty bezwładności niektórych ciał sztywnych są podane w Tabela 2.", "Przykład obliczania momentu bezwładności znajdziesz w module Obliczanie momentu bezwładności.", "Często do obliczania momentu bezwładności wygodnie jest posłużyć się twierdzeniem Steinera. Podaje ono zależność pomiędzy momentem bezwładności \\( I \\) ciała względem danej osi, a momentem bezwładności \\( I_{śr.m.} \\) tego ciała względem osi przechodzącej przez jego środek masy i równoległej do danej."], "definitions": [{"name": "Definicja 1: moment bezwładności", "content": "\n(2)\n\n\t\t\t\t\t\t\t\t\\( I=\\underset{{i}}{\\sum }{r_{{i}}^{{2}}{\\Delta m}_{{i}}} \\)\n\ngdzie \\( r_i \\) jest odległością masy punktowej \\( m_i \\) od osi obrotu, a dla ciągłego rozkładu masy\n\n(3)\n\n\t\t\t\t\t\t\t\t\\( I = \\int r^2 dm . \\)\n\n"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 186, "subject": "Ruch obrotowo-postępowy", "paragraphs": ["Na co dzień często mamy do czynienia z toczeniem się ciał. W przeciwieństwie do ruch obrotowego względem nieruchomej osi obrotu w przypadku toczenia występuje zarówno ruch postępowy, jak i obrotowy. Dlatego spróbujemy opisać toczenie jako złożenie ruchu postępowego i obrotowego. W tym celu prześledźmy ruch walca o promieniu \\( {\\bf R} \\) pokazany na Rys. 1.", "W ruchu postępowym, Rys. 1 (a), wszystkie punkty poruszają się z takimi samymi prędkościami, natomiast w ruchu obrotowym wokół środka masy S, Rys. 1 (b), przeciwległe punkty poruszają się z przeciwnymi prędkościami, a środek jest nieruchomy. Na Rys. 1 (c) pokazano wynik złożenia (sumowania) odpowiednich wektorów z Rys. 1 (a) i (b). Zwróćmy uwagę, że podstawa walca (punkt A styczności z podłożem) w każdej chwili spoczywa (prędkość chwilowa v \\( _{A} \\) = 0). Natomiast prędkość liniowa punktów S i B jest proporcjonalna do ich odległości od punktu A (punkt B w odległości 2R ma prędkość dwukrotnie większą niż punkt S w odległości R). Jeszcze pełniej widać to na Rys. 2 gdzie narysowane są prędkości chwilowe kilku punktów na obwodzie toczącego się walca.", "Widać, że prędkość każdego z tych punktów jest prostopadła do linii łączącej ten punkt z podstawą A i proporcjonalna do odległości tego punktu od A. Takie zachowanie jest charakterystyczne dla ciała wykonującego ruch obrotowy względem nieruchomej osi. Oznacza to, że opisywany walec obraca się wokół punktu A, a co za tym idzie, że możemy toczenie opisywać również wyłącznie jako ruch obrotowy ale względem osi przechodzącej przez punkt A styczności z powierzchnią, po której toczy się ciało.", "W celu zilustrowania równoważności obu opisów obliczymy teraz energię kinetyczną walca o masie m toczącego się z prędkością v. Najpierw potraktujemy toczenie jako złożenie ruchu postępowego i obrotowego względem środka masy. Energię kinetyczną obliczamy jako sumę energii ruchu postępowego i obrotowego.", "Podstawiając wartość momentu bezwładności walca odczytaną z oraz uwzględniając, że dla ciała toczącego się bez poślizgu \\( \\omega = v/R \\) otrzymujemy", "Teraz powtórzymy nasze obliczenia ale potraktujemy toczenie wyłącznie jako obrót względem osi obrotu w punkcie A zetknięcia walca z powierzchnią. Energia kinetyczną obliczamy więc jako", "Moment bezwładności walca \\( I_{A} \\), względem osi A, obliczamy z twierdzenia Steinera", "Po podstawieniu tej wartości i uwzględniając, że \\( \\omega = v/R \\) otrzymujemy", "W obu przypadkach otrzymaliśmy ten sam rezultat. Widzimy, że możemy sformułować następującą zasadę:", "Inny przykładem ruchu obrotowego, w którym oś obrotu nie jest nieruchomą w inercjalnym układzie odniesienia jest bąk wirujący dookoła pewnej osi symetrii. O ruchu precesyjnym bąka możesz przeczytać w module Ruch precesyjny bąka."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 187, "subject": "Obliczanie momentu bezwładności", "paragraphs": ["Jako przykład obliczymy moment bezwładności pręta o masie M i długości d pokazanego na rysunku poniżej ( Rys. 1 ). Oś obrotu przechodzi przez środek pręta i jest do niego prostopadła (linia przerywana).", "Najpierw, pręt dzielimy umownie na \"nieskończenie małe\" elementy o masie \\( dm \\) i długości \\( dx \\), które możemy traktować jak punkty materialne (patrz Rys. 1 ). Moment bezwładności takiego elementu wynosi \\( x^{2}dm \\), a moment bezwładności całego pręta jest, zgodnie z definicją Ciało sztywne i moment bezwładności-( 2 ), Ciało sztywne i moment bezwładności-( 3 ), sumą (całką) momentów bezwładności poszczególnych elementów", "gdzie całkowanie przebiega po całej długości pręta tj. w granicach od - \\( d/2 \\) do \\( d/2 \\).", "Zakładając, że pręt ma stałą gęstość to masę dm możemy wyrazić z prostej proporcji jako \\( {dm}=\\frac{M}{d}{dx} \\)", "Podstawiając tę zależność do wzoru ( 1 ) i wykonując całkowanie otrzymujemy"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 188, "subject": "Ruch precesyjny bąka", "paragraphs": ["Przykładem ruchu obrotowego, w którym oś obrotu nie jest nieruchomą w inercjalnym układzie odniesienia jest bąk wirujący dookoła pewnej osi symetrii. Z doświadczenia wiemy, że oś wirującego bąka porusza się dookoła osi pionowej, zakreślając powierzchnię stożka. Taki ruch nazywamy precesją.", "W sytuacji przedstawionej na rysunku poniżej bąk ma prędkość kątową \\( \\omega \\) dookoła swej osi. Ma również moment pędu L względem tej osi, która tworzy kąt \\( \\theta \\) z osią pionową. Punkt podparcia bąka znajduje się w początku inercjalnego układu odniesienia.", "Siła działająca na bąk w punkcie podparcia ma zerowy moment względem punktu podparcia ponieważ ramię siły jest równe zeru. Natomiast ciężar mg wytwarza względem punktu podparcia moment siły", "gdzie r określa położenie środka masy. Z iloczynu wektorowego wynika, że \\( {\\bf \\unicode[Times]{x3C4}} \\) jest prostopadłe do r i do mg. Zauważmy, że wektory \\( {\\bf \\unicode[Times]{x3C4}} \\), L i r wirują dokoła osi pionowej z częstością precesji \\( \\omega_p \\). Z rysunku wynika, że", "Ponieważ \\( \\Delta L \\ll L \\), to możemy napisać", "Z Dynamika ruchu obrotowego-Druga zasada dynamiki dla ruchu obrotowego oraz Zasada zachowania momentu pędu-( 1 ) wynika, że \\( {\\Delta L = \\tau \\Delta t} \\) więc", "Ostatecznie otrzymujemy", "Zgodnie z Rys. 1 moment siły jest równy", "więc ostatecznie", "Zwróćmy uwagę, że prędkość precesji nie zależy od kąta \\( \\theta \\) i jest odwrotnie proporcjonalna do wartości momentu pędu.", "Spróbujmy teraz podać ogólne wektorowe równanie opisujące precesję. W tym celu najpierw przekształcamy równanie ( 6 ) do postaci", "Widać, że prawa strona równania jest równa wartości iloczynu wektorowego \\( {\\bf \\unicode[Times]{x3C9}}_p \\times {\\bf L} \\). Tak więc ostatecznie wyrażenie wiążące prędkość kątową precesji z momentem siły i momentem pędu ma postać", "Zjawisko precesji momentu magnetycznego jest podstawą różnych technik doświadczalnych jak np. magnetyczny rezonans jądrowy (MRJ), które znalazły szerokie zastosowanie w badaniach naukowych, technice i medycynie."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 189, "subject": "Ciekawe przykłady ruchu obrotowego", "paragraphs": ["Na poniższych filmach przedstawiono ciekawe przykłady ilustrujące zachowanie ciał w ruchu obrotowym i skutki działania tzw. sił żyroskopowych."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 191, "subject": "Siła Coriolisa", "paragraphs": ["Tę siłę bezwładności musimy uwzględniać, gdy rozpatrujemy ruch postępowy ciała w obracającym się układzie odniesienia. Przykładem możebyć człowiek poruszający się po linii prostej (radialnie) od środka do brzegu obracającej się karuzeli. Na rysunku poniżej pokazana jest zmiana prędkości człowieka.", "Linia (promień) wzdłuż której porusza się człowiek zmienia swój kierunek (karuzela obraca się) o kąt \\( \\Delta\\theta \\) w czasie \\( \\Delta t \\) . W tym samym czasie człowiek zmienia swoje położenie z punktu \\( A \\) do \\( A' \\).", "Obliczymy teraz zmianę jego prędkości radialnej (normalnej) \\( v_r \\) i stycznej \\( v_s \\). Prędkość radialna zmienia swój kierunek. Prędkość styczna natomiast zmienia zarówno kierunek (przyspieszenie dośrodkowe) ale również wartość bo człowiek oddala się od środka (rośnie \\( r \\)). Najpierw rozpatrzmy różnicę prędkości \\( v_r \\) w punktach \\( A \\) i \\( A' \\) pokazaną na Rys. 1 (b) po prawej stronie. Dla małego kąta \\( \\Delta\\theta \\) (tzn. małego \\( \\Delta t \\) ) możemy napisać", "Jeżeli obustronnie podzielimy równanie ( 1 ) przez \\( \\Delta t \\) to w granicy \\( \\Delta t \\rightarrow 0 \\) otrzymamy", "gdzie wielkość \\( \\omega=d\\theta/dt \\)jest definiowana jako prędkość kątowa.", "W tym ruchu zmienia się również prędkość styczna bo człowiek porusza się wzdłuż promienia. W punkcie \\( A \\) prędkość styczna \\( v_s=\\omega r \\) a w punkcie \\( A' v_s=\\omega (r +\\Delta r) \\). Zmiana prędkości stycznej wynosi więc", "Jeżeli obustronnie podzielimy równanie ( 3 ) przez \\( \\Delta t \\) to w granicy \\( \\Delta t \\rightarrow 0 \\) otrzymamy", "Przyspieszenia \\( a_1 \\) i \\( a_2 \\) mają ten sam kierunek (równoległy do \\( v_s \\)) więc przyspieszenie całkowite jest równe sumie", "Przyspieszenie to jest nazywane przyspieszeniem Coriolisa. Pochodzi ono stąd, że nawet przy stałej prędkości kątowej \\( \\omega \\) rośnie prędkość liniowa człowieka bo rośnie \\( r \\). Gdyby człowiek stał na karuzeli to obserwator stojący na Ziemi mierzyłby tylko przyspieszenie dośrodkowe ( \\( \\omega^{2}r \\)) skierowane do środka wzdłuż promienia. Natomiast gdy człowiek idzie na zewnątrz to obserwator rejestruje także przyspieszenie Coriolisa (o kierunku równoległym do \\( v_s \\)). Oczywiście musi istnieć siła działająca w tym kierunku. Jest nią w tym przypadku siła tarcia między podłogą i nogami idącego człowieka. Jednak obserwator związany z karuzelą nie widzi ani przyspieszenia dośrodkowego ani przyspieszenia Coriolisa, człowiek poruszający się wzdłuż promienia jest w stanie równowagi w układzie karuzeli. A przecież istnieje realnie odczuwalna (rzeczywista) siła tarcia. Żeby wyeliminować tę rozbieżność obserwator stojący na karuzeli wprowadza dwie siły pozorne równoważące siłę tarcia. Jedna to siła odśrodkowa, a druga to siła Coriolisa. Siła odśrodkowa działa radialnie na zewnątrz a siła Coriolisa stycznie ale przeciwnie do \\( v_s \\). Ogólnie, na ciało o masie \\( m \\) poruszające się ruchem postępowym z prędkością \\( v \\) w obracającym się układzie odniesienia działa siła bezwładności zwana siłą Coriolisa \\( {\\bf F} \\) \\( _{c} \\)", "Ziemia nie jest idealnym układem inercjalnym ponieważ wiruje. W wyniku tego obrotu w zjawiskach zachodzących na Ziemi obserwujemy siłę Coriolisa. Przykładowo, rzeki płynące na półkuli północnej podmywają silniej prawy brzeg. Również ciała spadające swobodnie odchylają się od pionu pod działaniem tej siły. Jednak w większości rozpatrywanych przez nas zjawisk można zaniedbać wpływ ruchu Ziemi na ich przebieg."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 223, "subject": "Podsumowanie wiadomości z ruchu obrotowego", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 6. Ruch obrotowy", "subject_id": 245, "subject": "Zadania z ruchu obrotowego", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 192, "subject": "Siła harmoniczna i drgania swobodne", "paragraphs": ["Ruch, który powtarza się w regularnych odstępach czasu, nazywamy ruchem okresowym. Przemieszczenie cząstki w ruchu periodycznym można zawsze wyrazić za pomocą funkcji sinus lub cosinus (tzw. funkcji harmonicznych). Ruch drgający jest powszechną formą ruchu obserwowaną w życiu codziennym i dlatego jest ważnym przedmiotem fizyki.", "Dla przesunięcia wzdłuż osi x, siła sprężystości jest dana równaniem", "Jeżeli sprężyna zostanie rozciągnięta tak, aby masa m znalazła się w chwili t = 0 w położeniu x = A, a następnie zostanie zwolniona, to położenie masy w funkcji czasu może być dane równaniem", "Funkcja x(t) opisuje zarazem wychylenie ciała z położenia równowagi.", "Sprawdźmy teraz czy to równanie dobrze opisuje ruch harmoniczny. Zgodnie z Zasady dynamiki Newtona-Druga zasada dynamiki Newtona", "Żeby obliczyć przyspieszenie a obliczamy (zgodnie z równaniami Ruch na płaszczyźnie-( 1 ), Ruch na płaszczyźnie-( 2 ), Ruch na płaszczyźnie-( 3 ) ) odpowiednie pochodne wyrażenia ( 2 )", "oraz", "Teraz wyrażenia ( 2 ) i ( 5 ) podstawiamy do równania opisującego ruch oscylatora ( 3 ) i otrzymujemy", "Widzimy, że zaproponowane równanie ( 2 ) jest rozwiązaniem równania ruchu oscylatora harmonicznego ( 3 ) przy warunku, że \\( {\\omega = \\sqrt{k/m}} \\).", "Zwróćmy uwagę, że funkcja \\( {x(t)=A\\sin{\\omega t}} \\) jest również rozwiązaniem równania ale przy innych warunku początkowym bo gdy t = 0 to położenie masy x = 0, a nie jak przyjęliśmy x = A.", "Ogólne rozwiązanie równania ruchu oscylatora harmonicznego ( 3 ) ma postać", "Stała A (opisująca maksymalne wychylenie) jest amplitudą ruchu, wyrażenie \\( \\omega t + \\varphi \\) nazywamy fazą drgań, a \\( \\varphi \\) fazą początkową (stałą fazową). Stałe A i \\( \\varphi \\) są wyznaczone przez warunki początkowe. Na przykład dla \\( \\varphi = \\pi/2 \\) otrzymujemy rozwiązanie ( 2 ).", "Równania ( 2 ), ( 4 ) i ( 5 ) opisują kolejno położenie, prędkość i przyspieszenie w funkcji czasu. Zależności te są pokazane na poniższym rysunku.", "Zwróćmy uwagę, że wychylenie z położenia równowagi x(t) oraz przyspieszenie a(t) (a tym samym siła) osiągają równocześnie maksymalne wartości, przy czym zwroty wektorów x(t) i a(t) są przeciwne (równanie( 3 ) ) i stąd przeciwne znaki. Natomiast prędkość v(t) jest przesunięta w fazie (względem położenia) o \\( \\pi/2 \\) co odzwierciedla fakt, że prędkość osiąga maksimum przy przechodzeniu oscylującej masy przez położenie równowagi, a jest zerowa przy maksymalnym wychyleniu gdy ciało zawraca.", "Odpowiednie maksymalne wartości położenia, prędkości i przyspieszenia wynoszą", "Wartości funkcji sinus i cosinus powtarzają się gdy kąt zmienia się o \\( 2\\pi \\). Oznacza to, że funkcje x(t), v(t) i a(t) przyjmują taką samą wartość po czasie \\( t = 2\\pi/\\omega \\). Ten czas jest więc okresem ruchu T. Uwzględniając zależność ( 6 ) otrzymujemy", "Zwróćmy uwagę, że okres drgań harmonicznych \\( T \\) jest niezależny od amplitudy drgań A. Ta właściwość drgań harmonicznych została wykorzystana w konstrukcji zegara wahadłowego.", "Film ilustrujący ruch drgający"], "definitions": [{"name": "Definicja 1:", "content": "Siłą harmoniczną (sprężystości) nazywamy siłę działającą na ciało proporcjonalną do przesunięcia tego ciała od początku układu i skierowaną ku początkowi układu."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 193, "subject": "Wahadło proste", "paragraphs": ["Wahadło proste (matematyczne) jest to wyidealizowane ciało o masie punktowej, zawieszone na cienkiej, nieważkiej, nierozciągliwej nici. Kiedy ciało wytrącimy z równowagi, to zaczyna się ono wahać w płaszczyźnie poziomej pod wpływem siły ciężkości. Jest to ruch okresowy. Znajdźmy okres \\( T \\)  tego ruchu. Rysunek poniższy ( Rys. 1 ) przedstawia wahadło o długości \\( l \\)  i masie \\( m \\), odchylone o kąt \\( \\theta \\) od pionu.", "Na masę \\( m \\) działa siła grawitacji \\( mg \\) i naprężenia nici \\( N \\). Siłę \\( mg \\) rozkładamy na składową radialną (normalną) i styczną. Składowa normalna jest równoważona przez naciąg nici \\( N \\). Natomiast składowa styczna przywraca równowagę układu i sprowadza masę \\( m \\) do położenia równowagi.", "Składowa styczna siły grawitacji ma wartość", "Zwróćmy uwagę, że to nie jest, w myśl podanej definicji, siła harmoniczna bo jest proporcjonalna do sinusa wychylenia ( \\( \\sin\\theta \\)), a nie do wychylenia \\( \\theta \\). Jeżeli jednak kąt \\( \\theta \\) jest mały (np. 5 stopni) to \\( \\sin\\theta \\) jest bardzo bliski \\( \\theta \\) (różnica rzędu \\( 0.1\\% \\)). Przemieszczenie x wzdłuż łuku wynosi (z miary łukowej kąta) \\( x = l \\, \\theta \\). Przyjmując zatem, że \\( \\sin\\theta \\approx\\theta \\) otrzymujemy", "Tak więc dla małych wychyleń siła jest proporcjonalna do przemieszczenia i mamy do czynienia z ruchem harmonicznym. Równanie ( 2 ) jest analogiczne do równania Siła harmoniczna i drgania swobodne-( 1 ) przy czym \\( k = mg/l \\). Możemy więc skorzystać z zależności Siła harmoniczna i drgania swobodne-( 9 ) i obliczyć okres wahań", "Okres wahadła prostego nie zależy od amplitudy i od masy wahadła.", "Zauważmy, że pomiar okresu T może być prostą metodą wyznaczenia przyspieszenia g.", "Spróbuj wykonać takie doświadczenie. Na nitce (możliwie długiej np. 1.5 m) zawieś niewielki ciężarek. Następnie wychyl wahadło o niewielki kąt (żeby było spełnione kryterium ruchu harmonicznego) i zmierz okres wahań. Żeby zmniejszyć błąd pomiaru czasu zmierz okres kilku wahań (np. 10) i potem oblicz T. Ze wzoru ( 3 ) wylicz przyspieszenie g."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 194, "subject": "Wahadło fizyczne", "paragraphs": ["Wahadłem fizycznym nazywamy ciało sztywne zawieszone tak, że może się wahać wokół pewnej osi przechodzącej przez to ciało. Na poniższym rysunku ( Rys. 1 ) ciało jest zawieszone w punkcie P, a punkt S, znajdujący się w odległości d od punkt P, jest środkiem masy ciała.", "Moment siły \\( \\tau \\) działający na ciało wynosi", "co w połączeniu ze wzorem Ciało sztywne i moment bezwładności-( 5 ) daje", "Dla małych wychyleń, dla których \\( \\sin\\theta \\approx\\theta \\), dostajemy równanie", "Otrzymaliśmy równanie, które ma postać równania Siła harmoniczna i drgania swobodne-( 3 ) dla ruchu harmonicznego, przy czym \\( \\theta \\) odpowiada x. Możemy więc teraz napisać wyrażenie na częstość i okres drgań", "Jako przypadek szczególny rozpatrzmy masę punktową zawieszoną na nici o długości \\( l \\) (wahadło proste). Wówczas moment bezwładności \\( I = ml^{2} \\), oraz \\( d = l \\) i otrzymujemy znany wzór dla wahadła prostego"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 195, "subject": "Energia ruchu harmonicznego", "paragraphs": ["Energią potencjalną sprężyny obliczyliśmy w rozdziale Praca wykonana przez siłę zmienną przy okazji dyskusji o pracy wykonywanej przez siły zmienne. Pokazaliśmy wtedy, że energia potencjalna sprężyny rozciągniętej o \\( x \\) wynosi", "Jeżeli sprężyna zostanie rozciągnięta tak aby masa \\( m \\) znalazła się w chwili \\( t = 0 \\) w położeniu \\( x = A \\), to energia potencjalna układu", "jest zarazem energią całkowitą (energia kinetyczna \\( E_{k}=0 \\)). Jeżeli puścimy sprężynę to jej energia potencjalna będzie zamieniać się w energię kinetyczną masy \\( m \\). Przy założeniu, że nie ma tarcia ani innych sił oporu, zgodnie z zasadą zachowania energii suma energii kinetycznej i potencjalnej musi się równać energii całkowitej w dowolnej chwili ruchu", "Korzystając z wyrażeń Siła harmoniczna i drgania swobodne-( 2 ) i Siła harmoniczna i drgania swobodne-( 4 ) na \\( x(t) \\) i \\( v(t) \\) oraz pamiętając, że \\( m\\omega^{2}= k \\) otrzymujemy"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 196, "subject": "Oscylator harmoniczny tłumiony", "paragraphs": ["W przypadku drgań mechanicznych siłą hamującą ruch cząstki są tak zwane opory ruchu. Przykładem może tu być opór powietrza. Siła oporu ma zwrot przeciwny do prędkości i w najprostszej postaci jest wprost proporcjonalna do prędkości \\( F_{op}\\propto v \\)"], "definitions": [{"name": "Definicja 1: Współczynnik dobroci", "content": "Współczynnik dobroci \\( Q \\) definiujemy jako \n\t\t\t\t\t(7)\n\n\t\t\t\t\t\t\t\t\\( Q=2\\pi\\frac{E_{\\text{zmagazynowana}}}{E_{\\text{stracona w 1 okresie}}}= 2 \\pi\\frac{E}{P/f}=\\frac{E}{P/\\omega } \\)\n\n\t\t\t\t\tgdzie \\( P \\) jest średnią stratą mocy, \\( f \\) częstotliwością drgań. "}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 199, "subject": "Równanie ruchu harmonicznego tłumionego", "paragraphs": ["Spróbujemy opisać ruch harmoniczny tłumiony jako złożenie ruchu wywołanego siłą harmoniczna i ruchu, w którym działa wyłącznie siła tłumiąca.", "Gdy na ciało o masie m działała tylko siła harmoniczna to ciało wykonuje drgania swobodne o częstotliwości \\( \\omega_{0} \\), które można opisać równaniem", "Teraz rozpatrzymy ruch pod wpływem siły tłumiącej. Przykładem może być pojazd utrzymujący stałą prędkością dzięki sile napędu. Z chwilą wyłączenia napędu pojazd porusza się dalej hamując pod wpływem siły oporu.", "Gdy na ciało o masie m działała tylko siła oporu to zgodnie z drugą zasadą dynamiki", "lub", "Jeżeli wprowadzimy nową stałą \\( {\\tau =m/\\gamma } \\) (o wymiarze czasu) to powyższe równanie przyjmie postać", "lub", "Powyższe równanie różniczkowe zawiera dwie zmienne v oraz t. Ponieważ zmienne te są rozdzielone (występują po różnych stronach równania) równanie może być łatwo rozwiązane poprzez obustronne scałkowanie.", "Granice całkowania odpowiadają zmniejszaniu prędkości od wartości początkowej \\( v_{0} \\) do \\( v \\) w czasie \\( t \\). Po wykonaniu całkowania otrzymujemy", "a po przekształceniu", "Widać, że prędkość maleje wykładniczo z czasem. Inaczej mówiąc prędkość jest tłumiona ze stałą czasową \\( \\tau \\) (rysunek poniżej).", "Widzimy, że gdy uwzględnimy zarówno siłę harmoniczną jak i siłę tłumienia (oporu) to rozwiązanie równania ruchu będzie zawierać czynnik oscylacyjny ( 1 ) opisujący drgania i czynnik tłumiący ( 7 ) opisujący wykładnicze zmniejszanie się amplitudy drgań."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 197, "subject": "Drgania wymuszone i rezonans", "paragraphs": ["W ruchu harmonicznym tłumionym amplituda, a co za tym idzie i energia drgań maleje z czasem do zera. Jeżeli chcemy podtrzymać drgania to musimy działać odpowiednią siłą zewnętrzną \\( F(t) \\) przyłożoną do oscylatora. Siłę taką nazywamy siłą wymuszającą. W przypadku drgań harmonicznych zewnętrzna siła wymuszająca jest siłą okresowo zmienną postaci", "Zwróćmy uwagę na to, że siła wymuszająca działa przez cały czas i nie należy jej mylić z krótkotrwałymi impulsami takimi jakie na przykład stosujemy gdy chcemy podtrzymać wahania huśtawki popychając raz na jakiś czas.", "Jeżeli uwzględnimy siłę wymuszającą to zgodnie z drugą zasadą dynamiki", "lub korzystając z równań Ruch na płaszczyźnie-( 1 ), Ruch na płaszczyźnie-( 2 ) i Ruch na płaszczyźnie-( 3 )", "Po podstawieniu wyrażenia na siłę wymuszającą ( 1 ) i wprowadzeniu nowych stałych", "otrzymujemy równanie analogiczne do równania Oscylator harmoniczny tłumiony-( 4 ) dla ruchu tłumionego", "Ponownie \\( \\omega_{0} \\) jest częstością własną układu, to jest częstością drgań swobodnych gdy nie działa siła zewnętrzna i nie ma tarcia ani innych sił oporu, a \\( \\tau \\) stałą czasową związaną ze współczynnikiem tłumienia \\( \\beta \\) relacją \\( {\\beta =1/2\\tau } \\). Zauważmy ponadto, że układ jest zasilany z częstością \\( \\omega \\) różną od częstości własnej \\( \\omega_{0} \\). W takiej sytuacji", "W równaniu ( 5 ) mamy dwie wielkości okresowo zmienne: położenie \\( x(t) \\) oraz siłę wymuszającą \\( F(t) \\). W najogólniejszym przypadku suma (złożenie) dwóch funkcji okresowych daje w wyniku też funkcję okresową, jak pokazuje Rys. 1.", "Szukamy więc rozwiązania równania ( 5 ) w postaci", "Jak widać z porównania równań ( 1 ) i powyższego równania ( 7 ) przesunięcie fazowe \\( \\varphi \\) mówi nam o jaki kąt maksimum przemieszczenia wyprzedza maksimum siły (czyli o ile są przesunięte względem siebie funkcje sinus opisujące wychylenie ( 7 ) i siłę ( 1 ) ).", "Żeby znaleźć rozwiązanie musimy wyznaczyć amplitudę \\( A \\) oraz przesunięcie fazowe \\( \\varphi \\). W tym celu obliczamy odpowiednie pochodne funkcji ( 7 ) i podstawiamy do równania ( 5 ).", "Więcej o wyznaczeniu \\( A \\) oraz \\( \\varphi \\) możesz przeczytać w module Dodatek: Amplituda i faza w ruchu harmonicznym wymuszonym.", "W wyniku otrzymujemy warunek na przesunięcie fazowe", "i wyznaczamy amplitudę", "Łącząc powyższe wzory otrzymujemy rozwiązanie", "Równanie wygląda skomplikowanie ale pamiętajmy, że jest to rozwiązanie postaci \\( {x(t)=A\\sin({\\omega t}+\\varphi)} \\).", "Zauważmy, że chociaż drgania odbywają się z częstością \\( \\omega \\) siły wymuszającej to amplituda i faza zależą od relacji pomiędzy częstością wymuszającą \\( \\omega \\), a częstością własną \\( \\omega_0 \\). W szczególności gdy siła wymuszająca osiągnie odpowiednią częstotliwość, to amplituda drgań może wzrosnąć gwałtownie nawet przy niewielkiej wartości siły wymuszającej. To zjawisko nazywamy rezonansem.", "Wykres przedstawiający rezonansowy wzrost amplitudy drgań w funkcji częstości siły wymuszającej pokazany jest na Rys. 2, dla różnych wartości współczynnika tłumienia \\( \\beta \\).", "Liniami przerywanymi zaznaczono częstości rezonansowe to jest wartości częstości siły wymuszającej, dla której amplituda drgań jest maksymalna. Odpowiadająca jej amplituda nazywana jest amplitudą rezonansową.", "Częstość rezonansową \\( \\omega_{r} \\) i amplitudę rezonansową \\( A_{r} \\) możemy obliczyć z warunku na maksimum amplitudy drgań danej wzorem ( 9 ).", "Funkcja \\( A(\\omega) \\) osiąga maksimum dla częstości rezonansowej \\( \\omega_{r} \\)", "Podstawiając tę wartość do wzoru na amplitudę otrzymujemy wyrażenie na amplitudę rezonansową \\( A_{r} \\)", "Widzimy, że dla drgań swobodnych, nietłumionych \\( \\beta \\rightarrow 0 \\) częstość rezonansowa \\( \\omega_{r} \\) jest równa częstości drgań swobodnych \\( \\omega_{0} \\), a amplituda rezonansowa \\( A_{r} \\rightarrow \\infty \\). W miarę wzrostu tłumienia wartość amplitudy rezonansowej \\( A_{r} \\) maleje, a częstość rezonansowa przesuwa się w stronę częstości mniejszych od \\( \\omega_{0} \\). Dla bardzo dużego tłumienia rezonans nie występuje, maksymalna amplituda występuje dla częstości bliskiej zeru.", "Dla drgań swobodnych, dla których \\( \\omega_{r} = \\omega_0 \\) przesunięcie fazowe pomiędzy siłą, a wychyleniem, dane równaniem ( 8 ) jest równe \\( \\varphi = \\pi/2 \\). Oznacza to, że siła wymuszająca nie jest zgodna w fazie z wychyleniem. Zauważmy jednak, że moc pochłaniana przez oscylator zasilany siłą wymuszającą \\( F \\) zależy od prędkości", "Warunek uzyskania rezonansu odpowiada maksimum mocy pochłanianej przez oscylator. Trzeba więc, zgodnie z powyższym wzorem, żeby to prędkość (a nie wychylenie) była zgodna w fazie z siłą, a to oznacza, że siła musi wyprzedzać wychylenie o \\( \\pi/2 \\).", "Więcej o mocy absorbowanej przez oscylator możesz przeczytać w module Moc absorbowana przez oscylator.", "Na poniższym filmie przedstawiono przykład wystąpienia rezonansu w układzie wahadeł. UWAGA: Na filmie we wzorze na okres drgań wahadła jest błąd w ułamku pod pierwiastkiem. Poprawny zapis to: l - długość wahadła powinno być w liczniku, g - przyśpieszenie ziemskie w mianowniku.", "Skutki rezonansu mogą być zarówno pozytywne jak i negatywne. Z jednej strony staramy się wyeliminować przenoszenie drgań na przykład z silnika na elementy nadwozia w samochodzie, a z drugiej strony działanie odbiorników radiowych i telewizyjnych jest możliwe dzięki wykorzystaniu rezonansu elektrycznego. Dostrajając odbiornik do częstości nadajnika spełniamy właśnie warunek rezonansu. Zjawisko rezonansu jest bardzo rozpowszechnione w przyrodzie.", "Słynnym negatywnym skutkiem wystąpienia rezonansu jest zawalenie się mostu Tacoma w USA w 1940 roku. Film przedstawiający tę katastrofę budowlaną można znaleźć m.in w serwisie YouTube"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 200, "subject": "Moc absorbowana przez oscylator", "paragraphs": ["W module tym pokażemy jaka jest średnia moc absorbowana przez oscylator poruszający się pod wpływem siły wymuszonej, dyskutowany w module Drgania wymuszone i rezonans. Moc średnia jest dana wyrażeniem", "gdzie kreska górna oznacza średnią czasową.", "Korzystając z wyrażeń Drgania wymuszone i rezonans-( 1 ) i Drgania wymuszone i rezonans-( 10 ) znajdujemy (szczegółowe obliczenia pomijamy)", "Zależność mocy absorbowanej od częstości drgań wymuszających, dla przypadku słabego tłumienia, jest przedstawiona na rysunku poniżej ( Rys. 1 ). Widać wyraźnie maksimum mocy związane ze zjawiskiem rezonansu."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 198, "subject": "Składanie drgań harmonicznych", "paragraphs": ["Często spotykamy się z nakładaniem się dwu lub więcej drgań harmonicznych. Poniżej rozpatrzymy kilka przypadków drgań złożonych, powstających w wyniku nakładania się dwu drgań harmonicznych zachodzących zarówno wzdłuż prostych równoległych, jak i prostych prostopadłych.", "Rozpatrzymy ruch punktu materialnego wynikający ze złożenia dwu drgań harmonicznych równoległych (zachodzących wzdłuż jednej prostej) opisanych równaniami", "Drgania te odbywają się z jednakową częstością \\( \\omega \\), ale są przesunięte w fazie (różnią się fazami) o \\( \\varphi_0 \\). Podobnie jak dla ruchu postępowego czy obrotowego, również dla drgań obowiązuje zasada niezależności ruchów.", "Wychylenie wypadkowe jest więc równe", "gdzie", "Wyrażenia powyższe można znaleźć składając drgania metodą wektorową. Więcej o wektorowym składaniu drgań możesz dowiedzieć się z modułu Składanie drgań metodą wektorową.", "Z powyższych równań wynika, że złożenie drgań harmonicznych równoległych o jednakowej częstości daje w wyniku oscylacje harmoniczne o takiej samej częstości. Sytuacja ta jest pokazana na rysunku poniżej. Ze wzoru ( 3 ) wynika ponadto, że amplituda wypadkowa osiąga maksimum dla drgań składowych o zgodnych fazach (różnica faz \\( \\varphi_{0} = 0 \\)), natomiast minimum, gdy różnica faz \\( \\varphi_{0}=\\pi \\) (fazy przeciwne).", "Rozpatrzmy teraz złożenie dwu drgań harmonicznych zachodzących na płaszczyźnie wzdłuż kierunków prostopadłych względem siebie", "Punkt materialny wykonujący drgania złożone porusza się po krzywej leżącej na płaszczyźnie \\( xy \\), a jego położenie jest dane w dowolnej chwili równaniem ( 4 ). Przykładowe krzywe odpowiadające drganiom o jednakowych częstościach \\( \\omega_{1} = \\omega_{2} \\), dla różnych wartości amplitud \\( A_{1} \\) i \\( A_{2} \\) oraz różnych wartości przesunięcia fazowego \\( \\varphi \\) są pokazane na Rys. 2 poniżej.", "Złożenie drgań prostopadłych o różnych częstościach daje w wyniku bardziej skomplikowany ruch. Na Rys. 3 pokazane są przykładowe krzywe (tak zwane krzywe Lissajous) będące wynikiem złożenia takich drgań. Sytuacja pokazana na tym rysunku odpowiada składaniu drgań o jednakowych amplitudach.", "Obraz drgań złożonych można otrzymać w prosty sposób za pomocą oscyloskopu. Wiązki elektronów w lampie oscyloskopowej są odchylane przez dwa zmienne, prostopadłe pola elektryczne. Na ekranie oscyloskopu obserwujemy więc obraz odpowiadający złożeniu drgań wiązki elektronów wywołany przez te zmienne pola elektryczne, których amplitudy, częstości fazy możemy regulować.", "Inny sposób bezpośredniej obserwacji składania drgań można zobaczyć na poniższym filmie"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 201, "subject": "Składanie drgań metodą wektorową", "paragraphs": ["W module tym przedstawimy wektorową metodę składania drgań, wspomnianą w module Składanie drgań harmonicznych.", "Drgania harmoniczne, jak i harmoniczne zaburzenie falowe, mogą być przedstawione graficznie jako obracający się wektor, którego długość reprezentuje amplitudę drgań. Taki wektor nazywamy strzałką fazową (wskazem).", "Oscylacja (zaburzenie falowe) \\( {x_{{1}}=A_{{1}}\\cos{\\omega t}} \\) w chwili \\( t \\) przedstawiona jest przez rzut tej \"strzałki\" (amplitudy) na oś poziomą (odpowiada to pomnożeniu \\( A_{1} \\) przez \\( \\cos\\omega t \\)).", "Druga oscylacja (zaburzenie falowe) \\( x_{{2}}=A_{{2}} \\cos({\\omega t}+\\varphi _{{0}}) \\), o amplitudzie \\( A_{2} \\), różni się od drgań \\( x_{1} \\) o fazę \\( \\varphi_{0} \\). Znajdujemy je podobnie jako rzut „strzałki” na oś poziomą. Teraz wystarczy dodać graficznie (wektorowo) \\( x_{1} \\)i \\( x_{2} \\) żeby otrzymać wypadkowe drgania tak jak to pokazano na Rys. 1.", "Widać to jeszcze lepiej, gdy narysuje się wektory dla fazy \\( \\omega t = 0 \\) (lub wielokrotności \\( 2\\pi \\)), i gdy umieści się początek jednej strzałki na końcu poprzedniej zachowując różnicę faz ( Rys. 2 ).", "Sytuacja odpowiada fazie \\( \\omega t = 0 \\).", "Na podstawie tego rysunku możemy (korzystając z twierdzenia cosinusów) wyznaczyć amplitudę \\( A \\) drgań wypadkowych", "lub", "oraz ich przesunięcie fazowe", "Widzimy, że amplituda wypadkowa osiąga maksimum dla równoległych wektorów składowych, co odpowiada zgodnym fazom (różnica faz \\( \\varphi_{0} = 0 \\)), natomiast minimum dla wektorów składowych antyrównoległych (różnica faz \\( \\varphi_{0} = \\pi \\))."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 202, "subject": "Podsumowanie wiadomości z ruchu harmonicznego", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 203, "subject": "Zadania z ruchu harmonicznego", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 7. Drgania", "subject_id": 1446, "subject": "Dodatek: Amplituda i faza w ruchu harmonicznym wymuszonym", "paragraphs": ["W module tym pokazujemy jak wyprowadzić równania na amplitudę i fazę w ruchu harmonicznym wymuszonym, dyskutowanym w module Drgania wymuszone i rezonans.", "Poszukujemy rozwiązania równania różniczkowego", "w postaci", "W tym celu obliczamy odpowiednie pochodne funkcji ( 2 ) \\( {\\frac{{dx}}{{dt}}={A\\omega}\\cos({\\omega t}+\\varphi )} \\), \\( {\\frac{d^{{2}}x}{d^{{2}}t}=-{A\\omega}^{{2}}\\sin({\\omega t}+\\varphi )} \\) i podstawiamy do równania ( 1 ), które przyjmuje postać", "Równanie to przekształcamy korzystając ze związków", "Otrzymujemy równanie", "Powyższa równość może być spełniona tylko, gdy czynniki stojące przy funkcji \\( \\sin\\omega t \\) i \\( \\cos\\omega t \\) po obu stronach równania będą sobie równe. Ten warunek oznacza, że czynnik przy \\( \\cos\\omega t \\) ma być równy zeru co można zapisać jako", "Z tego warunku znamy już \\( \\varphi \\). Teraz wyznaczamy amplitudę porównując czynniki przy funkcji \\( \\sin\\omega t \\) w równaniu ( 5 ) i podstawiając odpowiednie wyrażenia za \\( \\cos\\varphi \\) i \\( \\sin\\varphi \\). Otrzymujemy wyrażenie"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 8. Grawitacja", "subject_id": 205, "subject": "Prawo powszechnego ciążenia", "paragraphs": ["Rozważania dotyczące grawitacji rozpoczniemy od prostego przykładu.", "Newton wykonał takie obliczenia i wyciągnął wniosek, że siła przyciągania między dwoma masami (między ich środkami) maleje odwrotnie proporcjonalnie do kwadratu odległości między nimi. Ponadto zauważył, że skoro istnieje siła przyciągania pomiędzy dowolnym ciałem i Ziemią, to musi istnieć siła przyciągania między każdymi dwoma masami \\( m_{1} \\) i \\( m_{2} \\). Na tej podstawie i w oparciu o liczne obserwacje astronomiczne dokonane przez jego poprzedników min. Kopernika, Galileusza, Keplera, Newton sformułował w 1687 r prawo powszechnego ciążenia.", "To jest prawo powszechne, ponieważ stosuje się do wszystkich sił grawitacyjnych; np. wyjaśnia spadanie ciał na Ziemię, ale też tłumaczy ruch planet.", "Wartość współczynnika proporcjonalności \\( G \\), nazywanego stałą grawitacji, Newton oszacował stosując równanie do siły działającej między Ziemią, a ciałem o masie \\( m \\). Zgodnie z drugą zasadą dynamiki", "skąd", "gdzie \\( R_Z \\) jest promieniem Ziemi. Masę Ziemi \\( m_Z \\) Newton obliczył zakładając średnią gęstość Ziemi równą \\( \\rho_Z = 5·10{^3} \\) kg/m \\( {^3} \\) (dla porównania gęstość żelaza, głównego składnika masy Ziemi, wynosi \\( \\rho_{Fe}= 7.9·10{^3} \\)·kg/m \\( {^3} \\), a gęstość krzemu, podstawowego składnika skorupy ziemskiej, wynosi \\( \\rho_{Si}= 2.8·10{^3} \\) kg/m \\( {^3} \\)). Uwzględniając \\( R_Z =6.37·10{^6} \\) m.", "Newton otrzymał wartość \\( G =7.35·10{^{-11}} \\)Nm \\( {^2} \\)/kg \\( {^2} \\) co jest wartością tylko o \\( 10\\% \\) większą niż ogólnie dzisiaj przyjmowana wartość \\( 6.67·10{^{11}} \\)Nm \\( {^2} \\)/kg \\( {^2} \\). Wartość stałej \\( G \\)obliczonej przez Newtona jest obarczona błędem wynikającym z przyjętej średniej wartości gęstości Ziemi.", "Żeby wyznaczyć stałą \\( G \\) w laboratorium niezależnie odmasy Ziemi i tym samym uniknąć błędu związanego z szacowaniem gęstości Ziemi trzeba by zmierzyć siłę oddziaływania dwóch mas \\( m_{1} \\) i \\( m_{2} \\) umieszczonychw odległości \\( R \\). Wówczas", "Zauważmy jednak, że przykładowo dla mas każda po \\( 1 \\) kg oddalonych odsiebie o \\( 10 \\) cm siła \\( F \\)  ma wartość \\( F=6.67·10{^{-9}} \\) N i jest za mała by ją dokładnie zmierzyć standardowymi metodami.", "Problem pomiaru tak małej siły rozwiązał Cavendish. Jego opis znajduje się w module Dodatek: Doświadczenie Cavendisha."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 8. Grawitacja", "subject_id": 207, "subject": "Ciężar", "paragraphs": ["W pobliżu powierzchni Ziemi ciężar jest więc siłą z jaką Ziemia przyciąga ciało i dla ciała o masie \\( m \\) jest równy \\( mg \\). Na Księżycu ciężar jest mniejszy w porównaniu z ciężarem na Ziemi około sześć razy. Ciężaru nie należy więc mylić z masą ciała.", "Gdy spróbujemy wprawić w ruch ciało popychając je to wymaga to pewnego wysiłku nawet gdy ruch odbywa się po idealnie gładkiej poziomej powierzchni. Wysiłek jest tym większy im ciało ma większą masę. Wynika to bezpośrednio z drugiej zasady dynamiki Newtona \\( F=ma \\) . Masę \\( m \\) występującą w tym wzorze nazywamy masą bezwładną.", "Z kolei rozpatrzmy sytuację gdy utrzymujemy klocek uniesiony w górę w stanie spoczynku. Bezwładność nie odgrywa tu żadnej roli bo ciało nie przyspiesza, jest w spoczynku. Ale przecież musimy używać siły, o wartości równej przyciąganiu grawitacyjnemu między ciałem i Ziemią, żeby ciało nie spadło. Odgrywa tu rolę ta właściwość ciała, która powoduje że jest ono przyciąganie przez inne obiekty takie jak Ziemia i siłą", "Występującą w tym wzorze masę \\( m' \\) nazywamy masą grawitacyjną.", "Powstaje pytanie czy masa bezwładna \\( m \\) i masa grawitacyjna \\( m' \\) ciała są sobie równe?", "Żeby znaleźć odpowiedź na to pytanie rozpatrzmy sytuację, w której masa bezwładna \\( m_{1} \\) spadając swobodnie w pobliżu powierzchni Ziemi uzyskuje przyspieszenie \\( a_1 \\) . Wtedy", "Jeżeli natomiast inna masa \\( m_{2} \\) uzyskuje przyspieszenie \\( a_2 \\) to", "Dzieląc równania ( 2 ) i ( 3 ) przez siebie otrzymujemy", "Ponieważ doświadczalnie stwierdzono, że wszystkie ciała spadają (w próżni) w pobliżu Ziemi z tym samym przyspieszeniem  \\( a_1=a_2=g \\) to stosunek mas bezwładnych jest równy stosunkowi mas grawitacyjnych. Aktualnie jesteśmy w stanie stwierdzić, że \\( a_1=a_2 \\) z dokładnością do \\( 10^{-10} \\).", "Konsekwencją jest to, że nie można rozróżnić między przyspieszeniem układu, a przyspieszeniem grawitacyjnym. Ta zasada jest punktem wyjścia ogólnej teorii względności Einsteina."], "definitions": [{"name": "Definicja 1: Ciężar", "content": "Ciężar definiujemy jako siłę ciężkości działającą na ciało."}, {"name": "Definicja 2: Zasada równoważności", "content": "Te wyniki wskazują, że masa bezwładna jest równa masie grawitacyjnej. To stwierdzenie nazywa się zasadą równoważności."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 8. Grawitacja", "subject_id": 208, "subject": "Pole grawitacyjne, pola sił", "paragraphs": ["Na przykładzie sił grawitacyjnych omówimy, ważne w fizyce, pojęcie pola. Rozważania rozpoczynamy od umieszczenia masy \\( M \\) w początku układu. W punkcie przestrzeni opisanym wektorem \\( {\\bf r} \\) znajduje się inna masa \\( m. \\) Wektor \\( {\\bf r} \\) opisuje położenie masy \\( m \\) względem masy \\( m \\) więc siłę oddziaływania grawitacyjnego między tymi masami (równanie Prawo powszechnego ciążenia-( 4 ) ) możemy zapisać w postaci wektorowej", "gdzie znak minus wynika z faktu, że wektor \\( F \\) jest zwrócony przeciwnie do wektora \\( r \\). Zwróćmy uwagę, że siłę tę możemy potraktować jako iloczyn masy \\( m \\) i wektora \\( {\\bf \\gamma} (r) \\) przy czym", "Zwróćmy uwagę na to, że jeżeli w punkcie \\( r \\) umieścilibyśmy dowolną masę, np. \\( m' \\)to zawsze możemy zapisać siłę jako iloczyn masy \\( m' \\)i tego samego wektora \\( {\\bf \\gamma} (r). \\)", "Widzimy, że wektor \\( \\gamma (r) \\) nie zależy od obiektu, na który działa siła (masy \\( m'), \\) ale zależy od źródła siły (masa \\( M \\)) i charakteryzuje przestrzeń otaczającą źródło (wektor \\( r \\)). Oznacza to, że masa \\( M \\) stwarza w punkcie \\( r \\) takie warunki, że umieszczona w nim masa \\( m \\) odczuje działanie siły. Inaczej mówiąc masie \\( M \\) przypisujemy obszar wpływu (działania), czyli pole. Na Rys. 1 jest pokazany wektor \\( \\gamma (r) \\) w wybranych punktach wokół masy \\( M \\).", "Zwróćmy uwagę, że rozdzieliliśmy siłę na dwie części. Stwierdzamy, że jedna masa wytwarza pole, a następnie to pole działa na drugą masę. Taki opis pozwala uniezależnić się od obiektu (masy \\( m') \\) wprowadzanego do pola.", "Z pojęcia pola korzysta się nie tylko w związku z grawitacją. Jest ono bardzo użyteczne również przy opisie zjawisk elektrycznych i magnetycznych. Źródłami i obiektami działania pola elektrycznego są ładunki w spoczynku, a pola magnetycznego ładunki w ruchu. Właściwości pól wytwarzanych przez ładunki elektryczne omówimy w dalszych rozdziałach.", "Chociaż pole jest pojęciem abstrakcyjnym jest bardzo użyteczne i znacznie upraszcza opis wielu zjawisk. Na przykład gdy mamy do czynienia z wieloma masami, możemy najpierw obliczyć w punkcie \\( r \\) pole pochodzące od tych mas, a dopiero potem siłę działającą na masę umieszczoną w tym punkcie."], "definitions": [{"name": "Definicja 1: Natężenie pola grawitacyjnego", "content": "Wektor \\( {\\bf \\gamma} (r) \\) dany równaniem ( 2 ) nazywamy natężeniem pola grawitacyjnego."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 8. Grawitacja", "subject_id": 210, "subject": "Energia potencjalna i potencjał pola grawitacyjnego", "paragraphs": ["W module Energia potencjalna obliczyliśmy energię potencjalną związaną z siłą grawitacyjną w pobliżu powierzchni Ziemi, gdzie przyjmowaliśmy, że siła grawitacji jest stała. Teraz zajmiemy się zagadnieniem bardziej ogólnym i znajdziemy energię potencjalną masy \\( m \\) znajdującej się w dowolnym punkcie nad powierzchnią Ziemi odległym o \\( r \\) od środka Ziemi.", "Gdy obliczaliśmy grawitacyjną energię potencjalną w pobliżu powierzchni Ziemi (przykład powyżej) właśnie powierzchnię Ziemi przyjmowaliśmy jako punkt odniesienia o zerowej energii potencjalnej. Natomiast dla ogólnych obliczeń punkt odniesienia wybiera się w nieskończoności. Temu położeniu ( \\( r\\rightarrow{\\infty} \\)) przypisujemy zerową energię potencjalną. Zwróćmy uwagę, że stan zerowej energii jest również stanem zerowej siły.", "Przypomnijmy, że dla sił zachowawczych zmianę energii potencjalnej ciała przy przejściu z położenia (lub ogólniej ze stanu) \\( A \\) do \\( B \\) możemy zapisać jako", "Siła grawitacji jest siłą zachowawczą więc dla tak wybranego punktu odniesienia", "Praca wykonywaną przez siłę grawitacji przy przenoszeniu masy \\( m \\) z nieskończoności do punktu odległego o \\( r \\) od środka Ziemi wynosi", "Znak minus wynika stąd, że kierunek działania siły grawitacji jest przeciwny do kierunku wektora \\( r \\). Ponieważ energia potencjalna ma wartość równą zeru w nieskończoności (punkt odniesienia) więc grawitacyjna energia potencjalna w odległości \\( r \\) od środka Ziemi (od środka dowolnej masy \\( M \\)) wynosi", "Energia potencjalna ma wartość równą zeru w nieskończoności (punkt odniesienia) i maleje w miarę zmniejszania się \\( r \\). Oznacza to, że siła jest przyciągająca. Wzór ten jest prawdziwy bez względu na wybór drogi po jakiej punkt porusza się z nieskończoności do \\( r \\) bo siła grawitacji jest siłą zachowawczą.", "Widzimy, że z polem siły grawitacji wiąże się przestrzenny rozkład energii \\( E(r) \\) dany równaniem ( 3 ).", "Omawiając w module Pole grawitacyjne, pola sił przedstawialiśmy siłę działającą na umieszczony w tym polu obiekt jako iloczyn natężenia pola i masy tego obiektu. Stwierdziliśmy, że jedna masa wytwarza pole, a następnie to pole działa na drugą masę. Inaczej mówiąc rozdzieliliśmy siłę na dwie części i w ten sposób uniezależniliśmy nasz opis od masy obiektu wprowadzanego do pola. Podobnie możemy postąpić z energią potencjalną. Zauważmy, że zgodnie z wyrażeniem ( 3 ) możemy ją przedstawić jako iloczyn masy \\( m \\) i pewnej funkcji \\( V(r) \\)", "Jak już wspominaliśmy z pojęcia pola korzysta się nie tylko w związku z grawitacją. Przy opisie zjawisk elektrycznych również będziemy się posługiwali pojęciem pola (elektrycznego), jego natężenia i potencjału.", "Jeżeli obiektowi nadamy na powierzchni Ziemi odpowiednio dużą prędkość początkową to zacznie on okrążać Ziemię i nie spadnie na jej powierzchnię. Tę graniczną prędkość nazywamy pierwszą prędkością kosmiczną. Jest to najmniejsza prędkość jaką musi mieć punkt materialny swobodnie krążący po orbicie wokół Ziemi. Na tak poruszający się obiekt działają dwie siły; siła grawitacji i siła odśrodkowa. Siły te mają przeciwne zwroty i dla stabilnej orbity równoważą się", "skąd obliczamy", "Jeżeli na powierzchni Ziemi dostarczymy ciału jeszcze większej energii kinetycznej to wtedy może ono bezpowrotnie uciec z Ziemi w przestrzeń kosmiczną. Prędkość początkową (tzw. prędkość ucieczki), przy której ciało ucieknie z powierzchni Ziemi do nieskończoności znajdujemy analogicznie jak w Zadaniu Prędkość początkowa wstawiając \\( h\\rightarrow{\\infty} \\). Prędkość ta nosi nazwę drugiej prędkości kosmicznej i wynosi", "Zauważmy, że w trakcie oddalania się ciała do nieskończoności ( \\( R\\rightarrow{\\infty} \\)) jego energia potencjalna rośnie dozera (jest ujemna) kosztem energii kinetycznej, która maleje do zera (jest dodatnia).", "W naszych obliczeniach pominęliśmy inne siły, takie jak siły grawitacyjne wywierane przez Księżyc czy Słońce."], "definitions": [{"name": "Definicja 1: Potencjał", "content": "Funkcję \\( V(r) \\) nazywamy potencjałem pola grawitacyjnego i definiujemy jako stosunek grawitacyjnej energii potencjalnej masy m do wartości tej masy."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 8. Grawitacja", "subject_id": 206, "subject": "Prawa Keplera ruchu planet", "paragraphs": ["Jeszcze przed sformułowaniem przez Newtona prawa powszechnego ciążenia, Johannes Kepler zauważył, że ruch planet stosuje się do trzech prostych praw, które zgadzały się z wynikami pomiarowymi pozycji planet z bardzo dużą dokładnością.", "Z Drugie prawo Keplera (prawo równych pól) (zilustrowanego na Rys. 1 ) wynika, że planety (lub naturalne satelity) powinny poruszać się szybko w pobliżu Słońca (gdy wektor \\( R(t) \\) jest najkrótszy) i coraz wolniej w miarę oddalania się od Słońca (gdy wektor \\( R(t) \\) rośnie). Dobrym przykładem jest kometa Halleya, która obiega Słońce w ciągu 76 lat, z czego tylko 1 rok spędza w pobliżu Słońca (jest wtedy niewidoczna z Ziemi).", "Newton pokazał, że prawa Keplera można wyprowadzić z zasad dynamiki. Pokazał na przykład, że tylko wtedy, gdy siła jest odwrotnie proporcjonalna do kwadratu odległości to spełnione są pierwsze i trzecie prawo Keplera.", "O związku między zasadami dynamiki Newtona, a prawami Keplera możesz przeczytać w Prawa Keplera a zasady dynamiki Newtona."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 8. Grawitacja", "subject_id": 209, "subject": "Prawa Keplera a zasady dynamiki Newtona", "paragraphs": ["Rozpoczniemy od wyprowadzenia trzeciego prawa Keplera dla planet poruszających się po orbitach kołowych. Korzystając z otrzymanego uprzednio wzoru Dodatek: Doświadczenie Cavendisha-( 5 ) na masę Słońca otrzymujemy dla pierwszej planety krążącej wokół Słońca", "a dla drugiej", "Porównując te równania stronami otrzymujemy", "Teraz przejdziemy do drugiego prawa Keplera. Na Rys. 1 zaznaczona jest powierzchnia zakreślana w czasie \\( \\Delta t \\) przez linię łączącą planetę ze Słońcem.", "Jeżeli weźmiemy bardzo krótki przedział czasu \\( dt \\) ( \\( \\Delta t \\rightarrow 0 \\) ) to zaznaczone pole \\( ds \\) jest powierzchnią trójkąta o podstawie równej długości zakreślanego łuku \\( (vdt) \\) i wysokości równej promieniowi \\( R \\)", "Z równania ( 4 ) wynika, że chwilowa prędkość polowa (prędkość z jaką promień \\( R \\) zakreśla powierzchnię) jest równa", "Z zasad dynamiki Newtona wynika zasada zachowania momentu pędu (poznamy ją w następnych rozdziałach), zgodnie z którą moment pędu \\( L \\) planety w jej obiegu wokół Słońca jest stały", "Łącząc równania ( 5 ) i ( 6 ) otrzymujemy ostatecznie", "Otrzymane równanie ( 7 ) wyraża drugie prawo Keplera."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 8. Grawitacja", "subject_id": 248, "subject": "Podsumowanie grawitacji", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 8. Grawitacja", "subject_id": 1448, "subject": "Dodatek: Doświadczenie Cavendisha", "paragraphs": ["W swoim pomiarze Cavendish wykorzystał fakt, że siła potrzebna do skręcenia długiego, cienkiego włókna kwarcowego jest bardzo mała. Natakim włóknie zawiesił pręt z dwiema małymi kulkami ołowianymi \\( (m) \\) na końcach ( Rys. 1 ). Następnie w pobliżu każdej z kulek umieścił większą kulę ołowianą \\( (M) \\) i zmierzyłprecyzyjnie kąt \\( \\alpha \\) o jaki obrócił się pręt.", "Pomiar wykonany metodą Cavendisha dał wartość \\( G=6.67·10{^{-11}} \\) Nm \\( {^2} \\)/kg \\( {^2} \\).", "Znając już wartość stałej \\( G \\), Cavendish wyznaczył masę Ziemi \\( M_Z \\) z równania", "Cavendish wyznaczył też masę Słońca i masy planet, tych których satelity zostały zaobserwowane."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 211, "subject": "Fale mechaniczne", "paragraphs": ["Ruch falowy jest bardzo rozpowszechniony w przyrodzie. Na co dzień doświadczamy obecności fal dźwiękowych i fal świetlnych. Powszechnie też wykorzystujemy fale elektromagnetyczne do przekazywania informacji za pomocą radia, telewizji czy przenośnych telefonów.", "Fale dźwiękowe czy też fale jakie obserwujemy na powierzchni wody posiadają jednak inną naturę niż fale elektromagnetyczne. Światło będące przykładem fali elektromagnetycznej rozchodzi się nie tylko w ośrodkach materialnych, ale również w próżni. Przykładem jest docierające do nas światło słoneczne. Natomiast do rozchodzenia się fal dźwiękowych niezbędny jest ośrodek materialny.", "W tym module rozpoczniemy poznawanie właściwości fal powstających w ośrodkach sprężystych (takich jak fale dźwiękowe), które nazywamy falami mechanicznymi.", "Jeżeli wychylimy jakiś fragment ośrodka sprężystego z jego położenia równowagi, to w następstwie będzie on wykonywał drgania wokół tego położenia. Te drgania, dzięki właściwościom sprężystym ośrodka, są przekazywane na kolejne części ośrodka, które zaczynają drgać. W ten sposób zaburzenie przechodzi przez cały ośrodek.", "Zwróćmy uwagę, że sam ośrodek nie przesuwa się, a jedynie jego elementy wykonują drgania. Dobrym przykładem są tu fale na powierzchni wody: przedmioty pływające na powierzchni wody wykonują ruch drgający w rytm fal natomiast same fale rozchodzą się ruchem jednostajnym.", "Fala dobiegając do danego punktu ośrodka wprawia go w ruch drgający, przekazując mu energię, która jest dostarczana przez źródło drgań. Energia fal to energia kinetyczna i potencjalna cząstek ośrodka. Za pomocą fal można przekazywać energię na duże odległości przy czym cechą charakterystyczną jest to, że fale przenoszą energię poprzez ośrodek dzięki przesuwaniu się zaburzenia w ośrodku, a nie dzięki ruchowi postępowemu samego ośrodka. Jak wynika z powyższego, do rozchodzenia się fal mechanicznych potrzebny jest ośrodek. To właściwości sprężyste ośrodka decydują o prędkości rozchodzenia się fali.", "Ze względu na kierunek drgań cząstek ośrodka względem kierunku rozchodzenia się fale dzielimy na fale podłużne i fale poprzeczne.", "Fala jest podłużna gdy kierunek drgań cząstek ośrodka jest równoległy do kierunku rozchodzenia się fali i zarazem kierunku transportu energii (zob. Rys. 1 i Rys. 2 ). Przykładem są tu fale dźwiękowe w powietrzu czy też drgania naprzemiennie ściskanej i rozciąganej sprężyny.", "Fala jest poprzeczna gdy kierunek drgań cząstek ośrodka jest prostopadły do kierunku rozchodzenia się fali i zarazem kierunku transportu energii (zob. Rys. 3 ). Przykładem mogą tu być drgania naprężonego sznura, którego końcem poruszamy cyklicznie w górę i w dół.", "Możemy również dokonać podziału ze względu na rodzaj zaburzenia. Ważnymi przykładami są impuls falowy i fala harmoniczna.", "Impuls falowy powstaje gdy źródłem jest jednorazowe zaburzenie w ośrodku: na przykład gdy wrzucimy kamień do wody lub gdy jednorazowo odchylimy koniec napiętej liny (zob. Rys. 5 ).", "Fala harmoniczna powstaje gdy źródło wykonuje drgania harmoniczne: na przykład gdy cyklicznie wychylamy koniec napiętej liny (zob. Rys. 6 ).", "Wprowadzimy teraz pojęcia czoła fali i promienia fali. Jeżeli w przestrzeni rozchodzi się fala to możemy w każdej chwili utworzyć powierzchnię łączącą punkty, do których w tej właśnie chwili dotarła ta fala. Przesuwanie się tej powierzchni obrazuje rozchodzenie się fali. Właśnie taką powierzchnię nazywamy czołem fali (lub powierzchnią falową), a każdą linię prostą, prostopadłą do czoła fali, wskazującą kierunek ruchu fali nazywamy promieniem fali.", "Ze względu na kształt powierzchni falowej możemy wyróżnić fale płaskie i fale kuliste.", "W przypadku fal płaskich zaburzenie rozchodzi się w jednym kierunku, a powierzchnie falowe są płaszczyznami prostopadłymi do kierunku ruchu fali tak jak na Rys. 7.", "Dla fal kulistych zaburzenie rozchodzi się ze źródła we wszystkich kierunkach, a powierzchnie falowe są sferami jak Rys. 8."], "definitions": [{"name": "Definicja 1: Ruch falowy", "content": "Ruchem falowym nazywamy rozchodzenie się zaburzenia w ośrodku."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 212, "subject": "Rozchodzenie się fal w przestrzeni", "paragraphs": ["Rozważmy rozchodzenie się impulsu falowego (fali) wzdłuż długiego naprężonego sznura w kierunku \\( x \\) jak na Rys. 1", "Przyjmijmy, że w chwili t = 0 kształt sznura jest opisany funkcją", "gdzie \\( y \\) jest poprzecznym wychyleniem sznura w jego punkcie \\( x \\).", "W czasie \\( t \\) impuls falowy (fala) poruszający się z prędkością \\( v \\) przesuwa się o odcinek równy \\( vt \\) wzdłuż sznura, to jest wzdłuż osi \\( x \\), bez zmiany kształtu. Zatem po czasie \\( t \\) równanie opisujące kształt sznura ma postać", "Równanie ( 2 ) opisuje falę biegnącą w kierunku dodatnim osi \\( {x} \\) (w prawo) o kształcie danym właśnie przez funkcję \\( f(x,t) \\). Zauważmy, że kształt jest taki sam w chwili \\( {t} \\) w punkcie \\( x = vt \\) jaki był w chwili \\( t = 0 \\) w punkcie \\( x = 0 \\) (argument funkcji ma tę samą wartość równą zeru). Zatem równanie opisujące falę biegnącą w kierunku ujemnym osi \\( x \\) (w lewo) będzie miało postać", "Zauważmy, że dla danego \\( t \\) mamy równanie \\( f(x) \\)opisujące kształt sznura w danej chwili, a dla danego miejsca sznura \\( x \\) mamy równanie \\( f(t) \\) opisujące poprzeczne drgania cząstki sznura w punkcie \\( x \\).", "Z równań ( 1 ) i ( 2 ) wynika, że dowolna funkcja zmiennej \\( (x - vt) \\) lub \\( (x + vt) \\) opisuje falę biegnącą odpowiednio w prawo lub lewo, jednak do opisania rzeczywistej sytuacji musimy dokładnie określić postać funkcji \\( f \\). Dlatego teraz zajmiemy się falą o szczególnym kształcie. Rozważać będziemy poprzeczną falę harmoniczną postaci", "która przedstawia przenoszenie się drgań harmonicznych w kierunku \\( x \\), i która pokazana jest na rys13.4. Stała \\( A \\) (opisująca maksymalne wychylenie) jest amplitudą fali, a wyrażenie \\( {\\frac{2\\pi }{\\lambda }(x-{vt})} \\) przedstawia fazę. (Pamiętaj: gdy mówimy o wybranej części fali to tym samym mówimy o określonej fazie).", "Zauważmy, że wartość wychylenia poprzecznego \\( y \\) dana wzorem ( 4 ) jest taka sama w punktach o współrzędnych \\( x \\), x + \\( \\lambda \\), x + 2 \\( \\lambda \\), x + 3 \\( \\lambda \\), itd. Oznacza to, że te punkty mają taką samą fazę.", "Wielkość \\( \\lambda \\) nazywamy długością fali. Reprezentuje ona odległość między punktami o tej samej fazie na przykład między dwoma grzbietami (maksimami) tak jak Rys. 2.", "Czas, w którym fala przebiega odległość równą \\( \\lambda \\) nazywamy okresem \\( T \\).", "stąd", "Widzimy, że w danej chwili \\( t \\) taka sama faza jest w punktach \\( x \\), \\( x + \\lambda \\), \\( x + 2\\lambda \\), itd., oraz, że w danym miejscu \\( x \\) faza powtarza się w chwilach \\( t \\), \\( t + T \\), \\( t + 2T \\), itd.", "Często równanie fali bieżącej ( 6 ) wyraża się poprzez dwie inne wielkości: liczbę falową \\( k \\) i częstość kołową \\( \\omega \\) (lub częstotliwość \\( f \\), które są zdefiniowane jako", "co po podstawieniu do równania ( 6 ) daje", "Prędkość fali \\( v \\) możemy wyrazić jako", "Bardziej szczegółowo prędkość rozchodzenia się fal jest omówiona w module Prędkość fal i równanie falowe."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 213, "subject": "Prędkość fal i równanie falowe", "paragraphs": ["Jeżeli chcemy zmierzyć prędkość fali \\( v \\), to śledzimy jak przemieszcza się w czasie wybrana część fali czyli określona faza. Dlatego prędkość fali określa się jako prędkość fazową. Dla wybranej fazy fali \\( {y=f(x- vt)} \\) poruszającej się w prawo sprowadza się to do warunku", "Różniczkując to równanie względem czasu, otrzymujemy", "czyli", "Tak wyraża się prędkość fazowa fali.", "W przypadku gdy zaburzenie falowe jest złożeniem fal sinusoidalnych o różnych częstotliwościach, to prędkość przenoszenia energii (prędkość fali modulowanej) może być inna niż prędkości fal składowych. Taką prędkość nazywa się prędkością grupową.", "W module Rozchodzenie się fal w przestrzeni pokazaliśmy, że dowolna funkcja \\( f(x - vt) \\) lub \\( f(x + vt) \\) opisuje falę biegnącą odpowiednio w prawo lub lewo wzdłuż osi \\( x \\) i jako przykład rozważaliśmy poprzeczną falę harmoniczną. Teraz poznamy równanie ruchu falowego, które stosuje się do wszystkich rodzajów fal: zarówno fal mechanicznych takich jak fale dźwiękowe, fale na wodzie, fale w strunach, w sprężynach, jak i do fal elektromagnetycznych takich, jak na przykład światło.", "Równanie ruchu falowego możemy wyprowadzić wychodząc od ogólnego równania fali \\( {y=f(x-{vt})} \\). W tym celu obliczamy przyspieszenie poprzecznych drgań punktu ośrodka o współrzędnej \\( x \\), to znaczy obliczamy drugą pochodną \\( y \\) względem czasu", "gdzie \\( v^{2} \\) jest pochodną funkcji wewnętrznej. (Uwaga: w równaniach piszemy pochodne cząstkowe, oznaczane symbolem \\( {\\partial} \\), bo wychylenie \\( y \\) jest funkcją dwóch zmiennych \\( y = f(x,t) \\).", "Równocześnie", "Łącząc oba powyższe równania, otrzymujemy równanie różniczkowe ruchu falowego", "To równanie spełnia każda funkcja \\( f(x - vt) \\) jak również \\( f(x + vt) \\).", "Prędkość \\( v \\) rozchodzenia się fali jest niezależna od amplitudy i częstotliwości, natomiast w przypadku fal mechanicznych zależy od sprężystości ośrodka i jego bezwładności. Na przykład prędkość fali harmonicznej rozchodzącej się wzdłuż naprężonego sznura (struny) jest dana wyrażeniem", "gdzie sprężystość sznura jest określona poprzez napinającą go siłę \\( F \\) (im większa siła tym szybciej wychylone elementy sznura wracają do położenia równowagi), a jego bezwładność zależy od masy \\( \\mu \\) przypadającej na jednostkę długości sznura.", "Równanie ruchu falowego można wyprowadzić bezpośrednio z zasad dynamiki Newtona, obliczając prędkość fal w naprężonym sznurze. Z tym wyprowadzeniem możesz się zapoznać w module Prędkość fal w naprężonym sznurze."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 214, "subject": "Przenoszenie energii przez fale", "paragraphs": ["Fale przenoszą dostarczoną ze źródła energię poprzez ośrodek dzięki przesuwaniu się zaburzenia w ośrodku. Na przykład, wprawiając koniec struny w drgania poprzeczne (zob. Rys. 1 ) źródło wykonuje pracę, która objawia się w postaci energii kinetycznej i potencjalnej punktów struny (ośrodka).", "Siła \\( F \\) jaka działa na koniec struny porusza struną w górę i w dół wprawiając jej koniec w drgania w kierunku \\( y \\).", "Do wyznaczenia szybkości przenoszenia energii przez falę posłużymy się wyrażeniem na moc", "Jak widać na Rys. 1 prędkość poprzeczna jest równa \\( {v_{{y}}=\\partial y/\\partial t} \\), a składowa siły \\( F \\) w kierunku \\( y \\) wynosi \\( F_{y} = F\\sin\\theta \\). Podstawiając otrzymujemy", "Dla małych kątów \\( \\theta \\) możemy przyjąć \\( {\\sin\\theta = -\\partial y/\\partial x} \\) (znak minus wynika z ujemnego nachylenia struny). Stąd", "Obliczamy teraz pochodne równania fali harmonicznej \\( {y=A\\sin({kx}-{\\omega t})} \\)", "oraz", "i podstawiamy do wyrażenia na moc", "Korzystając z zależności Rozchodzenie się fal w przestrzeni-( 7 ) oraz Prędkość fal i równanie falowe-( 7 ) otrzymujemy ostatecznie", "Zauważmy, że moc czyli szybkość przepływu energii oscyluje w czasie. Widzimy ponadto, że szybkość przepływu energii jest proporcjonalna do kwadratu amplitudy i kwadratu częstotliwości. Ta zależność jest prawdziwa dla wszystkich typów fal."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 224, "subject": "Interferencja fal i fale stojące", "paragraphs": ["Interferencją fal nazywamy zjawisko nakładania się fal. Rozważmy dwie fale o równych częstotliwościach i amplitudach, ale o fazach różniących się o \\( \\varphi \\). Jeżeli te fale rozchodzą się w kierunku \\( x \\), z jednakowymi prędkościami to możemy je opisać równaniami", "Podobnie, jak w przypadku drgań, również dla fal obowiązuje zasada superpozycji więc wypadkową falę znajdujemy jako sumę fal składowych", "To jest ponownie równanie fali sinusoidalnej \\( {y=A'\\sin(kx-\\omega t+\\varphi/2)} \\) o amplitudzie", "Widzimy, że wynik nakładania się fal (interferencji) zależy wyłącznie od różnicy faz \\( \\varphi \\). Dla \\( \\varphi \\) = 0 fale są zgodne w fazie i wzmacniają się maksymalnie (amplituda \\( A’ \\) osiąga maksimum), a dla \\( \\varphi = 180^o \\) fale są przeciwne w fazie i wygaszają się (amplituda \\( A’ = 0 \\)). Oczywiście dla pozostałych wartości \\( \\varphi \\) otrzymujemy pośrednie wyniki nakładania się fal.", "Interferencję dwóch fal kolistych przedstawia poniższy film:", "Ponownie zajmiemy się interferencją dwu fal o równych częstotliwościach i amplitudach, ale rozchodzących się w przeciwnych kierunkach na przykład \\( +x \\) i \\( -x \\). Z taką sytuacją mamy do czynienia na przykład, gdy fala rozchodząca się w danym ośrodku (ciele) odbija się od granicy ośrodka (ciała) i nakłada się na falę padającą. Fale te można opisać równaniami", "Falę wypadkową znajdujemy jako sumę tych fal składowych", "Zauważmy, że jest to równanie ruchu harmonicznego prostego postaci \\( {y=A'\\cos\\omega t} \\) z amplituda równą", "Widzimy, że cząstki ośrodka drgają ruchem harmonicznym prostym ale w przeciwieństwie do fali bieżącej różne punkty ośrodka mają różną amplitudę drgań zależną od ich położenia \\( x \\). Taką falę nazywamy falą stojącą.", "Punkty, dla których \\( kx = \\pi/2 \\), \\( 3\\pi/2 \\), \\( 5\\pi/2 \\), itd. czyli znajdujące się w położeniach \\( x = \\lambda/4, 3\\lambda/4, 5\\lambda/4 \\) itd. mają maksymalną amplitudę. Punkty te nazywamy strzałkami, a punkty dla których \\( kx = \\pi, 2\\pi, 3\\pi \\) itd. tj. takie, że \\( x = \\lambda/2, \\lambda, 3\\lambda/2 \\) itd. mają zerową amplitudę i nazywane są węzłami. Widać, że odległości między kolejnymi węzłami i strzałkami wynoszą pół długości fali. Sytuacja ta jest przedstawiona na Rys. 1, gdzie zaznaczonych jest kilka możliwych drgań struny zamocowanej na obu końcach.", "Zwróćmy uwagę na jeszcze jedną istotną różnicę pomiędzy falą bieżącą, a falą stojącą. W fali stojącej energia nie jest przenoszona wzdłuż sznura bo nie może ona przepłynąć przez węzły (energia kinetyczna i potencjalna węzłów jest równa zeru bo węzły nie drgają). Energia w fali stojącej jest na stałe zmagazynowana w poszczególnych elementach ośrodka (np. struny).", "Powstawanie fali stojącej obrazuje film:"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 215, "subject": "Analiza fal złożonych", "paragraphs": ["Przyjrzyjmy się drganiu poprzecznemu struny. Jeżeli struna zamocowana na obu końcach zostanie najpierw wygięta, a następnie puszczona, to wzdłuż struny rozchodzą się drgania poprzeczne. Zaburzenia te odbijają się od zamocowanych końców i w wyniku interferencji powstaje fala stojąca. Zwróćmy uwagę, że drgania struny wytwarzają w otaczającym strunę powietrzu dźwiękowe fale podłużne (fale akustyczne). Ponieważ jedynym warunkiem, jaki musi być spełniony, jest nieruchomość obu końców struny, czyli istnienie węzłów fali stojącej na tych końcach, to mogą powstać w tej strunie fale stojące o różnej długości. Pierwsze trzy rodzaje drgań jakie powstają w strunie o długości \\( L \\) zamocowanej na końcach zostały pokazane na Rys. 1.", "Widzimy, że dla kolejnych drgań \\( {L=\\frac{1}{2}\\lambda _{{1}}} \\), \\( {L=\\lambda _{{2}}} \\), \\( {L=\\frac{3}{2}\\lambda _{{3}}} \\). Możemy więc zapisać ogólny związek na długość fali powstającej w strunie", "gdzie \\( n = 1, 2, 3, ... \\) Korzystając z tego, że prędkość fali \\( {v=\\lambda /{T={\\lambda f}}} \\) oraz z równania Prędkość fal i równanie falowe-( 7 ) na prędkość fali harmonicznej rozchodzącej się wzdłuż naprężonego sznura (struny) możemy obliczyć częstotliwość fal stojących w strunie", "Najniższą częstość nazywamy częstością podstawową, a pozostałe wyższymi harmonicznymi czyli alikwotami.", "Zazwyczaj w drganiach występują, oprócz drgania podstawowego, również drgania harmoniczne, a dźwięki jakie odbieramy są wynikiem nakładania się tych drgań. O jakości instrumentu (jego barwie) decyduje właśnie to ile alikwotów jest zawarte w dźwięku i jakie są ich natężenia. Przykładowo, drganie wypadkowe struny będące złożeniem tonu podstawowego \\( (n = 1) \\) i wyższych harmonicznych \\( (n = 3, 5, 7) \\) o różnych amplitudach jest pokazane na Rys. 2.", "Zwróćmy uwagę, że wypadkowe drganie (chociaż okresowe) nie jest harmoniczne (nie daje się opisać funkcją sinus lub cosinus). Zagadnienie przedstawienia dowolnego drgania okresowego jako sumy drgań harmonicznych ujmuje twierdzenie Fouriera, które mówi, że", "Dotyczy to dowolnej funkcji okresowej więc można na przykład skonstruować za pomocą fal sinusoidalnych (które są wszędzie zakrzywione) przebieg piłokształtny, który jest złożony z odcinków prostych."], "definitions": [{"name": "Definicja 1:", "content": "Dowolne drganie okresowe o okresie \\( T \\) możemy przedstawić jako kombinację liniową (sumę) drgań harmonicznych o okresach danych wzorem \\( T_{n} = T/n \\), gdzie \\( n \\) jest liczbą naturalną."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 225, "subject": "Dudnienia, modulacja amplitudy", "paragraphs": ["W zjawisku interferencji fal możemy wyróżnić przypadki tzw. interferencji w przestrzeni (superpozycja zaburzeń daje w wyniku falę o amplitudzie stałej w czasie ale zależnej od położenia cząstki drgającej \\( x \\) jak w przypadku fali stojącej, zob. moduł Interferencja fal i fale stojące ) oraz interferencji w czasie, którą omówimy w tym module. W tym celu rozpatrzymy, w danym punkcie przestrzeni \\( x \\), wynik nakładania się dwóch biegnących w tym samym kierunku fal o jednakowych amplitudach, ale nieznacznie różnych częstotliwościach. Drgania harmoniczne danej cząstki ośrodka (w zadanym punkcie \\( x \\)) wywołane przez te fale mają postać", "a drganie wypadkowe", "Ze wzoru na sumę sinusów otrzymujemy", "Równanie to ma postać \\( y=A'\\sin(\\omega t)=A'\\sin(2\\pi ft) \\). Drgania wypadkowe można więc uważać za drgania o częstotliwości", "(która jest średnią częstotliwości dwóch fal) i o amplitudzie \\( A' \\) (wyrażenie w nawiasie kwadratowym w równaniu ( 4 ) ). Zauważ, że amplituda zmienia się w czasie z częstotliwością", "Jeżeli częstotliwości \\( f_1 \\) i \\( f_2 \\) są bliskie siebie, to amplituda zmienia się powoli ( \\( f_{\\text{amp}} \\) jest mała). Mówimy, że mamy do czynienia z modulacją amplitudy (AM – amplitude modulation).", "Naturalną modulację amplitudy dla fal dźwiękowych możemy usłyszeć, gdy dwie struny instrumentu są nastrojone na niewiele różniące się tony. Gdy obie te struny wydają równocześnie dźwięk (na przykład uderzono dwa sąsiednie klawisze fortepianu) to usłyszymy tak zwane dudnienia przejawiające się jako zmiana głośności (zob. Rys. 1 ). Zastosowanie modulacji ma na celu wprowadzenie do procesu potrzebnej informacji, która ma być przesłana za pomocą fal. Modulacja amplitudy jest najstarszym i najbardziej rozpowszechnionym (obok modulacji częstotliwości FM) sposobem przesyłania informacji za pomocą fal radiowych."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 216, "subject": "Zjawisko Dopplera", "paragraphs": ["Zjawisko Dopplera polega na pozornej zmianie częstotliwości fali z powodu ruchu obserwatora lub źródła fali.", "W pracy z 1842 r. Christian Doppler zwrócił uwagę, że barwa świecącego ciała (częstotliwość wysyłanego promieniowania) musi się zmieniać z powodu ruchu względnego obserwatora lub źródła. Zjawisko Dopplera występuje dla wszystkich fal; my szczegółowo rozważymy je dla fal dźwiękowych. Ograniczymy się do przypadku ruchu źródła i obserwatora wzdłuż łączącej ich prostej.", "Rozpatrzmy sytuację, gdy źródło dźwięku spoczywa, a obserwator porusza się w kierunku źródła z prędkością \\( v_o \\) (względem ośrodka). Jeżeli fale o długości \\( \\lambda \\) rozchodzą się z prędkością \\( v \\) to w czasie \\( t \\) dociera do nieruchomego obserwatora \\( {{vt}/\\lambda } \\) fal. Jeżeli obserwator porusza się w kierunku źródła (wychodzi falom na przeciw), to odbiera jeszcze dodatkowo \\( {v_ot/\\lambda } \\) fal. W związku z tym częstotliwość \\( f \\ ' \\) słyszana przez obserwatora", "Ostatecznie", "Obserwator rejestruje wyższą częstotliwość niż częstotliwość źródła. Kiedy obserwator oddala się od źródła należy w powyższych wzorach zmienić znak (na minus) prędkości obserwatora \\( v_{o} \\). W tym przypadku częstotliwość zmniejsza się.", "Analogicznie możemy przestudiować przypadek źródła poruszającego się z prędkością \\( v_{z} \\) względem nieruchomego obserwatora (i względem ośrodka). Otrzymujemy wtedy zależność", "dla przypadku źródła zbliżającego się do obserwatora. Obserwator rejestruje wyższą częstotliwość niż częstotliwość źródła. Gdy źródło oddala się to w powyższym wzorze zmieniamy znak prędkości źródła \\( v_{z} \\). Ta sytuacja jest przedstawiona na Rys. 1, gdzie pokazane są powierzchnie falowe dla fal wysłanych ze źródła Z poruszającego się z prędkością \\( v_{z} \\) w stronę obserwatora O (rysunek a) w porównaniu do powierzchni falowych dla fal wysłanych znieruchomego źródła (rysunek b). Widzimy, że w przypadku (a) obserwator rejestruje podwyższoną częstotliwość.", "Zwróćmy uwagę, że zmiany częstotliwości zależą od tego czy porusza się źródło czy obserwator. Wzory ( 2 ) i ( 3 ) dają inny wynik dla jednakowych prędkości obserwatora i źródła.", "W sytuacji kiedy porusza się zarówno źródło, jak i obserwator, otrzymujemy zależność będącą połączeniem wcześniejszych wzorów.", "Znaki \"górne\" w liczniku i mianowniku odpowiadają zbliżaniu się źródła i obserwatora, a znaki \"dolne\" ich oddalaniu się. Powyższe wzory są słuszne, gdy prędkości źródła i obserwatora są mniejsze od prędkości dźwięku.", "Zjawisko Dopplera dla fal na wodzie ilustruje poniższy film:", "Zjawisko Dopplera obserwujemy również w przypadku fal elektromagnetycznych, a więc i świetlnych. Opis tego zjawiska dla światła jest inny niż dla fal dźwiękowych. Dla fal dźwiękowych otrzymaliśmy dwa wyrażenia ( 2 ) i ( 3 ) na zmianę częstotliwości fali w zależności od tego czy to źródło, czy też obserwator poruszają się względem ośrodka przenoszącego drgania (powietrza).", "Zjawisko Dopplera dla dźwięku ilustruje poniższy film:", "Do rozchodzenia się światła nie jest potrzebny ośrodek (światło może rozchodzić się w próżni) ponadto, zgodnie ze szczególną teorią względności Einsteina, prędkość światła nie zależy od układu odniesienia i dlatego częstotliwość fali świetlnej odbieranej przez obserwatora zależy tylko od prędkości względnej źródła światła i obserwatora. Jeżeli źródło i obserwator poruszają się wzdłuż łączącej ich prostej to", "gdzie \\( {\\beta =u/c} \\). W tej zależności u jest prędkością względną źródła względem odbiornika, a c prędkością światła. Dla małych wartości prędkości względnej \\( {|u| \\ll c} \\) powyższy wzór przyjmuje postać", "Znak \"+\" odnosi się do wzajemnego zbliżania się źródła i obserwatora, a znak \"-\" do ich wzajemnego oddalania się. Zbliżaniu towarzyszy więc wzrost częstotliwości (dla światła oznacza to przesunięcie w stronę fioletu), a oddalaniu się obniżenie częstotliwości (dla światła oznacza to przesunięcie w stronę czerwieni).", "Zjawisko to ma liczne zastosowania: na przykład w astronomii służy do określenia prędkości odległych świecących ciał niebieskich. Porównujemy długości fal światła wysyłanego przez pierwiastki tych obiektów z długościami fal światła wysyłanego przez takie same pierwiastki znajdujące się na Ziemi. To właśnie szczegółowe badania przesunięć ku czerwieni w widmach odległych galaktyk wykazały, że Wszechświat rozszerza się."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 217, "subject": "Prędkość grupowa", "paragraphs": ["W module tym wyjaśnimy pojęcie prędkości grupowej, wspomniane w module Prędkość fal i równanie falowe.", "Rozważmy, dwie poprzeczne fale sinusoidalne o zbliżonych częstotliwościach i długościach fal (zob. Rys. 1 ) opisane równaniami", "Sumą takich dwóch fal jest fala", "Na rysunku widzimy, że fala sumaryczna \\( y_{1} \\) + \\( y_{2 } \\)jest modulowana, a z równania ( 2 ) wynika, że funkcja modulująca ma postać", "Prędkość paczki fal (prędkość ruchu obwiedni) wyznaczamy analizując jak przemieszcza się w czasie wybrany punkt obwiedni (na przykład maksimum). Odpowiada to warunkowi", "Różniczkując to równanie względem czasu", "otrzymujemy wyrażenie na prędkość grupową", "Prędkość grupowa jest na ogół różna od prędkości fal składowych."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 218, "subject": "Prędkość fal w naprężonym sznurze", "paragraphs": ["Jak wspomniano w module Prędkość fal i równanie falowe, obliczenie prędkości rozchodzenia się fali w naprężonym sznurze (strunie) pozwala na wyprowadzenie równania falowego.", "Spróbujmy wyprowadzić wzór na zależność prędkości \\( v \\) fali od siły \\( F \\) naprężającej sznur i od \\( \\mu = m/l \\) tj. masy przypadającej na jednostkę długości sznura. W tym celu rozpatrzmy mały wycinek sznura o długości \\( dx \\) pokazany na Rys. 1.", "Końce wycinka sznura tworzą z osią \\( x \\) małe kąty \\( \\theta_1 \\) i \\( \\theta _{2} \\). Dla małych kątów \\( \\theta \\approx \\sin\\theta \\approx dy/dx \\). Wypadkowa pionowa siła tj. siła wychylająca sznur w kierunku \\( y \\) wynosi", "Zgodnie z zasadą dynamiki siła wypadkowa jest równa iloczynowi masy wycinka \\( dm = \\mu dx \\) i jego przyspieszenia. Stąd", "lub", "Uwzględniając, że \\( {\\theta =\\partial y/\\partial x} \\) otrzymujemy", "Jest to równanie falowe dla sznura (struny). Podstawmy teraz do tego równania odpowiednie pochodne równania fali harmonicznej \\( {y=f(x,t)=A\\sin({kx}-{\\omega t})} \\)", "oraz", "W wyniku podstawienia otrzymujemy", "Stąd możemy już obliczyć prędkość fali", "W ten sposób pokazaliśmy również, że zaproponowana przez nas funkcja Rozchodzenie się fal w przestrzeni-( 8 ) jest rozwiązaniem równania falowego ( 4 ) jeżeli spełniona jest zależność ( 7 ). Zwróćmy ponadto uwagę, że fala harmoniczna jest przenoszona wzdłuż struny prędkością niezależną od amplitudy i częstotliwości. Przepiszmy teraz równanie falowe z uwzględnieniem zależności ( 8 )", "Równanie falowe w tej postaci, stosuje się do wszystkich rodzajów rozchodzących się fal."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 226, "subject": "Podsumowanie wiadomości z fal mechanicznych", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 9. Fale w ośrodkach sprężystych", "subject_id": 246, "subject": "Zadania z fal mechanicznych", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 10. Statyka i dynamika płynów", "subject_id": 228, "subject": "Ciśnienie i gęstość płynów", "paragraphs": ["Powszechnie przyjęty jest podział materii na ciała stałe i płyny. Pod pojęciem substancji, która może płynąć rozumiemy zarówno ciecze jak i gazy. Płyny, w odróżnieniu od ciał sztywnych, mających określony rozmiar i kształt, łatwo zmieniają swój kształt, a w przypadku gazów przyjmują objętość równą objętości naczynia.", "Mówimy, że płyny nie mają sprężystości kształtu, a mają sprężystość objętości. Dlatego rozwiązanie zagadnień zmechaniki płynów wymaga posługiwania się nowymi pojęciami takimi, jak ciśnienie i gęstość.", "Różnica w działaniu siły powierzchniowej na płyn i na ciało stałe jest związana z tym, że w cieczy siły występują tylko przy zmianie objętości, a nie jak w ciałach stałych przy ich deformacji (zmianie kształtu). W związku z tym w cieczy siła powierzchniowa, zwana siłą parcia, musi być zawsze prostopadła do powierzchni płynu, podczas gdy w ciele stałym może mieć dowolny kierunek. Spoczywający płyn nie może równoważyć sił stycznych (warstwy płynu ślizgałyby się po sobie) i dlatego może zmieniać kształt i płynąć. W związku z tym będziemy opisywać siłę działającą na płyn za pomocą ciśnienia p zdefiniowanego następująco:", "Ciśnienie jest wywierane zarówno na ścianki naczynia jak i na dowolne przekroje płynów zawsze prostopadle do tych ścianek i przekrojów.", "Jednostki Ciśnienie jest wielkością skalarną. Jednostką ciśnienia w układzie SI jest pascal (Pa); 1 Pa = 1 N/m \\( ^{2} \\). Inne stosowane jednostki to bar (1 bar = \\( 10^{5} \\) Pa), atmosfera (1 atm = 101325 Pa), milimetr słupka rtęci (760 mm Hg = 1atm).", "Rozważmy teraz zamkniętą powierzchnię zawierającą płyn (zob. Rys. 1 ). Dowolny element powierzchni \\( dS \\) jest reprezentowany przez wektor powierzchni \\( d\\mathbf{S} \\).", "Siła \\( \\mathbf{F} \\) wywierana przez płyn na ten element powierzchni wynosi", "Ponieważ \\( \\mathbf{F} \\) i \\( \\mathbf{S} \\) mają ten sam kierunek więc ciśnienie \\( p \\) można zapisać", "Do opisu płynów stosujemy również pojęcie gęstości \\( \\rho \\) wyrażonej jako", "Gęstość płynów zależy od wielu czynników takich jak temperatura, czy ciśnienie. W Tabela 1 przedstawiony jest zakres gęstości spotykanych w przyrodzie materiałów.", "Równanie ( 2 ) opisuje ciśnienie wywierane przez płyn na powierzchnię, która go ogranicza. Możemy także mówić o ciśnieniu wewnętrznym płynu. W tym celu rozpatrzmy element płynu w kształcie cienkiego dysku znajdującego się na głębokości \\( h \\) pod powierzchnią płynu pokazany na Rys. 2. Grubość dysku wynosi \\( dh \\), a powierzchnia podstawy wynosi \\( S \\). Masa takiego elementu wynosi \\( \\rho Sdh \\) a jego ciężar \\( \\rho gSdh \\). Pamiętajmy, że siły działające na element są w każdym punkcie prostopadłe do powierzchni. Siły poziome wywołane jedynie przez ciśnienie płynu równoważą się. Siły pionowe są wywoływane nie tylko przez ciśnienie płynu ale też przez jego ciężar. Ponieważ płyn jest nieruchomy więc wypadkowa siła działająca na element płynu jest równa zeru.", "Zachowanie równowagi w kierunku pionowym wymaga aby", "a stąd", "Powyższe równanie pokazuje, że ciśnienie zmienia się z głębokością płynu. Powodem jest ciężar warstwy płynu leżącej pomiędzy punktami, dla których mierzymy różnicę ciśnień. Wielkość \\( \\rho g \\) nazywamy ciężarem właściwym płynu. Dla cieczy zazwyczaj \\( \\rho \\) jest stałe (ciecze są praktycznie nieściśliwe) więc możemy obliczyć ciśnienie cieczy na głębokości \\( h \\) całkując równanie ( 5 )", "gdzie \\( p_{0} \\) jest ciśnieniem na powierzchni cieczy ( \\( h = 0 \\)). Zazwyczaj jest to ciśnienie atmosferyczne. Równanie ( 6 ) nie tylko pokazuje, że ciśnienie rośnie wraz z głębokością ale też, że jest jednakowe dla punktów o tej samej głębokości, a nie zależy od kształtu naczynia (paradoks hydrostatyczny).", "Założenie o stałej gęstości \\( \\rho \\) nie jest jednak prawdziwe dla gazów gdy mamy do czynienia ze znaczną zmianą wysokości (np. gdy wznosimy się w atmosferze). Ciśnienie zmienia się wtedy znacznie i zmienia się też \\( \\rho \\).", "E. Torricelli skonstruował w 1643 r. barometr rtęciowy. Barometr Torricellego składa się z rurki wypełnionej rtęcią ( \\( \\rho_{Hg} = 13.6·10^{3} \\) kg/m \\( ^{3} \\)), którą odwracamy nad naczyniem z rtęcią tak jak na Rys. 3.", "podczas gdy", "Ciśnienia w punktach A i B są jednakowe bo punkty te są na jednakowej wysokości więc", "skąd", "Mierząc więc wysokość słupa rtęci mierzymy wielkość ciśnienia atmosferycznego."], "definitions": [{"name": "Definicja 1: Definicja ciśnienia", "content": "Ciśnienie definiujemy jako stosunek siły parcia działającej na jednostkę powierzchni do wielkości tej powierzchni."}, {"name": "Definicja 2: Definicja wektora powierzchni", "content": "Długość wektora \\( \\mathbf{S} \\). jest równa polu powierzchni S, jego kierunek jest prostopadły do powierzchni, a zwrot na zewnątrz powierzchni."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 10. Statyka i dynamika płynów", "subject_id": 227, "subject": "Prawo Pascala i prawo Archimedesa", "paragraphs": ["Rozpatrzmy ciecz w naczyniu zamkniętym tłokiem, na który możemy działać zmiennym ciśnieniem zewnętrznym \\( p_{0} \\). W każdym punkcie cieczy znajdującym się na głębokości \\( h \\), ciśnienie jest dane wyrażeniem Ciśnienie i gęstość płynów-( 6 ). Możemy teraz powiększyć ciśnienie zewnętrzne o wartość \\( \\Delta p_{0} \\). Ponieważ ciecze są nieściśliwe więc gęstość pozostaje praktycznie bez zmian i ciśnienie teraz wynosi", "Zjawisko to opisuje prawo Pascala, które można następująco sformułować:", "Prawo to jest konsekwencją praw mechaniki płynów, podobnie jak prawo Archimedesa. Kiedy ciało jest zanurzone w całości lub częściowo w spoczywającym płynie to płyn ten wywiera ciśnienie na każdą, będącą z nim w kontakcie, część powierzchni ciała. Wypadkowa siła jest skierowana ku górze i nazywa się siłą wyporu. Gdy przyjmiemy przykładowo, że w cieczy zostało zanurzone ciało w kształcie walca o powierzchni podstawy równej \\( S \\) (zob. Rys. 1 ) to wypadkowa siła działająca na to ciało jest związana z różnicą ciśnień na głębokościach \\( h_{1} \\) i \\( h_{2} \\) odpowiednio nad i pod walcem.", "Siła wypadkowa wynosi więc", "gdzie \\( {V=S(h_{{2}}-h_{{1}})} \\) jest objętością walca. Z otrzymanej zależności wynika, że siła działająca na walec jest równa ciężarowi cieczy wypartej przez ten walec. Zauważmy, że ta siła nie zależy od kształtu ciała, a tylko od jego objętości.", "Możemy więc sformułować prawo Archimedesa:", "gdzie \\( m_{p} \\) jest masą płynu, a \\( \\rho \\) jego gęstością. Natomiast \\( V \\) jest objętością części zanurzonej ciała.", "Na każde zanurzone w płynie ciało działają siła wyporu i siła ciężkości. Dla ciała o masie \\( m \\) i objętości \\( V \\) całkowicie zanurzonego w płynie wypadkowa tych dwóch sił wynosi", "gdzie \\( \\rho \\) jest gęstością płynu, a \\( \\rho_{1} \\) średnią gęstością ciała. Widzimy, że zwrot siły wypadkowej zależy od różnicy gęstości płynu i ciała. Na przykład ciało zanurzone w cieczy o gęstości \\( \\rho < \\rho _{1} \\) tonie, a dla gęstości \\( \\rho > \\rho_{1} \\) pływa częściowo zanurzone."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 10. Statyka i dynamika płynów", "subject_id": 219, "subject": "Ogólny opis przepływu płynów", "paragraphs": ["Dynamika płynów zajmuje się opisem ruchu płynów. Znane są dwa podejścia do opisu ruchu płynu. Możemy albo zająć się opisem ruchu poszczególnych cząsteczek płynu, albo opisywać gęstość płynu i jego prędkość w każdym punkcie przestrzeni w funkcji czasu. Oznacza to, że koncentrujemy się na wybranym punkcie przestrzeni, w którym definiujemy funkcje \\( \\rho(x,y,z,t) \\) oraz \\( v(x,y,z,t) \\).", "Na wstępie poznamy ogólne pojęcia charakteryzujące przepływ:", "W naszych rozważaniach ograniczymy się do przepływów ustalonych, bezwirowych, nieściśliwych i nielepkich.", "W przepływie ustalonym \\( v \\) jest stała w czasie w danym punkcie. Oznacza to, że każda cząstka przechodząca przez dowolny punkt ma taką samą prędkość, np. \\( v_{1} \\). Tak samo jest w kolejnym punkcie, gdzie każda cząstka ma prędkość \\( v_{2} \\). Dotyczy to wszystkich punktów. Oznacza to, że wystarczy prześledzić tor jednej cząstki, a będziemy znali tor każdej cząstki przechodzącej przez dany punkt. Tor tej cząstki nazywamy linią prądu (rysunek poniżej). Linia prądu jest równoległa do prędkości płynu. Żadne linie prądu nie mogą się przecinać, bo istniałaby niejednoznaczność w wyborze drogi przez cząstkę (przepływ nie byłby ustalony).", "Jeżeli wybierzemy pewną skończoną liczbę linii prądu, to taką wiązkę nazywamy strugą prądu. Brzegi składają się z linii prądu, a ponieważ linie prądu są równoległe do prędkości więc płyn nie przepływa przez brzegi strugi. Płyn wchodzący jednym końcem strugi musi opuścić ją drugim tak jak w rurce. Na rysunku poniżej prędkość cząstek w punkcie \\( P_{1} \\) wynosi \\( v_{1} \\), a pole przekroju strugi \\( S_{1} \\). W punkcie \\( P_{2} \\) mamy odpowiednio prędkość \\( v_{2} \\) i pole przekroju \\( S_{2} \\).", "W czasie \\( \\Delta t \\) cząstka płynu przebywa odległość równą \\( v\\Delta t \\). Masa płynu przechodzącego przez \\( S_{1} \\) w czasie \\( \\Delta t \\) wynosi", "gdzie \\( S_{1}v_{1}\\Delta t \\) stanowi objętość elementu płynu. Analogicznie masa płynu przepływającego przez powierzchnię \\( S_{2} \\) w czasie \\( \\Delta t \\) jest równa", "Ponieważ płyn jest nieściśliwy więc jego gęstość jest taka sama w punkcie \\( P_{1} \\) i \\( P_{2} \\). Ponadto między tymi punktami płyn nie może opuścić strugi więc strumienie mas przepływające przez obie powierzchnie muszą być sobie równe. Zatem", "lub", "Otrzymany związek nosi nazwę równania ciągłości. Wynika zniego, że", "Linie prądu muszą się zagęszczać w węższej części, a rozrzedzać w szerszej. To znaczy, rzadko rozmieszczone linie oznaczają obszary niskiej prędkości, linie rozmieszczone gęsto obszary wysokiej prędkości."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 10. Statyka i dynamika płynów", "subject_id": 220, "subject": "Równanie Bernoulliego", "paragraphs": ["Rozważmy, pokazany na Rys. 1, nielepki, ustalony, nieściśliwy przepływ płynu w strudze. Płyn na rysunku przemieszcza się w stronę prawą. W czasie \\( \\Delta t \\) powierzchnia \\( S_{1} \\) przemieszcza się o odcinek \\( v_{1}\\Delta t \\). Analogicznie powierzchnia \\( S_{2} \\) przemieszcza się o odcinek \\( v_{2}\\Delta t \\). Na powierzchnię \\( S_{1} \\) działa siła \\( F_{1} = p_{1}S_{1} \\), a na powierzchnię \\( S_{2} \\) siła \\( F_{2} = p_{2}S_{2} \\).", "Skorzystamy teraz z twierdzenia o pracy i energii, które mówi, że praca wykonana przez wypadkową siłę jest równa zmianie energii układu. Siłami, które wykonują pracę są \\( F_{1} \\) i \\( F_{2} \\). Obliczamy więc całkowitą pracę", "Ponieważ w czasie \\( \\Delta t \\) ta sama objętość płynu \\( V \\) wpływa do strugi i z niej wypływa \\( {S_{{2}}v_{{2}}{\\Delta t}=S_{{1}}v_{{1}}{\\Delta t}=V} \\) więc", "Obliczoną pracę porównujemy ze zmianą energii strugi", "gdzie \\( m \\) jest masą przemieszczonej objętości \\( V \\) płynu. Dzieląc stronami równanie ( 3 ) przez objętość \\( V \\), a następnie wprowadzając gęstość cieczy \\( \\rho = m/V \\) można, grupując odpowiednio wyrazy, przekształcić to równanie do postaci", "Ponieważ nasze rozważania odnosiły się do dowolnych dwóch położeń, możemy opuścić wskaźniki i napisać", "Równanie to nosi nazwę równania Bernoulliego dla przepływu ustalonego, nielepkiego i nieściśliwego. Jest to podstawowe równanie mechaniki płynów. Wyraża fakt, że z przepływem płynu związane jest (oprócz ciśnienia statycznego) ciśnienie dynamiczne \\( {{\\rho v}^{{2}}/2} \\).", "Wynika z niego, że przepływ cieczy w strudze może być wywołany różnicą ciśnień na końcach strugi lub różnicą poziomów tych końców.", "Równanie Bernoulliego może być wykorzystane do wyznaczenia prędkości płynu na podstawie pomiaru ciśnienia. Ponownie posługujemy się rurką z przewężeniem, do której przymocowano tak jak na Rys. 3, dwie pionowe rurki A i B służące do pomiaru ciśnienia.", "Stosując równanie Bernoulliego dla punktów, w których prędkość płynu wynosi odpowiednio \\( v_{1} \\) i \\( v_{2} \\) (przewężenie) otrzymujemy", "Ponieważ \\( v_{1} < v_{2} \\) więc ciśnienie w przewężeniu jest mniejsze niż w rurce \\( p_{2} < p_{1} \\). Różnica ciśnień zgodnie z równaniem ( 6 ) wynosi", "Z równania ciągłości wynika, że", "Podstawiając tę zależność do równania ( 7 ) otrzymujemy", "Równocześnie tę samą różnicę ciśnień można wyznaczyć z różnicy poziomów płynu w rurkach A i B ( Rys. 3 )", "Porównując powyższe dwa wzory możemy wyznaczyć prędkość \\( v_{1} \\) w rurce", "Metoda pomiaru prędkości płynu oparta na wyznaczeniu różnicy wysokości płynu w dwóch pionowych rurkach nosi nazwę metody Venturiego.", "Opisane powyżej zagadnienia ilustrują poniższe filmy:", "Filmy zamieszczone poniżej prezentują tzw. paradoksy aerodynamiczne, które łatwo wyjaśnisz, stosując właśnie poznane prawo Bernoulliego."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 10. Statyka i dynamika płynów", "subject_id": 221, "subject": "Dynamiczna siła nośna", "paragraphs": ["W odróżnieniu od statycznej siły nośnej, którą jest siła wyporu działającą zgodnie z prawem Archimedesa na przykład na balon czy statek, dynamiczna siła nośna wywołana jest ruchem ciał w płynie, na przykład na skrzydła samolotu czy śmigła helikoptera. Na rysunku poniżej pokazane są schematycznie linie prądu i ruch cząstek powietrza wokół skrzydła samolotu.", "Samolot wybieramy jako układ odniesienia i rozpatrujemy ruch powietrza względem skrzydła.", "Analizując linie prądu zauważymy, że ze względu na ustawienie skrzydła (tak zwany kąt natarcia) linie prądu nad skrzydłem są rozmieszczone gęściej niż pod skrzydłem co oznacza, że prędkość \\( v_{1} \\) powietrza ponad skrzydłem jest większa niż prędkość \\( v_{2 } \\) pod skrzydłem. Prowadzi to do wniosku, zgodnie z prawem Bernoulliego, że ciśnienie nad skrzydłem jest mniejsze od ciśnienia pod skrzydłem i że otrzymujemy wypadkową siłę nośną \\( F \\) skierowaną ku górze. Wniosek ten wynika wprost z trzeciej zasady dynamiki Newtona. Wektor prędkości \\( v_{a} \\) powietrza zbliżającego się do skrzydła jest poziomy podczas gdy powietrze za skrzydłem jest skierowane na ukos w dół (prędkość \\( v_{b} \\) ma składową pionową). Oznacza to, że skrzydło pchnęło powietrze w dół więc w reakcji powietrze pchnęło skrzydło do góry.", "W naszych rozważaniach pominęliśmy siłę oporu powietrza tak zwaną siłę oporu czołowego. W warunkach rzeczywistych siła nośna jest wypadkową przedstawionej powyżej siły parcia wynikającej zasymetrycznej budowy skrzydła i siły oporu czołowego. Przy konstrukcji skrzydeł jak i śmigieł staramy się zminimalizować opór czołowy. Ta sama siła oporu czołowego wpływa znacząco na zużycie paliwa w samochodach. Dlatego tak wielką wagę konstruktorzy przywiązują do optymalizacji kształtu nadwozia samochodów."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 10. Statyka i dynamika płynów", "subject_id": 222, "subject": "Podsumowanie wiadomości z mechaniki płynów", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 10. Statyka i dynamika płynów", "subject_id": 229, "subject": "Zadania z mechaniki płynów", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 231, "subject": "Ciśnienie gazu doskonałego", "paragraphs": ["Termodynamika zajmuje się właściwościami cieplnymi układów makroskopowych, zaniedbując w odróżnieniu od mechaniki statystycznej mikroskopową budowę ciał tworzących układ. Gdybyśmy chcieli ściśle określić stan fizyczny układu zawierającego ogromną liczbę cząsteczek, na przykład porcji gazu, to musielibyśmy znać stan każdej cząsteczki oddzielnie to znaczy musielibyśmy podać położenie każdej cząsteczki, jej prędkość oraz siły nań działające. Takie obliczenia ze względu na dużą liczbę cząsteczek są niemożliwe. Okazuje się jednak, że posługując się metodami statystycznymi (rachunkiem prawdopodobieństwa) możemy znaleźć związki między wielkościami mikroskopowymi (dotyczącymi poszczególnych cząsteczek), a wielkościami makroskopowymi opisującymi cały układ. Chcąc opisać gaz jako całość możemy więc badać jedynie wielkości makroskopowe takie jak ciśnienie, temperatura czy objętość bez wdawania się w zachowanie poszczególnych cząsteczek.", "Rozpocznijmy nasze rozważania od definicji gazu doskonałego. Zrobimy to, podając następujące założenia dotyczące cząsteczek gazów:", "Wyprowadzimy teraz prawo gazów doskonałych. Cząsteczki gazu będziemy traktować jako \\( N \\) małych, twardych kulek, każda o masie \\( m \\) zamkniętych w sześciennym pudełku o objętości \\( V \\). Kulki są twarde to znaczy będą zderzały się sprężyście ze ściankami naczynia, a to oznacza, że ich energia kinetyczna będzie stała. Na początek rozważmy jedną cząsteczkę, która zderza się ze ścianką naczynia (zob. Rys. 1 ).", "Siła jaką cząsteczka wywiera na ściankę w czasie \\( \\Delta t \\) wynosi zgodnie z drugą zasadą dynamiki Newtona", "Zmiana składowej \\( x \\) pędu cząsteczki spowodowana zderzeniem wynosi", "Cząsteczka po odbiciu dociera do ścianki przeciwnej i powraca. Jeżeli po drodze nie zderza się z innymi cząsteczkami, to czas pomiędzy kolejnymi zderzeniami z wybraną ścianką jest równy czasowi przelotu przez cały sześcian i z powrotem", "gdzie \\( L \\) jest odległością między ściankami. Stąd siła wywierana na ściankę (przez jedną cząsteczkę) wynosi", "Dla \\( N \\) cząstek całkowita siła wynosi", "gdzie \\( {\\overline{{v_{{x}}^{{2}}}}} \\) jest to \\( {v_{{x}}^{{2}}} \\) uśrednione po wszystkich cząsteczkach. Dzieląc obie strony równania przez pole powierzchni ścianki \\( S = L^{2} \\), otrzymujemy ciśnienie", "lub zależność", "Jak widać iloczyn \\( pV \\) jest stały tak długo, jak długo jest stała energia kinetyczna cząstek.", "Prędkość średnią kwadratową cząsteczki możemy zapisać jako", "Zauważmy ponadto, że cząsteczki gazu wykonują ruch chaotyczny więc poruszają się we wszystkich kierunkach, a żaden nie jest wyróżniony. Dlatego zachodzi równość", "Podstawiamy to wyrażenie do równania ( 7 ) i otrzymujemy", "Ponieważ iloczyn \\( Nm \\) jest równy masie gazu \\( M \\), to korzystając z wyrażenia na gęstość \\( \\rho = M/V \\), można przepisać powyższe równanie w postaci", "Z równania ( 12 ) możemy wyznaczyć tzw. prędkością średnią kwadratową, która jest pierwiastkiem kwadratowym z \\( \\overline{v^2} \\)", "Powyższe równania ( 12 ) i ( 13 ) są przykładem związku o jakim mówiliśmy we wstępie. Opisują one relację pomiędzy wielkością makroskopową jaką jest ciśnienie gazu i kwadratem prędkości cząstek gazu to jest wielkością mikroskopową."], "definitions": [{"name": "Definicja 1: Definicja gazu doskonałego", "content": "\nCząsteczki gazu doskonałego traktujemy jako punkty materialne (objętość cząsteczek gazu jest o wiele mniejsza niż objętość zajmowana przez gaz i dlatego z dobrym przybliżeniem przyjmujemy, że ich objętość jest równa zeru). W gazie doskonałym zderzenia z innymi cząsteczkami oraz ze ściankami naczynia są sprężyste i dlatego całkowita energia cząsteczek jest równa ich energii kinetycznej; energia potencjalna jest stale równa zeru (nie ma przyciągania ani odpychania pomiędzy cząsteczkami)."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 230, "subject": "Temperatura, równanie stanu gazu doskonałego", "paragraphs": ["Potocznie temperaturę rozumiemy jako miarę ciepłoty układu. Za pomocą dotyku, możemy, np. stwierdzić, które z dwóch ciał jest cieplejsze. Mówimy o nim, że ma wyższą temperaturę. Możemy również stwierdzić, że gdy dwa ciała o różnych temperaturach zetkniemy ze sobą (i odizolujemy od innych) to po dostatecznie długim czasie ich temperatury wyrównają się. Mówimy wtedy, że te ciała są w równowadze termicznej ze sobą. Formułujemy teraz postulat nazywany zerową zasadą termodynamiki.", "Jako kryterium równowagi cieplnej między ciałami wprowadzamy pojęcie temperatury. Umawiamy się, że układom fizycznym, które mogą być jednocześnie ze sobą w stanie równowagi cieplnej, przypisujemy tę samą temperaturę.", "Teraz gdy zapoznaliśmy się z pojęciem temperatury, poznamy jej definicję na gruncie teorii kinetycznej, czyli przy podejściu mikroskopowym.", "Czynnik \\( (2/3k) \\) jest współczynnikiem proporcjonalności. Wartość stałej \\( k \\), zwanej stałą Boltzmana, wynosi \\( k = 1.38·10^{-23} \\) J/K. Z tej definicji wynika, że średnie energie kinetyczne ruchu postępowego (na cząsteczkę) dla dwu kontaktujących się gazów są równe.", "Jeżeli obliczymy \\( \\overline{v^2} \\) z zależności ( 1 ) i podstawimy do równania Ciśnienie gazu doskonałego-( 11 ) to otrzymamy równanie stanu gazu doskonałego w postaci", "Ponieważ przy opisie własności gazów wygodnie jest posługiwać się liczbą moli \\( n \\) to równanie stanu gazu często przedstawia się w postaci", "gdzie stała \\( R = 8.314 \\) J/mol K jest uniwersalną stałą gazową związaną ze stałą Boltzmana i liczbą Avogadra \\( N_{Av} \\) relacją \\( R = kN_{Av} \\).", "Stała Avogadra \\( N_{Av} = 6.023·10^{23} \\) 1/mol, określa liczbę cząsteczek w jednym molu. Przypomnijmy, że mol jest ilością materii układu zawierającego liczbę cząsteczek równą liczbie atomów zawartych w 0.012 kg węgla \\( ^{12}C \\) (równą \\( N_{Av} \\)).", "Równanie stanu gazu doskonałego zostało sformułowane w XIX w. przez Clapeyrona na podstawie trzech praw empirycznych odkrytych wcześniej przez innych badaczy:", "Prawo Gay-Lussaca ilustruje poniższy film:", "zgodną z równaniem stanu gazu doskonałego ( 3 ).", "Żeby wyznaczyć temperaturę na podstawie definicji ( 1 ) musielibyśmy wyznaczyć energię kinetyczną cząsteczek gazu co jest bardzo trudne. Ale możemy się posłużyć równaniem stanu gazu doskonałego ( 3 ). Łatwo bowiem jest zmierzyć iloczyn \\( pV \\) na przykład dla gazu pod stałym ciśnieniem lub przy stałej objętości. Termometr gazowy służył przez wiele lat jako wzorzec temperatury. Za jego pomocą określono doświadczalnie punkty odniesienia, takie jak na przykład punkt wrzenia wody, dla praktycznych pomiarów temperatur. W praktyce w powszechnym użyciu jest skala Celsjusza. W tej skali temperatura równowagi wody i lodu wynosi \\( 0° \\) C, a temperatura równowagi wody i pary wodnej wynosi \\( 100° C \\). Natomiast w fizyce stosujemy bezwzględną termodynamiczną skalę temperatur nazywaną skalą Kelvina.", "Jednostki", "Jednostką temperatury bezwzględnej jest kelwin (K). Ponieważ w obu skalach Kelvina i Celsjusza różnica pomiędzy temperaturą zamarzania i wrzenia wody wynosi 100 stopni więc wielkość stopnia jest taka sama w obu skalach.", "Między temperaturą w skali Celsjusza \\( t_{C} \\) a temperaturą w skali bezwzględnej \\( T \\) zachodzi związek"], "definitions": [{"name": "Definicja 1: Temperatura bezwzględna", "content": "Temperaturę bezwzględną definiujmy jako wielkość wprost proporcjonalną do średniej energii kinetycznej cząsteczek.\n\n\t\t\t\t\t(1)\n\n\t\t\t\t\t\t\t\t\\( {T=\\left(\\frac{2}{3k}\\right)\\frac{m\\overline{v^2}}{2}} \\)\n\n"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 233, "subject": "Ekwipartycja energii", "paragraphs": ["W równowadze termodynamicznej średnie energie kinetyczne ruchu postępowego wszystkich cząsteczek są równe. Wiemy to m.in na podstawie równania Temperatura, równanie stanu gazu doskonałego-( 1 ). Powstaje pytanie czy cząsteczka może gromadzić energię w innej postaci niż energia ruchu postępowego?", "Odpowiedź jest twierdząca: jeżeli tylko cząsteczka nie ma kształtu kulki (cząsteczka jednoatomowa), a ma pewną strukturę wewnętrzną to może wirować i drgać. Przykładowo, dwuatomowa cząsteczka w kształcie hantli (zob. Rys. 1 ) będzie się obracać po zderzeniu z inną cząsteczką.", "Na podstawie mechaniki statystycznej można pokazać, że gdy liczba punktów materialnych jest bardzo duża i obowiązuje mechanika Newtonowska to:", "Zasada ta nosi nazwę zasady ekwipartycji energii.", "Każdy z tych sposobów absorpcji energii nazywa się stopniem swobody i jest równy liczbie niezależnych współrzędnych potrzebnych do określenie położenia ciała w przestrzeni. Możemy więc zasadę ekwipartycji energii wyrazić innymi słowami:", "Na podstawie równania Temperatura, równanie stanu gazu doskonałego-( 1 ) średnia energia kinetyczna ruchu postępowego cząsteczki wynosi", "Odpowiada to trzem stopniom swobody ponieważ potrzebujemy trzech współrzędnych \\( (x, y, z) \\) do określenia położenia środka masy cząsteczki. Stąd średnia energia przypadająca na jeden stopień swobody wynosi \\( {\\frac{1}{2}{kT}} \\) na cząsteczkę.", "Dla cząsteczek obracających się potrzeba dodatkowych współrzędnych do opisania ich obrotu więc mamy dodatkowe stopnie swobody. O ile dla \\( N \\) cząsteczek nie obracających się całkowita energia wewnętrzna \\( U \\)jest energią kinetyczną ruchu postępowego", "to dla cząstek wieloatomowych, które mogą obracać się swobodnie we wszystkich trzech kierunkach (wokół osi x, y, z)", "Natomiast dla cząstki dwuatomowej (hantli pokazanej na Rys. 1 )", "W tym przypadku mamy tylko dwa rotacyjne stopnie swobody bo moment bezwładności względem osi hantli (oś \\( x \\)) jest znikomo mały.", "Zwróćmy uwagę, że mówimy tu o energii \"ukrytej\" (wewnętrznej) cząstek, a nie o energii makroskopowej (związanej z przemieszczaniem masy). O energii wewnętrznej mówiliśmy w module Zasada zachowania energii (energia indywidualnych cząstek nie zawarta w energii kinetycznej czy potencjalnej ciała jako całości ). Energię wewnętrzną oznacza się zazwyczaj przez \\( U \\)."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 232, "subject": "Pierwsza zasada termodynamiki", "paragraphs": ["W mechanice rozważaliśmy zmiany energii mechanicznej układu, będące wynikiem pracy wykonanej przez siły zewnętrzne. W przemianach termodynamicznych możliwy jest inny (nie mechaniczny) sposób przekazywania energii. Gdy dwa układy o różnych temperaturach zetkniemy ze sobą, to ciepło \\( Q \\) przepływa z ciała cieplejszego do chłodniejszego.", "Zgodnie z zasadą zachowania energii:", "czyli", "To jest sformułowanie pierwszej zasady termodynamiki. W tym zapisie mamy rozdzieloną energię ciała na część makroskopową (energię mechaniczną) i mikroskopową (energię wewnętrzną). Zasada ta działa również w \"drugą stronę\" to znaczy, gdy nad układem zostanie wykonana praca, to układ może oddawać ciepło. To równanie często piszemy w postać różniczkowej", "Widzimy, że zmiana energii wewnętrznej związana jest z ciepłem pobieranym \\( (dQ > 0) \\) lub oddawanym \\( (dQ < 0) \\) przez układ oraz z pracą wykonaną przez układ \\( (dW > 0) \\) lub nad układem \\( (dW < 0) \\).", "Rozpatrzymy teraz gaz działający siłą \\( F \\) na tłok o powierzchni \\( S \\), jak na Rys. 1", "Praca wykonana przez gaz wynosi", "i wtedy", "Pamiętamy, że w mechanice praca sił zachowawczych wykonana nad punktem materialnym poruszającym się między dwoma punktami zależała tylko od tych punktów, a nie od łączącej je drogi. W termodynamice stwierdzamy, że", "Oznacza to, że chociaż \\( dQ \\) i \\( dW \\) z osobna zależą od drogi przejścia to \\( dU \\) ma określoną wartość niezależną od sposobu przejścia układu do stanu końcowego. Taką wielkość fizyczną (funkcję tego typu), która charakteryzuje stan układu, i której wartości nie zależą od sposobu w jaki układ został do danego stanu doprowadzony nazywamy funkcją stanu."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 251, "subject": "Ciepło właściwe", "paragraphs": ["W module zapoznamy się z jednym z kluczowych pojęć termodynamiki - ciepłem właściwym.", "Gdy masę wyrażamy w kilogramach, to mówimy o cieple właściwym wagowym, a gdy wyrażamy ją w molach, mamy do czynienia z molowym ciepłem właściwym.", "Ciepło właściwe jednego mola gazu utrzymywanego w stałej objętości oznaczamy \\( c_v \\). Ponieważ \\( dV = 0 \\) więc zgodnie z pierwszą zasadą termodynamiki \\( dU = dQ \\), a stąd", "Dla gazu jednoatomowego (dla jednego mola) mamy na podstawie równania Ekwipartycja energii-( 2 ) \\( {U=\\frac{3}{2}N_{{{Av}}}{kT}=\\frac{3}{2}{RT}} \\). Zatem", "Dla jednego mola gazu dwuatomowego na podstawie równania Ekwipartycja energii-( 4 )", "a dla jednego mola cząsteczek wieloatomowych z równania Ekwipartycja energii-( 3 )", "Jak wynika z powyższych obliczeń mechanika klasyczna przewiduje ciepło właściwe niezależne od temperatury. Tymczasem badania pokazują, że jest to prawdziwe tylko dla gazów jednoatomowych. Dla pozostałych \\( c_v \\) rośnie z temperaturą.", "Przykład takiej zależności jest pokazany na Rys. 1 gdzie przedstawiono ciepło właściwe \\( c_v \\) dla wodoru (cząsteczka dwuatomowa H \\( _{2} \\)) w funkcji temperatury (w skali logarytmicznej).", "Zauważmy, że w temperaturach niższych od 100 K, \\( {c_{{V}}=\\frac{3}{2}R} \\) co wskazuje, że w tak niskich temperaturach cząsteczka porusza się tylko ruchem postępowym i nie wiruje. Rotacja staje się możliwa dopiero w temperaturach powyżej 100 K; i dopiero wtedy \\( {c_{{V}}=\\frac{5}{2}R} \\). Ale w temperaturach powyżej 2000 K ciepło właściwe \\( c_v \\) rośnie do wartości \\( {c_{{V}}=\\frac{7}{2}R} \\) co oznacza, że przybyły jeszcze dwa stopnie swobody. Ten wynik doświadczalny wiążemy z drganiami atomów w cząsteczkach. W tak wysokich temperaturach cząsteczka przestaje się zachowywać jak ciało sztywne i zderzenia między cząsteczkami powodują, że dwa atomy wodoru (w cząsteczce) będą drgały.", "Wytłumaczenie tych zjawisk nie jest możliwe na gruncie mechaniki klasycznej. Dopiero mechanika kwantowa daje wyjaśnienie tych zmian ciepła właściwego. Na jej gruncie można pokazać, że do wzbudzenia rotacji potrzeba pewnej minimalnej energii. Podobnie jest dla ruchu drgającego, który może być wywołany dopiero dla dostatecznie wysokiej energii.", "Zatem w wysokich temperaturach oprócz energii kinetycznej ruchu postępowego i obrotowego istnieje jeszcze energia kinetyczna i potencjalna drgań. Wobec tego średnia energia wewnętrzna na cząsteczkę wodoru wynosi", "a dla 1 mola", "Stąd otrzymujemy molowe ciepło właściwe przy stałej objętości", "Zgodnie z pierwszą zasadą termodynamiki", "a na podstawie równania ( 1 ) \\( {{dU}=c_{{V}}{dT}} \\) więc", "Z równania stanu gazu doskonałego \\( {{pV}={nRT}} \\) wynika, że dla jednego mola gazu przy stałym ciśnieniu \\( {{pdV}={RdT}} \\) więc", "Dzieląc stronami przez dT, otrzymujemy", "a to z definicji jest równe ciepłu właściwemu przy stałym ciśnieniu \\( c_{p} \\), więc", "Widzimy, że ciepło właściwe przy stałym ciśnieniu jest większe od ciepła właściwego przy stałej objętości \\( c_{p} > c_v \\). Dzieje się tak dlatego, że w przemianie izobarycznej trzeba dostarczać ciepła nie tylko na zmianę energii wewnętrznej, związaną ze zmianą temperatury, ale i na wykonanie pracy związanej ze zmianą objętości podczas gdy w przemianie izochorycznej praca jest równa zeru."], "definitions": [{"name": "Definicja 1: Ciepło właściwe", "content": "Ciepło właściwe substancji definiujemy jako \\( dQ/dT \\) czyli ilość ciepła, którą trzeba dostarczyć do jednostki masy, żeby spowodować jednostkową zmianę jej temperatury."}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 234, "subject": "Rozprężanie izotermiczne i adiabatyczne", "paragraphs": ["Rozprężanie się gazu zamkniętego w cylindrze z ruchomym tłokiem zostało szeroko wykorzystane w konstrukcji silników. Rozpatrzymy teraz dwa zwykle występujące procesy to jest rozprężanie izotermiczne i rozprężanie adiabatyczne.", "Przy rozprężaniu izotermicznym trzeba utrzymywać stałą temperaturę ścian cylindra; więc tłok musi poruszać się wolno, żeby gaz mógł pozostawać w równowadze termicznej ze ściankami cylindra. Ponieważ \\( T = \\text{const.} \\), więc \\( dU = 0 \\). Stąd, na podstawie pierwszej zasady termodynamiki, otrzymujemy warunek \\( {{dQ}={dW}={pdV}} \\), a dalej", "gdzie, na podstawie równania stanu gazu doskonałego, podstawiono \\( {p=\\frac{{NkT}}{V}} \\).", "Często w silnikach nie są spełnione warunki rozprężania izotermicznego, ponieważ tłok porusza się bardzo szybko i nie ma dość czasu na przepływ ciepła pomiędzy gazem a ścianami cylindra. Taką przemianę zachodzącą bez wymiany ciepła z otoczeniem nazywamy przemianą adiabatyczną. Oznacza to, że \\( dQ = 0 \\) i pierwsza zasada termodynamiki przyjmuje postać \\( {{dU}+{pdV}=0} \\). Równanie to można przekształcić do postaci", "gdzie \\( {\\kappa =c_{{p}}/c_{{v}}} \\). Równanie to nosi nazwę równania Poissona dla przemiany adiabatycznej.", "Z tego równania i równania stanu gazu doskonałego wynika, że w przemianie adiabatycznej zmieniają się wszystkie parametry stanu gazu: \\( p, V \\ \\text{i} \\ T \\)."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 235, "subject": "Równanie Poissona dla przemiany adiabatycznej", "paragraphs": ["Wyprowadzimy teraz równanie opisujące przemianę adiabatyczną, tzw. równanie Poissona. W przemianie adiabatycznej nie zachodzi wymiana ciepła z otoczeniem. Oznacza to, że \\( dQ = 0 \\) i pierwsza zasada termodynamiki przyjmuje postać \\( {{dU}+{pdV}=0} \\). Równanie to możemy przepisać w postaci", "Różniczkując równanie stanu gazu doskonałego \\( pV = nRT \\), otrzymujemy (dla jednego mola gazu)", "Łącząc oba powyższe równania (eliminując \\( dT \\)), otrzymujemy", "lub", "Podstawiając \\( {c_{{p}}=c_{{v}}+R} \\), otrzymujemy", "gdzie \\( {\\kappa =c_{{p}}/c_{{v}}} \\). Możemy teraz scałkować to równanie", "Skąd \\( {\\kappa \\ln V+\\ln p=\\text{const}\\text{.}} \\) (stała całkowania)", "Zapisując inaczej, otrzymany wynik", "lub", "otrzymujemy poszukiwane równanie Poissona dla przemiany adiabatycznej."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 1462, "subject": "Średnia droga swobodna", "paragraphs": ["Model gazu doskonałego jest brdzo wygodnym, ale przybliżonym sposobem opisu rzeczywistych gazów. Teraz spróbujemy omówić niektóre istotne właściwości gazu rzeczywistego. Zwróćmy na przykład uwagę na to, że gdyby cząsteczki były punktowe to nie zderzałyby się w ogóle ze sobą. Tak więc w opisie zderzeń musimy uwzględnić skończone wymiary cząsteczek. Będziemy teraz traktować cząsteczki jako kuleczki o średnicy \\( d \\). Oznacza to, że zderzenie pomiędzy cząsteczkami będzie miało miejsce gdy odległość między ich środkami będzie mniejsza niż \\( d \\). Inaczej mówiąc cząsteczka zachowuje się jak tarcza o efektywnej powierzchni", "Ta powierzchnia nosi nazwę całkowitego przekroju czynnego.", "W czasie \\( t \\) cząsteczka poruszająca się z prędkością \\( v \\) przemiata objętość walca równą \\( vts \\). Jeżeli \\( n \\) jest liczbą cząsteczek w jednostce objętości to na swej drodze (w tym walcu) nasza cząstka napotka \\( n_{z} \\) innych cząsteczek", "Tym samym otrzymaliśmy liczbę zderzeń, których doznaje cząsteczka w czasie \\( t \\). Widać, że zależy ona od rozmiarów cząsteczek i od ich liczby w jednostce objętości. Wprowadzimy teraz pojęcie średniej drogi swobodnej \\( {\\overline{{\\lambda }}} \\).", "Średnia droga swobodna jest równa całkowitej odległości przebywanej przez cząstkę podzielonej przez liczbę zderzeń (zob. Rys. 1).", "Równanie ( 3 ) wyprowadziliśmy przy założeniu, że cząstka zderza się z innymi nieruchomymi cząsteczkami. W rzeczywistości cząsteczki uderzają w inne też poruszające się cząsteczki. Rzeczywista częstość zderzeń jest więc większa, a średnia droga swobodna mniejsza", "Ta różnica we wzorach wynika z tego, że w poprzednim równaniu ( 3 ) występujące tam dwie prędkości są różne: prędkość w liczniku to prędkość średnia cząsteczek \\( {\\overline{{v}}} \\) względem naczynia, a prędkość w mianowniku to średnia prędkość względna w stosunku do innych cząsteczek. Można się przekonać jakościowo, że te prędkości są różne. Na przykład, gdy cząstki biegną naprzeciw siebie to mają względną prędkość równą \\( {2\\overline{{v}}} \\), gdy pod kątem prostym to równą \\( {\\overline{{v}}\\sqrt{2}} \\), a gdy w tę samą stronę to względna prędkość jest równa zeru. Uwzględniając rzeczywisty rozkład prędkości, otrzymujemy \\( {v_{{\\text{wzgl}\\text{.}}}=\\overline{{v}}\\sqrt{2}} \\)."], "definitions": [{"name": "Definicja 1: Średnia droga swobodna", "content": "\nŚrednią drogę swobodną definiujemy jako średnią odległość przebywaną przez cząsteczkę pomiędzy kolejnymi zderzeniami.\n\n"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 1465, "subject": "Rozkład Maxwella prędkości cząstek", "paragraphs": ["W przykładzie Średnia droga swobodna-Średnia droga swobodna i liczba zderzeń posługiwaliśmy się pojęciem prędkości średniej cząsteczek gazu. Jednak każdy gaz ma charakterystyczny rozkład prędkości, który zależy od temperatury. Cząstki nie mogą mieć takich samych prędkości bo przecież ich prędkości zmieniają się w wyniku zderzeń. Clerk Maxwell podał prawo rozkładu prędkości cząsteczek, które dla gazu zawierającego \\( N \\) cząsteczek ma postać", "Funkcja \\( N(v) \\) określa prawdopodobieństwo, że w temperaturze \\( T \\), \\( dN \\) spośród wszystkich \\( N \\) cząsteczek ma prędkości zawarte w przedziale od \\( v \\) do \\( v + d v \\); \\( k \\) jest stałą Boltzmana, a \\( m \\) masą cząsteczki. Całkowitą liczbę cząsteczek można zatem obliczyć, dodając (tj. całkując) liczby cząstek dla poszczególnych różniczkowych przedziałów prędkości \\( dv \\)", "Na Rys. 1 pokazany jest rozkład Maxwella prędkości dla dwóch różnych temperatur; gdzie zaznaczono prędkość średnią, prędkość średnią kwadratową i prędkość najbardziej prawdopodobną.", "Zauważmy, że krzywa rozkładu nie jest symetryczna, bo dolny limit (najmniejsza prędkość) równy jest zeru, podczas gdy górny nieskończoności. Ze wzrostem temperatury rośnie prędkość średnia kwadratowa. Obszar prędkości jest teraz większy. Ponieważ liczba cząstek (pole pod krzywą) jest stała więc rozkład się \"rozpłaszcza\". Wzrost, wraz z temperaturą, liczby cząstek o prędkościach większych od danej tłumaczy wiele zjawisk takich jak np. wzrost szybkości reakcji chemicznych towarzyszących zwiększeniu temperatury. Ponadto rozkład prędkości zależy od masy cząsteczek. Im mniejsza masa tym więcej szybkich cząsteczek (w danej temperaturze). Dlatego na przykład wodór łatwiej ucieka z górnych warstw atmosfery niż tlen czy azot."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 237, "subject": "Procesy odwracalne i nieodwracalne, cykl Carnota", "paragraphs": ["Rozpatrzmy dwa przypadki izotermicznego sprężania gazu. W pierwszym, tłok przesuwamy bardzo szybko i czekamy aż ustali się równowaga z otoczeniem. W czasie takiego procesu ciśnienie i temperatura gazu nie są dobrze określone, ponieważ nie są jednakowe w całej objętości.", "W drugim tłok przesuwamy bardzo powoli tak, że ciśnienie i temperatura gazu są w każdej chwili dobrze określone. Ponieważ zmiana jest niewielka to gaz szybko osiąga nowy stan równowagi. Możemy złożyć cały proces z ciągu takich małych przesunięć tłoka i wtedy podczas całego procesu gaz jest bardzo blisko równowagi. Jeżeli będziemy zmniejszać nasze zmiany to w granicy dojdziemy do procesu idealnego, w którym wszystkie stany pośrednie (pomiędzy początkowym i końcowym) są stanami równowagi.", "Pierwszy proces nazywamy procesem nieodwracalnym, a proces drugi procesem odwracalnym.", "Przykładem cyklu odwracalnego jest cykl Carnota. Jest to bardzo ważny cykl odwracalny ponieważ wyznacza granicę naszych możliwości zamiany ciepła na pracę. Cykl Carnota, pokazany na Rys. 1 przebiega czterostopniowo:", "Praca wykonywana przez gaz lub siłę zewnętrzną jest równa każdorazowo polu pod wykresem \\( p(V) \\) odpowiadającym danej przemianie (zob. Rys. 1 ). Stąd wypadkowa praca \\( W \\) wykonana przez układ w czasie pełnego cyklu jest opisana przez powierzchnię zawartą wewnątrz zamkniętej krzywej opisującej cały cykl.", "Wypadkowa ilość ciepła pobrana przez układ podczas jednego cyklu wynosi \\( Q_{1} - Q_{2} \\). Natomiast wypadkowa zmiana energii wewnętrznej wynosi zero, ponieważ stan końcowy pokrywa się z początkowym, zatem na podstawie pierwszej zasady termodynamiki otrzymujemy", "Schematycznie jest to przedstawione na Rys. 2.", "Widzimy, że pewna ilość ciepła została zamieniona na pracę. Możemy powtarzać ten cykl, uzyskując potrzebną ilość pracy. Takie urządzenie nazywamy silnikiem cieplnym. Sprawność \\( \\eta \\) silnika cieplnego definiujemy jako", "Korzystając z równania stanu gazu doskonałego i z pierwszej zasady termodynamiki, można pokazać, że sprawność silnika Carnota (dla gazu doskonałego) wynosi", "Cykl Carnota można prowadzić w kierunku przeciwnym i wtedy urządzenie działa jako maszyna chłodząca."], "definitions": [{"name": "Definicja 1: Proces odwracalny", "content": "\nProces nazywamy odwracalnym, gdy za pomocą bardzo małej (różniczkowej) zmiany otoczenia można wywołać proces odwrotny do niego, tzn. przebiegający po tej samej drodze w przeciwnym kierunku.\n\n"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 238, "subject": "Sprawność silników cieplnych", "paragraphs": ["Rozpatrzmy schemat pokazany na Rys. 1, w którym silnik o sprawności hipotetycznie większej od silnika Carnota napędza taki silnik Carnota, który pracuje jako chłodnica między tymi samymi zbiornikami ciepła.", "Silnik o sprawności \\( \\eta \\) pobiera ze źródła o temperaturze \\( T_{1} \\) ciepło \\( Q_{1} \\) i zamienia ją na energię mechaniczną W równą", "Jeżeli układ napędowy tej maszyny jest połączony z układem napędowym silnika Carnota, to energia \\( W \\) zostanie zużyta na napędzanie chłodni Carnota. W wyniku tego do źródła ciepła zostanie dostarczone ciepło \\( Q_{1}' \\) równe", "Ponieważ założyliśmy, że sprawność silnika jest większa od sprawności silnika Carnota \\( \\eta > \\eta' \\), to ciepło dostarczone do źródła ciepła jest większe niż ciepło pobrane \\( Q_{1}'> Q_{1} \\) co oznacza, że w końcowym efekcie ciepło jest przenoszone z chłodnicy do źródła ciepła. Wnioskujemy więc, że jeśli istniałby silnik o sprawności większej od sprawności silnika Carnota, to naruszona zostałaby druga zasada termodynamiki w sformułowaniu: żadna cyklicznie pracująca maszyna nie może bez zmian w otoczeniu przenosić w sposób ciągły ciepła z jednego ciała do drugiego o wyższej temperaturze."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 239, "subject": "Sprawność silnika Carnota", "paragraphs": ["Wyprowadzimy teraz wzór na sprawność silnika Carnota.", "Cykl Carnota, przedstawiony na Rys. 1, przebiega czterostopniowo:", "Podczas przemiany (1) gaz pobiera ciepło \\( Q_{1} \\) i jego kosztem wykonuje \\( W_{1} \\)", "Analogicznie podczas przemiany (3) siła zewnętrzna wykonuje pracę \\( W_{2} \\), a z gazu do zbiornika przechodzi ciepło \\( Q_{2} \\)", "Dzieląc te równania stronami, otrzymujemy", "Z równania stanu gazu doskonałego \\( pV=nRT \\) dla przemian izotermicznych (1) i (3) wynika, że", "Natomiast dla przemian adiabatycznych (2) i (4) z równania Poissona \\( pV^{\\kappa} = \\text{const.} \\) wynika, że", "Z powyższych czterech równań wynika, że", "skąd", "Podstawiając to wyrażenie do równania ( 3 ), otrzymujemy", "i możemy teraz zapisać sprawność silnika Carnota (dla gazu doskonałego) jako"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 240, "subject": "Druga zasada termodynamiki", "paragraphs": ["Zwróćmy uwagę na to, że w trakcie pracy (cyklu) silnika cieplnego (zob. moduł Procesy odwracalne i nieodwracalne, cykl Carnota ) część pobieranego ciepła jest oddawana do zbiornika o niższej temperaturze i w konsekwencji ta ilość ciepła nie jest zamieniana na pracę. Powstaje pytanie, czy można skonstruować urządzenie, które pobierałoby ciepło i w całości zamieniałoby je na pracę? Moglibyśmy wtedy wykorzystać ogromne (z naszego punktu widzenia nieskończone) ilości ciepła zgromadzone w oceanach, które byłyby stale uzupełniane poprzez promieniowanie słoneczne.", "Negatywna, niestety, odpowiedź na to pytanie jest zawarta w drugiej zasadzie termodynamiki. Poniżej podane zostały równoważne sformułowania tej zasady:", "Oznacza to, że nie możemy zbudować doskonałego silnika cieplnego, bo nie możemy wytwarzać pracy pobierając jedynie ciepło z jednego zbiornika bez oddawania pewnej ilości ciepła do zbiornika zimniejszego.", "Wiemy, z doświadczenia, że ciepło przepływa od ciała cieplejszego do ciała zimniejszego. Żeby zmienić ten kierunek musi zostać wykonana praca przez czynnik zewnętrzny. Nie można więc zbudować doskonałej maszyny chłodzącej, która bez dodatkowych efektów (wydatkowania pracy z zewnątrz) przenosiłaby w sposób ciągły ciepło z ciała zimniejszego do cieplejszego.", "Oznacza to, że żadna maszyna cieplna nie może mieć sprawności większej od sprawności silnika Carnota.", "Przypomnijmy, że sprawność silnika Carnota jest równa \\( {\\eta =\\frac{W}{Q_{{1}}}=\\frac{Q_{{1}}-Q_{{2}}}{Q_{{1}}}=\\frac{T_{{1}}-T_{{2}}}{T_{{1}}}} \\). Wynika stąd, że", "Możemy więc wyznaczyć stosunek temperatur dowolnych zbiorników ciepła mierząc ilość ciepła przenoszoną podczas jednego cyklu Carnota. Wzór ( 1 ) stanowi definicję tak zwanej termodynamicznej skali temperatur."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 241, "subject": "Entropia", "paragraphs": ["Zerowa zasada termodynamiki wiąże się z pojęciem temperatury. Pierwsza zasada termodynamiki wiąże się z pojęciem energii wewnętrznej. Natomiast drugą zasadę termodynamiki wiążemy z pojęciem entropii.", "Entropia \\( S \\) jest termodynamiczną funkcją stanu, zależy tylko od początkowego i końcowego stanu układu, a nie od drogi przejścia pomiędzy tymi stanami. Entropia jest funkcją określoną dla stanu równowagi, taką że dla procesu odwracalnego jej zmiany możemy powiązać z ciepłem wymienianym przez układ z otoczeniem.", "Z tego punktu widzenia szczególnie interesujące są procesy adiabatyczne nie związane z przepływem ciepła pomiędzy układem i otoczeniem. W procesie adiabatycznym \\( dQ = 0 \\), więc dla procesu odwracalnego \\( dS = 0 \\) na podstawie równania ( 1 ). Oznacza to, że możemy sformułować następujące twierdzenie:", "Można uogólnić zasadę wzrostu entropii na układy nie izolowane adiabatycznie to znaczy takie, które wymieniają ciepło z otoczeniem. Traktujemy wtedy nasz układ i otoczenie razem jako jeden \"większy\" układ ponownie izolowany adiabatycznie. Wtedy", "gdzie \\( dS_{o} \\) jest zmianą entropii otoczenia. Zmienia się więc entropia naszego układu i otoczenia. Jeżeli proces jest odwracalny, podczas przenoszenia ciepła \\( dQ \\) z otoczenia do naszego układu, entropia otoczenia maleje o \\( dQ/T \\), a entropia układu rośnie o tę samą wartość \\( dQ/T \\), więc całkowita zmiana entropii jest równa zeru.", "Zatem posługując się entropią (zgodnie z drugą zasadą termodynamiki), możemy stwierdzić czy dany proces może zachodzić w przyrodzie.", "Entropię układu można opisać na gruncie mechaniki statystycznej. W takim podejściu entropia jest miarą nieuporządkowania układu cząstek. Zgodnie z drugą zasadą termodynamiki dla procesów zachodzących w przyrodzie entropia układu (wraz z otoczeniem) rośnie to znaczy, że rośnie również nieuporządkowanie (układu wraz z otoczeniem). Oznacza to, że im większy jest stan nieporządku (położeń i prędkości cząstek) w układzie, tym większe jest prawdopodobieństwo, że układ będzie w tym stanie.", "Pokażmy teraz, że to sformułowanie jest równoważne definicji termodynamicznej entropii. W tym celu rozpatrzmy swobodne rozprężanie gazu od objętości \\( V_{1} \\) do objętości końcowej \\( V_{2} \\).", "Względne prawdopodobieństwo znalezienia jednej cząstki w objętości \\( V_{1} \\) w porównaniu do \\( V_{2} \\) jest równe", "a dla \\( N \\) cząstek", "Obliczamy teraz zmianę entropii układu", "Podstawiając zależność ( 11 ), otrzymujemy", "Równanie to można, dzieląc je i mnożąc przez \\( T \\), przekształcić do postaci", "gdzie wyrażenie w liczniku jest równe ilości ciepła dostarczonego do układu, aby ten przeszedł do stanu końcowego w sposób odwracalny rozprężając się izotermiczne (zob. moduł Rozprężanie izotermiczne i adiabatyczne ).", "Ostatecznie więc", "lub", "gdzie \\( dQ \\) jest ciepłem dostarczanym do układu w procesie odwracalnym.", "Podsumowując, w ujęciu termodynamicznym stan równowagi odpowiada stanowi o największej entropii, a w ujęciu statystycznym jest stanem najbardziej prawdopodobnym.", "Pojęcie entropii ilustrują poniższe filmy."], "definitions": [{"name": "Definicja 1: Entropia", "content": "\nW procesach odwracalnych entropię definiujemy wzorami:\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( {{dS}=\\frac{{dQ}}{T}} \\)\n\nlub\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( {S=\\int {\\frac{{dQ}}{T}}} \\)\n\ngdzie \\( dQ \\) jest ciepłem dostarczanym do układu w procesie odwracalnym.\n\n"}, {"name": "Definicja 2: Statystyczna definicja entropii", "content": "\nEntropię definiujemy jako\n\n(9)\n\n\t\t\t\t\t\t\t\t\\( S=k\\ln\\omega \\)\n\ngdzie \\( k \\) jest stałą Boltzmana, a \\( \\omega \\) prawdopodobieństwem (tzw. prawdopodobieństwem termodynamicznym), że układ znajdzie się w danym stanie (w odniesieniu do wszystkich pozostałych stanów). Prawdopodobieństwo to wyraża się przez liczbę sposobów na jakie dany stan termodynamiczny makroskopowy może być zrealizowany przez stany mikroskopowe.\n\n"}]} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 236, "subject": "Równanie stanu Van der Waalsa", "paragraphs": ["Równanie stanu gazu doskonałego \\( {{pV}={nRT}} \\) (zob. moduł Temperatura, równanie stanu gazu doskonałego ) dobrze opisuje gazy rzeczywiste ale przy małych gęstościach. Przy większych gęstościach nie można pominąć faktu, że cząstki zajmują część objętości dostępnej dla gazu oraz że działają na siebie siłami przyciągania lub odpychania w zależności od odległości między nimi. Van der Waals zmodyfikował równanie stanu gazu doskonałego, tak aby uwzględnić te czynniki.", "Jeżeli cząstki posiadają skończoną objętość to rzeczywista objętość dostępna dla cząstek jest mniejsza od objętości naczynia. \"Objętość swobodna\" jest mniejsza od objętości naczynia o \"objętość własną\" cząsteczek \\( b \\). Jeżeli oznaczymy przez \\( v \\) objętość przypadającą na jeden mol \\( v = V/n \\) to otrzymamy zmodyfikowane równanie stanu gazu", "Można również prosto uwzględnić efekt sił międzycząsteczkowych. W dowolnym miejscu w naczyniu siła przyciągania pomiędzy \\( n \\) cząsteczkami (na jednostkę objętości) z sąsiednimi \\( n \\) cząsteczkami (na jednostkę objętości) jest proporcjonalna do \\( n^{2} \\) czyli proporcjonalna do \\( 1/v^{2} \\). Siła przyciągająca wywołuje dodatkowe ciśnienie. Stąd otrzymujemy równanie Van der Waalsa", "Stałe \\( a \\) i \\( b \\), różne dla różnych gazów, wyznaczamy doświadczalnie.", "Na Rys. 1 porównano zachowanie się gazu doskonałego (a) z gazem Van der Waalsa (b). Skala obu rysunków jest jednakowa.", "Izotermy gazu doskonałego są hiperbolami danymi równaniem \\( pV = \\text{const.} \\) Natomiast dla gazu Van der Waalsa ciśnienie zmienia się zgodnie z zależnością", "Widzimy, że dla wysokich temperatur izotermy gazu Van der Waalsa zbliżają się do izoterm dla gazu idealnego.", "Natomiast poniżej pewnej temperatury, tak zwanej temperatury krytycznej, obserwujemy charakterystyczne minima i maksima w zależności \\( p(v) \\).", "Temperatura krytyczna jest ważnym parametrem charakteryzującym dany gaz. Poniżej temperatury krytycznej gaz rzeczywisty może ulec skropleniu, a powyżej niej może występować wyłącznie w stanie gazowym.", "Temperatury krytyczne większości gazów są niskie i dlatego nie jest łatwo je skroplić. Na przykład temperatura krytyczna dwutlenku węgla wynosi 304 K, ale wodoru już 33 K, a helu 5.3 K. Pionierami badań nad uzyskiwaniem niskich temperatur byli Karol Olszewski i Zygmunt Wróblewski, którzy w 1883 roku jako pierwsi dokonali skroplenia powietrza (azot, tlen). Chociaż, równanie Van der Waalsa daje dobry opis jakościowy to bywa czasami zawodne przy opisie ilościowym. Jednak nie jest znana prosta formuła, która stosowałaby się do różnych gazów w różnych warunkach.", "Skraplanie tlenu można przeprowadzić dysponując ciekłym azotem, co pokazano na filmie:", "co ciekawe, tlen wykazuje własności paramagnetyczne (zob. Diamagnetyzm i paramagnetyzm ), co widać na poniższym filmie:"], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 1463, "subject": "Stany równowagi, zjawiska transportu", "paragraphs": ["W termodynamice bardzo często posługujemy się pojęciem stanu równowagi układu, czyli stanu, w którym żaden z parametrów potrzebnych do makroskopowego opisu układu nie zależy od czasu. Zajmujemy się wtedy procesami, które zaczynały się jednym stanem równowagi, a kończyły innym stanem równowagi.", "Dla układu jednorodnego (przykładowo gazu) w stanie równowagi do jego opisu wystarcza znajomość dwu podstawowych parametrów stanu na przykład ciśnienia i objętości. Opis komplikuje się gdy mamy układ niejednorodny na przykład ciecz w równowadze z parą. Dla danej temperatury stan równowagi tego układu jest możliwy przy różnych objętościach układu (od objętości zależy ilość fazy ciekłej i gazowej). Natomiast temperatura i ciśnienie przestają być niezależne. W każdej temperaturze równowaga jest możliwa tylko przy określonym ciśnieniu (pary nasyconej). Przy wyższym istnieje tylko ciecz, przy niższym para. Podobnie ciecz i ciało stałe mogą istnieć w równowadze tylko w temperaturze topnienia, która jest funkcją ciśnienia. Wreszcie ciało stałe współistnieje w równowadze z parą nasyconą, której ciśnienie jest funkcją temperatury. Krzywe równowagi pokazane na rysunku Rys. 1", "Literą a oznaczona jest krzywa równowagi ciało stałe - ciecz (związek temperatury topnienia z ciśnieniem). Krzywa a' przedstawia tę zależność dla kilku nietypowych substancji, które przy topnieniu zmniejszają objętość, na przykład dla lodu. Krzywa b + b' pokazuje zależność ciśnienia pary nasyconej od temperatury. Odcinek b' to krzywa równowagi ciało stałe - para, a odcinek b to krzywa równowagi ciecz - para. Krzywa równowagi ciecz - para kończy się w punkcie krytycznym K. Dla temperatury wyższej od temperatury punktu krytycznego K zanika różnica pomiędzy fazą ciekłą i gazową. Dlatego warunkiem skroplenia gazu jest ochłodzenie go poniżej jego temperatury krytycznej. Punkt P, w którym łączą się krzywe nazywamy punktem potrójnym. W tym punkcie mogą znajdować się w równowadze wszystkie trzy stany skupienia. Dla wody odpowiada to ciśnieniu \\( p = 610.6 \\) Pa i \\( T = 273.16 \\) K ( \\( 0.01 \\) °C). Punkt potrójny wody posłużył do definicji jednostki temperatury - kelwina.", "Znajomość dochodzenia układów do stanów równowagi jest równie ważna, jak znajomość ich własności w stanach równowagi, a każdy układ pozostawiony samemu sobie przez dostatecznie długi czas dochodzi do stanu równowagi.", "Teraz zapoznamy się z bardzo uproszczonym opisem zjawisk, które zachodzą, gdy układy dążą do stanów równowagi. W zjawiskach tych mamy zawsze do czynienia z przenoszeniem (transportem) materii, energii, pędu lub ładunku elektrycznego. Wszystkie te zjawiska transportu opisujemy w pierwszym przybliżeniu za pomocą takiego samego równania różniczkowego, które przedstawia propagację (rozprzestrzenianie się) pewnej wielkości fizycznej \\( \\varphi \\) mającą na celu osiągnięcie równowagi", "W tym równaniu \\( j \\) jest gęstością strumienia (gęstość prądu) wielkości fizycznej \\( \\varphi \\), a \\( K \\) jest stałą charakteryzującą daną sytuację fizyczną. Stałą \\( K \\) wiążemy z właściwościami mikroskopowymi rozpatrywanego układu statystycznego. Jest to tak zwany współczynnik transportu.", "Omówimy teraz krótko wybrane zjawiska transportu.", "Dyfuzja w gazie czyli przenoszenie cząstek w kierunku obszarów o mniejszej koncentracji \\( n \\) (dążenie do wyrównania koncentracji. Równanie ( 1 ) nosi teraz nazwę równania dyfuzji i ma postać", "gdzie \\( j_{D} \\) jest gęstością strumienia cząstek, \\( dn/dx \\) jest różnicą stężeń występującą na odległości \\( dx \\), a \\( D \\) współczynnikiem dyfuzji. Równanie to znane jest pod nazwą prawa Ficka. Ponieważ dyfuzja jest przenoszeniem cząstek (z miejsc o większym stężeniu do miejsc o mniejszym stężeniu) więc mamy do czynienia z transportem masy.", "Przewodnictwo cieplne czyli transport energii wskutek ruchu cząstek w kierunku obszaru o niższej \\( T \\) (dążenie do wyrównania temperatury). Równanie transportu ciepła ma postać", "gdzie \\( j_{Q} \\) jest gęstością strumienia ciepła, \\( dT/dx \\) jest różnicą temperatur w warstwie ciała o grubości \\( dx \\), a \\( \\kappa \\) jest współczynnikiem przewodnictwa cieplnego. Równanie to znane jest pod nazwą prawa Fouriera.", "Przewodnictwo elektryczne czyli przenoszenie ładunku elektrycznego w wyniku ruchu elektronów (dążenie do wyrównania potencjałów elektrycznych). Równanie, zwane prawem Ohma, ma postać", "gdzie \\( dV/dx \\) jest różnicą potencjałów (napięciem) pomiędzy punktami przewodnika odległymi o \\( dx \\), \\( \\sigma \\) przewodnością elektryczną, \\( \\rho \\) opornością właściwą, a \\( E \\) natężeniem pola elektrycznego."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 247, "subject": "Podsumowanie wiadomości z termodynamiki", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 242, "subject": "Zadania z termodynamiki", "paragraphs": [], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 1445, "subject": "Dodatek: Rotacyjne i wibracyjne stopnie swobody cząsteczki wodoru", "paragraphs": ["Na gruncie mechaniki kwantowej można pokazać, że moment pędu obracającej się cząsteczki jest skwantowany i jego wartość wynosi co najmniej \\( {L=h/2\\pi } \\), gdzie \\( h \\) jest stałą Plancka. Wartość \\( L_{min} = 10^{-34} \\) kg m \\( ^{2} \\)s \\( ^{-1} \\). Energia kinetyczna ruchu obrotowego jest dana wyrażeniem \\( {E_{{\\text{obr.}}}={I\\omega}^{{2}}/2=L^{{2}}/(2I)} \\), gdzie \\( I \\) jest momentem bezwładności.", "Dla cząsteczki H \\( _{2} \\) \\( \\text{m} = 1.67·10^{-27} \\) kg, a \\( R \\approx 5·10^{-11} \\) m, więc \\( I = 2mR^2 \\approx 8.3·10^{-48} \\) kg m \\( ^{2} \\).", "Ponieważ na jeden stopień swobody przypada energia \\( kT/2 \\) więc", "skąd", "Stąd dla \\( {L_{\\text{min.}}=h/2\\pi } \\) otrzymujemy \\( T_{min}{\\approx}90 \\) K.", "Podobnie jest dla ruchu drgającego, który także jest skwantowany i minimalna energia drgań \\( {E_{{\\text{drg.}}}={hf}} \\), gdzie \\( f \\) jest częstotliwością drgań. Dla cząsteczek typowe częstotliwości drgań są rzędu \\( 10^{14} \\) Hz (zakres podczerwieni i widzialny) i dla takiej częstotliwości otrzymujemy energię drgań \\( {\\approx}6·10^{-20} \\) J co odpowiada temperaturze około 4000 K. Powoduje to, że stopnie swobody związanie z drganiami cząsteczki są nieaktywne w niskich temperaturach, jak wspomniano w module Ciepło właściwe."], "definitions": []} {"field": "Fizyka", "coursebook": "Mechanika i Termodynamika", "chapter": "Rozdział 11. Termodynamika", "subject_id": 1447, "subject": "Dodatek: Przepływ ciepła", "paragraphs": ["Wykażemy teraz, że ciepło (energia cieplna) samoczynnie przepływa zawsze od ciała cieplejszego do ciała zimniejszego, co jest konsekwencją drugiej zasady termodynamiki. Rozważmy dwa identyczne ciała o temperaturach \\( T_{1} \\) i \\( T_{2} \\), które kontaktujemy ze sobą termicznie. Po chwili, temperatury ciał wynoszą odpowiednio \\( T_{1} - dT_{1} \\) oraz \\( T_{2} + dT_{2} \\) w wyniku przepływu następujących ilości ciepła", "gdzie \\( m \\) jest masą każdego z ciał, a \\( c_{w} \\) ciepłem właściwym. Ponieważ ilość ciepła pobranego jest równa ilości ciepła oddanego \\( dQ_{1} = -dQ_{2} \\) więc również zmiany temperatur są równe \\( dT_{1} = -dT_{2} = dT \\)", "Obliczamy teraz zmiany entropii każdego z ciał", "Wypadkowa zmiana entropii wynosi więc", "a zmiana temperatury", "Ponieważ, zgodnie z drugą zasadą termodynamiki zmiana entropii układu jest dodatnia \\( dS > 0 \\) zatem, gdy \\( T_{1} > T_{2} \\), to zmiana temperatury \\( dT \\) też jest dodatnia, a to oznacza, że ciepło przepływa od ciała o temperaturze \\( T_{1} \\) do ciała o temperaturze \\( T_{2} \\)."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "", "subject_id": 1079, "subject": "Informacja o e-podręczniku \"Fotowoltaika\"", "paragraphs": ["E-podręcznik opracowano w ramach Zintegrowanego Programu Rozwoju Akademii Górniczo-Hutniczej w Krakowie. Projekt współfinansowany ze środków Europejskiego Funduszu Społecznego w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014-2020. Oś III Szkolnictwo wyższe dla gospodarki i rozwoju, Działanie 3.5 Kompleksowe programy szkół wyższych."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "1. Wstęp", "subject_id": 772, "subject": "1.1 Wstęp", "paragraphs": ["Odnawialne źródła energii towarzyszą ludzkości od zawsze. Spalanie biomasy było źródłem ciepła. Energię wiatru wykorzystywano jako siłę napędową łodzi i tratew żaglowych, do transportu wody na wyżej lub dalej położone obszary rolnicze czy w końcu do produkcji mąki w wiatrakach o początkowo pionowej, a w miarę rozwoju techniki, poziomej osi. Analizując fizyczne podstawy fotowoltaiki należy uwzględnić fakt, że ten rodzaj produkcji energii ma źródło poza Ziemią. Szczęśliwie z punktu widzenia ludzkości Słońce posiada niewyczerpane zasoby energii. Ma natomiast jedna wadę, z którą należy się liczyć tj. dostarcza energię tylko do tej strony Ziemi, która akurat jest zwrócona w stronę Słońca. Fakt ten skutkuje możliwością produkcji energii elektrycznej tylko w okresie dziennym i to ze zmienną intensywnością zależną od pory dnia. Istnieje również zależność od położenia geograficznego elektrowni na kuli ziemskiej ze względu na różnice w nasłonecznieniu. Zjawisko fotowoltaiczne zostało odkryte w XIX wieku przez Alexandra Edmonda Becquerela (1839). Jednak realne zastosowanie znalazło dopiero po drugiej wojnie światowej wraz z dynamicznym rozwojem elektroniki i materiałów półprzewodnikowych (w początkowej fazie w zastosowaniach kosmicznych i militarnych). Szczególnie właśnie konkurencja i wyścig w przestrzeni kosmicznej popchnęła rozwój fotowoltaiki znacząco do przodu, jako że baterie słoneczne stanowiły lekkie (koszt transportu na orbitę) i niewyczerpywalne (stały dostęp do energii słonecznej) źródło energii elektrycznej do zasilania urządzeń satelitarnych. Pierwszy powojenny kryzys energetyczny z połowy lat siedemdziesiątych i Raport Klubu Rzymskiego o wyczerpywaniu się zasobów kopalnych na Ziemi skierował uwagę społeczeństw na problemy energetyki odnawialnej. Takie źródła jak hydroelektrownie, elektrownie wiatrowe czy w końcu elektrownie fotowoltaiczne stały się przedmiotem analiz inżynierów, konstruktorów i ekonomistów na całym świecie. Hydroelektrownia to inwestycja trwająca dziesiątki lat (samo napełnianie zbiornika trwało np. w Colorado ponad 18 lat). Elektrownie wiatrowe o dużych mocach (pojedyncze wiatraki to moce od 2 do 10 MW) spotykają się z protestami ekologów ze względu na ich oddziaływanie na środowisko i wędrówki ptaków. Fotowoltaika jednak stanowi atrakcyjną alternatywę dla konwencjonalnych źródeł energii jak i wymienionych wyżej, ponieważ energia elektryczna uzyskiwana jest bezpośrednio z energii słonecznej, bez hałasu, zanieczyszczeń i innych czynników wywołujących niekorzystne zmiany środowiska. Prawie nieograniczone zapotrzebowanie na krzem monokrystaliczny przemysłu elektronicznego ograniczył rozwój fotowoltaiki w drugiej połowie XX wieku. Dopiero transfer wielu technologii do Chin, a szczególnie próżniowej technologii Czochralskiego do produkcji monokrystalicznego krzemu stał się początkiem lawinowego rozwoju fotowoltaiki w pierwszych dwóch dekadach XXI wieku. Każdy dynamiczny rozwój przyciąga uwagę badaczy i inżynierów. Tak też się stało i w przypadku fotowoltaiki. Szereg modyfikacji znacząco podniósł efektywność konwersji energii monokrystalicznych ogniw fotowoltaicznych. Opracowano metodę relatywnie taniej produkcji krzemu polikrystalicznego do wytwarzania ogniw fotowoltaicznych. Badania półprzewodników doprowadziły do zastosowania szeregu nowych materiałów półprzewodnikowych do produkcji ogniw fotowoltaicznych. Szczególnie perspektywiczna okazała się technologia cienkowarstwowa, w której zużycie materiału jest sto razy mniejsze niż w ogniwach krzemowych. A ostatnie 10 lat wprowadziło w obszar fotowoltaiki tanie materiały jak perowskity i polimery. Ten dynamiczny rozwój instalacji fotowoltaicznych i badań w wielu przypadkach wyprzedza długotrwałe cykle edukacyjne. Stąd potrzeba publikacji, które stanowią źródło wiedzy i informacji dla coraz szerszego kręgu ludzi zaangażowanych w rozwój przemysłu fotowoltaicznego. Mam tu na myśli inżynierów materiałowych, energetyków aż do odbiorców końcowych energii elektrycznej. W tym miejscu należy oddać hołd Prof. Janowi Stopczykowi, który stworzył pojęcie i filozofię prosumenta tj. producenta i jednocześnie odbiorcy energii elektrycznej w mikroskali. Jednak ten wkład pomnożony przez miliony prosumentów staje się poważnym wkładem w systemie energetycznym państwa. Nikt nie ma najmniejszych wątpliwości, że po zużyciu paliw kopalnianych ludzkość nie ma taniej alternatywy dla odnawialnych źródeł energii w tym szczególnie dla fotowoltaiki. Gwałtowny wzrost produkcji i instalacji fotowoltaicznych doprowadził do drastycznego spadku cen za kWp pochodzącego ze źródeł fotowoltaicznych co stanowiło główna barierę rozwoju instalacji. Książka, którą oddajemy czytelnikowi przeznaczona jest w głównej mierze dla studentów kształcących się na kierunkach związanych z odnawialnymi źródłami energii w tym fotowoltaiką, ale również dla wszystkich zainteresowanych wiedzą na temat fotowoltaiki, jej rozwoju i perspektyw. Nie stanowi natomiast materiału instruktażowego dla instalatorów systemów fotowoltaicznych jako, że tego typu materiały znajdują się już w obiegu księgarskim. Forma elektroniczna podręcznika została wybrana ze względu na zmianę sposobu docierania do studenta i czytelnika oraz możliwość dokonywania modyfikacji treści wynikających z dynamicznych zmian zachodzących w tej rozwijającej się dziedzinie techniki.", "Jak dynamiczne zmiany mają miejsce na świecie w obszarze odnawialnych źródeł energii w tym fotowoltaiki można się przekonać obserwując zmiany dokonujące się w zwiększającym się stale udziale tych źródeł w produkcji energii. Porównanie krajów, w których obserwujemy w ostatniej dekadzie bardzo silne wzrosty zainstalowanych mocy fotowoltaicznych nie odzwierciedla położenia najlepiej nasłonecznionych obszarów globu. W obecnej sytuacji to raczej decyzje polityczne o metodach dofinansowania instalacji fotowoltaicznych czy zasobników energii stanowią podstawę dynamiki instalacyjnej. Drugim czynnikiem są poważne inwestycje w rozbudowę przemysłu fotowoltaicznego jak np. dominacja Chin w produkcji podłoży krzemowych. Porównując 2010 r., kiedy prawie cały słupek mocy zainstalowanych zajmowała Europa, do ostatnich danych z 2019 r. widać jak kolosalne zmiany dokonały się w tym zakresie ( Rys. 1 ) [1]. Wielkość instalacji w takich krajach jak Chiny, USA, Japonia, czy reszta świata przegoniły kraje Europy wielokrotnie. Mocom zainstalowanym daleko jeszcze do wartości pokazujących całe energetyczne zapotrzebowanie świata. Jednak dynamika zmian wskazuje na to, że wiele krajów rozumie niebezpieczeństwa płynące z emisji \\( CO_{2} \\) i rolę jaką odgrywają odnawialne źródła energii zarówno ze względu na uwarunkowania klimatyczne, jak i w światowym mikście energetycznym."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "2. Uwarunkowania klimatyczne", "subject_id": 1074, "subject": "2.1 Energia słoneczna docierająca do powierzchni Ziemi", "paragraphs": ["Nachylenie osi Ziemi w stosunku do orbity Ziemi wokół Słońca generuje zmianę pór roku, co wpływa na ilość energii słonecznej, docierającej do różnych obszarów Ziemi w ciągu roku. Do półkuli północnej najwięcej energii dociera latem, a najmniej zimą. Jest to spowodowane zmianą kąta nachylenia płaszczyzny Ziemi do kierunku padania promieni słonecznych oraz czasem nasłonecznienia (długością dnia), w którym promieniowanie słoneczne dociera do Ziemi. Nasłonecznienie zależy nie tylko od położenia na równoleżniku, ale także od zachmurzenia w danym regionie.", "Moc promieniowania słonecznego zależy więc od pory dnia, pory roku oraz położenia geograficznego, w którym będzie ono mierzone ( Rys. 1 ).", "Długość drogi przebytej przez promieniowanie słoneczne ( Rys. 2 ) w atmosferze zmienia się w zależności od położenia Słońca nad horyzontem. Zależność od pory roku związana jest z nachyleniem osi obrotu Ziemi względem płaszczyzny, po której porusza się Ziemia ( Rys. 1 ). Zjawisko fotowoltaiczne jest nierozerwalnie związane ze źródłem energii, którym jest Słońce. Średnia moc dostarczana przez Słońce na granicę atmosfery ziemskiej wynosi \\( 1362 \\frac{W}{m^{2}} \\) (stała słoneczna) [1], czyli na całą powierzchnię Ziemi pada około 175*1015 W mocy promieniowania słonecznego (energii w ciągu sekundy). Energia ta po przejściu przez atmosferę jest konwertowana w ogniwach fotowoltaicznych na energię elektryczną. Ilość energii docierającej do powierzchni Ziemi jest oczywiście różna w różnych obszarach geograficznych. Jest ona zwykle określana wielkością nasłonecznienia, czyli ilością energii promieniowania słonecznego padającego w jednostce czasu na jednostkę powierzchni. Jednostką nasłonecznienia (insolacji) jest \\( \\frac{W}{m^{2}} \\) lub \\( \\frac{kWh}{m^{2} { rok}} \\). Rozkład nasłonecznienia na kulę ziemską pokazano na Rys. 3.", "Przedstawione na Rys. 3 czarne kropki obejmują powierzchnię, która pokryta ogniwami fotowoltaicznymi o efektywności konwersji \\( 8\\% \\) mogą wytworzyć 568 EJ energii ( \\( EJ=10^18 J \\)), co pokrywa całe zapotrzebowanie światowe na energię elektryczną [2], [3]. Instalacje fotowoltaiczne mocowane są zwykle w nachyleniu południowym. Wybiera się taki kąt nachylenia, aby ilość energii słonecznej docierającej do powierzchni ogniwa była maksymalna. Najlepszym rozwiązaniem byłoby, aby powierzchnia ogniwa podążała za ruchem Słońca, śledziła pozorny ruch Słońca po nieboskłonie (ustawiała płaszczyznę prostopadle do padającego promieniowania słonecznego). Układ nadążny generuje jednak dodatkowe koszty związane z umocowaniem, z napędem całego układu ogniw oraz jego konserwacją. Dlatego to rozwiązanie stosuje się rzadziej niż trwałe mocowanie paneli fotowoltaicznych.", "Na Rys. 4 przedstawiono kontury Europy [2], [3], a na Rys. 5 kontury Polski z naniesionym średnim nasłonecznieniem (moc promieniowania słonecznego przypadającą na jednostkę powierzchni poziomej) w latach 1994-2010 dla Europy i w latach 1994-2013 dla Polski [2], [3]. Natężenie koloru ilustruje wielkość nasłonecznienia, które zależne jest nie tylko od szerokości geograficznej (nie pokrywa się dokładnie z układem równoleżników), ale także od zachmurzenia, jakie występuje na danym obszarze.", "Na Rys. 5 przedstawiono mapę Polski z zaznaczonym nasłonecznieniem (energia padająca na 1 m*m w ciągu roku w kWh/m2). Z mapy wynika, że nasłonecznienie w ciągu roku jest największe w południowo-wschodniej Polsce. Różnice w ilości energii w poszczególnych obszarach sięgają \\( 30\\% \\), co musi być uwzględniane w rachunku ekonomicznym, szczególnie dla dużych instalacji fotowoltaicznych. Wykresy przebiegu tarczy słonecznej po nieboskłonie określane są indywidualnie dla każdej lokalizacji i można je przedstawić używając programu PVSol (np. dla Krakowa na Rys. 6 ) (opracowanie własne). I tak, latem altitude w zenicie wynosi około \\( 70_{}^{o}\\textrm{} \\), a zimą około \\( 25_{}^{o}\\textrm{} \\), przy czym latem azymut zmienia się od około \\( 60_{}^{o}\\textrm{} \\) do około \\( 300_{}^{o}\\textrm{} \\). Natomiast, zimą słońce wschodzi, gdy azymut wynosi około \\( 120_{}^{o}\\textrm{} \\), a zachodzi, gdy azymut wynosi około \\( 240_{}^{o}\\textrm{} \\).", "Podsumowując, do granicy atmosfery Ziemi dociera światło o natężeniu H=1,362 \\( \\frac{kW}{m^{2}} \\) (tzw. stała słoneczna), zaś do powierzchni Ziemi dociera ok. \\( 73\\% \\) tej wielkości.", "Vosti Lublin, Wojewódzki Program Rozwoju Alternatywnych Źródeł Energii dla Województwa Lubelskiego – zob. http://vosti.pl/blog/naslonecznienie-polsce-a-panele-fotowoltaiczne/."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "2. Uwarunkowania klimatyczne", "subject_id": 1024, "subject": "2.2 Widmo promieniowania słonecznego", "paragraphs": ["Po analizie, gdzie, kiedy i ile energii słonecznej do nas dociera zajęto się analizą częstotliwościową promieniowania elektromagnetycznego. Widma promieniowania słonecznego w funkcji długości fali przedstawiono na Rys. 1. Przedstawione widma promieniowania słonecznego to docierające do granic atmosfery (AM 0) oraz widmo promieniowania słonecznego docierające do powierzchni Ziemi po przebyciu promienia słonecznego przez atmosferę Ziemską wpadające pod kątem \\( \\ 42^{o } \\) nad horyzontem oznaczone przez AM 1.5. Litera d przy oznaczeniu widma wskazuje, że jest to promieniowanie padające bezpośrednio ze Słońca natomiast litera g oznacza, że to suma promieniowania bezpośredniego ze Słońca oraz rozproszenie Rayleigha i promieniowanie odbite od chmur. Procentowy udział energetyczny poszczególnych obszarów widma jest następujący:", "Energia wypromieniowana przez Słońce w postaci fali elektromagnetycznej zanim dotrze do powierzchni Ziemi ulega odbiciu (około \\( 30\\% \\)) oraz pochłonięciu przez atmosferę Ziemi (około \\( 20\\% \\)). Do powierzchni atmosfery ziemskiej dociera około \\( 175 \\cdot 10^{15 } \\) W, a na powierzchnię Ziemi około \\( 89 \\cdot 10^{15 } \\) W. Absorpcja w atmosferze ziemskiej występuje na skutek obecności cząsteczek tlenu, ozonu, dwutlenku węgla, pary wodnej itd. Ponadto, w troposferze występuje rozpraszanie Rayleigh’a na cząsteczkach pyłów. Intensywność promieniowania słonecznego w odległości Ziemi od Słońca jest na poziomie 1362 \\( \\frac{W}{m^{2}} \\). Wielkość tę nazwano stałą słoneczną, jest to energia promieniowania słonecznego jaka pada na powierzchnię jednego metra kwadratowego w ciągu sekundy w odległości Ziemi od Słońca (średnia odległość wynosi 150 mln km). Na tej podstawie policzono energię emitowaną w ciągu sekundy przez Słońce i wynosi ona \\( 9.65 \\cdot 10^{25 } \\) W. Sumaryczna energia, jaka dociera do powierzchni Ziemi w ciągu całego roku, wynosi od 600 \\( kWh/m^{2}/rok \\) w krajach skandynawskich, a do ponad 2200 \\( kWh/m^{2}/rok \\) w centralnej Afryce. W Polsce wynosi ona około 990 \\( kWh/m^{2}/rok \\) [1]. Promieniowane słoneczne pochodzi z fotosfery, czyli z zewnętrznej powierzchni warstwy gazowej Słońca, której temperatura wynosi około 5770 K. Maksimum promieniowania elektromagnetycznego o widmie ciągłym ciała doskonale czarnego, podobnie jak dla promieniowania słonecznego, przypada w obszarze widma widzialnego o długości fali około 500 nm ( Rys. 1 ).", "Obszar widzialny widma to od \\( 4 \\cdot 10^{-7 } \\)m do \\( 7,8 \\cdot 10^{-7 } \\)m. Porównując widmo ciała doskonale czarnego ( Rys. 2 ) z widmem promieniowania Słońca można w pierwszym przybliżeniu przyjąć, że są one podobne Rys. 1. Zakres pracy paneli słonecznych (kolor zielony) na tle spektrum promieniowania słonecznego jest pokazany na Rys. 3. Promieniowanie Słońca powyżej atmosfery ziemskiej odpowiada w przybliżeniu promieniowaniu ciała doskonale czarnego o temperaturze 5762 K (~6000K). Promieniowanie słoneczne, jakie dociera do powierzchni Ziemi, jeszcze wyraźniej różni się od widma ciała doskonale czarnego. Jest to spowodowane absorpcją, rozproszeniem i odbiciem promieniowania w przestrzeń kosmiczną, co powoduje znaczną modyfikację rozkładu jego widma [2].", "Na Rys. 3 pokazano widmo promieniowania słonecznego na powierzchni Ziemi (AM1) po przejściu przez atmosferę [3].", "Podczas przechodzenia promieniowania słonecznego przez atmosferę występują straty związane z:", "W Polsce do powierzchni Ziemi dociera około 1000 \\( \\frac{W}{m^{2}} \\)promieniowania słonecznego. Wykorzystanie części promieniowania słonecznego do przetwarzania na energię elektryczną związane jest z właściwościami fizycznymi półprzewodników. Na Rys. 3 zaznaczono obszar energetyczny, który jest wykorzystywany do konwersja energii słonecznej w urządzeniach fotowoltaicznych. Obszar ten to prawie \\( 50\\% \\) energii słonecznej, pozostała część widma nie jest wykorzystywana.", "Prowadzone są badania nad zjawiskami i technologiami rozszerzającymi zakres wykorzystywanych częstotliwości, jak np. efektu termoelektrycznego [4], niemniej, w praktyce z instalacji wykorzystujących promieniowanie słoneczne tylko efekt fotowoltaiczny jest szeroko wykorzystywany komercyjnie."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "2. Uwarunkowania klimatyczne", "subject_id": 788, "subject": "2.3 Uwarunkowania geograficzne", "paragraphs": ["Promieniowanie słoneczne zanim dotrze do powierzchni Ziemi musi przejść przez atmosferę ziemską. Atmosfera ziemska składa się w głównej mierze z azotu ( \\( 78,084\\% \\) objętości), tlenu ( \\( 20,946\\% \\)), argonu ( \\( 0,934\\% \\)), dwutlenku węgla ( \\( 0,0408\\% \\)) oraz pary wodnej, której zawartość ulega zmianie. Oprócz tych składników występuje jeszcze metan, wodór, tlenki azotu, związki siarki, ozon, radon, jod, amoniak i aerozole atmosferyczne (o średnicy 0,05-0,35 μm) w śladowych ilościach. Atmosfera powoduje, że promieniowanie na drodze do powierzchni Ziemi ulega zaabsorbowaniu oraz rozproszeniu.", "Promieniowanie słoneczne ulega absorpcji i rozproszeniu (ang. diffusion) ( Rys. 1 ). Do powierzchni panelu PV, oprócz bezpośredniego promieniowania ze Słońca, dochodzi jeszcze światło odbite oraz składowa rozproszenia [1]. Promieniowanie słoneczne padające na powierzchnię Ziemi złożone jest z promieniowania bezpośredniego \\( I_{b} \\) (ang. beam radiation) i rozproszonego \\( I_{d} \\) (ang. diffuse radiation), zwanego czasem dyfuzyjnym lub promieniowaniem nieboskłonu ( Rys. 2 ). Promieniowanie rozproszone to promieniowanie słoneczne, które uległo rozproszeniu w atmosferze ziemskiej ( 1 ).", "Jeżeli promieniowanie słoneczne pada na płaszczyznę odchyloną od poziomu Ziemi, to na promieniowanie składa się promieniowanie bezpośrednie \\( I_{b} \\), rozproszone \\( I_{d} \\) i promieniowanie odbite \\( I_{od} \\) od powierzchni otaczającego gruntu ( 2 ).", "Na Rys. 2 oznaczono \\( I_{b} \\) – promieniowanie bezpośrednie, \\( I_{d} \\) – promieniowanie rozproszone, \\( I_{\\alpha b} \\) – promieniowanie bezpośrednie padające pod kątem \\( \\alpha \\), \\( I_{\\alpha o} \\) – promieniowanie odbite od powierzchni otaczającego gruntu. Promieniowanie dociera do powierzchni Ziemi przez różne grubości warstwy powietrza w zależności od położenia na kuli ziemskiej, a więc obserwowane jest różne natężenie promieniowania słonecznego ( Rys. 3 ).", "Zmianę długości drogi promienia słonecznego S przez atmosferę ziemską przy zmianie kąta padania ϕ pokazano na Rys. 3.", "gdzie kąt ϕ jest pomiędzy kierunkiem, w którym znajduje się Słońce, a kierunkiem zenitu. Powoduje to zmianę mocy promieniowania słonecznego docierającego do powierzchni Ziemi. Obrazuje to fakt, że w różnych miejscach na Ziemi występują znacząco różne ilości energii słonecznej do wykorzystania przy konwersji na energię elektryczną.", "gdzie kąt ϕ jest pomiędzy kierunkiem, w którym znajduje się Słońce, a kierunkiem zenitu ( Rys. 4 ). Jeśli istnieje potrzeba wyznaczenia liczby masy powietrznej z większą dokładnością, należy znać ciśnienie atmosferyczne, a następnie użyć wzoru ( 5 ) (oprac. własne) [2].", "gdzie po=1013 hPa, p – aktualne ciśnienie atmosferyczne, hPa=100 Pa. Dla Polski przyjęto liczbę masy powietrznej wynoszącą AM1.5 (szerokość geograficzna ok. \\( 48_{}^{o}\\textrm{} \\)).", "Różnice warunków oświetlenia w różnych miejscach na powierzchni Ziemi wymusiły standaryzację przeprowadzenia badań wszystkich paneli fotowoltaicznych w dokładnie [2] takich samych warunkach środowiskowych. Wprowadzono standard STC (ang. Standard Test Conditions). Określają one widmo promieniowania (AM1.5), natężenie oświetlenia – ilość energii padającej na 1 \\( m^{2} \\) w ciągu 1S (1000 \\( \\frac{W}{m^{2}} \\)) oraz temperaturę w jakiej prowadzone są badania \\( (25_{}^{o}\\textrm{C}) \\)."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "2. Uwarunkowania klimatyczne", "subject_id": 789, "subject": "2.4 Dobowe zmiany energii słonecznej", "paragraphs": ["Słońce nad horyzontem zmienia swoje położenie w zależności od pory dnia. Horyzont obserwatora znajdującego się w środku i położenie Słońca względem niego w zależności od pory dnia pokazano na Rys. 1.", "Słońce zmienia swoje położenie na nieboskłonie ze wschodu na zachód, jak również wznosząc się nad horyzontem, przez cały dzień. Najwyższy punkt osiąga w południe słoneczne, a następnie obniża się aż do zachodu. Pozioma pozycja Słońca nazywana jest azymutem słonecznym ( Rys. 1 ), który dla półkuli północnej jest mierzony w stopniach na wschód i zachód od geograficznego południa (nie magnetycznego południa). Kąt azymutu Słońca wynosi \\( 180^{o} \\) dla geograficznego południa. Pionowa pozycja Słońca, czyli wysokość kątowa Słońca (altitude) mierzona jest w stopniach nad horyzontem. Przy wschodzie Słońca wynosi \\( 0^{o} \\), gdy Słońce się wznosi kąt rośnie do maksymalnej wartości w południe i wynosi w zależności od położenia na kuli ziemskiej do \\( 90^{o} \\) (zależnie od szerokości geograficznej). Pozycję Słońca w zależności od pory roku i dnia przedstawiono na Rys. 2 (na podstawie danych z Wschód i zachód Słońca w Krakowie – zob. https://halloween.friko.net/slonce/Krakow [1]). Horyzont obserwatora znajduje się w środku, a położenie Słońca względem niego zależy od pory dnia i roku. Na półkuli północnej najwyższa wysokość kątowa Słońca osiągana jest w porze letniej, a najniższa w zimie. Linia przerywana pokazuje wrażenie rzutu ruchu Słońca na płaszczyznę horyzontu, jakie widzi obserwator.", "W celu efektywnego wykorzystania nasłonecznienia panele fotowoltaiczne powinny być ustawione w taki sposób, aby energia promieniowania słonecznego padająca na panel była jak największa. Jeżeli ustawienie panelu jest stacjonarne, czyli nie podąża za słońcem, to powinien on być ustawiony w kierunku południowym. Kąt nachylenia panelu fotowoltaicznego ustawia się w zależności od usytuowania na powierzchni Ziemi (czyli, w zależności od szerokości geograficznej zamontowania panelu PV), aby mógł on odbierać maksymalne nasłonecznienie. Na Rys. 3 (dane pobrano z [2]) pokazano przykładowe różnice w nasłonecznieniu dla Polski południowej i północnej. Optymalny kąt pochylenia panelu fotowoltaicznego dla Polski północnej jest większy niż dla południowej.", "Na podstawie powyższego wykresu można stwierdzić, że ustawienie panelu fotowoltaicznego pod kątem w granicach \\( 20^{o} \\)- \\( 50^{o} \\) zmienia pobór energii słonecznej od \\( 1175\\frac{kWh}{m^{2}} \\) do \\( 1204\\frac{kWh}{m^{2}} \\), czyli w zakresie mniejszym niż \\( 3\\% \\). Panele fotowoltaiczne umieszcza się zwykle na dachu budynku, a ten nie zawsze skierowany jest dokładnie na południe. Dlatego, należy również przeanalizować sytuację, w której panele fotowoltaiczne mają inne ustawienie względem południa.", "Na podstawie przedstawionych danych eksperymentalnych ( Rys. 4 ) (dane pobrano z [2]) można stwierdzić, że im bardziej panel fotowoltaiczny odchylany jest od kierunku południowego, tym mniej energii słonecznej dociera do niego. Jeżeli odchylenie od kierunku południowego nie przekroczy \\( 30^{o} \\), zmniejszenie nasłonecznienia panelu nie przekroczy \\( 5\\% \\). Reasumując, odchylenie ustawienia panelu od kierunku południowego do \\( 30^{o} \\) i ewentualna zmiana kąta pochylenia w granicach od \\( 20^{o} \\) do \\( 50^{o} \\) nie powodują większych strat niż \\( 8\\% \\). Większe wartości ww. kątów spowodują jednak większe zmniejszenie nasłonecznienia danego panelu. Jeżeli wystąpi potrzeba instalacji fotowoltaicznej tzw. specjalnej, np. na domku letniskowym, trzeba wykorzystać największe nasłonecznienie w okresie korzystania z domku, czyli w okresie letnim. Wtedy kąt odchylenia od kierunku południowego też nie powinien przekraczać \\( 30^{o} \\), natomiast kąt nachylenia panelu powinien zostać dostosowany do pory letniej, kiedy domek będzie wykorzystywany."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "3. Podstawy", "subject_id": 778, "subject": "3.1 Początki fotowoltaiki", "paragraphs": ["Efekt fotowoltaiczny jest to zjawisko polegające na powstaniu siły elektromotorycznej w ciele stałym pod wpływem promieniowania słonecznego. Efekt fotowoltaiczny jest wykorzystywany w ogniwach fotowoltaicznych, urządzeniach, które produkują energię elektryczną bezpośrednio z promieniowania słonecznego. Ogniwa fotowoltaiczne są podstawowym elementem budowy baterii słonecznych nazywanych także modułami czy panelami fotowoltaicznymi. W oparciu o baterie słoneczne budowane są instalacje fotowoltaiczne. W tabeli na Rys. 1 przedstawiono kilka dat związanych z odkryciem zjawiska oraz modyfikacji dokonanych do początku XXI wieku (rysunki w tabeli stanowią opracowanie własne, fotografie pochodzą z: [1], [2], [3], [4], zdjęcie salelity na podstawie [5]; fotografie na wolnych licencjach)."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "3. Podstawy", "subject_id": 774, "subject": "3.2 Fotowoltaika na przełomie wieku XX i XXI", "paragraphs": ["W prezentowanym rozdziale przedstawiony jest dalszy rozwój odkryć i osiągnięć w obszarze fotowoltaiki po 1960 r. do czasów obecnych (fotografie zamieszczone na Rys. 1 pochodzą z [1], [2]; wykorzystano do celów edukacyjnych)."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "3. Podstawy", "subject_id": 771, "subject": "3.3 Właściwości fizyczne materiałów wykorzystywanych w fotowoltaice", "paragraphs": ["Do budowy ogniw słonecznych stosuje się obecnie dwa rodzaje materiałów: materiały nieorganiczne i organiczne. Aby zrozumieć działanie ogniw słonecznych należy zapoznać się z właściwościami tych materiałów. W przypadku materiałów nieorganicznych za ich właściwości w dużej mierze odpowiada struktura krystaliczna, w której atomy lub grupy atomów tworzą sieć krystaliczną. Atomy w sieci krystalicznej są tak blisko siebie, że oddziaływanie pomiędzy nimi powoduje utworzenie pasm energetycznych elektronów, w miejsce skwantowanych poziomów energetycznych w odizolowanych atomach. Uproszczony model pasm energetycznych przedstawiono na Rys. 1. Składa się on z pasma walencyjnego, pasma wzbronionego i pasma przewodzenia. Pasmo walencyjne (VB) jest całkowicie zapełnione elektronami, które nie mają możliwości przemieszczania się w nim (zakaz Pauliego). Pasmo wzbronione (tzw. przerwa energetyczna \\( E_{g} \\)) to obszar, w którym elektrony nie mogą przebywać, bo nie ma w nim poziomów energetycznych. W paśmie przewodzenia (CB) w stanie podstawowym atomu nie ma elektronów. Po przeniesieniu elektronu z pasma walencyjnego do pasma przewodnictwa powstaje możliwość transportu elektronów. Przy pomocy tego modelu można podzielić materiały w zależności od wielkości ich przerwy energetycznej \\( E_{g} \\). Materiały, dla których przerwa energetyczna \\( E_{g} \\) = 0 to przewodniki. Materiały o przerwie \\( E_{g} \\) < 3,5 eV to półprzewodniki, a izolatory to materiały o bardzo dużej przerwie energetycznej \\( E_{g} \\) > 3,5 eV.", "W modelu pasm energetycznych użyteczne jest wykorzystanie pojęcia poziomu Fermiego. Poziom Fermiego \\( E_{F} \\) to teoretyczna wartość energii elektronu w półprzewodniku taka, że prawdopodobieństwo obsadzenia pasm VB i CB wynosi \\( 50\\% \\). W półprzewodniku bez domieszek (samoistnym) poziom Fermiego leży w połowie odstępu pomiędzy VB i CB. Ten uproszczony model przedstawiono w celu łatwiejszego zrozumienia zachowania elektronów w sieci krystalicznej półprzewodnika. Szczegółowy model opisujący zachowanie elektronów jest bardziej złożony. Przewodzenie prądu w półprzewodnikach w modelu pasmowym można przedstawić w następujący sposób. Elektrony są silnie związane w sieci i potrzeba znacznej energii, aby je uwolnić z pasma walencyjnego. Jest ona równa szerokości pasma wzbronionego \\( E_{g} \\). Elektron uwolniony z pasma walencyjnego może się poruszać pod wpływem przyłożonego pola elektrycznego. Po uwolnionym elektronie pozostaje dodatnio naładowany jon. Utworzony w ten sposób ładunek dodatni może się poruszać w sieci krystalicznej od atomu do atomu, ponieważ brakujący elektron może być uzupełniony z sąsiedniego wiązania itd. Taki ruch ładunków dodatnich nazywa się ruchem dziur. Transport elektronów odbywa się w paśmie przewodzenia, w którym elektrony mogą się przemieszczać swobodnie. Transport dziur odbywa się w paśmie walencyjnym. Bez zewnętrznego pola elektrycznego ruch ładunków jest chaotyczny i nieuporządkowany. Przyłożenie zewnętrznego pola elektrycznego porządkuje ruch dziur i elektronów, powodując przepływ prądu. Materiałami półprzewodnikowymi są np. kryształy atomów z grupy 4 układu okresowego oraz związki pokazane na Rys. 2. W tabeli na rysunku zaprezentowano też właściwości tych związków, a mianowicie wielkości przerwy energetycznej, ruchliwość elektronów oraz ruchliwość dziur, które są podstawowymi parametrami charakteryzującymi półprzewodniki (dane do tabeli pochodzą z [1]). W celu porównania podano też właściwości diamentu. Ruchliwość nośników ładunków wyraża związek prędkości dryfu ładunków i natężenia zewnętrznego pola elektrycznego.", "Ruchliwość dziur w półprzewodnikach jest dużo mniejsza od ruchliwości elektronów. Jest to spowodowane związaniem elektronów z atomami, co utrudnia przeskok do innego atomu (dziura posiada przez to większą tzw. masę efektywną i porusza się wolniej – uproszczone wyjaśnienie). Wielkość przerwy energetycznej wzbronionej \\( E_{g} \\) wskazuje minimalną energię kwantu promieniowania, jaka może zostać zaabsorbowana przez półprzewodnik. Przykład: Maksymalna długość fali, jaka może być zaabsorbowana przez półprzewodnik, może być obliczona z :", "gdzie \\( E_{g} \\)– przerwa energetyczna \\( \\left [ eV \\right ] \\), \\( \\lambda \\)- długość fali \\( \\left [ nm \\right ] \\), 1240 \\( \\left [ eV\\cdot nm \\right ] \\). Korzystając z tego wzoru i przerwy energetycznej Si można łatwo wyliczyć do jakiej długości fali będzie absorbowane promieniowanie słoneczne w półprzewodniku krzemowym. Np. dla \\( E_{g} \\)=1,12 eV maksymalna długość fali zaabsorbowana przez półprzewodnik Si wynosi \\( \\lambda_{max} \\)=1100 nm. Właściwości fizyczne półprzewodników silnie zależą od temperatury np. oporność wraz ze wzrostem temperatury maleje. Jeżeli kryształ półprzewodnika jest idealny, to mówimy, że mamy do czynienia z półprzewodnikiem samoistnym. W półprzewodniku samoistnym liczba elektronów w paśmie przewodzenia jest równa liczbie dziur w paśmie walencyjnym. Zastąpienie atomu w sieci krystalicznej półprzewodnika innym atomem nazywa się domieszkowaniem.", "Właściwości fizyczne półprzewodników silnie zależą od temperatury np. oporność wraz ze wzrostem temperatury maleje. Jeżeli kryształ półprzewodnika jest idealny, to mówimy, że mamy do czynienia z półprzewodnikiem samoistnym. W półprzewodniku samoistnym liczba elektronów w paśmie przewodzenia jest równa liczbie dziur w paśmie walencyjnym. Zastąpienie atomu w sieci krystalicznej półprzewodnika innym atomem nazywa się domieszkowaniem. Właściwości półprzewodników bardzo silnie zależą od stopnia domieszkowania, czyli od ilości atomów wprowadzonych do sieci krystalicznej półprzewodnika. Wprowadzane do kryształu półprzewodnika domieszki atomowe z grupy 3 układu okresowego powodują niedobór elektronów i przejmowanie elektronu z sąsiedniego atomu, w którym pozostaje ładunek dodatni (tzw. dziura). Taki półprzewodnik oznacza się typem p. Przewodzi on za pomocą dziur, stanowiących ładunki większościowe (dziury w półprzewodnikach typu p, elektrony w półprzewodnikach typu n). Wprowadzenie domieszek typu p tworzy w półprzewodnikach poziom energetyczny, zwany poziomem akceptorowym, w którym są wiązane elektrony z pasma walencyjnego. Elektrony te pozostawiają po sobie lukę w paśmie walencyjnym, która może się przemieszczać i dzięki temu uważana jest za nośnik ładunku dodatniego ( Rys. 3 ). Powoduje to obniżenie położenia poziomu Fermiego.", "Domieszkowanie atomami z grupy 5 układu okresowego do kryształu półprzewodnika samoistnego powoduje powstanie półprzewodnika typu n ( Rys. 3 ). Nadmiar elektronów jest uwalniany i tworzy dodatkowe pasmo w obszarze wzbronionym w pobliżu pasma przewodzenia. Taki półprzewodnik przewodzi prąd za pomocą elektronów stanowiących ładunki większościowe. Poziom Fermiego ulega przemieszczeniu w kierunku pasm przewodzenia w porównaniu do półprzewodnika samoistnego.", "Na Rys. 3 przedstawiono zmiany poziomów energetycznych wytworzone wskutek wprowadzenia do półprzewodnika samoistnego domieszek atomów. Po wprowadzeniu atomów z grupy 3 układu okresowego powstaje półprzewodnik typu p z dodatkowym poziomem energetycznym \\( E_{A} \\) – poziom akceptora (a), a dodanie atomów z grupy 5 tworzy półprzewodnik typu n z dodatkowym poziomem energetycznym \\( E_{D} \\) – poziom donora (b). Powoduje to przesunięcie poziomu Fermiego Ef w kierunku pasma walencyjnego dla domieszkowania atomami z 3 grupy układu okresowego i w kierunku pasma przewodzenia dla półprzewodników typu n. W przypadku półprzewodnika typu p powstający poziom energetyczny domieszki nazywa się akceptorowym, a dla półprzewodnika typu n poziom energetyczny domieszki nazywa się donorowym."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "3. Podstawy", "subject_id": 773, "subject": "3.4 Złącze półprzewodnikowe typu p-n", "paragraphs": ["Półprzewodniki typu n charakteryzują się przewodzeniem elektronowym, a półprzewodniki typu p przewodzą większościowo poprzez dziury. W przewodnikach elektrony są swobodnymi nośnikami ładunków tworzącymi “gaz elektronowy” (teoria Drudego-Lorentza) [1]. Konsekwencją możliwości swobodnego poruszania się elektronów jest wysokie przewodnictwo w metalach. W półprzewodnikach natomiast elektrony walencyjne są związane z atomami i tylko część z nich po wyrwaniu z orbit walencyjnych bierze udział w przepływie prądu. Wprowadzenie domieszek do półprzewodników generuje zwiększenie koncentracji ładunków większościowych. W przypadku domieszek donorowych są to elektrony, a dla domieszek akceptorowych – dziury. Transport elektronów z poziomu walencyjnego do pasma przewodzenia dokonuje się przez absorpcję energii promieniowania elektromagnetycznego lub energii cieplnej. Zaabsorbowana energia powinna być większa od przerwy energetycznej \\( E_{g} \\). Dzięki swoim właściwościom półprzewodniki znalazły zastosowanie w wielu obszarach techniki. Wielkościami wpływającymi na właściwości elektrooptyczne półprzewodników są: ruchliwość nośników ładunków, wyrażająca związek prędkości dryfu ładunków i zewnętrznego pola elektrycznego, właściwości kwantowe, takie jak czas życia elektronów w poszczególnych stanach oraz współczynnik absorpcji, który zależy od długości fali. Te właściwości decydują o możliwym zastosowaniu materiałów półprzewodnikowych do wytwarzania ogniw słonecznych. Po połączeniu półprzewodników typu p i typu n na granicy wytwarza się tzw. złącze typu p-n ( Rys. 1 ). Powstanie złącza powoduje przepływ elektronów z obszaru n do p i powstanie dziur w obszarze n. Separacja elektronów (-) i dziur (+) prowadzi do powstania pola elektrycznego wytwarzającego barierę potencjału.", "W momencie połączenia półprzewodników typu p i n następuje wyrównanie poziomów Fermiego, co uwidoczniono na Rys. 2. Powoduje to zakrzywienie poziomów walencyjnego i przewodzenia w obszarze w (szerokość złącza p-n). Na złączu powstaje warstwa, w której istnieją ładunki powodujące zaburzenie poziomów. Jest to warstwa zubożona o ładunki z jednej strony dodatnie, z drugiej ujemne.", "Taki układ półprzewodników nazywa się diodą półprzewodnikową.", "Połączenie półprzewodnika typu p z potencjałem dodatnim, a półprzewodnika typu n z ujemnym, czyli przyłożenie zewnętrznego pola elektrycznego, powoduje zmniejszenie bariery potencjału oraz zmniejszenie szerokości obszaru złącza p-n. Następuje przepływ elektronów z obszaru p do elektrody oraz wstrzykiwanie elektronów z drugiej elektrody do obszaru n półprzewodnika, prąd przepływa przez układ ( Rys. 3 po stronie dodatniej napięcia). Odwrotna polaryzacja powiększa wysokość bariery potencjału oraz szerokość obszaru zubożonego, a prąd przez taki układ nie przepływa ( Rys. 3 po stronie ujemnej napięcia). Układ połączenia półprzewodnika p i n jest nazywany diodą.", "Właściwości diod półprzewodnikowych wykorzystywane są na szereg różnych sposobów. W zależności od struktury i przeznaczenia są to diody prostownicze, pojemnościowe, elektroluminescencyjne, laserowe, impulsowe, tunelowe, Zenera i fotowoltaiczne. Diodę służącą do przetwarzania energii promieniowania słonecznego na energię elektryczną nazwano ogniwem fotowoltaicznym przedstawionym na Rys. 4. Absorpcja padających fotonów na diodę fotowoltaiczną powoduje przeniesienie elektronu z pasma walencyjnego do pasma przewodzenia i powstanie pary dziura-elektron. Taka para może poruszać się w półprzewodniku. Energia wiązania pary dziura-elektron jest na poziomie energii 16 meV (energia termiczna w temperaturze pokojowej wynosi 25 meV). Para dziura-elektron zwana ekscytonem ulega rozpadowi na swobodny elektron i swobodną dziurę [2]. Swobodne elektrony są przyciągane przez dodatni ładunek przestrzenny na złączu p-n. Dziury przenoszone są do obszaru typu p. Separacja ładunków dodatnich i ujemnych wytwarza różnicę potencjału.", "Przekrój przez strukturę prostego monokrystalicznego ogniwa fotowoltaicznego przedstawiono na Rys. 5 [3]. Występują tutaj następujące elementy:", "Ogniwo fotowoltaiczne jest diodą, w której pod wpływem promieniowania elektromagnetycznego wytwarza się dodatkowo pary dziura-elektron. Struktura ogniwa jaką przedstawiono na Rys. 5 jest stosowana dla wszystkich materiałów nieorganicznych, z których zbudowane są ogniwa fotowoltaiczne.", "Inaczej ma się sprawa w przypadku związków organicznych. Dla organicznych półprzewodników rozważane są pojedyncze cząsteczki. Każda cząsteczka charakteryzuje się poziomami energetycznymi. W stanie podstawowym wszystkie poziomy są zajęte aż do najwyższego obsadzonego orbitalu molekularnego zwanego HOMO (ang. Highest Occupied Molecular Orbital) ( Rys. 6a). Powyżej znajdują się poziomy nieobsadzone. Najniższy nieobsadzony poziom orbitalny molekuły nazwano LUMO (ang. Lowest Unoccupied Molecular Orbital). Różnica pomiędzy położeniami poziomów HOMO i LUMO jest traktowana w materiałach organicznych jako przerwa energetyczna \\( E_{g} \\). Poziomy te w półprzewodnikach organicznych traktuje się jako odpowiedniki pasma walencyjnego i przewodzenia w półprzewodnikach nieorganicznych. Strukturę energetyczną cząsteczek przedstawiono na ( Rys. 6a). Dotyczą one tylko jednej cząsteczki. Padający kwant promieniowania po zaabsorbowaniu przeniesie elektron z poziomu HOMO do LUMO w cząsteczce. Tak powstała para dziura-elektron (nazwana ekscytonem) może przemieszczać się w materiale. W związkach organicznych energia wiązania ekscytonu jest na poziomie 0.4 eV. Do rozerwania powstałego ekscytonu w materiałach organicznych są potrzebne energie znacznie wyższe niż w półprzewodnikach nieorganicznych.", "Układ dwu cząsteczek o różnych poziomach HOMO-LUMO powoduje powstanie różnicy potencjału ( Rys. 6b). Ekscyton po natrafieniu na taki układ może być rozdzielony na ładunki. Powstałe w tym układzie ładunki dodatnie i ujemne znajdują się w tym samym obszarze, co niestety umożliwia ich rekombinację. Celem wymuszenia odpowiedniego przepływu ładunków stosuje się elektrody o różnych pracach wyjścia. Praca wyjścia to najmniejsza energia, jaką należy dostarczyć elektronowi, aby opuścił materiał i stał się elektronem swobodnym. Elektroda metalowa o mniejszej pracy wyjścia gromadzi elektrony, a elektroda o większej gromadzi dziury.", "Tak więc w przypadku ogniw fotowoltaicznych wykonanych z półprzewodników organicznych ważną rolę odgrywają elektrody kontaktowe. \\( W_{w} \\)."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "3. Podstawy", "subject_id": 1072, "subject": "3.5 Podstawy fizyczne konwersji energii słonecznej na energię elektryczną", "paragraphs": ["Po połączeniu dwóch rodzajów półprzewodników wytwarza się złącze p-n ( Rys. 1 ) o specyficznej charakterystyce energetycznej. Jest to spowodowane nadmiarem elektronów swobodnych w półprzewodniku typu n i dziur w półprzewodniku typu p. Po ich połączeniu następuje przemieszczenie elektronów do półprzewodnika typu p, a dziur do półprzewodnika typu n, co powoduje zaburzenie równowagi ładunkowej i wytworzenie różnicy potencjałów.", "Dostarczenie energii w postaci kwantów promieniowania do atomów sieci krystalicznej (w zależności od przerwy energetycznej) może spowodować przeniesienie elektronów do pasma przewodzenia [1]. Aby ten proces nastąpił, kwant promieniowania \\( h\\nu \\) musi posiadać energię większą niż przerwa energetyczna \\( E_{g} \\) ( \\( h\\nu >E_{g} \\)) ( \\( h \\) – stała Plancka, \\( \\nu \\) – częstotliwość). Ekscyton może się rozpaść na ładunki pod wpływem temperatury lub pola elektrycznego. Ekscyton może przemieszczać się w półprzewodniku aż trafi na obszar, w którym występuje pole elektryczne. Pole elektryczne występujące na złączu p-n umożliwia rozdzielanie ładunków. Ładunki dodatnie gromadzą się w półprzewodniku p, a ujemne w półprzewodniku typu n.", "Absorpcja światła może zachodzić w obszarze typu n i typu p. Ładunki powstałe w wyniku rozpadu ekscytonu przemieszczają się w kierunku elektrod. Po podłączeniu odbiornika do elektrod popłynie przez niego prąd elektryczny. Charakterystykę prądowo-napięciową takiego złącza półprzewodnikowego przedstawiono na Rys. 2. Jeżeli takie złącze nie będzie oświetlone, otrzymana zostanie charakterystyka I(U) tzw. ciemna, bez oświetlenia (można powiedzieć zwykła charakterystyka diodowa). Jeżeli zaś złącze p-n zostanie oświetlone, uzyska się charakterystykę I(U) oświetlonego ogniwa słonecznego tzw. charakterystykę jasną.", "Ilość zaabsorbowanej energii światła zależna jest między innymi od wielkości przerwy energetycznej ( Rys. 3 ). Wielkości przedstawione w tabeli to maksymalna ilość energii promieniowania słonecznego (w \\( \\% \\)), jaka może być zaabsorbowana przy określonej przerwie energetycznej. Jeżeli przerwa jest większa od 4 eV, żadna część promieniowania słonecznego docierającego do Ziemi nie zostanie zaabsorbowana, bo kwant promieniowania słonecznego ma energię niższą niż 4 eV (patrz rysunek widma promieniowania słonecznego).", "Założono tutaj, że promieniowanie słoneczne w obszarze od 300 nm do 2500 nm stanowi \\( 100\\% \\) promieniowania. Na przykład, półprzewodnik z przerwą energetyczną 1,03 eV może maksymalnie zaabsorbować \\( 81\\% \\) energii słonecznej docierającej do ogniwa.", "Konwersję energii światła słonecznego na energię elektryczną odbywa się w kilku procesach fizycznych przedstawionych na Rys. 4. Po zaabsorbowaniu światła następuje kreacja ekscytonu, który następnie ulega rozpadowi na ładunki. Ładunki przemieszczają się w kierunku elektrod gdzie następuje ich gromadzenie. Każdy z tych procesów obarczony jest stratami wynikającymi z niedoskonałości urządzenia [2]. Wpadające kwanty promieniowania świetlnego zostają częściowo zaabsorbowane przez materiał półprzewodnikowy, część promieniowania zostaje odbita od powierzchni diody, a pozostała nie zaabsorbowana ulega transmisji. Zaabsorbowany kwant promieniowania powoduje powstanie ekscytonu ( Rys. 4 ), który może przemieszczać się w materiale półprzewodnikowym, ale może także ulec anihilacji, zamieniając się w ciepło. Ekscyton ulega rozpadowi tworząc swobodne ładunki dodatnie i ujemne. Ładunki przemieszczają się do elektrod. W trakcie tego procesu występują straty związane z rekombinacją ładunków, ograniczeniem ruchliwości oraz oporem na granicy półprzewodnik elektroda.", "Niektóre ze strat można wyeliminować w trakcie konstrukcji ogniwa fotowoltaicznego, dlatego nadal trwają prace mające na celu podniesienie efektywności konwersji energii promieniowania słonecznego. Materiały na ogniwa fotowoltaiczne powinny posiadać szereg właściwości takich jak:", "Dane dotyczące wzrostu efektywności paneli fotowoltaicznych wyprodukowanych z użyciem nowych lub zmodyfikowanych materiałów są publikowane corocznie przez NREL (zob. rozdział: 5.2 Zmiany efektywności konwersji )."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "3. Podstawy", "subject_id": 779, "subject": "3.6 Parametry ogniwa fotowoltaicznego", "paragraphs": ["Wiele laboratoriów naukowych i przemysłowych na całym świecie zajmuje się badaniem parametrów ogniw fotowoltaicznych (PV). Z tego faktu wynika konieczność wprowadzenia zunifikowanych standardów dla przeprowadzenia tych pomiarów. Opracowano dla ogniw i paneli fotowoltaicznych warunki testowania STC (ang. Standard Test Conditions) [1]. Warunki te określają parametry przeprowadzenia badań:", "Prowadzenie badań w standardowych warunkach pozwala bezpośrednio porównać wyniki z różnych laboratoriów.", "Celem badań jest określenie parametrów ogniw i paneli [2]. Podstawowym pomiarem ogniwa fotowoltaicznego jest zbadanie jego charakterystyki prądowo-napięciowej \\( I(U) \\). Istotnym parametrem ogniwa jest określenie sprawności, którą wyznacza się z charakterystyki \\( I(U) \\). Sprawność ogniwa fotowoltaicznego to ilość maksymalnej mocy elektrycznej otrzymanej z ogniwa PV, czyli \\( P_{max} \\) do mocy dostarczonej przez promieniowanie słoneczne \\( P_{light} \\). Sprawność ogniwa fotowoltaicznego wyraża się wzorem:", "Charakterystykę prądowo-napięciową dla ogniwa fotowoltaicznego przedstawiono na Rys. 1. Z przebiegu charakterystyki prądowo-napięciowej dla ogniwa PV wyznacza się maksimum mocy, jaką można uzyskać z ogniwa przy określonym oświetleniu. Maksimum mocy \\( P_{mm} \\) to maksymalna powierzchnia prostokąta \\( U*I \\). Dla punktu maksimum mocy \\( P_{mm} \\) wyznacza się wartość napięcia \\( V_{m} \\), przy którym moc jest maksymalna oraz wartość prądu \\( I_{m} \\), przy którym moc jest maksymalna.", "Używa się też pojęcia współczynnika wypełnienia \\( FF \\) (ang. fill factor), wyrażonego stosunkiem maksymalnej mocy otrzymanej z ogniwa fotowoltaicznego \\( P_{max} \\) do iloczynu napięcia obwodu otwartego \\( V_{oc} \\) i prądu zwarcia \\( I_{sc} \\). Wartość współczynnika wypełnienia wyznacza się z równania:", "Sprawność ogniw fotowoltaicznych wykonanych z krzemu monokrystalicznego w 2019 r. wynosiła około \\( 26\\% \\), a dla ogniw multikrystalicznych sprawność kształtuje się na poziomie \\( 23\\% \\). Wraz ze wzrostem temperatury sprawność ogniw PV maleje średnio o \\( 0,2\\% \\) na każdy stopień zwiększenia temperatury powyżej warunków STC. Jeżeli temperatura wzrośnie o 20 \\( _{}^{o}\\textrm{C} \\) to sprawność obniży się o około \\( 4\\% \\) wartości nominalnej – czyli panel o sprawności \\( 25\\% \\) po wzroście temperatury o 20 \\( _{}^{o}\\textrm{C} \\) będzie miał sprawność \\( 24\\% \\). Wprowadzając do wzoru na sprawność ogniwa fotowoltaicznego współczynnik wypełnienia, równanie na sprawność n wydajności przyjmuje postać:", "Sprawność ogniwa zależy od długości fali i współczynnika absorpcji. Uwzględniając te parametry powyższe równanie przybiera formę:", "Ze względu na powyższą zależność ważne jest zmierzenie widm absorpcyjnych materiałów wchodzących w skład ogniwa PV.", "Sprawność ogniwa fotowoltaicznego ponadto zależy także w niewielkim stopniu od natężenia światła. Badając zależność temperaturową charakterystyk \\( I(U) \\) można stwierdzić, że wraz ze wzrostem temperatury maleje napięcie \\( V_{oc} \\).", "Wielkości zmian tych parametrów są podawane w kartach katalogowych paneli fotowoltaicznych. Przykładem takiej karty jest karta katalogowa JASOLAR JAM60S09 [3].", "Podsumowując wielkościami charakterystycznymi dla ogniwa PV są:", "Oprócz tych parametrów bardzo często podawane są współczynniki zmian właściwości ogniw PV w zależności od czasu. Ponadto podawany jest czas pracy ogniwa z wydajnością nie mniejszą niż \\( 90\\% \\)."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "3. Podstawy", "subject_id": 775, "subject": "3.7 Model ogniwa", "paragraphs": ["Schemat zastępczy diody jest używany do analizy jej charakterystyk elektrycznych. Schematy obwodów zastępczych dla diody prostowniczej i diody fotowoltaicznej przedstawiono na Rys. 1. Obwody zastępcze [1] różnią się tym, że dla diody fotowoltaicznej występują dodatkowo źródła generujące prąd \\( I_{L} \\) pod wpływem promieniowania słonecznego ( Rys. 1b).", "Obwód zawiera następujące komponenty: D – dioda, \\( R_{sh} \\) – opornik bocznikujący reprezentujący rezystencję wynikającą z powierzchniowej rekombinacji nośników ładunku, \\( R_{s} \\) – opornik zastępujący sumę oporów szeregowych w obwodzie zewnętrznym. Schemat zastępczy ogniwa PV, zawierający elementy diody półprzewodnikowej oraz źródło prądu \\( I_{L} \\) przedstawiono na Rys. 1b. Korzystając z obwodu zastępczego ogniwa słonecznego ( Rys. 1b) i praw Kirchhoffa (prawo węzłów i prawo oczek), można sformułować następującą relację:", "gdzie \\( I_{sh}=I_{L}-I_{d}-I \\) która może być przekształcona do postaci:", "Równanie diody Shockleya [2] opisuje zależność prądu diody idealnej \\( I_{d} \\) od napięcia:", "i wstawiając \\( I_{d} \\) z równania ( 3 ) do równania ( 2 ) otrzymano zależność dla prądu \\( I_{} \\):", "Ze względu na złożoną postać równania do wyznaczenia charakterystyki prądowo-napięciowej oraz zależności mocy w funkcji napięcia użyto programu DERIVE. Charakterystyki przedstawiono na ( Rys. 2 ).", "Otrzymana zależność \\( I(U) \\) jest typową charakterystyką otrzymaną dla ogniw fotowoltaicznych i charakteryzuje się dobrą zgodnością z przebiegiem otrzymanym eksperymentalnie. Przedstawiona zależność mocy od napięcia \\( P(U) \\) charakteryzuje się maksimum mocy jaką można odebrać z ogniwa fotowoltaicznego. Maksymalna moc pobierana z układu o charakterystyce jaką przedstawiono na rysunku jest przy napięciu 0,55 V. Równanie ( 4 ) opisuje działanie ogniwa PV, a dokładnie pokazuje wpływ oporu szeregowego \\( R_{s} \\), równoległego \\( R_{sh} \\), prądu \\( I_{l} \\) zależnego od natężenia oświetlenia, oraz zmian temperatury T na zachowanie charakterystyk prądowo-napięciowych. Zmiany charakterystyk prądowo-napięciowych pod wpływem zmian oporności szeregowej pokazano na ( Rys. 3 ). Kierunek wzrostu oporu szeregowego pokazano strzałką.", "Wzrastający opór szeregowy powoduje zmniejszenie napięcia obwodu otwartego \\( U_{oc} \\), co odbija się niekorzystnie na mocy, jaką można wygenerować z ogniwa PV.", "Wzrost natężenia promieniowania zaznaczono na rysunku strzałką. Wzrost natężenia promieniowania podnosi natężenie prądu \\( I_{sc} \\), natomiast napięcie obwodu otwartego \\( U_{oc} \\) powiększa się nieznacznie. Otrzymany rezultat jest zgodny z danymi eksperymentalnymi. Charakterystyki prądowo-napięciowe dla różnych natężeń promieniowania pokazano na ( Rys. 4 ).", "Zwiększanie temperatury pracy ogniwa zmniejsza napięcie \\( U_{oc} \\) wygenerowane przez promienie słoneczne. Ponadto zmniejsza moc, jaką można odebrać z ogniwa dla wyższych temperatur. Charakterystyki prądowo-napięciowe dla różnych temperatur pracy ogniwa przedstawiono na ( Rys. 5 ).", "Dla większych wartości oporu \\( R_{sh} \\) zwiększa się natężenie prądu, a co za tym idzie i wydajność konwersji energii świetlnej na energię elektryczną. Napięcie obwodu otwartego zmienia się nieznacznie. Jeżeli stosunek \\( R_{s}/R_{sh} \\) jest rzędu \\( 10^{-3} \\) lub mniejszy, to zmiana oporności \\( R_{sh} \\) nie powoduje zmiany charakterystyki I(U). Charakterystyki prądowo-napięciowe dla różnych wartości oporności równoległej \\( R_{sh} \\) przy stałej oporności \\( R_{s} \\) przedstawiono na Rys. 6. Otrzymane charakterystyki prądowo-napięciowe wyznaczone z przyjętego modelu wykazują dobrą zgodność z wynikami eksperymentalnymi. W celu uwzględnienia wszystkich procesów zachodzących w ogniwie zmodyfikowano schemat zastępczy ogniwa przez dodanie dodatkowej diody D2 [3], odpowiedzialnej za procesy nie uwzględnione w diodzie D1.", "Układ zastępczy ogniwa fotowoltaicznego uwzględniający dodatkową diodę przedstawioną na Rys. 7 [4]. Rozważając powyższy układ otrzymamy bardziej rozbudowany wzór opisujący zastosowany model [5]:", "gdzie: \t \\( I \\) – prąd w obwodzie zewnętrznym, \t \\( I_{L} \\) – prąd generowany przez ogniwo fotowoltaiczne, \t \\( I_{01} \\) – prąd nasycenia ciemnego składnika dyfuzji prądu ciemnego, \t \\( I_{02} \\) – prąd nasycenia ciemnego składnika generacji-rekombinacji prądu ciemnego, \t \\( U \\) – napięcie dostarczane do układu (pomiarowe), \t \\( R_{s} \\) – oporność szeregowa ogniwa fotowoltaicznego, \t \\( R_{sh} \\) – oporność równoległa ogniwa fotowoltaicznego, \t \\( n_{1} \\) – współczynnik jakości diody (wartość bliska 1), \t \\( n_{2} \\) – współczynnik jakości diody (wartość bliska 2).", "Rozbudowując model ogniwa fotowoltaicznego o kolejne procesy występujące podczas generacji prądu otrzymujemy złożone równania algebraiczne opisujące te zjawiska. Do symulacji charakterystyk prądowo-napięciowych ogniwa fotowoltaicznych stosuje się różne programy matematyczne np. MATHEMATICA, czy DERIVE."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "4. Elementy struktury ogniwa", "subject_id": 784, "subject": "4.1 Elementy struktury ogniw fotowoltaicznych", "paragraphs": ["Ogniwa fotowoltaiczne i panele są strukturami wielkowarstwowymi Rys. 1, Rys. 2.", "Niektóre elementy ogniw występują w wielu generacjach. Oprócz różnych koncepcyjnie warstw aktywnych, w których występuje zjawisko fotowoltaiczne, w skład każdego ogniwa wchodzą elektrody kontaktowe. Elektroda ogniwa umieszczona od strony Słońca może mieć formę cienkowarstwowej elektrody transparentnej, pasków pasty srebrnej i aluminiowej (elektroda busbarowa), cienkich drucików przewodzących (ang. smart wire). Przeciwelektroda ma najczęściej kształt warstwy metalicznej aluminiowej. Występują również konstrukcje, w których obie elektrody są umieszczone z tyłu (tzw. HIT, ang. Heterojunction with Intrinsic Thin Layer). Przez górną elektrodę w dalszym ciągu rozumiemy warstwę od strony słonecznej (na którą pada promieniowanie słoneczne), natomiast przez dolną elektrodę określamy elektrodę nieoświetlaną bezpośrednio przez Słońce. W celu zapewnienia izolacji, hermetyzacji i ochrony przed uszkodzeniami mechanicznymi oraz chemicznymi ogniwa stosuje się enkapsulant. Stosuje się w tym celu folie polimerowe. Najpopularniejszym materiałem jest EVA (octan winylu etylowego, ang. ethylene vinyl acetate). Powierzchnie górne w ogniwach są pokryte warstwami antyrefleksyjnymi i pasywacyjnymi [1]. Funkcje tych warstw opisano w rozdziałach: 4.4 Warstwy antyrefleksyjne, 4.5 Warstwy pasywacyjne."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "4. Elementy struktury ogniwa", "subject_id": 785, "subject": "4.2 Elektrody metaliczne", "paragraphs": ["Elektrody metaliczne, jak i elektrody transparentne odpowiadają za przepływ prądu z ogniwa fotowoltaicznego do obwodu, mają więc istotny wpływ na jego parametry elektryczne. Ze względu na geometrię i architekturę rozróżniamy elektrody w postaci cienkich ścieżek poziomych (busbarowe1), w postaci cienkich drucików przewodzących (ang. smart wire2) oraz elektrody wyprowadzone z tyłu ogniwa (HIT3).", "Aby zapewnić przekazanie ładunku wytworzonego przez ogniwo do obwodu zewnętrznego, ważny jest jak najmniejszy opór pomiędzy materiałem półprzewodnikowym stanowiącym warstwę aktywną ogniwa i metaliczną elektrodą. Wspomniany opór pomiędzy półprzewodnikiem i metalem może mieć charakter linowy lub nielinowy. Występowanie przewodnictwa linowego (omowego) lub nielinowego (Schottky'ego) jest uwarunkowane parametrami użytych materiałów. Kontakt nie powinien wpływać na charakterystykę prądowo-napięciową ogniwa [1]. W praktyce na rezystancję ogniwa wpływa długość drogi jaką musi pokonać ładunek elektryczny w płytce, istotnym parametrem materiałów elektrodowych jest praca wyjścia elektronu z metalu ( Rys. 1 na podstawie [2]). Drugim parametrem wpływającym na rodzaj przewodnictwa jest poziom Fermiego półprzewodnika.", "Najczęściej stosowanym materiałem na elektrody jest srebro, jednak wdrażane są również inne materiały, min. aluminium czy też miedź. W ogniwach typu CIGS stosowane są molibden i aluminium [3], [4].", "Metodą najczęściej używaną do nakładania kontaktów jest sitodruk. W celu zachowania dużej powierzchni otwartej sita oraz wykonania precyzyjnych wzorów stosowane są siatki o coraz cienkich drutach ze stali nierdzewnej. Zaletami sitodruku jest duża przepustowość procesu oraz szeroki dostęp do materiałów. Są rozwijane również technologie cienkowarstwowe (np. metoda „drukowania” warstwy zarodkowej, ang. aerosol jetting)."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "4. Elementy struktury ogniwa", "subject_id": 786, "subject": "4.3 Przeźroczyste elektrody przewodzące", "paragraphs": ["Aby zapewnić najwyższą efektywność konwersji energii należy stworzyć taką konstrukcję, by możliwie największa ilość energii światła słonecznego dotarła do absorbera. W tym celu w ogniwach słonecznych zastosowano tlenki metali przewodzące prąd jako elektrody transparentne.", "Większość materiałów dobrze przepuszczających światło widzialne jest izolatorami. Materiały do wykorzystania jako elektrody po domieszkowaniu stają się półprzewodnikami i powinny wykazywać rezystywność większą bądź równą \\( 10^{-3} \\Omega \\cdot cm \\). Wymagana jest również koncentracja nośników ładunków rzędu \\( 10^{20} cm^{-3} \\). Tlenki spełniające powyższe warunki nazywane są transparentnymi tlenkami przewodzącymi (TCO, ang. Transparent Conducting Oxides) [1].", "Najpopularniejszym materiałem używanym jako elektroda przeźroczysta jest tlenek indowo-cynowy, określany skrótem ITO (ang. indium tin oxide). ITO stosowany jako elektroda transparentna jest to mieszanina \\( 74\\% \\) In, \\( 18\\% \\) \\( O_{2} \\) i \\( 8\\% \\) Sn, wagowo. Jego przerwa energetyczna wynosi 3,5- 3,7 eV [2]. Szerokość przerwy determinuje właściwości optyczne ITO. Ze względu na dużą koncentrację nośników ( \\( 10^{20} - 10^{21} cm^{-3} \\)) przewodnictwo ITO zbliża się do poziomu przewodnictwa metalicznego. Przeciętna grubość elektrodowej warstwy ITO w systemie fotowoltaicznym wynosi około 100 nm.", "Drugim popularnym materiałem półprzewodnikowym jest tlenek cyny z domieszką fluoru (FTO) [3]. W zakresie widzialnym osiąga transmisję do \\( 80\\% \\), wykazuje niższą oporność powierzchniową (oporność materiału liczona na jednostkę powierzchni) niż ITO (7~13 \\( \\Omega \\cdot m \\)) [4]. Jest on obiecującym materiałem ze względu na stabilność czasową parametrów w warunkach atmosferycznych, obojętność chemiczną, wytrzymałość i odporność na ścieranie. Przerwa energetyczna FTO wynosi 3,80 eV [5]. Transmisja zarówno ITO jak i FTO wynosi ponad \\( 80\\% \\), a róznice we właściwościach (np. widmie absorpcyjnym, przewodnictwie) są silnie zależne od stopnia domieszkowania, sposobu nanoszenia, grubości i innych parametrów [6], [7].", "Jako elektroda transparentna jest używany również domieszkowany (najczęściej aluminium) tlenek cynku ZnO:Al (AZO) [8]. W zależności od ilości i rodzaju domieszkowania wykazuje zmianę przewodnictwa elektrycznego w szerokim zakresie: od przewodnictwa metali do izolatorów. Dla zastosowań elektrodowych istotna jest też szeroka przerwa energetyczna (3,3 – 3,6 eV) i wysoka transparentność [9], [10], [11].", "Badane były również inne transparentne tlenki metali takie jak \\( ZnSnO_{4} \\), \\( Cd_{2}SnO_{2} \\), a także \\( CdO \\) (ze względu na toksyczność tlenki Cd nie weszły do użycia). Dokonywane są próby użycia warstw elektrodowych z materiałów polimerowych np. PEDOT, czyli poli(3,4-etyleno-1,4-dioksytiofen) czy jego mieszaniny z polimerem PSS (sulfonian polistyrenowy). PEDOT:PSS jest mieszaniną polimerów o pracy wyjścia – 5,2 eV. Sam PEDOT jest nierozpuszczalny, dopiero jego połączenie z rozpuszczalnym w wodzie polimerem PSS pozwala na nanoszenie go metodami mokrymi na elastyczne powierzchnie [12]. W ramach badań nad nowymi materiałami proponowane są także elektrody grafenowe [13], [14], jednak mimo obiecujących wyników badań zarówno transparentności jak i oporności nie są one jeszcze powszechnie stosowane.", "Mimo rozwoju nowych materiałów najpowszechniejszymi elektrodami transparentnymi pozostają ITO oraz FTO. Cena indu jednak regularnie wzrasta, co przekłada się na rosnące koszty elektrod wykonanych z tego materiału (FTO jest tańszy niż ITO). W związku z niższą ceną rośnie wiec popularność FTO [15]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "4. Elementy struktury ogniwa", "subject_id": 787, "subject": "4.4 Warstwy antyrefleksyjne", "paragraphs": ["Odbicie światła od powierzchni warstw stanowiących ogniwo zmniejsza ilość światła docierającego do jego warstw aktywnych. Aby zredukować niekorzystny wpływ tego zjawiska na wydajność ogniwa na wierzchnią warstwę ogniwa nanosi się warstwy antyrefleksyjne (AR lub ARC, ang. antireflecting coating). Warstwy te nie biorą udziału w konwersji fotowoltaicznej. Zwykle są nanoszone na wierzchnią warstwę ogniwa.", "Zmniejszenie odbicia, przy stałej absorpcji materiału, zwiększa transmisję, co sprawia, że większa ilość promieniowania słonecznego dociera do warstwy aktywnej. System antyrefleksyjny może stanowić pojedyncza warstwa lub też system wielowarstwowy. Pojedynczą warstwę antyrefleksyjną wykonujemy z materiału o wartości współczynnika załamania pośredniej, w stosunku do współczynnika załamania warstw znajdujących się bezpośrednio pod i nad nią (np. warstwy pasywacyjnej i elektrody transparentnej).", "W drugim przypadku działanie systemów antyrefleksyjnych opiera się na zjawisku interferencji fal elektromagnetycznych. Dobór grubości i współczynnika załamania warstw stanowiących ten system prowadzi do zwiększenia transmisji. Wielowarstwowe systemy antyrefleksyjne są oparte na teorii filtrów LH (ang. low, high). Jest to zestaw warstw w których naprzemiennie występują warstwy o wysokim i niskim współczynniku załamania. Pozwala to na kształtowanie charakterystyki odbiciowej w taki sposób, by w zakresie długości fali elektromagnetycznej pracy systemu fotowoltaicznego, transmisja była największa (odbicie największe). Przykładowy systemu antyrefleksyjnego to cztery dwuwarstwy \\( TiO_{2} \\)/ \\( SiO_{2} \\).", "Grubość warstwy antyrefleksyjnej d związana jest z współczynnikiem załamania światła w warstwie n i długością fali λ światła z obszaru maksymalnej fotoczułości ogniwa [1] – wzór ( 1 ):", "Odbicie można minimalizować dopasowując współczynnik załamania światła powłoki [2], \\( n_{AR} \\) do materiałów po obu stronach oznaczanych jako \\( n_{otoczenia1} \\) oraz \\( n_{otoczenia2} \\) bazując na zależności ( 2 ):", "Charakterystyki współczynnika odbicia systemu antyrefleksyjnego przedstawiono na Rys. 1. Kolorem czerwonym oznaczono system znajdujący się w otoczeniu powietrza, niebieskim system znajdujący się między dwoma szklanymi taflami. Charakterystyki zostały wygenerowane przy pomocy programu symulacyjnego Anti-Reflection Coatings [1].", "Jak wspomniano powyżej, w zależności od maksimum widma absorpcyjnego absorbera w ogniwie słonecznym, można sterować charakterystyką odbiciową warstwy antyrefleksyjnej. Przedstawiono poniżej warstwy antyrefleksyjne ( Rys. 2 ) z maksimum transmisji/minimum odbicia a) dla długości fali 500 nm, b) dla długości fali 400 nm.", "Cienkowarstwowe systemy antyrefleksyjne są wytwarzane metodami próżniowymi przez jonowe rozpylenie lub naparowanie."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "4. Elementy struktury ogniwa", "subject_id": 1025, "subject": "4.5 Warstwy pasywacyjne", "paragraphs": ["Powłoki pasywacyjne mają na celu zapobieganie procesom obniżającym wydajność konwersji ogniwa fotowoltaicznego. Pierwszym procesem jest rekombinacja ładunków na elektrodach. Procesy rekombinacji zachodzą we wszystkich częściach ogniwa, w tym na elektrodach, choć najintesywniejsze są w warstwie aktywnej. Ładunki z elektrody powinny być przekazywane z elektrod do obwodu zewnętrznego, rekombinacja zmniejsza ilość ładunków przekazywanych, a więc wydajność konwersji. Zapobiega się temu wytwarzając w wyniku reakcji chemicznej szczelną, cienką i odporną na korozję warstwę pasywacyjną. Drugim procesem, któremu zapobiega pasywacja, jest utlenianie elektrod. Utlenianie powoduje zmianę (pogorszenie) parametrów ogniw fotowoltaicznych. W przypadku ogniw fotowoltaicznych warstwy pasywacyjne są umieszczane na przedniej lub tylnej powierzchni ogniwa. Najpopularniejsze są jednak systemy z warstwą pasywacyjną pomiędzy warstwą krzemu, a elektrodą metaliczną. Uproszczone schematy ogniw z warstwą pasywacyjną zostały przedstawione na Rys. 1.", "Przykładowy proces pasywacji opracowany przez SoLayTec, InPassion został przedstawiony na filmie \"SoLayTec InPassion ALD for Al2O3\". Przedstawia on osadzanie warstw tlenku aluminium \\( Al_{2}O_{3} \\) techniką osadzania warstw atomowych ALD (ang. atomic layer deposition).", "Przykładowym sposobem pasywacji krzemu jest jego utlenianie. Na otrzymany w wyniku utleniania ditlenek krzemu ( \\( SiO_{2} \\)) nakładane jest następnie aluminium. Warstwy poddaje się dodatkowej obróbce w 400 \\( _{}^{o}\\textrm{C} \\). Niestety sam proces obróbki wysokotemperaturowej wpływa negatywnie na właściwości elektryczne krzemu [1]. Alternatywnymi warstwami pasywacyjnymi mogą być warstwy z azotku krzemu.", "Ogniwa z dolną warstwą pasywacyjną zostały wytworzone i wprowadzone do masowej sprzedaży. Najpopularniejszymi typami ogniw są1:", "Użyty w nazwie termin \"pasivated emitter\" rozumiany jest w tym przypadku jako górna warstwa ogniwa. We wszystkich przypadkach warstwa emitera poddana jest procesowi pasywacji. Dodatkowo pasywowana jest powierzchnia pomiędzy półprzewodnikiem, a elektrodą metaliczną. Ogniwa PERC mają warstwę pasywacyjną spełniającą funkcję refleksyjną. Fotony odbite od warstwy pasywacyjnej trafiając do absorbera, zwiększając liczbę wygenerowanych nośników ładunku. Zasada działania ogniw PERL jest podobna, z uwzględnieniem, że dolna warstwa pasywacyjna jest rozproszona (składa się odseparowanych elementów). W ogniwie PERT przednia i tylna powierzchnia ogniwa monokrystalicznego są pasywowane. Tylna elektroda jest lokalnie rozproszona tylko na stykach metalowych, aby zminimalizować rekombinację przy zachowaniu dobrego kontaktu elektrycznego [3]. Ogniwa z warstwami pasywacyjnymi w standardzie stają się coraz popularniejsze. Na podstawie prognoz z ITRPV (International Technology Roadmap for Photovoltaic), technologie PERC będą miały \\( 55\\% \\) udział w rynku paneli do 2027 r. [4]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 790, "subject": "5.1 Klasyfikacja ogniw fotowoltaicznych", "paragraphs": ["Wraz z rozwojem fotowoltaiki pojawiały się nowe typy ogniw, nowe materiały i nowe technologie. Tradycyjne fotowoltaika dzielona jest na generacje Rys. 1.", "Pierwsza generacja to ogniwa krzemowe: monokrystaliczne i polikrystaliczne. Pojawienie się ogniw bazujących na krzemie amorficznym zapoczątkowało tzw. drugą generację ogniw. Zaliczają się do niej ogniwa cienkowarstwowe, zbudowane z tellurku kadmu (CdTe), mieszaniny miedzi, indu, galu, selenu (CIGS), czy z wspomnianego krzemu amorficznego oraz wielozłączowe. Ogniwa cienkowarstwowe charakteryzują się bardzo cienką (1-3 mikrometrów) warstwą półprzewodnika. Trzecia generacja to ogniwa barwnikowe i polimerowe. Często do trzeciej generacji zalicza się również ogniwa perowskitowe, niektóre źródła zaliczają je, wraz z ogniwami hybrydowymi do generacji czwartej [1]. Podział ten ma charakter chronologiczny. Klasyfikacja ze względu na materiały używane w produkcji ogniw została przedstawiona na Rys. 2 (na podstawie [2]).", "Ogniwa perowskitowe i hybrydy zostały ujęte w oddzielnej kategorii. Perwoskity są materiałami nieorganicznymi, jednak w wytwarzaniu ogniw używane są materiały organiczne (np. rozpuszczalniki). Ogniwa hybrydowe (np. krzemowo-organiczne) są również wykonane zarówno z materiałów organicznych jak i nieorganicznych. Każda z generacji ma swoje mocne i słabe strony (np. jeśli chodzi o wydajności przoduje fotowoltaika krzemowa). Wszystkie są jednak nadal rozwijanie i mają ogromny potencjał."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 792, "subject": "5.2 Zmiany efektywności konwersji", "paragraphs": ["Efektywność konwersji energii słonecznej na energię elektryczną jest jednym z podstawowych parametrów ogniw fotowoltaicznych. Pierwsze wartości dla ogniw krzemowych rejestrowane były w początku lat 50-tych w związku z instalacją baterii w satelitach. Regularne publikacje osiągnięć dla wszystkich rodzajów ogniw fotowoltaicznych prezentowane są corocznie przez laboratorium NREL Amerykańskiego Departamentu Energii od 1976 r. [1]. Dane te przedstawione na Rys. 1, Rys. 2 obrazują dynamikę zmian efektywności konwersji energii dla poszczególnych rodzajów wytwarzanych źródeł fotowoltaicznych. Są to dane dotyczące prac laboratoryjnych. Niemniej obrazują w jakim miejscu sytuują się poszczególne technologie i jaka odległość dzieli je od fizycznych limitów efektywności konwersji. Pierwsze dane z 1976 r. to były wartości niewielkie. Dla krzemu amorficznego \\( 1\\% \\), dla krzemu monokrystalicznego \\( 14\\% \\), dla ogniw cienkowarstwowych CIGS \\( 6\\% \\), a CdTe \\( 9\\% \\). Jedynie ogniwa z GaAs wykazywały większą konwersję na poziomie \\( 21\\% \\). Wzrost wydajności następował w wyniku ciągle prowadzonych prac badawczych zarówno w korporacjach, jak i jednostkach badawczych. Niektóre innowacje prowadziły do skokowych wzrostów wydajności ogniw. Należy zwrócić również uwagę na fakt, że część badań doprowadziła do wprowadzenia do fotowoltaiki całkowicie nowych konstrukcji, jak np. ogniwa wielozłączowe, czy nowych materiałów, a nawet całych klas materiałów, jak polimery czy perowskity. Trzy klasy materiałów zasługują na szczególną uwagę ze względu na wartości wydajności jakie osiągają ogniwa skonstruowane z użyciem tych materiałów albo też ze względu na znacząco większą dynamikę zmian w porównaniu do innych materiałów. Pierwszą kategorią są ogniwa wielozłączowe szczególnie budowane na bazie arsenku galu GaAs. Wprowadzanie ogniw dwu-, trzy-, a później czterozłączowych rozpoczęło się odpowiednio w drugiej połowie lat osiemdziesiątych, drugiej połowie lat dziewięćdziesiątych a ostatnich już w tym wieku po 2005 r. Ogniwa te już w początkowej fazie badań miały wysoką wydajność powyżej \\( 28\\% \\). Intensywne prace nad ich rozwojem doprowadziły do tego, że w 2019 r. zakresy wydajności leżą w nieosiągalnym jak dotąd zakresie od ok. \\( 30\\% \\) do \\( 47,1\\% \\).", "Drugą grupą materiałów są polimery. Ich podstawową zaletą jest niewątpliwie niska cena. Historia polimerów w fotowoltaice rozpoczęła się dopiero na początku naszego wieku, ale mimo tak krótkiego okresu już zdołały osiągnąć wydajności na poziomie \\( 17\\% \\). Drugą klasą materiałów o jeszcze większej dynamice zmian są perowskity. Produkowane na bazie materiałów mineralnych w ciągu niecałej dekady ostatnie konstrukcje osiągnęły \\( 21,5\\% \\), co zbliżyło je do teoretycznej granicy konwersji dla tych materiałów tj. ok. \\( 31\\% \\). Niestety obie klasy materiałów nie posiadają cechy bardzo istotnej dla materiałów fotowoltaicznych tj. stabilności długoterminowej. Elektrownie fotowoltaiczne pracują po 25 lat i dłużej stąd praca nad poprawą tego parametru wydaje się kluczowa dla powszechnego zastosowania tych tanich i już wydajnych źródeł fotowoltaicznych. Równie dynamicznie rozwijają się konstrukcje z wykorzystaniem osiągnięć współczesnej fizyki tj. ogniwa fotowoltaiczne z kropek kwantowych. Są to ogniwa wymagające zaawansowanej technologii, niemniej w ciągu niecałych 10 lat od ich odkrycia osiągnęły już wydajność \\( 16,6\\% \\). Bez tak spektakularnych wyników rozwijają się cienkowarstwowe ogniwa CIGS i CdTe niemniej osiągnęły już wydajności odpowiednio \\( 23,4\\% \\) i \\( 22,1\\% \\), co jeszcze niedawno było granicą dla ogniw krzemowych. Niewątpliwą zaletą tych ogniw jest minimalne zużycie materiału i możliwość ich nakładania na elastyczne podłoże, co znacznie poszerza ich możliwości instalacyjne. I na zakończenie ogniwa krzemowe. Startowały w latach pięćdziesiątych z wydajnością kilku procent w niszowych zastosowaniach, jak zasilanie satelitów, a obecnie stanowią główny materiał w większości budowanych na świecie elektrowni fotowoltaicznych z wydajnością osiągniętą w warunkach laboratoryjnych \\( 27,6\\% \\). Obecnie mamy dwa obszary aktywności związane z materiałami na ogniwa fotowoltaiczne. Jeden to poszukiwanie materiałów, szczególnie dla półprzewodników wieloskładnikowych o dużych wydajnościach. Drugi to obszar związany z opracowaniem metod produkcji materiałów o uzyskanych wysokich wydajnościach na skalę przemysłową. Rosnąca wydajność ogniw i prawie milionkrotny wzrost produkcji spowodował około tysiąckrotny spadek ceny za 1 Wp od 1975 r. do dziś. Zmiany te przedstawiono na Rys. 3 (na podstawie danych z [2], [3]).", "Tak znaczące obniżki cen sprzedaży spowodowały wzrost nakładów na badania tanich materiałów fotowoltaicznych jak perowskity i polimery. Skutkiem tego w ostatnich latach obserwujemy gwałtowny wzrost efektywności konwersji ( Rys. 1 ) uzyskiwany dla ogniw z tych materiałów."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 776, "subject": "5.3 Ogniwa krzemowe", "paragraphs": ["Ogniwa fotowoltaiczne można podzielić biorąc pod uwagę materiały, z których są zbudowane i strukturę tych materiałów ( Rys. 1 ).", "Wśród ogniw krzemowych można wyróżnić rodzaje przedstawione Rys. 2.", "Komercyjnie najbardziej rozpowszechnione są ogniwa oparte na krzemie. Produkowane są cztery rodzaje ogniw używanych do budowy paneli fotowoltaicznych: ogniwa monokrystaliczne, polikrystaliczne, cienkowarstwowe i amorficzne. Przekrój przez strukturę monokrystalicznego ogniwa słonecznego przedstawiono na Rys. 3. Na strukturę ogniwa składa się z elektroda przednia (ta, na którą pada światło), warstwa typu n o grubości około 2 μm, złącza n-p, warstwa typu p i elektroda tylna. Warstwa typu p charakteryzuje się grubością 300 \\( \\mu m \\), ale prace nad zmniejszeniem jej grubości trwają i w niedługim czasie osiągnie wartość 160 \\( \\mu m \\). Ekscyton wytworzony w procesie pochłaniania kwantu promieniowania pojawia się w okolicy złącza n-p i ulega rozpadowi na ładunki. Pole elektryczne na złączu p-n przesuwa ładunki w różne strony, elektrony do półprzewodnika typu n, a dziury do półprzewodnika typu p. Ładunki rozdzielone na złączu powodują powstanie różnicy potencjałów.", "Ogniwa fotowoltaiczne zbudowane na monokryształach są wykowane z pojedynczego kryształu krzemu, powstałego metodą ciągnienia jednego kryształu, najczęściej metodą Czochralskiego. Dobierając prędkość wyciągania i obrotu monokryształu można otrzymać monokrystaliczne pręty o określonej średnicy. Ogniwo zbudowane jest z następujących warstw:", "Technologia wytwarzania ogniw krzemowych opiera się na wykonaniu odpowiednich wafli krzemowych z walca monokrystalicznego. Do bazy materiałowej, podczas wzrostu kryształu, wprowadza się domieszkę akceptorową, otrzymując w ten sposób półprzewodnik typu p. Wyhodowany kryształ w kształcie walca jest następnie cięty za pomocą lasera na płytki o grubości 0,3mm, w kształcie kwadratu, sześciokąta lub koła. Wafle takie są półprzewodnikami typu p, a uzyskane płytki są polerowane do osiągnięcia idealnej czystości i gładkości [1]. W pojedynczych płytkach w cienkiej warstwie powierzchniowej za pomocą dyfuzji, np. fosforu, wytwarza się obszar typu n. Na połączeniu w ten sposób dwóch rodzajów półprzewodników powstaje złącze p-n. Następnie powierzchnia jest teksturowana. Wafle ogniwowe to zwykle kwadraty o boku 100-200 mm i grubości 200-300 μm (w przyszłości standardem ma być grubość 160 μm [2]. W elektronice używa się wafli o średnicy 100-300 mm, a w niedalekiej przyszłości nawet 450 mm [3]. Obecnie stosowane są wafle krzemowe do grubości 180 μm. Powierzchnia krzemu krystalicznego odbija padające promienie słoneczne (nawet do \\( 40\\% \\)). Aby temu zapobiec, na powierzchnię płytki nanosi się cienką warstwę przeciwodblaskową. Dalsza produkcja polega na naniesieniu ścieżek prądowych z cienkich pasków folii aluminiowej i zabezpieczeniu całego ogniwa przed wpływem warunków atmosferycznych specjalną warstwą folii organicznej EVA (Etyleno Vinylo Acid). Dzięki takiej hermetycznej strukturze ogniwa mogą pracować w instalacjach całorocznych ponad 25 lat. Polikrystaliczne pręty krzemu natomiast wytwarza się w procesie Siemensa (z 1953 r.) o czystości > \\( 99,99999\\% \\). Wadą tej technologii jest stosowanie wysokich temperatur. Podstawowym materiałem jest krzem, mielony i odlewany w formie prostopadłościanu. Poprzez kontrolowane ogrzewanie i chłodzenie blok krystalizuje w jednym kierunku w celu uzyskania niehomogenicznych kryształów o wielkości kilku milimetrów do kilku centymetrów. Granice pomiędzy kryształami stanowią defekty, które mogą pogorszyć sprawność ogniwa fotowoltaicznego. Proces wytwarzania polikryształu wymusza strukturę polikrystaliczną wstęgową. Ogniwo fotowoltaiczne wykonane na polikrystalicznych waflach krzemu można porównać do większej liczby ogniw monokrystalicznych połączonych równolegle. Krzem amorficzny a-Si jest wykorzystywany przy produkcji ogniw fotowoltaicznych, wyświetlaczy LCD, czy OLED. W komorze próżniowej następuje rozkład gazów ( \\( SiH_{4} \\) z domieszkami) w wyładowaniu jarzeniowym i osadzanie warstwy krzemu amorficznego na podłożu. Dzięki tej technologii produkcja a-Si jest prostsza, energooszczędna i materiałooszczędne. Ponadto, pozwala na otrzymanie ogniw o dużej powierzchni (są bardzo tanie). Wadą jest niska wydajność do \\( 12\\% \\). Mechanizm działania ogniw fotowoltaicznych jest taki sam, niezależnie od materiałów użytych do ich wytworzenia. Na Rys. 4 pokazano ogniwa wykonane z krzemu a) monokrystalicznego, b) polikrystalicznego i c) amorficznego. Ogniwo monokrystaliczne ma ścięte narożniki i kolor czarny, na polikrystalicznym widać wyraźnie obszary kryształów, a dla amorficznych kolor jest o barwie od ciemnobordowej do czarnej.", "Na Rys. 5 pokazano główne etapy procesu produkcji ogniw słonecznych w oparciu o sitodruk. Przy mniej lub bardziej drobnych modyfikacjach proces ten jest obecnie używany przez większość producentów ogniw fotowoltaicznych [4]. Główną zaletą tej 35-letniej technologii fotowoltaiczności są łatwa automatyzacja, niezawodność, dobre wykorzystanie materiałów i wysoka wydajność. Typowy schemat wytwarzania ogniw fotowoltaicznych na przykładzie wafli krzemowych o grubości 180-210 μm. Wafel Si jest domieszkowany borem, aby otrzymać półprzewodnik typu p, o rezystywności w zakresie 0,5-6 Ω cm. Najpierw wafel jest czyszczony z zanieczyszczeń po cięciu. Tak przygotowany wafel jest poddawany trawieniu w KOH, aby otrzymać teksturę powierzchni w postaci mikroskopijnych piramid ( Rys. 5 ). Ich wielkość musi być zoptymalizowana, za małe prowadzą do odbicia światła, a za duże utrudniają założenie elektrod, czyli odbiór ładunków. Teksturowanie można wykonać na kilka sposobów: trawienie zasadowe, trawienie kwasowe, plazmowe i mechaniczne. Następnym etapem jest domieszkowanie ( Rys. 5 ) najczęściej fosforem. Jest to proces wymagający wysokiej temperatury. W ten sposób powstaje obszar półprzewodnika typu n wokół całego wafla, czyli na krawędziach trzeba go usunąć lub oddzielić.", "Na powierzchnię, na którą pada światło nakładany jest dwutlenek tytanu ( \\( TiO_{2} \\)), który jest używany do tworzenia powłoki antyrefleksyjnej ze względu na jego dobre właściwości antyrefleksyjne szczególnie dla komórek hermetyzowanych [5]. Proces ten można łatwo zautomatyzować w reaktorze przenośnika taśmowego. Inne możliwości obejmują np. sitodruk odpowiednich past. Na tak przygotowaną powierzchnię nakłada się metalizację przedniej elektrody, która charakteryzuje się dobrym przyleganiem na styk z krzemem, małą szerokością linii, dobrą przyczepnością mechaniczną, lutowaniem i kompatybilnością z materiałami hermetyzującymi. Rezystywność, cena i dostępność sprawiają, że srebro jest idealnym wyborem dla metalu kontaktowego. Do wykonania elektrody tylnej stosuje się metodę sitodruku używając pasty aluminiowe, tworzące warstwę na tylnej powierzchni ogniwa [6]. Niska temperatura eutektyczna systemu Al-Si (577 \\( _{}^{o}\\textrm{C} \\)) oznacza, że część krzemu rozpuszcza się w Al i rekrystalizuje po schłodzeniu po etapie wypalania, tworząc warstwę typu p. Charakterystyka tej warstwy (grubość, jednorodność, współczynnik odbicia) zależy od ilości pasty. Gotowe ogniwa są poddawane pomiarom w warunkach STC, czyli widmo światła zgodne z widmem Słońca AM1.5 i mocy 1000 \\( \\frac{W}{m^{2}} \\) w temperaturze 25 \\( _{}^{o}\\textrm{C} \\). Wadliwe ogniwa są eliminowane a reszta przekazywana do dalszej produkcji."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 791, "subject": "5.3.1 Produkcja krzemu monokrystalicznego", "paragraphs": ["Hodowla kryształów jest procesem długotrwałym i energochłonnym. Pierwszym etapem jest produkcja czystego krzemu z ditlenku krzemu metodami chemicznymi. Następnie materiał należy najpierw stopić i poddać krystalizacji przez ochładzanie. Monokryształ nie powinien zawierać obcych atomów, zatem proces musi się odbywać w specjalnych warunkach. Najlepsze efekty osiągnięto w piecu próżniowym, gdzie krystalizacja odbywa się bez dostępu gazów a w szczególności tlenu. Metodę opracował polski uczony Jan Czochralski [1]. Schemat procesu hodowli monokryształu krzemu przedstawiono na Rys. 1.", "Pierwszym etapem produkcji jest proces chemiczny otrzymywania czystego krzemu z \\( SiO_{2} \\). Otrzymane kawałki czystego krzemu umieszczane są w komorze próżniowej w kwarcowym tyglu.", "Po załadowaniu krzemu do komory próżniowej krzem jest topiony w tyglu kwarcowym, a następnie z górnej komory próżniowej urządzenia jest opuszczany mały kryształek krzemu, który staję się zarodkiem krystalizacji. Zarodek o określonej orientacji krystalograficznej dotyka powierzchni roztopionego krzemu. Roztopiony krzem (ciecz) przylega do powierzchni zarodka, który minimalnie się podnosi. Oddalając się od powierzchni wchodzi w obszar o obniżonej temperaturze co rozpoczyna proces krystalizacji. W celu ujednorodnienia procesu krystalizacji zarodek dokonuje obrotu wokół własnej osi. Regulując prędkość obrotową zarodka i prędkość wysuwania do góry uzyskujemy kryształy w kształcie walca, początkowo o zmieniającej się średnicy. Po osiągnięciu stabilnych parametrów procesu średnica hodowanego monokryształu utrzymuje swoją wartość, aż do wyczerpania się roztopionego materiału. Orientacja rosnącego monokryształu jest identyczna z orientacją zarodka inicjującego krystalizacje. Wynikiem procesu jest duży monokryształ w kształcie walca przedstawiony na Rys. 2 [2].", "Etapy tego procesu, zasadę metody Czochralskiego i etapy obróbki wafla przedstawiono w filmie \"Silicon Wafer Production by MicroChemicals\".", "Ze względu na wymagania dotyczące czystości produkowanych monokryształów, procesy produkcji odbywają się w halach o wysokiej klasie czystości. Kryształ przedstawiony na Rys. 2 ma ok. 1 metra długości. Przy obecnym zapotrzebowaniu na krzem monokrystaliczny zarówno do produkcji elektronicznej, jak i fotowoltaicznej, w chińskich fabrykach na halach instaluje się dziesiątki pieców Czochralskiego, a długości monokryształów sięgają 4,5 m. Kolejnym etapem produkcji wafla krzemowego, bo to wafle krzemowe są materiałem do produkcji elektronicznej i fotowoltaicznej, jest obróbka mechaniczna ingota (tak nazywamy monokryształ po wyjęciu z pieca). Pierwszym krokiem obróbki mechanicznej jest obcięcie końców o zmiennej średnicy i przetoczenie powierzchni ingota do walca o stałych parametrach geometrycznych. Walec cięty jest na kawałki odpowiadające wymiarom piły drutowej, która potnie go na wafle o grubości 180 mikrometrów. Kiedyś było to 300 mikrometrów, potem 200 mikrometrów, a obecnie tnie się również na wymiar 160 mikrometrów. Problemem po zmniejszeniu grubości wafla jest odporność mechaniczna monokryształu na pękanie, podczas dalszych procesów technologicznych do montażu w panelu włącznie. Pocięte wafle mają krawędzie ostre jak złamane szkło, także trzeba je stępić przed dalszą obróbką. Każdy wafel jest numerowany laserowo, co pozwala na późniejszą identyfikację procesu produkcji i jego parametrów. Następnym procesem jest polerowanie do wymaganego poziomu. W wielu wypadkach jest to poziom atomowy. W kolejnych krokach odbywa się trawienie chemiczne, polerowanie oraz czyszczenie powierzchni z pozostałości poprzednich procesów. W zależności od zamawiającego pokrywa się wafle warstwa tlenku krzemu o określonej grubości a następnie przeprowadza elektroniczna inspekcję poprawności stanu wafla i jego powierzchni. Końcowy etap to pakowanie wafli do zasobników transportowych.", "Produkcja wafli krzemowych zawsze była prowadzona pod potrzeby fabryk elektronicznych, a wafle produkowano początkowo w niewielkich rozmiarach 1 cal, potem 2 cale, itd. Wzrost średnicy wafli był spowodowany dynamicznie rosnącym zapotrzebowaniem przemysłu na krzem monokrystaliczny i ich średnica zmieniała się od 2 cali w 1970 r. do 18 cali w 2014 r. Przykład wafli o różnych średnicach pokazano na rysunku Rys. 3 [3].", "Każda zmiana wymiaru to były nowe generacje oprzyrządowania w fabrykach procesorów i pamięci. W fotowoltaice, gdzie parametry wafli i ich własności nie są tak rygorystyczne, standardem wymiaru ogniwa fotowoltaicznego stał się wymiar 15,6 x 15,6 cm i wafel z którego taki kwadrat można wyciąć przy minimalnym odpadzie. Skutkiem tego w panelach fotowoltaicznych z krzemu monokrystalicznego widać na styku czterech ogniw pustą przestrzeń, wynikającą z walcowej symetrii materiału wyjściowego. Niezwykle sterylne warunki produkcji krzemu pozwalają również na produkcję krzemu o ściśle określonych domieszkach. Szczególnie jest to istotne w produkcji fotowoltaicznej. Otrzymując wafel o określonym domieszkowaniu mamy gotowy element do produkcji diody, jaką jest każde ogniwo fotowoltaiczne."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 1054, "subject": "5.3.2 Produkcja krzemu polikrystalicznego", "paragraphs": ["Produkcja krzemu polikrystalicznego i wafli z tego materiału przebiega analogicznie jak dla produkcji wafli monokrystalicznych. Są dwie fundamentalne różnice. Pierwsza to brak pieca do hodowli monokryształu. Chemicznie wyprodukowane kawałki krzemu spieka się w procesie przedstawionym na filmie \"Solar Module Manufacturing\".", "Ten element procesu jest znacząco tańszy i krótszy. Drugą różnicą jest kształt wyprodukowanego bloku krzemowego. Z praktycznych względów jest to prostopadłościenny blok o wymiarach przekroju zbliżonych do standardu 15,6x15,6 cm. Po obróbce mechanicznej otrzymujemy kwadratowy wafel o tych wymiarach. Pozostałe etapy procesu przebiegają analogicznie, jak to opisano w rozdziale 5.3.1 Produkcja krzemu monokrystalicznego. Zastąpienie długotrwałego i energochłonnego procesu hodowli monokryształu krótszym i znacznie tańszym procesem spiekania obniża znacząco koszty produkcji pojedynczego wafla."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 1055, "subject": "5.4 Ogniwa cienkowarstwowe", "paragraphs": ["Ze względu na technologiczne ograniczenia oraz koszty produkcji ogniw bazujących na krzemie krystalicznym poszukiwane były alternatywne materiały i metody do wytworzenia ogniw fotowoltaicznych. Około \\( 50\\% \\) kosztów produkcji ogniw słonecznych z krzemu krystalicznego przypada na przygotowanie krzemu, natomiast obróbka ogniw i paneli stanowi odpowiednio \\( 20\\% \\) i \\( 30\\% \\). Poszukiwania miały więc na celu znalezienie innych niż krzem mono- i polikrystaliczny materiałów do budowy ogniw. W latach siedemdziesiątych udało się wytworzyć pierwsze cienkowarstwowe ogniwa na bazie krzemu amorficznego, a następnie innych materiałów. Najpopularniejsze typy ogniw cienkowarstwowych ( Rys. 1 [1]) to ogniwa wykonane z krzemu amorficznego, ogniwa CIGS oraz CIS (bazujące na miedzi, indzie, galu, selenie). Ich sprawność waha się w granicach \\( 14-23\\% \\). Popularnymi materiałami są także siarczek kadmu oraz tellurek kadmu (CdS oraz CdTe). Ogniwa krzemowe dominują na rynku PV ( \\( 92\\% \\)), następne miejsca zajmują ogniwa na bazie CdTe, \\( 5\\% \\) CIS/CIGS/CIGSS- \\( 2\\% \\) i krzemu amorficznego ( \\( 1\\% \\)) [2].", "Ogniwa cienkowarstwowe są tańsze w produkcji, ze względu na mniejsze zużycie materiałów, automatyzację produkcji i mniej pracochłonne procesy technologiczne. Problemem może się w przyszłości okazać niedobór kluczowych materiałów – ceny indu i telluru stale wzrastają. Drugą zaletą ogniw, a co za tym idzie paneli cienkowarstwowych jest masa – są one lżejsze niż ogniwa krzemowe [3]. Osiągają one nieznacznie niższe sprawności niż ogniwa z krzemu krystalicznego, jak również mają niższą żywotność. Posiadają jednak one niewątpliwą zaletę, jaką jest możliwość nakładania ich na elastyczne powierzchnie (folie).", "Pierwszymi zbudowanymi ogniwami cienkowarstwowymi były ogniwa z krzemu amorficznego. Istotnym elementem w rozwijaniu tej technologii były właściwości krzemu amorficznego – posiada on współczynnik absorpcji światła wyższy niż krzem krystaliczny. Przekrój przez budowę ogniwa został przedstawiony na Rys. 2. Warstwa przewodnika samoistnego o grubości ok. 0,5-1 µm jest umieszczana pomiędzy dodatkowymi warstwami materiałów typu p (grubość warstwy wynosi około 8 nm) i n (warstwa o grubości około 20 nm) [4].", "Ogniwa CIS/CIGS/CIGSS to ogniwa, w których materiałem konstrukcyjnym jest diselenek indowo-miedziowy \\( CuInSe_{2} \\) (CIS). Materiał ten charakteryzuje się wysokim współczynnikiem absorpcji (jego przerwa energetyczna wynosi około 1 eV). Poprzez dodanie galu tworzy się związek półprzewodnikowy \\( CuIn_{(1-x)}Ga_{x}Se_{2} \\).", "Sterowanie zawartością galu (x we wzorze) pozwala na modyfikowanie przerwy energetycznej w zakresie 1,02 eV–1,64 eV. Przerwę energetyczną można zwiększyć dodając siarkę. Powstaje wtedy związek CIGSS. Ogniwa CIS/CIGS/CIGSS wytwarzane są przez osadzanie warstwy aktywnej na szkle sodowym pokrytym warstwą molibdenową (kontaktem bazowym). Drugi kontakt stanowi często warstwa tlenku cynku ZnO domieszkowanego aluminium [5]. Ogniwa CIGS mają charakterystyczną czarną barwę.", "Kolejnym materiałem do budowy ogniw fotowoltaicznych jest tellurek kadmu (CdTe). Przerwa energetyczna CdTe wynosi 1,45 eV [6], co skutkuje wysoką absorpcją widma słonecznego. Materiał jest stabilny temperaturowo w porównaniu z innymi materiałami półprzewodnikowymi. Pierwiastki Cd i Te oraz ich tlenki są mocno toksyczne, z czym związane były obawy przed zastosowaniem tej technologii. Wykazana została znikoma szkodliwość CdTe dla żywych organizmów. W zwiąku z powyższym ogniwa zostały dopuszczone do produkcji. Ogniwa na bazie CdTe produkują najmniejszy ślad węglowy, najniższe zużycie wody i najkrótszy czas zwrotu energii. Ze względu na dobre połączenie właściwości termicznych, CdTe jest łączone z selenkiem kadmu (CdS). Struktura ogniwa na bazie CdTe została przedstawiona na Rys. 3 (na podstawie [7])."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 1057, "subject": "5.5 Ogniwa wielozłączowe", "paragraphs": ["Wielozłączowe ogniwa słoneczne (MJSC, ang. multijunction solar cells) składają się z wielu warstw półprzewodników o różnych wartościach przerwy energetycznej Eg. Aby maksymalizować wydajność ogniwa wielozłączowego grubość ogniwa powinna być tak dobrana, by największa część promieniowania została zaabsorbowana. Ogniwa wielozłączowe to optycznie układ warstw, z których każda absorbuje inną cześć widma słonecznego. Uzasadnione jest więc zaprojektowanie kolejnych warstw półprzewodników by licząc od warstwy transparentnej, kolejne warstwy miały mniejszą przerwę energetyczną, niż warstwa poprzednia. Przykładem jest układ GaInP / GaAs/Ge, gdzie przerwy energetyczne wynoszą odpowiednio GaInP (1,9 eV), GaAs (1,4 eV) i Ge (0,7 eV) o wydajności ok. \\( 33\\% \\) [1], czy też AlGaInP/AlGaAs/GaInP/GaInAs/GaInNAs, o przerwach energetycznych wynoszących AlGaInP (2,2eV), AlGaAs (1,6 eV), GaInP (1,7 eV), GaInAs (1,2 eV), GaInNAs (1,0-1,1 eV). W zależność od składu procentowego powyższe układy osiągają wydajność \\( 30-40\\% \\) [2], [3].", "Dla zoptymalizowania przepływu ładunków w ogniwie wielozłączowym dwa kolejne złącza są ze sobą połączone za pomocą złącz tunelowych (złącz, w których cząstka może przeniknąć przez barierę potencjału wyższą od jej energii kinetycznej). Składa się ono z silnie domieszkowanych warstw o niskiej absorpcji i spadku napięcia oraz wysokiej wartości szczytowej prądu. Jego grubość powinna wynieść około 10mm. W przypadku braku złącz tunelowych, fotonapięcia z kolejnych złączy mające przeciwny znak częściowo by się kompensowały [4]. Na Rys. 1 przedstawiono układ ogniw wraz z odpowiadającymi złączami. Złącza p-n są symbolizowane przez diody kolorowe skierowane do góry. Złącza tunelowe (czarno-szare) są skierowane w dół.", "Dzięki wielu złączom można osiągnąć wysokie wydajności, przekraczające ograniczenie Shockley’ego–Queissera (ang. SQ limit) [5]. Wydajność ogniw wielozłączowych może jeszcze wzrosnąć. W zależności od liczby półprzewodników symulacje wskazują na ponad \\( 60\\% \\) wydajność ( Rys. 2 na podstawie [6]). Maksymalna wydajność, przy nieskończonej liczbie warstw wyniosłaby \\( 86,8\\% \\) [6] – jest to tzw. limit termodynamiczny [7].", "Układy wielowarstwowe są droższe i robione najczęściej na bazie arsenku galu, na temat którego toksyczności jak i możliwości bezpiecznej utylizacji trwają intensywne badania [8]. Według danych NREL wielozłączowe ogniwa słoneczne osiągnęły wydajność \\( 47\\% \\). Początkowo, ze względu na cenę były używane jedynie w kosmosie. Obecnie są podejmowanie próby wprowadzenia ich do sprzedaży."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 793, "subject": "5.6 Ogniwa organiczne", "paragraphs": ["Związki organiczne to związki chemiczne bazujące na węglu, za wyjątkiem tlenków węgla, kwasu węglowego, węglanów, wodorowęglanów. Mogą one zawierać również praktycznie wszystkie pozostałe pierwiastki chemiczne (najczęściej są to wodór, tlen i azot, siarka, fosfor oraz fluorowce). Pierwsze ogniwa organiczne bazowały na antracenie [1] oraz politiofenie [2]. Wśród przewodzących materiałów organicznych rozróżniamy dwa podtypy: materiały polimerowe i organiczne materiały małocząsteczkowe. Cechą najbardziej przełomową w fotowoltaice organicznej jest inna formą złącza p-n. Ogniwo organiczne zbudowane jest z warstw – pomiędzy elektrodami (w tym jedną transparentną) najczęściej znajduje się warstwa aktywna – mieszanina dwóch materiałów organicznych: donorowego i akceptorowego. Materiał donorowy (donor) to materiał dostarczający elektrony w trakcie procesu. Akceptorem nazywamy materiał przyjmujący elektrony. Tę strukturę określamy jako heterozłącze objętościowe (ang. bulk heterojunction). Czasem pomiędzy warstwą aktywną i elektrodami pojawiają się dodatkowe warstwy wspomagające transport dziur i elektronów.", "Przez lata były również badane inne architektury (min. z niezależnymi warstwami donorową i akceptorową). Heterozłącze objętościowe okazało się jednak najbardziej efektywne. W układzie warstwowym przedstawionym na Rys. 1 złącze p-n przebiega tyko na granicy donora i akceptora. W mieszaninie donora i akceptora złącze p-n występuje w zasadzie na całym styku molekuł. To bardzo duża zaleta fotowoltaiki organicznej – wydajność zamiany absorbowanego światła na ekscytony jest większa niż w innych ogniwach. Pozostałe elementy procesu konwersji energii nie są tak wydajne, jak w przypadku półprzewodników nieorganicznych, w związku z czym ostateczna wydajność ogniw organicznych jest niższa, niż tradycyjnych ogniw krzemowych, czy cienkowarstwowych.", "Działanie ogniwa składa się z kilku etapów. Pierwszym i najistotniejszym jest absorpcja światła. W wyniku absorpcji z poziomu HOMO – najwyższy obsadzony orbital molekularny (ang. the highest occupated molecular orbital) – z materiału donorowego zostaje wzbudzony elektron na poziom LUMO – najniższy nieobsadzony orbital molekularny (ang. lowest unoccupated moleculatr orbital). Wzbudzony elektron oraz pozostała po nim dziura tworzą ekscyton – kwazicząstkę związaną przez oddziaływanie kulombowskie. Ekscyton dyfunduje (średnia droga dyfuzji ekscytonu wynosi 10nm) aż nastąpi rozdzielenie ładunku. Rozdzielenie ładunku odbywa się najczęściej na interfejsie donor – akceptor (miejscu styku molekuł materiału donorowego i akceptorowego), ale zdarza się również na zanieczyszczeniach (pułapki tlenowe, wszystkie domieszki nieintencjonalne). Ostatnimi etapami procesu fotowoltaicznego są transport ładunków oraz jego zbieranie na elektrodach. Schemat energetyczny ogniwa został przedstawiony na Rys. 2, a kolejne etapy działania na Rys. 3.", "Z każdym z etapów procesu są związane mechanizmy strat: światło może zostać odbite, może nie powstać ekscyton lub już powstały może rekombinować, mogą wystąpić ograniczenia w transporcie dziur i elektronów. W przypadku transportu pomiędzy warstwą aktywną a elektrodą, może pojawić się bariera potencjału na elektrodach uniemożliwiająca przekazanie ładunku do elektrody (bariera pojawia się gdy praca wyjścia elektrody jest niedopasowana do poziomu, z którego jest transportowany ładunek).", "Na Rys. 4 kolorem niebieskim oznaczono obszar n, a czerwonym obszar typu p. Granica pomiędzy nimi to złącze. Porównując ogniwa organiczne do krzemowych należy przypomnieć, że w półprzewodnikach mamy do czynienia z siecią krystaliczną i przerwą energetyczną. W ogniwach organicznych nie ma krystalicznej struktury, nie mamy też typowego transportu dziur i elektronów w warstwach. Obszary złączowe są rozrzucone po całej objętości warstwy aktywnej. Rozważamy za to dyfundujący ekscyton, a następnie ładunki transportowane po poziomach HOMO i LUMO.", "Porównanie energi w funkcji gęstości stanów w ogniwach krzemowych i ogniwach organicznych przedstawione zostało na Rys. 5 (na podstawie [3]).", "Materiały stanowiące warstwę aktywną dzielimy na materiały donorowe i akceptorowe. Upraszczając można uznać akceptor za odpowiednik półprzewodnika typu n – a donor jako odpowiednik półprzewodnika typu p. Jednak to, czy jakiś materiał jest w ogniwie organicznym, konkretniej warstwie aktywnej, donorem czy akceptorem, zależy od materiału współtworzącego warstwę aktywną. Donorem jest ten materiał, który dostarcza elektrony. Jednymi z najpowszechniej stosowanych materiałów są poli(3-heksylotiofen), oznaczanego skrótem P3HT i estru metylowego kwasu 6,6-fenylo-C₆₁-masłowego (PCBM). Nowe związki są ciągle syntezowane i badane i grupa ta jest niezmiennie poszerzana. By znaleźć zastosowanie w ogniwach organicznych materiały muszą wykazywać określone właściwości. Materiały muszą być absorbujące w zakresie widma słonecznego, stabilne termicznie i fotochemicznie, przewodzące, a także tworzyć stabilny stan wzbudzony (by na skutek wzbudzenia elektronu miał szansę powstać ekscyton). Istotne jest dobranie poziomów HOMO i LUMO oraz prac wyjścia elektrod, by ułatwić transport ładunków. Takimi materiałami są pochodne fullerenów, polimery na bazie karbazolu i Indolo \\( \\left [ 3,2-b \\right ] \\) karbazolu, fluoryny oraz silolu [4], [5].", "Wadą ogniw organicznych jest ich wciąż niewielka wydajność [6]. Oczywiście, z roku na rok, wraz z syntezą nowych materiałów jest ona zwiększana, jednak możliwe, że nigdy nie dorówna wydajności ogniw krzemowych. Niestety, z czasem ogniwa zmieniają swoje własności (wydajność się zmniejsza) ze względu na degradację polimerów na skutek oddziaływania z czynnikami zewnętrznymi (min. woda, tlen). Zaletą ogniw organicznych jest niski koszt materiałów oraz wiele prostych i tanich metod wytwarzania tego typu ogniw. Największą zaletą jest możliwość nanoszenia ogniw organicznych na dowolne powierzchnie. Najczęściej używane są elastyczne podłoża. Pojawiły się w komercyjnej sprzedaży ubrania mające wbudowane ogniwa fotowoltaiczne, które mają na celu zapewnić szybkie doładowanie np. smartfonu lub przenośnego odtwarzacza."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 794, "subject": "5.7 Ogniwa barwnikowe", "paragraphs": ["Ogniwa słoneczne barwnikowe – nazywane również ogniwami uczulanymi barwnikiem (ang. dye-sensitized solar cell, DSSC, DSC lub DYSC) – są obok ogniw organicznych zaliczane do trzeciej generacji ogniw fotowoltaicznych. Zbudowane zostały przez Briana O'Regana i Michaela Grätzela w 1991 r. [1]. W związku z nazwiskiem twórcy ogniwa barwnikowe są określane również jako ogniwa Grätzela. Obie elektrody w ogniwie barwnikowym mogą być przeźroczyste lub półprzeźroczyste, co umożliwia oświetlenie ogniwa słonecznego z każdej strony. Schemat budowy ogniwa został przedstawiony na Rys. 1. W procesie fotowoltaicznym istotną rolę odgrywa barwnik. Transparentna anoda jest pokryta półprzewodzącą warstwą (zwykle tlenkową), na której osadzony jest barwnik. Najczęściej wykorzystywanym materiałem tlenkowym jest dwutlenek tytanu ( \\( TiO_{2} \\)), tlenek cynku ( \\( ZnO \\)), niobu ( \\( Nb_{2}O_{5} \\)). Jako barwniki stosowane były m.in. związki kompleksowe metali, pochodne porfiryny oraz ftalocyjaniny.", "Oprócz elektrody, na której znajduje się barwnik w skład ogniwa wchodzi para redoksowa (np. jodek /trójjodek \\( I^{3-} \\)) rozpuszczona w odpowiednim medium (elektrolicie) oraz katoda (musi to być materiał katalizujący reakcję redoksową). Reakcja redoks (redoksowa) to reakcja chemiczna, w której dochodzi do zarówno redukcji (proces, w trakcie którego atom lub ich grupa przechodzi z wyższego stopnia utlenienia na niższy), jak i oksydacji (atom przechodzi z niższego stopnia utlenienia na wyższy, co jest równoważne z oddaniem elektronów) [2].", "Działanie ogniwa barwnikowego rozpoczyna się od absorpcji światła przez cząstki barwnika, co powoduje przeniesienie elektronu ze stanu podstawowego do stanu wzbudzonego. Teraz następuje wstrzyknięcie elektronu do pasma przewodnictwa półprzewodnika (np. \\( TiO_{2} \\)). Stamtąd jest transportowany, najpierw w porowatej warstwie półprzewodnika do przewodzącej elektrody, obwodem zewnętrznym do katody. Usunięcie elektronu prowadzi do redukcji stanu wzbudzonego molekuł barwnika (regeneracja barwnika na drodze utlenienia \\( I^{-} \\) do \\( I^{3-} \\)). Rys. 2 przedstawia blokowy schemat działania ogniwa barwnikowego.", "Mechanizm działania ogniw barwnikowych jest wykorzystywany przez rośliny do wytwarzania związków organicznych, zachodzących w komórkach zawierających chlorofil lub bakteriochlorofil przy udziale światła (fotosynteza). Zasada działania została przedstawiona w filmie \"C8 Dye Sensitized Solar Cells\", natomiast sposób wytworzenia przedstawiony został w filmie \"Dye-Sensitised Solar Cells: Animation\".", "Maksymalna wydajność jaką udało się uzyskać w ogniwach barwnikowych to \\( 12,6\\% \\). Ogniwa barwnikowe mają wiele zalet. Pierwszą z nich jest proces produkcji – niewymagający skomplikowanej aparatury ani warunków. Barwniki są stosunkowo tanie, mimo niełatwego procesu syntezy. Poprzez wykorzystanie różnych kolorów barwników, mamy kontrolę nad wyglądem ogniwa, co zwiększa możliwości użytkowe. Projektowanie urządzeń może być, oprócz zmiany koloru sterowane stosowaną warstwą tlenkową, a to z kolei zwiększa wartość estetyczną. Ze względu na swoją budowę ogniwa barwnikowe są odporne na uszkodzenia mechaniczne i w mniejszym stopniu, niż na ogniwa krzemowe, wpływa na nie negatywnie temperatura [3], [4]. Na Rys. 3 przedstawiono wzrost wydajności ogniw organicznych, barwnikowych, bazujących na kropkach kwantowych i tandemowych (nazwa ośrodka jest napisana kolorem szarym) [5]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 795, "subject": "5.8 Ogniwa perowskitowe", "paragraphs": ["Nazwa perowskitu pochodzi od rosyjskiego naukowca Lwa Perowskiego, który badał te minerały. Perowskity mają strukturę krystaliczną podobną do \\( CaTiO_3 \\). Jego wzór chemiczny to \\( ABX_{3} \\). Atom X (tlen) z atomem B (np. Ca) tworzy regularny ośmiościan \\( BX_{6} \\). Atom B znajduje się w środku oktaedru, a atom X w środku. W sześciu wierzchołkowych rogach oktaedru przyłączone są sąsiednie ośmiościany, które tworzą rozszerzoną trójwymiarową strukturę sieciową. Materiały perowskitowe stosowane w ogniwach słonecznych: A to ogólnie organiczny jon aminowy (taki jak \\( CH_{3}NH^{3+} \\), \\( NH= CHNH^{3+} \\)), B to generalnie dwuwartościowy jon metalu (taki jak \\( Pb_{2+} \\), \\( Sn_{2+} \\) itp.), X oznacza jon halogenowy ( \\( Cl_{-} \\), \\( Br_{-} \\), \\( JA_{-} \\)). Nieorganiczne metale halogenkowe mogą tworzyć ciągłą ośmiościenną strukturę i bardziej regularny kształt kryształu podobny do sześcianu – Rys. 1 (oprac. na podstawie [1]). W fotowoltaice poszukuje się nowych materiałów oraz nowych metod otrzymywania ogniw PV, które umożliwią produkcję ogniw o wyższej sprawności konwersji energii słonecznej a jednocześnie pozwolą na ograniczenie kosztów produkcji. Taki potencjał wykazują ogniwa otrzymywane na bazie materiałów o strukturze krystalicznej perowskitu.", "Dowodem tego jest fakt, że po zaledwie 6 latach badań nad tego typu ogniwami, otrzymano ogniwa, których sprawność konwersji energii słonecznej na elektryczną w laboratorium wynosi \\( 21,5\\% \\) podczas gdy ogniwa krzemowe, pomimo 60 lat badań, osiągnęły sprawność na poziomie \\( 25\\% \\). Teoretyczna sprawność ogniw opartych o struktury perowskitowe wynosi \\( 31,4\\% \\). Biorąc pod uwagę dotychczasowe tempo ich rozwoju przewiduje się, że w najbliższej przyszłości osiągną wartości konwersji energii porównywalne z wartościami uzyskiwanymi przez ogniwa krzemowe [2]. Wysoka efektywność konwersji energii słonecznej na energie elektryczną jest spowodowana właściwościami optycznymi i elektrycznymi materiałów perowskitowych. Przede wszystkim perowskity charakteryzują się wysokim współczynnikiem absorpcji, dużo wyższym niż współczynnik absorpcji krzemu czy GaAs (najlepszego dotychczas absorbera). To powoduje, że aby osiągnąć efektywność konwersji na poziomie \\( 21\\% \\) konieczne jest zastosowanie warstwy GaAs o grubości ok. 1 µm, natomiast w przypadku perowskitów wystarczy warstwa o grubości 300 nm [3]. Zastosowanie tak cienkich warstw absorbera ogranicza ryzyko rekombinacji nośników prądu. Z aplikacyjnego punktu widzenia, pozwala to ograniczyć zużycie materiału, ale także umożliwia wytwarzanie przezroczystych (ewentualnie półprzezroczystych) ogniw fotowoltaicznych, co wpisuje się w koncepcję fotowoltaiki zintegrowanej z budynkiem (BIPV Building Integrated PV). Fenomen ogniw perowskitowych polega na tym, że posiadają one pożądane właściwości fizyczne a jednocześnie mogą być wytwarzane z materiałów, które stosunkowo łatwo można otrzymywać z powszechnie dostępnych surowców przy użyciu nieskomplikowanych, dobrze opanowanych technologii cienkowarstwowych. Przykład przekroju przez cienkowarstwowe ogniwo perowskitowe pokazano na Rys. 2 [4].", "Wysoki potencjał ogniw perowskitowych spowodował, że na świecie bardzo wiele ośrodków badawczo – rozwojowych podjęło badania w tym zakresie. W światowej czołówce znajdują się w tej chwili:", "W Oxford University, Dr H. Snaith opracował technologię otrzymywania ogniw perowskitowych o sprawności \\( 15,4\\% \\), w których warstwa perowskitowego absorbera otrzymywana jest przy użyciu techniki próżniowej – metodą naparowania z dwóch źródeł [5]. W 2012 r. założona została firma spin out pod nazwą Oxford Photovoltaics (OxfordPV) w celu komercjalizacji technologii cienkowarstwowych ogniw słonecznych. W marcu b.r. prezes zarządu OxfordPV zadeklarował zamiar wprowadzenia perowskitowych ogniw fotowoltaicznych na rynek już w 2017. W EPFL, prof. Michael Grätzel opracował dwuetapowy proces otrzymywania perowskitu w strukturze ogniwa PV. Metoda Grätzel’a wykorzystuje techniki mokre, tzn. kolejne warstwy osadzane są z roztworu [6]. Perowskitowe ogniwa otrzymane przez zespół Grätzela charakteryzują się sprawnością blisko \\( 16\\% \\). Technologia ta została wdrożona do produkcji w fabryce ogniw perowskitowych australijskiej firmy Dyesol, która została uruchomiona w Turcji w 2016 r. Firma zadeklarowała uruchomienie produkcji pilotażowej na poziomie 20 tys. \\( m^{2} \\) ogniw rocznie w 2016 r. oraz produkcji masowej o potencjale do 600 MW w 2018 r.", "Na korzyść Dyesol przemawia fakt, że jest to firma z tradycjami w zakresie technologii ogniw barwnikowych (DSC), będących prekursorami ogniw perowskitowych. Od początku wynalezienia ogniw barwnikowych firma Dyesol we współpracy ze szwajcarską politechniką EPFL rozwijała tę technologię. Obecnie są oni światowym liderem w zakresie ogniw DSC, oferując zarówno materiały, aparaturę jak również technologię niezbędną do ich produkcji. Ostatnie rekordy sprawności perowskitowych ogniw słonecznych ( \\( 20,1\\% \\)) pochodzą z Koreańskiego Instytutu Badań Technologii Chemicznych (KRICT). Należy jednak podkreślić, że rekordowa wartość sprawności została wyznaczona dla ogniwa o powierzchni 0,0955 \\( cm^{2} \\) [7]. Wszystkie wymienione ośrodki skupiają się jednak na opracowaniu technologii otrzymywania wysokowydajnych ogniw perowskitowych na podłożu szklanym. Na tle światowych ośrodków badawczo – rozwojowych laboratorium Saule Technologies wyróżnia się tym, że cały proces wytworzenia ogniwa prowadzony jest w stosunkowo niskich temperaturach, nie przekraczających 150°C. Dzięki temu w roli podłoża mogą być stosowane również materiały wrażliwe na działanie podwyższonych temperatur, np. folie polimerowe, co zdecydowanie może poszerzyć spektrum zastosowań tego typu urządzeń. Pomimo, iż w badaniach nad ogniwami perowskitowymi od 2012 r. osiągnięto bardzo duży postęp, wciąż pozostaje kilka nierozwiązanych kwestii. Poważnym ograniczeniem w stosowaniu perowskitów do masowej produkcji ogniw fotowoltaicznych jest ich duża wrażliwość na działanie wilgoci. W wyniku oddziaływania z parą wodną, perowskity ulegają degradacji. Z tego powodu proces wytwarzania perowskitu musi być prowadzony w atmosferze bezwodnej, co wymaga stosowania specjalnych komór zapewniających odpowiednie warunki otoczenia. Niska odporność perowskitów na działanie wilgoci niekorzystnie wpływa na stabilność ogniw perowskitowych. Ponadto, w strukturze perowskitów wykorzystywanych w ogniwach słonecznych występuje ołów, który jest pierwiastkiem toksycznym i kancerogennym. W wyniku oddziaływania z parą wodną, perowskity ulegają degradacji a jednym z produktów rozkładu są właśnie toksyczne związki ołowiu. W laboratoriach prowadzone są prace nad zastąpieniem go innymi pierwiastkami, np. Sn, ale przeprowadzone dotychczas badania pokazują, że substytucja ołowiu w strukturze perowskitu innym pierwiastkiem istotnie pogarsza jego właściwości optyczne i elektryczne, a tym samym pogarsza efektywność ogniwa. W chwili obecnej zarówno na Uniwersytecie w Oxford jak i na Politechnice w Lozannie w celu zabezpieczenia ogniwa przed oddziaływaniem z parą wodną i poprawy jego stabilności stosuje się enkapsulację/ hermetyzację ogniw w folii polimerowej [8]. Hermetyzację wykonuje się w ten sposób, że ogniwo osadzone na szklanym podłożu przykrywane jest drugą taflą szklaną a przestrzeń między nimi wypełniana jest odpowiednim roztworem polimeru. Takie rozwiązanie z jednej strony zapobiega przenikaniu pary wodnej i uwalnianiu związków ołowiu, z drugiej, podnosi jednak koszty produkcji ogniwa. Możliwość stosowania elastycznego podłoża z jednej strony bardzo poszerza zakres aplikacji perowskitowych ogniw fotowoltaicznych, z drugiej, silnie podnosi poziom trudności opracowania odpowiedniej technologii osadzania. Przykład ogniwa perowskitowego na elastycznym podłożu przedstawiono na rys. 5 w artykule D. Kim i C. Kim \"A Ladder-Type Organosilicate Copolymer Gate Dielectric Materials for Organic Thin-Film Transistors\" [9]. Pomiędzy kolejnymi warstwami perowskitowego ogniwa słonecznego (elektrodami, warstwą blokującą, warstwą absorbera) musi zostać zachowana bardzo wysoka powtarzalność, warstwy muszą leżeć idealnie (co do nanometra) jedna nad drugą. Taka operacja technologiczna jest trudna do zrealizowania nawet w przypadku, gdy podłoże stanowi tafla szklana. Kiedy podłoże stanowi folia polimerowa o dużo większej podatności na odkształcenie niż szkło, wykonanie procesu zwłaszcza w technologii \"roll to roll\" stanowi ogromne wyzwanie technologiczne [10]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 1060, "subject": "5.9 Ogniwa hybrydowe", "paragraphs": ["Hybrydowe ogniwa słoneczne w literaturze pojawiają się w dwóch znaczeniach. Jako ogniwo hybrydowe jest określane ogniwo wielowarstwowe składające się z dwóch lub więcej ogniw różnych typów czy generacji. W drugim znaczeniu hybrydę stanowi połączenie panelu fotowoltaicznego z kolektorem słonecznym (co zostało opisane w rozdziale 7.6 Systemy solarno-termalne ). Poniżej zostaną przedstawione ogniwa hybrydowe w pierwszym znaczeniu.", "Celem inżynierów i badaczy zajmujących się ogniwami fotowoltaicznymi jest stworzenie ogniwa o wysokiej wydajności, taniego i łatwego w wytworzeniu oraz wytrzymałego. Ogniwa hybrydowe w założeniu mają łączyć zalety różnych typów ogniw.", "Pierwszym z typów ogniw są ogniwa hybrydowe organiczno-nieorganiczne. Ogniwa te mogą być produkowane poprzez modyfikację morfologii nanostruktury krzemu tj. w krzemie zostały wykonane nanostożki (wykonano je za pomocą litografii nanosferycznej) i połączono z przewodzącym organicznym polimerem określanym skrótem PEDOT:PSS. Ta warstwa była modyfikowana ditlenkiem krzemu \\( SiO_{2} \\) i poddana dalszej obróbce i czyszczeniu. Jako zewnętrzna elektroda została użyta warstwa złota. Wytworzone ogniwa osiągnęły gęstość prądu zwarcia równe 39,1 \\( \\frac{mA}{cm^{2}} \\). Udało się wytworzyć również ogniwo o architekturze metal/warstwa organiczna/krzem modyfikowany /Au. Modyfikacja krzemu polegała na wtłoczeniu na krzem nanorurek MWNT (ang. multi walled carbon nanotubes) oraz poli(3-oktylotiofenu) – organicznego materiału donorowego [1]. Kolejnym przykładem hybryd organiczno-nieorganicznych są ogniwa organiczne domieszkowane nanodrutami krzemowymi (ang. single-crystalline Si nanowires, SiNWs) [2]. Na elektrodę z tlenku indowo-cynowego zostały naniesione (metodą rozwirowania) kolejno warstwy PEDOT:PSS (jako warstwa wspomagająca) oraz – jako warstwa aktywna – mieszanina poli(-3heksylotiofenu, P3HT) i estru metylowego kwasu (6,6)-fenylo-C₆₁-masłowego. W tę warstwę zostały wtłoczone nanorurki. Wymienione powyżej hybrydowe ogniwa organiczno-nieorganiczne osiągnęły wydajności rzędu kilku procent. Nie są to wielkości odbiegające od wydajności typowych ogniw organicznych. W powyższych przypadkach zaobserwowano zwiększenie gęstości prądu zwarcia, co w połączeniu z dużymi napięciami obwodu otwartego jest obiecującym wynikiem.", "Drugim badanym typem ogniw są ogniwa perowskitowo-krzemowe. W związku z komplementarnością widm absorpcji ( Rys. 1 ) [3] są najbardziej obiecujące. Dają one nadzieję na wydajność przekraczającą maksymalną wydajność ogniw krzemowych, utrzymując jednocześnie niskie koszty produkcji. Przykładowa struktura przedstawiona została na Rys. 2 (na podstawie [3]).", "Warstwa aktywna takich ogniw składa się z warstwy krzemowej (dolnej, osadzanej na elektrodzie nietransparentnej), górnej warstwy perowskitowej oraz warstwy rekombinacyjnej pomiędzy nimi. Taki rodzaj połączeń pozwolił na osiągnięcie wydajności do \\( 26\\% \\) [4].", "Ostatnim przedstawionym typem są ogniwa polimerowe domieszkowane nieorganicznymi kropkami kwantowymi. Jego zasada działania jest taka sama jak zasada działania ogniw organicznych. Kropki kwantowe (ang. quantum dots, QD) zwiększają absorpcje układu – generacja nośników ładunku może być osiągnięta poprzez fotony zaabsorbowane również w materiale nieorganicznym (kropkach). Dodanie kropek kwantowych ma również na celu wsparcie procesu transportu elektronów i dziur po poziomach LUMO i HOMO, a także zwiększenie przewodnictwa ładunków. Dodatkowo akceptorowe materiały nieorganiczne są bardziej stabilne niż materiały organiczne, co rozwiązuje jeden z większych problemów z fotowoltaiką organiczną – jej niestabilność. Zasada działania jest zbliżona do działania ogniw organicznych, z tym że polimer pełni rolę donora, a kropki kwantowe – akceptora. Schemat działania ogniwa został przedstawiony na Rys. 3 [5]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "5. Generacje ogniw fotowoltaicznych", "subject_id": 1056, "subject": "5.10 Fotowoltaika koncentratorowa", "paragraphs": ["Układy koncentratorowe są jednym ze sposobów na zwiększenie efektywności instalacji fotowoltaicznych. Fotowoltaika koncentratorowa (ang. Concentrator Photovoltaics, CPV) bazuje na użyciu elementów optycznych w celu skupienia światła słonecznego na niewielkim ogniwie słonecznym. Rozwój fotowoltaiki koncentratorowej rozpoczął się w 1976 r. w Nowym Meksyku (Sandia National Laboratories), gdzie powstały jedno kilowatowe konstrukcje Sandia I i Sandia II [1].", "Wprowadzenie dodatkowego, generującego koszty obiektu ma uzasadnienie w przypadku, gdy instalacja jest ograniczona przez powierzchnię. Użycie koncentratora pozwala na zwiększenie strumienia energii dopływającego do ogniwa lub panelu.", "Fotowoltaika koncentratorowa osiąga wysoką efektywność, generuje stosunkowo niskie koszty, a co za tym idzie szybko się zwraca. Dużą zaletą tego rodzaju instalacji jest jej skalowalność. Klasyfikacja fotowoltaiki koncentratorowej bazuje na krotności energii mierzonej współczynnikiem koncentracji słonecznej, w skrócie nazywanej krotnością „słońc” (ang. solar concentration ratio), co określa stopień skupienia promieniowania. Ze względu na efektywność wyróżnia się kilka typów układów ogniwo – koncentrator ( Rys. 1 ): nisko skupiające LCPV (ang. Low Concentrator Photovoltaic), średnio skupiające MCPV (ang. Medium Concentrator Photovoltaic) oraz wysoko skupiające HCPV (ang. High Concentrator Photovoltaic) [2], [3]. Najszybciej rozwijającą i najpopularniejszą technologią są HCPV [4].", "Ilościową miara koncentratora jest współczynnik koncentracji geometrycznej promieniowania słonecznego CR.", "Określa on w jakim stopniu strumień promieniowania słonecznego padający na ogniwo jest zwiększany. Współczynnik koncentracji geometrycznej jest stosunkiem powierzchni aktywnej koncentratora \\( A_{C} \\) do powierzchni odbiornika \\( A_{0} \\). Kolejną miarą stosowaną w opisie koncentratorów jest współczynnik koncentracji efektywnej ( 2 ). Definiuje się go jako całkowitą ilość promieniowania pochłoniętego przez powierzchnię.", "W powyższym równaniu \\( C_{g} \\) oznacza geometryczny współczynnik koncentracji η wydajność koncentratora słonecznego. W odróżnieniu od konwencjonalnego panelu PV, odbiornik CPV musi być ustawiony w kierunku bezpośredniego normalnego natężenie napromienienia. Jeżeli koncentrator słoneczny i odbiornik CPV nie będą ustawione w kierunku słońca, to stracą część napływającego promieniowania słonecznego. Maksymalny kąt, pod jakim przychodzące promieniowanie słoneczne może być jeszcze wychwycone przez koncentrator słoneczny, nazywany jest kątem odbioru lub kątem akceptacji (ang. acceptance angle) [5], [6]. Częścią układu koncentratorowego musi być więc traker. W przypadku koncentratorów dwuwymiarowych kąt odbioru może być różny (dla różnych kierunków). Dla danego kąta odbioru θ, dla koncentratora z ogniskowaniem punktowym, maksymalna możliwa koncentracja \\( C_{max} \\) wynosi", "We wzorze ( 3 ) n jest współczynnikiem załamania światła ośrodka, w którym znajduje się odbiornik. Największy na świecie działający obiekt CPV (138 MWp) został zbudowany przez Suncore Photovoltaics, znajduje się w mieście Golmud w Chinach. Do dużych obiektów (19,9 MWp) tego typu należy również Fort Churchill Solar Array w Yerington w stanie Nevada.", "Poniżej przedstawiono paraboliczne koncentratory znajdujące się w Harper Lake. Instalacja ma postać macierzy paneli słonecznych rozmieszczonych na 125 metrach długości. Jeden rząd składa się z 10 paneli słonecznych o długości 12 metrów każdy i przysłonie 5,76 metra. Układ szkieletowy z monolitycznymi szklanymi panelami odblaskowymi został przedstawiony na Rys. 2 [7].", "Badania nad technikami koncentratorowymi są prowadzone w min. w Sandia National Laboratories – amerykańskim instytucie naukowo-badawczym, zajmującym się badaniami naukowymi oraz opracowywaniem technologii w dziedzinie energii. Zostały przedstawione w filmie \"Parabolic Dish Stirling Engine at Sandia National Laboratories\"."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "6. Technologie ogniw", "subject_id": 777, "subject": "6.1 Ogniwa z elektrodami paskowymi", "paragraphs": ["Ponad \\( 90\\% \\) ogniw fotowoltaicznych buduje się obecnie najczęściej z krzemu. Po wytworzeniu złącza p-n, na półprzewodnik typu n nanosi się elektrodę przednią (ujemną), wykonaną w postaci sieci cienkich ścieżek poziomych do krawędzi ogniwa (ang. fingers, palce), które zbierają ładunki z całego ogniwa i przekazują je ścieżkom połączeniowym wstążkowym prostopadłym do palców, zwanym busbarami. Elektroda dodatnia (na krzemie typu p) pokrywa całą tylną powierzchnię ogniwa. Technologia busbar była stosowana od początku wprowadzenia fotowoltaiki na rynek. W ogniwach polikrystalicznych stosowano najpierw 2 ścieżki połączeniowe, czyli 2 busbary, osiągając wydajność na poziomie \\( 12\\% \\).", "Miały one od 110 do 660 punktów kontaktowych ze ścieżkami poziomymi, czyli z palcami ( Rys. 1 ) [1].", "Rozwijając tę technologię, zwiększano liczbę busbarów tak, że w nowszych rozwiązaniach jest to 5 busbarów.", "Przy zastosowaniu 3 busbarów, długość palca zmniejsza się z 39 mm do 26 mm (tabela na Rys. 2 ), co przekłada się na zmniejszenie przekroju palca i równocześnie podwyższa się wydajność ogniwa.", "Zwiększając liczbę busbarów unika się dużego wpływu mikropęknięć na wydajności ogniwa fotowoltaicznego.", "Mikropęknięcia powodują wyeliminowanie części ogniwa fotowoltaicznego z możliwości odebrania od niego energii elektrycznej. Powodem mikropęknięć jest na przykład łączenie ogniw w procesie lutowania w temperaturach od 240 do 340 \\( _{}^{o}\\textrm{C} \\).", "Naraża to całą strukturę na naprężenia związane z nierównomiernym nagrzewaniem ogniwa, co może prowadzić do degeneracji całych paneli. Czas życia takich paneli skraca się przez mikropęknięcia, co powoduje zwiększanie rezystancji połączeniowej.", "Liczba busbarów i liczba palców ma wpływ na parametry pracy ogniwa (tzw. współczynnik wypełnienia FF oraz rezystancję szeregową), a w konsekwencji na całkowitą wydajność panelu fotowoltaicznego.", "Zastosowanie większej liczby busbarów skraca drogę jaką musi przebyć elektron i dziura, co powoduje zmniejszenie rezystancji wewnętrznej i ułatwia przepływ prądu. Zwiększając liczbę busbarów zmniejszamy prąd płynący przez pojedynczy busbar co powoduje obniżenie temperatury pracy ogniwa. Rezystancja ogniwa zależy bowiem od długości drogi jaką musi pokonać ładunek elektryczny w ogniwie. Wzrost liczby busbarów zmniejsza tę odległość. Zwiększenie liczby busbarów [2] wpływa na podniesienie sprawności ogniw, ale także polepsza ich pracę w warunkach zacienienia, czy w przypadku uszkodzeń mechanicznych zmniejszających powierzchnię ogniwa. Zwiększenie liczby busbarów podnosi też wytrzymałość mechaniczną panelu na deszcz, śnieg, grad czy wiatr.", "W ogniwach wyprodukowanych w technologii wielościeżkowej MBB w miejsce szerokich paskowych elektrod busbarowych wprowadzone są elektrody drutowe, a ich liczba to 15 i więcej na jednym ogniwie. Czyli każdy drut przewodzi poniżej 0,5 A a nie 4,5 A jak w przypadku dwu busbarów.", "Obecnie funkcjonują co najmniej trzy różne rozwiązania: technologia SmartWire szwajcarskiej firmy Meyer Burger, technologia Merlin oraz Multi Busbar Connector Schmidta.", "Technologia SmartWire polega na zastosowaniu, zamiast wyżej opisanego rozwiązania jakim są busbary, siatki przewodów na płaszczyźnie ogniwa fotowoltaicznego. Liczba połączeń elektrycznych w takim pojedynczym ogniwie dochodzi do 2660 ( Rys. 3 ). Zapewnia to odporność na obciążenia mechaniczne oraz lepszą wydajność w warunkach słabego oświetlenia.", "Technologia Merlin charakteryzuje się tym, że w ogniwie krzemowym umieszcza się specjalnie uformowaną siatkę miedzianą na i pod ogniwem fotowoltaicznym ( Rys. 4 ). W tym przypadku połączenia wewnętrzne są mocniejsze, co przekłada się na lżejsze i wytrzymalsze panele fotowoltaiczne.", "Elastyczna miedziana siatka zastępuje tu tradycyjne busbary, co redukuje zużycie materiałów, a przez to i koszty. Ponadto, technologia Merlin może się łatwo integrować z istniejącymi liniami służącymi do produkcji ogniw i paneli. Technologia Multi Busbar Connector ( Rys. 5 ) oparta jest na wykorzystaniu siatki przewodów z drutu miedzianego o średnicy 360 mikronów, pokrytej cienką warstwą stopu SnPbAg o grubości około 15 mikronów. Na każdym ogniwie umieszczone jest 12 busbarów. Powoduje to zwiększenie współczynnika wypełnienia, co w konsekwencji zwiększa wyprodukowaną moc przez ogniwo fotowoltaiczne.", "Technologia pasywacji tylnej ścianki ogniwa (Passivated Emitter Rear Cell - PERC)", "Ogniwo PERC odróżnia się od standardowego ogniwa fotowoltaicznego budową elektrody tylnej ogniwa. W tylnej elektrodzie wprowadzono modyfikację polegającą na naniesieniu dodatkowej warstwy, która pełni funkcję refleksyjną i pasywacyjną. Pasywacja powoduje ochronę przed utlenianiem powierzchni krzemu oraz zmniejszenie rekombinacji na styku krzem elektroda metaliczna. Warstwa izolatora ( Rys. 6 ) powoduje między innymi odbicie promieni słonecznych i skierowanie ich do ogniwa, celem zwiększenia absorpcji, a co za tym idzie i mocy ogniwa [3]. Zwiększone odbicie promieniowania elektromagnetycznego od warstwy pasywacyjnej powoduje zwiększenie absorpcji, a zatem również zwiększenie uzyskiwanej moc ogniwa.", "Obecnie wiele laboratoriów pracuje nad zwiększeniem sprawności ogniw fotowoltaicznych, ale wiele z opracowanych rozwiązań ma zastosowanie bardziej laboratoryjne niż komercyjne. Poza problemami omówionymi powyżej są jeszcze te związane z zacienieniem, mikropęknięciami, odbiciem światła i oczywiście obniżeniem kosztów produkcji. Wszystkie te elementy są motywacją do szukania rozwiązań optymalizujących pracę ogniwa. Zwiększając liczbę busbarów na ogniwie, zmniejsza się rezystancję, co powoduje zwiększenie mocy otrzymanej z ogniwa, unika się też większości strat związanych z mikropęknięciami. Zwiększając liczbę busbarów daje się elektronom więcej możliwości dotarcia do elektrody.", "Sposób łączenia ogniw fotowoltaicznych w panelach PV wykonanych w technologii busbar są pokazane na Rys. 7. Miejsca lutowania są szczególnie narażone na naprężenia. Jest to związane z temperaturą w czasie łączenia ze sobą ogniw fotowoltaicznych."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "6. Technologie ogniw", "subject_id": 782, "subject": "6.2 Ogniwa z elektrodami typu PERL", "paragraphs": ["W ciągu ostatniej dekady ogniwa fotowoltaiczne typu HIT z elektrodami z tyłu znacznie poprawiły wydajność dostępnych na rynku paneli fotowoltaicznych, tym niemniej, nadal istnieje możliwość uzyskania jeszcze wyższej wydajności ogniw, opartych na krystalicznym krzemie. Wysoko wydajne ogniwo krzemowe wykonane w warunkach laboratoryjnych – ogniwo PERL (ang. Passivated Emitter Rear Locally diffused cell) przedstawiono na Rys. 1. Ta konstrukcja ogniwa pod koniec 1980 r. miała wydajność sięgającą \\( 23\\% \\), co stanowiło ogromną poprawę wydajności ogniw krzemowych w stosunku do \\( 17\\% \\) – najwyższej wartości zaledwie 7 lat wcześniej. Od tego czasu, dalsze dopracowywanie ogniw typu PERL doprowadziło ich efektywność do \\( 25\\% \\). Ogniwo typu PERL ma wiele cech wspólnych z ogniwem, którego elektrody umieszczono z tyłu. Podobnie i tu występuje całkowita osłona w pasywującej warstwie tlenku i małe kontakty powierzchniowe. Ogniwo typu PERL jest jednak konstrukcją bardziej wytrzymałą, bardziej tolerancyjną na warunki środowiska, wobec słabej pasywacji powierzchni i słabej pracy klasycznych ogniw. Główne ulepszenia poczynione w ogniwie typu PERL w ostatnich latach obejmują znaczny wzrost tlenku pasywacji górnej powierzchni, co pozwala na bezpośrednie zastosowanie dwuwarstwowej powłoki antyrefleksyjnej [1]. Zastosowano sekwencję \"wyżarzania\" dla tego tlenku i zlokalizowanych górnych punktów kontaktowych w celu zwiększenia napięcia obwodu otwartego i poprawy pasywacji tylnej powierzchni oraz dobranie odporności metalizacji w celu poprawy współczynnika wypełnienia. Aby zmaksymalizować wydajność ogniw, jak najwięcej światła o użytecznych długościach fal powinno być zaabsorbowane przez ogniwo. Aby osiągnąć ten wynik nowoczesne konstrukcje ogniw, takie jak ogniwo typu PERL, zawierają kilka rozwiązań o charakterze optycznym. W tym przypadku straty optyczne w przedniej części ogniwa są zmniejszane poprzez wdrożenie teksturowanej odwróconej konstrukcji piramidy ( Rys. 1 ), pokrytej warstwą antyrefleksyjną, co umożliwia absorpcję światła odbitego po raz drugi, zmniejszając straty spowodowane transmisją. Elektrody z przodu zostały wykonane w ten sposób, aby powierzchnia ich była jak najmniejsza, co zwiększa natężenie światła wpadającego do ogniwa fotowoltaicznego. Odwrócone piramidy wzdłuż górnej powierzchni służą przede wszystkim celom optycznym. Większość kwantów promieniowania trafi w jedną ze ścian bocznych piramid, co powoduje odbicie promieni, zwiększając przez to drogę optyczną światła. Odbity promień świetlny sprawia, że światło ma, co najmniej, drugą szansę wrócić do ogniwa i zostać zaabsorbowane. Niektóre kwanty w pobliżu dna piramid mają czasem więcej szans.", "Piramidy pokryte są warstwą tlenku o odpowiedniej grubości, aby mogły zadziałać jako powłoka antyrefleksyjna. W nowszych projektach warstwa tlenku jest cienka, a ponadto stosuje się dwuwarstwową powłokę antyrefleksyjną [1]. Zaabsorbowany przez ogniwo kwant porusza się ukośnie przez ogniwo w kierunku tylnej jego powierzchni. W ten sposób kwant promieniowania ma dłuższą drogę, na której może być zaabsorbowany przez ogniwo. Niepochłonięte światło docierające do tyłu odbija się od bardzo wydajnego reflektora, utworzonego przez połączenie tylnej warstwy tlenku pokrytej warstwą aluminium [2]. Współczynnik odbicia od tej kombinacji zależy od kąta padania światła i grubości warstwy tlenku, ale zazwyczaj przekracza \\( 95\\% \\) dla kątów padania zbliżonych do 0° (normalnej). Współczynnik odbicia zmniejsza się poniżej \\( 90\\% \\) gdy kąt padania zbliża się do kąta całkowitego wewnętrznego odbicia na złączu krzemu/tlenku (24,7°) i wzrasta ponownie do blisko \\( 100\\% \\) po przekroczeniu tego kąta. Na tylnej powierzchni ogniwa fotowoltaicznego elektrody punktowe są stosowane w połączeniu z warstwami pasywacji tlenku termicznego, w celu zmniejszenia niepożądanej rekombinacji na powierzchni w obszarze nieskontaktowanym. Krzem silnie domieszkowany borem (p+) działa jak lokalna tylna powierzchnia ograniczająca rekombinację elektronów mniejszościowych. Światło odbite od tyłu przesuwa się w kierunku górnej powierzchni. Niektóre kwanty promieniowania docierają do powierzchni i mogą opuścić ogniwo fotowoltaiczne nie wywołując powstania ekscytonu. Inne ulegają całkowitemu wewnętrznemu odbiciu. Powoduje to, że około połowa promieniowania świetlnego skierowanego w przednią powierzchnię od strony wewnętrznej jest odbijana z powrotem do ogniwa w kierunku tylnej elektrody. Liczba kwantów światła, opuszczających ogniwo fotowoltaiczne po pierwszym odbiciu, zależy od geometrii piramid. Straty energii światła można zmniejszyć, niszcząc niektóre z zastosowanych symetrii, na przykład za pomocą przechylonych odwróconych piramid lub używając metody \"tiler’s pattern\". To ostatnie podejście jest obecnie stosowane w projektach ogniw typu PERL. Połączenie odwróconych piramid i tylnego reflektora tworzy bardzo skuteczny sposób zwiększania absorpcji światła przez zwiększanie długości drogi promienia świetlnego w ogniwie fotowoltaicznym. Mierzone są efektywne współczynniki poprawy długości drogi promienia świetlnego [2]. Zwiększenie absorpcji następuje przede wszystkim w obszarze podczerwieni. Zewnętrzna responsywność (to odpowiedź panelu fotowoltaicznego (w amperach) na 1 wat światła padającego) ogniw typu PERL osiąga wartości wyższe przy większych długościach fal niż konwencjonalne ogniwa krzemowe, o wartościach 0,75 \\( \\frac{A}{W} \\) mierzonych przy długości fali 1,02 μm. Efektywność konwersji energii dla niektórych długości fal jest większa nawet niż \\( 45\\% \\) [3] w porównaniu z klasycznymi ogniwami.", "Obecne ogniwa typu PERL tracą około \\( 5\\% \\) przychodzącego światła z powodu utraty absorpcji lub odbicia związanego z metalowymi elektrodami, w połączeniu z odbiciem od niemetalizowanej górnej powierzchni ogniwa. Występujące straty optyczne są spowodowane też odbiciem i absorpcją przez górne metalowe elektrody ogniwa. Można zminimalizować to odbicie, dobierając odpowiednie wielkości elektrody, wysokość, szerokość oraz kształt. Można także spróbować przekierować promienie świetlne do ogniwa omijając elektrody [4]. Istnieje zatem pewne pole do małych lub umiarkowanych wzrostów wydajności, poprzez dalszą poprawę właściwości optycznych tych ogniw.", "Zaawansowane projekty ogniw zostały wykorzystane w statkach kosmicznych i ziemskich aplikacjach o wysokiej wartości, takich jak np. wyścigi samochodów napędzanych energią słoneczną [5]. Wykorzystano tam bardzo drogie wieloetapowe procesy fotolitograficzne. Tego typu ogniwa fotowoltaiczne są zbyt drogie dla szerokich zastosowań. Tym niemniej ostatnie osiągnięcia w budowie ogniw wykorzystujących technologie laserowe sprawiają, że ogniwa typu PERL mogą być wytwarzane przy niskich kosztach. Jak wspomniano, najlepsza wydajność ogniw wynosi \\( 25\\% \\), a najlepsza wydajność panelu fotowoltaicznego \\( 22,9\\% \\) [6].", "Wydaje się, że technologia krystalicznego krzemu w postaci wafla będzie dominującą technologią fotowoltaiczną przez co najmniej najbliższą dekadę. Wskazują na to inwestycje poczynione w zakładach produkujących ogniwa fotowoltaiczne oraz obniżenie cen paneli PV. Ostatnio pojawiły się też panele fotowoltaiczne typu PERL, wykonane w technologii dwustronnej (ang. Bifacial Cell Technology). Reasumując, ogniwa fotowoltaiczne wykonane w technologii PERL mają wiele zalet:"], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "6. Technologie ogniw", "subject_id": 783, "subject": "6.3 Ogniwa z elektrodami z tyłu", "paragraphs": ["Ogniwo z elektrodami z tyłu, z naprzemiennym tylnym kontaktem, wykonane w technologii IBC (ang. Interdigitated Back Contact) jest alternatywnym podejściem do produkcji ogniw o wysokiej wydajności. Zmniejszenie cieniowania ogniwa fotowoltaicznego przez elektrodę przednią zapobiega zmniejszeniu energii słonecznej docierającej do ogniwa (elektrody umiejscowiono z tyłu ogniwa). Strukturę ogniwa typu IBC pokazano na Rys. 1. Światło przechodzi przez warstwę stabilizującą \\( SiO_2 \\) do wnętrza ogniwa, zbudowanego z wafla monokrystalicznego typu n. Oba styki znajdują się na tylnej powierzchni ogniwa. Powstające ekscytony rozpadają się na ładunki, które dyfundują do obszarów p i n bezpośrednio nad obszarami styku (w tych obszarach usunięto tlenek z tylnej powierzchni). Zarówno złącze typu n, jak i typu p leżą po nieoświetlonej stronie ogniwa pod metalizacją stykową. Schemat ogniwa typu IBC zaprezentowano na Rys. 1a, gdzie pokazano kontakty w postaci grzebieni. Rys. 1b natomiast pokazuje kontakty zbierające ładunki zgromadzone w półprzewodniku typu n oraz typu p ogniwa.", "Konstrukcja ogniw tylnego styku została udoskonalona na Uniwersytecie Stanforda w latach 80-tych [1]. W latach 90-tych powstała nowa firma SunPower, która skomercjalizowała tę technologię, produkując panele ogniw fotowoltaicznych w technologii IBC z początkowym osiągnięciem \\( 22,5\\% \\) wydajności. Na początku 2000 r. produkcja została znacznie uproszczona i rozszerzona. Obecnie firma SunPower wytwarza ogniwa typu IBC, które osiągają wydajność \\( 24,2\\% \\). Osiągi wydajności zarówno ogniw (na poziomie \\( 24,2\\% \\)), jak i paneli (na poziomie \\( 22,4\\% \\)) zostały potwierdzone przez niezależne gremia [2]. Z kolei, firma Trina Solar poinformowała, że jej Główne Państwowe Laboratorium ustanowiło nowy rekord wydajności wynoszący \\( 25,04\\% \\) dla monokrystalicznego krzemowego ogniwa typu n, wykonanego w technologii IBC. Wynik ten został niezależnie potwierdzony przez Japońskie Technologiczne Laboratorium Bezpieczeństwa Elektrycznego i Środowiska (JET) [3]. Szkic obecnej struktury ogniw komercyjnych przedstawiono na Rys. 2 [4], [5]. Należy zauważyć, że dyfuzja fosforu jest używana wzdłuż oświetlonej powierzchni, w celu kontrolowania rekombinacji wzdłuż tej powierzchni [6].", "Ogniwo fotowoltaiczne typu IBC ma wiele zlokalizowanych złącz, zamiast jednego dużego złącza p-n. Pary elektron-dziura, generowane przez padające światło, które jest absorbowane na przedniej powierzchni, mogą być zbierane z tyłu ogniwa. Interfejsy półprzewodnik-metal są tak małe, jak to tylko możliwe, aby zmniejszyć niepożądaną rekombinację. Jak pokazano na Rys. 2, tył ogniwa fotowoltaicznego typu IBC ma dwa metalowe grzebienie. Jeden zbiera prąd z kontaktu typu n, a drugi zbiera prąd z kontaktu typu p. Przednie pole powierzchni jest tworzone przez mocno domieszkowany krzem typu n, w celu zmniejszenia rekombinacji na tej powierzchni. Jednak intensywność domieszkowania zmniejsza się stopniowo w kierunku tyłu, aby działać jako obszar półprzewodnika typu p. Przednia powierzchnia jest teksturowana i osadzona w dwuwarstwowej powłoce antyrefleksyjnej. Działa ona jako pasywująca (dwutlenek krzemu) na przedniej stronie ogniwa.", "Na Rys. 3 pokazano zdjęcie ogniwa z przodu, którego kolor jest jednorodnie ciemny, natomiast zdjęcie ogniwa z tyłu pokazuje wyraźnie ustawienie elektrod, które są grzebieniami zbierającymi ładunki. Elektrody zbierające nie zacieniają powierzchni, przez którą promienie słoneczne mogą dotrzeć do wnętrza ogniwa i spowodować powstanie ekscytonu. Ogniwo fotowoltaiczne typu IBC jest najbardziej skomplikowane technologicznie, ale ma najwyższą wydajność wśród ogniw krzemowych, produkowanych masowo. Zasadniczo struktura ogniwa wykonanego w tej technologii ma kilka zalet w stosunku do budowy konwencjonalnych ogniw fotowoltaicznych. Najbardziej oczywista jest eliminacja zacienienia powodowanego przez elektrodę przednią, co w generowanym prądzie może dać przyrost \\( 5-7\\% \\). Istotna jest także niższa rezystancja szeregowa podczas przepływu prądu w stykach, ze względu na to, że styki z tyłu zajmują prawie całą tylną powierzchnię, więc odległość między nimi jest niewielka. Ponadto, dużą zaletą jest oddzielenie optymalizacji optycznej, przeprowadzanej z przodu, od optymalizacji elektrycznej, wykonywanej z tyłu."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "6. Technologie ogniw", "subject_id": 781, "subject": "6.4 Ogniwa fotowoltaiczne z elektrodami typu 'smart wire'", "paragraphs": ["Technologia fotowoltaiczna stale się rozwija. Dokonano znaczących ulepszeń na poziomie ogniwa fotowoltaicznego, ale istnieją ograniczenia na poziomie tychże połączeń w panel fotowoltaiczny. Szwajcarska firma Meyer Burger [1] opracowała technologię Smart Wire Connection Technology (SWCT), która nie obniża wydajności całego panelu fotowoltaicznego w stosunku do pojedynczego ogniwa fotowoltaicznego. Polega ona na połączeniu procesu laminowania i wzajemnego połączenia ogniw w panel fotowoltaiczny w jednym etapie laminowania. Podczas tego procesu zmniejsza się zużycie materiałów, energii, a wydajność ogniwa jest na poziomie \\( 25,4\\% \\). Technologia Smartwire polega na zastosowaniu siatki przewodów na płaszczyźnie ogniwa fotowoltaicznego zamiast konwencjonalnego rozwiązania, jakim są szyny połączeniowe, czyli busbary. Liczba połączeń elektrycznych w pojedynczym ogniwie dochodzi tutaj do 2640, co zapewnia odporność na obciążenia mechaniczne oraz lepszą wydajność w warunkach słabego oświetlenia ( Rys. 1 ).", "Zastosowanie tego procesu zmniejsza straty elektryczne i optyczne w panelu fotowoltaicznym, dzięki krótszej drodze ładunków do elektrod oraz mniejszemu zacienieniu ogniwa przez elektrody niż w standardowych technologiach busbarów. Technologia SWCT przekształca wygląd przedniej powierzchni ogniwa fotowoltaicznego i oferuje dodatkowo kilka korzyści:", "SWCT to technologia łącząca elektrody z ogniwami fotowoltaicznymi, oparta na klejeniu drutu. Wykorzystuje się zwykle od 15 do 38 przewodów po obu stronach ogniwa fotowoltaicznego. Przewodami są okrągłe druty na bazie miedzi, pokryte niskotemperaturowym stopem, zazwyczaj warstwą 1-2 mikronów grubości z \\( 50\\% \\) stopem indu. Przewody są osadzone w folii polimerowej, która jest nakładana bezpośrednio na metalizowane ogniwo.", "Tak ułożone składniki są laminowane ( Rys. 2 ). Przewody są związane z metalizacją ogniwa fotowoltaicznego i zapewniają kontakt elektryczny z większością materiału (np. liczbę przewodów i ich grubość można dostosować do niemal każdej konstrukcji metalizacji ogniwa i mocy ogniwa). Szyny busbarów na powierzchni ogniwa fotowoltaicznego (zarówno z przodu, jak i z tyłu) nie są potrzebne. Zaoszczędza się w ten sposób czas i materiały (proces metalizacji wymaga drogiego materiału, takiego jak pasta srebrna) oraz zapobiega cieniowaniu. Technologia SWCT ma dodatkową zaletę, lepszą pasywację tylnej części ogniwa fotowoltaicznego można osiągnąć za pomocą aluminiowego ekranu wydrukowanego z tyłu pola powierzchniowego lub z dowolną metodą pasywacji z tyłu (taką jak \\( SiO_{2}, a-Si, AlO_{x} \\) itp.). Ogniwa fotowoltaiczne są kruche i dlatego muszą być chronione, aby oprzeć się warunkom zewnętrznym, takim jak deszcz, grad, wilgoć, wiatr i śnieg. Ochronę uzyskuje się zwykle poprzez osadzenie ogniwa fotowoltaicznego w szkle i warstwie hermetyzacji. Ponieważ wygenerowany prąd musi być transportowany z jednego ogniwa do drugiego, występują straty elektryczne. Najbardziej niezawodne, sprawdzone i używane dotychczas techniki, to lutowanie wstążki. Technologia SWCT oferuje do 38 powlekanych drutów miedzianych, które przenoszą ładunki generowane przez ogniwa fotowoltaiczne. Długość palca można zmniejszyć z 39 mm do 4-8 milimetrów, co z kolei sprawia, że utrata mocy na palcu jest znikoma. Tę redukcję długości palca uzyskuje się bez zmiany przekroju materiału transportującego. Straty mocy związane z opornością spadają i więcej energii może być pobierane z każdego pojedynczego ogniwa fotowoltaicznego. Z porównań w tabeli poniżej wynika, że SWCT z 30 przewodami o średnicy 0,2 mm ma takie samo optyczne cieniowanie, jak z 3 busbarami. SWCT z 18 przewodami o średnicy 0,3 mm ma o \\( 85\\% \\) wyższy przekrój Cu w porównaniu do 3 busbarów, czyli mniejszy opór. Zmniejsza się ponadto optyczne cieniowanie ( \\( 2,6\\% \\) w porównaniu do \\( 2,9\\% \\) dla 3 busbarów), są też dodatkowe korzyści wynikające ze zmniejszonej długości palca do 8,2 mm. Podsumowując, dane na Rys. 3 poniżej [1] pokazują, że SWCT wykazuje lepsze właściwości niż technologia busbarów.", "W celu porównania technologii typu SWCT z technologią busbarów przygotowano panele fotowoltaiczne, w których użyto tego samego typu ogniw. Eksperymentowi poddano dwa rodzaje ogniw, monokrystaliczne ogniwa wyprodukowane przez firmę Hareon Sun (Chiny) i ogniwa firmy HJT (Szwajcaria). Na Rys. 3 zebrano dane wydajności ogniwa monokrystalicznego c-Si. Tak wykonane panele poddano badaniom wydajności. Zwiększenie liczby busbarów do 5 podniosło moc ogniw do \\( 102\\% \\), a w technologii SWCT do \\( 103\\% \\). Jeśli do tego doda się jeszcze wytrzymałość ogniw na mikropęknięcia, to zastosowanie procedury typu SWCT jest uzasadnione. W przypadku technologii SWCT na skutek mikropęknięć nie następuje drastyczna utrata mocy [2], ponieważ wygenerowane ładunki mogą dotrzeć do elektrody zbierającej inną drogą.", "Na filmie \"The Making of SmartWire Technology\" przedstawiono technologię produkcji paneli fotowoltaicznych wykonanych w technologii smart-wire.", "Na filmie \"The Technology Behind SolarTech Universal\" pokazano porównanie różnych ogniw fotowoltaicznych stosowanych komercyjnie oraz sposób budowy paneli fotowoltaicznych wykonanych w technologii smart-wire."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "6. Technologie ogniw", "subject_id": 780, "subject": "6.5 Ogniwa fotowoltaiczne wykonane w technologii HIT", "paragraphs": ["Ogniwo fotowoltaiczne, gdzie cienka warstwa krystalicznego krzemu typu n jest umieszczona pomiędzy dwoma cienkimi warstwami krzemu amorficznego nazwana jest typu HIT (ang. Heterojunction with Intrinsic Thin Layer) to jedno z rozwiązań powstałych w wyniku prac, mających na celu uzyskanie wyższej wydajności ogniw komercyjnych. Ogniwo to łączy w sobie zarówno krystaliczne, jak i amorficzne cechy projektowania ogniw krzemowych w jednej strukturze. Budowę ogniwa fotowoltaicznego typu HIT przedstawiono na Rys. 1.", "Wewnętrzna cienka warstwa krystalicznego krzemu typu n jest umieszczona pomiędzy dwoma cienkimi warstwami krzemu amorficznego. Ta wewnętrzna warstwa najpierw poddawana jest teksturyzacji ( Rys. 2 ), a następnie pokrywana odpowiednimi warstwami krzemu amorficznego. Przednia warstwa krzemu krystalicznego typu n pokrywana jest amorficznym krzemem a-Si o grubości do 10 nm, a następnie amorficznym krzemem a-Si typu p, tylną natomiast pokrywa się amorficznym krzemem a-Si o grubości do 10 nm i amorficznym krzemem a-Si typu n. Na wierzch z obu stron nakładane są elektrody zbierające ładunki (styki sitodrukowe). Bardzo cienkie wewnętrzne warstwy a-Si, występujące pomiędzy a-Si a krystalicznym podłożem c-Si, mają za zadanie poprawę działania złącza p-n. Na obu domieszkowanych warstwach powstają przezroczyste warstwy tlenku przewodzącego (TCO), a następnie są drukowane ścieżki przewodzące. Metalizacja tyłu jest również grzebieniowa w celu zmniejszenia naprężeń termicznych i mechanicznych, dzięki czemu ogniwo jest symetryczne i możliwe jest wykorzystanie go jako ogniwo dwustronne.", "Ogniwa zaprojektowane są w taki sposób, aby zredukować zajmowaną przez nie powierzchnię i osiągnąć większą wydajność w stosunku do standardowych ogniw krystalicznych ( Rys. 3 ), które dostępne są na rynku. Ogniwa typu HIT były zaprezentowane przez firmę Sanyo Electric Solar Division, która produkuje tego typu ogniwa w kształcie klasycznym i tzw. plastrze miodu, aby lepiej wykorzystać stosunkowo drogie monokryształy oraz powierzchnię czynną panelu fotowoltaicznego.", "Ogniwa tego typu nie są czułe na wyższe temperatury, co powoduje, że ich sprawność w wyższych temperaturach nie ulega zbyt dużym zmianom [1]. Technologia HIT pozwala produkować ogniwa, które wykazują wysoką wydajność w temperaturze 75 \\( _{}^{o}\\textrm{C} \\). Technologia ta zapewnia doskonałą pasywację powierzchni przy stosunkowo niskich temperaturach procesów (poniżej 200 \\( _{}^{o}\\textrm{C} \\)), pozwala zmniejszyć degradację przez cały czas użytkowania ogniwa fotowoltaicznego.", "Firma Panasonic ogłosiła, że opracowała ogniwo o sprawności \\( 25,6\\% \\). Uwodorniony amorficzny krzem, przygotowany przez plazmowe osadzanie par (PECVD), ma wyższą przerwę energetyczną niż materiał krystaliczny. W związku z tym materiał ten tworzy heterozłącze o szerokim paśmie wzbronionym, zapewniając bardzo skuteczną, niską rekombinowalność wytworzonych ładunków. Najwyższa cienka mocno domieszkowana warstwa amorficzna typu p tworzy złącze z krystalicznym waflem typu n. Interweniująca, bardzo cienka wewnętrzna amorficzna warstwa krzemu odgrywa ważną rolę w uzyskaniu wysokiego poziomu wydajności [2], [3].", "Ponieważ przewodność nawet mocno domieszkowanego amorficznego krzemu jest dość niska, ze względu na niską mobilność nośnika, przezroczyste tlenki przewodzące są potrzebne zarówno na przedniej, jak i tylnej powierzchni ogniwa, aby umożliwić transport nośnika do metalowych styków sitodruku na obu powierzchniach. Ponieważ tylny styk może być przeźroczysty, ogniwo może reagować na światło z obu stron. Może to poprawić moc wyjściową w instalacjach, w których tył panelu jest wystawiony na działanie światła rozproszonego z otoczenia [4]. Istnieje jeszcze kilka innych ciekawych cech tej technologii. Jakość pasywacji powierzchni uzyskanej z amorficznej warstwy krzemu daje rekordowe napięcia wyjściowe ogniwa, które zostały potwierdzone przez H. Sukatai [2], [3]. Stanowią one podstawę wysokiej efektywności konwersji energii ogniwa. Ponadto ta technologia wykorzystuje wafle typu n, domieszkowane fosforem, co pokonuje problemy z wadami boru i tlenu. Temperatury obróbki ogniw fotowoltaicznych są typowe dla amorficznych krzemowych ogniw i znacznie niższe niż w przypadku ogniw z krzemu krystalicznego. Główną słabością techniczną tej technologii jest to, że przezroczyste warstwy tlenku przewodzącego nie są idealnie przejrzyste, ani doskonale przewodzące. Wymusza to kompromis między pochłanianiem światła w tych warstwach, a stratami odporności bocznej. Światło pochłaniane w mocno domieszkowanych warstwach amorficznych w tych ogniwach wpływa na zmniejszenie mocy wyprodukowanej przez ogniwo. Poszczególne ogniwa osiągnęły potwierdzoną wydajność do \\( 24,7\\% \\) [5]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "6. Technologie ogniw", "subject_id": 1062, "subject": "6.6 Cienkowarstwowe ogniwa fotowoltaiczne", "paragraphs": ["Ogniwa fotowoltaiczne, będące podstawowym składnikiem paneli fotowoltaicznych, wykonywane są z wafli krzemowych monokrystalicznych, polikrystalicznych i amorficznych. Technologie ich produkcji są nieustannie modernizowane po to, aby poprawić ich parametry techniczne, obniżyć koszty, tak aby stawały się coraz bardziej atrakcyjne dla nabywców. W laboratoriach trwają obecnie prace nad ogniwami cienkowarstwowymi, tworzonymi zarówno ze związków nieorganicznych jak i organicznych. Panele fotowoltaiczne w postaci cienkiej warstwy, którą można by nakleić na dach, dopasować do jego kształtu i koloru dachu z pewnością przyciągnęłyby uwagę właścicieli domów, zainteresowały architektów i projektantów. Grubość warstwy aktywnej w ogniwie cienkowarstwowym wykonanym ze związków nieorganicznych zwykle nie przekracza 20 \\( \\mu m \\). Zużycie surowca półprzewodnikowego jest więc niewielkie [1], potencjalna elastyczność ogniwa także jest zapewniona. Istotne jest także, aby taka warstwa aktywna miała wysoką wartość współczynnika absorpcji, ponieważ wpływa to na efektywność konwersji energii świetlnej na elektryczną. W przypadku, gdy do budowy ogniw fotowoltaicznych wykorzystywane są materiały organiczne, grubość warstwy aktywnej nie przekracza 1 \\( \\mu m \\), ponieważ współczynnik absorpcji tych materiałów jest dużo wyższy niż materiałów półprzewodnikowych. Ogniwa cienkowarstwowe pracują wydajnie nawet przy zacienieniu ogniwa, temperatura ma mniejszy wpływ na ich moc wyjściową, a ponadto można je sporządzić w niemal dowolnie zaprojektowanym kształcie i wyglądzie. Mankamentem tych ogniw może być niższa wydajność, gdy wykorzystywany jest inny materiał niż krzem i to, że użyty materiał może być toksyczny. Warstwy aktywne w cienkowarstwowych ogniwach fotowoltaicznych nakładane są na podłoża transparentne lub nieprzezroczyste i stosuje się różne metody ich nakładania. W przypadku podłoża transparentnego nakłada się najpierw elektrodę przezroczystą, potem warstwy aktywne fotowoltaicznie i na końcu drugą elektrodę. Zaś w przypadku, gdy podłoże jest nieprzezroczyste, najpierw nakłada się elektrodę, która może być nieprzezroczysta, na nią warstwy fotowoltaicznie aktywne, a na koniec elektrodę przezroczystą. Grubość poszczególnych warstw zawiera się w granicach od 100 do 500 nm. Do budowy ogniw fotowoltaicznych wykorzystywane są materiały o różnych właściwościach. Warto podkreślić, że podłoża powinny zapewniać odpowiednią trwałość mechaniczną ogniwa, a w przypadku ogniw elastycznych materiał powinien być odporny na zginanie. Elektrody powinny być z materiałów tak dobranych, żeby oporność pomiędzy materiałem fotowoltaicznym i elektrodą była jak najmniejsza. Obecnie do budowy cienkowarstwowych ogniw fotowoltaicznych najbardziej korzystnymi materiałami są polikrystaliczne struktury, zawierające dwuselenek galowo-indowo-miedziowy \\( CuIn_{x}Ga_{1-x}Se_{2} \\), czy tellurek kadmu CdTe [2]. Ogniwa fotowoltaiczne z warstwą CdTe w warunkach laboratoryjnych osiągają wydajność w granicach \\( 16\\% \\) (w produkcji niestety ok. \\( 10\\% \\)). Trwają jednak prace, aby w pełni wykorzystać potencjał tych ogniw, a krytycznymi problemami przy poprawie ich efektywności są:", "Na Rys. 1 przedstawiono strukturę cienkowarstwowego ogniwa fotowoltaicznego. Na szklanym podłożu umieszczona jest warstwa metalu, która tworzy kontakt omowy z półprzewodnikiem typu p, czyli warstwą absorbera (CIS, CIGS lub CGS). Tworząca z nią złącze p-n warstwa siarczku kadmu (CdS) – półprzewodnika o przewodnictwie typu n – poprzedzona jest uporządkowaną warstwą wakansów (ang. Ordered Vacancy Compound, OVC). Warstwa buforowa CdS ma za zadanie dopasowanie krawędzi pasm przewodnictwa warstwy CIGS i okna, którym jest tlenek cynku ZnO. Szkło sodowo-wapniowe o współczynniku rozszerzalności termicznej około \\( 9\\cdot 10^{-6} K^{-1} \\) jest najczęściej wykorzystywanym podłożem w przypadku cienkowarstwowych paneli fotowoltaicznych typu CIGS. Typowa kompozycja tego szkła zawiera takie tlenki jak \\( Na_{2}O \\) i CaO, które są źródłem zanieczyszczeń w pozostałych warstwach panelu. Warstwa absorbera, odpowiadająca za absorpcję fotonów i generowanie nośników prądu elektrycznego jest najważniejszym materiałem w ogniwie cienkowarstwowym. Zazwyczaj składa się ona z dwóch trójskładnikowych stopów: \\( CuInSe_{2} \\) i \\( CuGaSe_{2} \\), ze stosunkiem y = Ga/(Ga+In) z zakresu od 0 do 1. Najefektywniejszą warstwę wykorzystywaną w fotowoltaice uzyskuje się dla y = 0,11 - 0,26. Stop \\( CuInSe_{2} \\) jest półprzewodnikiem o prostej przerwie energetycznej, wynoszącej 1,05 eV (do ok. 1,65 eV w przypadku stopu \\( CuGaSe_{2} \\)) oraz o bardzo dużym współczynniku absorpcji α = 105 \\( cm^{-1} \\) dla fotonów o energiach > 1,4 eV. Materiały należące do grupy II-(III)-VI są nazywane chalkopirytami, ponieważ krystalizują w takim samym układzie co chalkopiryt \\( CuFeS_2 \\)– popularny minerał z gromady siarczków. Struktura kryształu oparta jest na układzie regularnym, tzw. strukturze blendy cynkowej. Właściwości półprzewodnikowe chalkopirytów są związane z ich podobieństwem elektrycznym i strukturalnym do półprzewodników z grupy IV, takich jak krzem czy german. Jedną z głównych cech \\( CuIn_{x}Ga_{1-x}Se_{2} \\) jest niewrażliwość parametrów optoelektronicznych struktury na znaczne wahania składu materiału. Optyczne i elektryczne właściwości \\( CuInSe_{2} \\) zależą silnie od stosunku Cu/In oraz od struktury krystalicznej materiału. Koncentracja dziur zależy od nadmiaru selenu i od stosunku Cu/In. Wraz ze zmniejszaniem się stosunku Cu/In maleje koncentracja dziur. Rezystywność warstwy typu p wzrasta o ponad pięć rzędów wielkości, gdy stosunek Cu/In zmniejsza się od 1,1 do 0,9. Warstwą buforową w cienkowarstwowych ogniwach fotowoltaicznych typu CIGS jest siarczek kadmu CdS o przewodnictwie typu n, który wraz z warstwą absorbera tworzy strukturę heterozłącza n–CdS/p–CIGS. Siarczek kadmu posiada dużą przerwę energetyczną Eg = 2,4 eV. Zaletą takiego połączenia jest przezroczystość materiału o większej przerwie energetycznej dla promieniowania pochłanianego w materiale o mniejszej przerwie energetycznej. Powoduje to, że materiał o większej przerwie energetycznej stanowi okno dla promieniowania, które zostanie zaabsorbowane w warstwie o mniejszej szerokości przerwy energetycznej. Do wad należy zaliczyć zjawisko rekombinacji promienistej w półprzewodniku o mniejszej przerwie energetycznej [3], [4]. Wszystkie produkowane obecnie ogniwa z CdTe wykonuje się głównie jako heterostruktury o konstrukcji przedstawionej na Rys. 1. Światło pada na heterozłącze od strony podłoża przez elektrodę z TCO (ang. Transparent Conducting Oxide). Warstwa CdS spełnia funkcję okna optycznego oraz pomaga zmniejszyć wpływ procesu rekombinacji w obszarze kontaktu n-CdS/p-CdTe. Wszystkie produkowane obecnie ogniwa z warstwą CIGS wykonuje się jako heterostruktury, w których światło pada na heterozłącze przez przezroczystą warstwę tlenku przewodzącego TCO. Zazwyczaj tworzą ją dwie warstwy tlenku cynku ZnO – jedna o wysokiej rezystywności i druga, silnie domieszkowana o przewodnictwie typu n+. Przerwa energetyczna ZnO, Eg = 3,3 eV, pozwala fotonom o długości fali 350 nm i większej na przejście przez materiał w głąb struktury. Koszty produkcji ogniw wykonanych na bazie tellurku kadmu CdTe są stosunkowo niskie. Jednak w szerszym ich propagowaniu przeszkadza fakt, iż zawierają znaczne ilości kadmu, który jest pierwiastkiem trującym. Cienkowarstwowe ogniwa fotowoltaiczne z warstwą dwuselenku miedziowo-indowo-galowego CIGS określane są jako najbardziej obiecujące ogniwa ze względu na technologię wytwarzania i niskie koszty produkcji. W warunkach laboratoryjnych sprawność tych paneli jest bliska \\( 20\\% \\). Wielkość szerokości przerwy energetycznej bliska wartości optymalnej oraz możliwie szeroki wybór struktur współpracujących z warstwą CIGS, czynią je wysoce atrakcyjnymi z punktu widzenia zastosowania w przemyśle fotowoltaicznym [5].", "Ogniwa cienkowarstwowe wytwarza się korzystając z:", "Fotowoltaiczne ogniwa cienkowarstwowe, dzięki małym warstwom absorbującym światło, z wydajnymi półprzewodnikami, cieńszymi i dużo lżejszymi od ich tradycyjnych odpowiedników, o bardzo estetycznym wyglądzie i niemal dowolnym kształcie są bardzo atrakcyjną ofertą do stosowania. Reasumując, do ich niekwestionowanych zalet należą:", "Producenci, tacy jak Sharp czy First Solar, oprócz paneli krzemowych mono- i polikrystalicznych, oferują panele cienkowarstwowe. Nazwa ta dobrze określa ich budowę – warstwy absorbujące światło są około 350 razy cieńsze, niż w standardowych ogniwach krzemowych. Są również elastyczne i dopasowują się do kształtu dachu, a ich grubość nie przekracza 20 \\( \\mu m \\)> Naklejenie ich na dach, zamiast umieszczenia grubych i sztywnych paneli krzemowych, to bardzo interesująca propozycja."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "6. Technologie ogniw", "subject_id": 1061, "subject": "6.7 Ogniwa fotowoltaiczne typu PERC i PERT", "paragraphs": ["Konwencjonalne ogniwo fotowoltaiczne Jednym z najwcześniej wykonanym ogniwem fotowoltaicznym [1] jest ogniwo na waflu półprzewodnika typu p. Na przednią powierzchnię wafla naniesiona została tzw. warstwa emitera n+, wykonaną najczęściej przez domieszkowanie fosforu na powierzchnię. Na tę powierzchnię nałożono elektrody (Ag), a następnie ogniwo pasywowano przez dielektryk (np. \\( SiN_{x} \\)), który działa także jako warstwa antyrefleksyjna. Tylna powierzchnia półprzewodnika Si typu p jest pokrywana aluminium tworząc z Si złącze, które przeciwdziała docieraniu ładunków mniejszościowych do tylnej powierzchni ( Rys. 1 ).", "Ogniwo typu PERC (ang. Passivated Emitter and Rear Cell) to technologia pasywacji emitera i tylnej części ogniwa. W odniesieniu do standardowych ogniw, ogniwo typu PERC [2] posiada dodatkową warstwę dielektryka, która zwiększa efektywność ogniwa przez to, że odbija każde światło docierające do tylnej warstwy ogniwa, nie generując ekscytonu. Dzięki temu odbiciu, fotony mają drugą szansę na wytworzenie prądu.", "Ogniwo typu PERC może zmniejszyć rekombinację elektronów na tylnej powierzchni poprzez dodanie dodatkowej warstwy dielektrycznej między warstwami krzemu i elektrodą aluminiową, tak aby tylko aluminium stykało się z niewielką częścią obszaru ogniwa. Dodatkowe warstwy dielektryczne \\( SiO_{2} \\) i \\( Al_{2}O_{3} \\) znacznie redukują rekombinację elektronów na powierzchni, co prowadzi do zwiększenia wydajności ogniwa. W ogniwie fotowoltaicznym typu PERC, jak pokazano na Rys. 2, zarówno przednia, jak i tylna jego powierzchnia są pasywowane przez dielektryk. Małe otwory tylnej warstwy dielektrycznej są wytworzone laserem, dzięki czemu metal elektrody może skontaktować się z tylną powierzchnią ogniwa. W porównaniu do konwencjonalnych ogniw fotowoltaicznych Si, ogniwo typu PERC jest w stanie poprawić wydajność, głównie ze względu na dodatkową pasywacyjną warstwę dielektryczną z tyłu. Dodatkowa tylna warstwa dielektryczna odbija fotony z powrotem do ogniwa. Powoduje to wydłużenie drogi optycznej fotonu, a przez to większą absorpcję światła i zwiększenie generowania prądu.", "Ogniwa fotowoltaiczne typu PERT [3]. Innowacyjnym i jeszcze bardziej wydajnym elektrycznie rozwiązaniem, w stosunku do PERC, jest ogniwo fotowoltaiczne typu PERT (ang. Passivated Emitter Rear Cell Totally Diffused). W tylnej warstwie pasywacyjnej tego ogniwa nie ma otworów i dlatego nie pozwala ona na ucieczkę elektronów, tylko zmusza je do odbijania się od tyłu ogniwa i ponownego krążenia w nim, dając elektronom szansę na dostanie się do złącza p-n. W technologii PERT warstwa pasywacyjna stawia barierę, zapobiegając ucieczce elektronów, co sprawia, że po odbiciu od tylnej warstwy trafiają do ogniwa, co zwiększa uzysk energii. Poniższa grafika obrazuje to zjawisko ( Rys. 3 ).", "Ogniwa typu PERT posiadają większą możliwość absorpcji promieniowania słonecznego, a tym samym większą wydajność. Pasywacja tylnej części ogniwa powoduje odbicie promieni słonecznych w kierunku aktywnej części ogniwa, przez co zwiększa drogę optyczną promienia w ogniwie. Szczególnie jest to ważne dla promieniowania w obszarze podczerwieni, ponieważ absorpcja w tym obszarze charakteryzuje się małym współczynnikiem ekstynkcji. Celem zaabsorbowania promieniowania z obszaru widma w podczerwieni (λ > 800 nm do 1100 nm dla krzemu) trzeba wydłużyć drogę optyczną promienia, co przekłada się na zwiększenie absorpcji i wygenerowanie większej energii. Zastosowanie dodatkowej warstwy krzemu z wdyfundowanym borem pozwala na odcięcie elektrody od ingerencji promieni świetlnych, ponieważ promieniowanie podczerwone zaabsorbowane przez elektrody, a nie zamienione na energię elektryczną, podgrzewa strukturę ogniwa obniżając jego wydajność. Dlatego też dąży się do wykorzystania tej części energii promieniowania słonecznego. Ogniwa typu PERT to ogniwa wykorzystujące światło odbite także od powierzchni Ziemi oraz energii słonecznej rozproszonej.", "Ogniwa typu PERT są budowane w oparciu o wafle krzemowe typu p albo typu n pokazuje Rys. 4. W przypadku konstrukcji ogniwa na waflu krzemowym typu p, warstwa rozpraszająca jest tworzona za pomocą domieszkowania borem tylnej warstwy wafla krzemowego typu p. Warstwa przednia, emiter wafli typu n powstaje poprzez dyfuzję fosforu. W przypadku oparcia konstrukcji ogniwa na waflu krzemowym typu n, emiter, czyli warstwa przednia, uzyskiwana jest przez dyfuzję boru, a tylna przez dyfuzję fosforu ( Rys. 4b). Ogniwa typu PERT nie wykazują znaczącej degradacji wywołanej światłem i mogą być dostosowane do struktury ogniw dwustronnych."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "7. Panele fotowoltaiczne", "subject_id": 1066, "subject": "7.1 Panele fotowoltaiczne", "paragraphs": ["Ogniwo fotowoltaiczne jest podstawowym elementem systemu fotowoltaicznego. Pojedyncze ogniwo fotowoltaiczne produkuje zazwyczaj pomiędzy 1 a 2 W mocy, co jest niewystarczające dla większości zastosowań. Dla uzyskania większych napięć lub prądów, ogniwa fotowoltaiczne łączone są szeregowo lub równolegle, tworząc panel fotowoltaiczny (panel PV, zwany czasem modułem fotowoltaicznym). Panele PV dostępne na rynku mają powierzchnię od 0,3 do 2 \\( m^{2} \\) w zależności od mocy. Moc takich paneli wyrażana jest w watach mocy szczytowej (Wp – maksymalna moc w watach), zdefiniowanych jako moc dostarczana przez nie w warunkach standardowych (STC); zwykle kształtuje się ona pomiędzy 30 Wp a 600 Wp. W praktyce, panele PV rzadko pracują w warunkach standardowych, więc użyteczne jest posiadanie charakterystyk prądowo-napięciowych I(U) w szerokim zakresie warunków pracy. Panele PV są hermetyzowane, aby uchronić je przed korozją, wilgocią, zanieczyszczeniami i wpływami atmosfery. Obudowy muszą być trwałe, ponieważ oczekuje się, że czas życia paneli fotowoltaicznych wynosił będzie przynajmniej 20-30 lat. Każdy panel PV składa się z ogniw fotowoltaicznych. Tradycyjne ogniwa fotowoltaiczne mają zwykle wymiary 156 mm x 156 mm, połączone są szeregowo i zależnie od rodzaju jest ich w panelu PV zazwyczaj 60 lub 72. Ogniwa fotowoltaiczne wykonywane są w technologii monokrystalicznej, polikrystalicznej, amorficznej i cienkowarstwowej. Różnice między nimi wynikają z rodzaju materiału użytego do ich produkcji. Ogniwo krzemowe daje napięcie około 0,6 V, co po połączeniu ogniw w szereg daje około 36 V, a ponieważ każde ogniwo fotowoltaiczne oddaje około 9 A prądu, maksymalna moc z panelu PV wynosi około 300 W. Moc jest zależna od technologii wykonania ogniwa fotowoltaicznego. Pojawiają się już technologie i producenci zapowiadający wprowadzenie na rynek paneli PV o mocy 500 W lub 600 W i więcej. Na przykład, Canadian Solar zapowiada produkcję paneli PV o mocy 665 W, zbudowanych ze 132 monokrystalicznych ogniw PERC, o długości boku 210 mm, o wydajności sięgającej \\( 21,4\\% \\) [1]. Panele fotowoltaiczne wytwarzają prąd stały. Natężenie prądu na wyjściu z panelu zależy ściśle od nasłonecznienia. Natężenie prądu można zwiększyć poprzez równoległe połączenie paneli PV w systemie fotowoltaicznym. Napięcie otrzymywane z panelu PV w niewielkim stopniu zależy od poziomu nasłonecznienia, natomiast można go regulować poprzez szeregowe i równoległe łączenie ogniw fotowoltaicznych w panelu PV. Panele fotowoltaiczne mogą pracować przy napięciu 12 V lub 24 V w instalacji odizolowanej, natomiast, gdy są podłączone do sieci energetycznej przy napięciu 240 V lub więcej. Budowę panelu fotowoltaicznego można określić jako budowę \"kanapkową\", czyli taką, która składa się z nakładanych kolejno warstw materiałów i elementów. Produkcję panelu PV zaczyna się od warstwy wierzchniej, czyli od szkła; można powiedzieć, że panel PV składany jest od góry do dołu. Zatem cały proces opisany będzie od górnej warstwy panelu PV, a na jego warstwie dolnej kończąc. Od góry, czyli od strony słonecznej, przed uszkodzeniami mechanicznymi panel PV chroniony jest hartowaną szybą o grubości 3,2 mm lub 4 mm. Szyba ta zmniejsza też ilość odbitego promieniowania słonecznego, ograniczając straty energii, które powodują zmniejszenie uzyskanej przez panel PV mocy. W celu zmniejszenia odbicia światła pomocne jest wypolerowanie powierzchni szkła, pokrycie jej warstwą przeciwodblaskową lub zastosowanie teksturowania powierzchni. Z kolei ogniwa krzemowe ( Rys. 1 ) są pokryte warstwą antyrefleksyjną oraz bardzo cienką metalową siatką i wraz z przewodzącymi prąd szynami zbiorczymi (busbarami) są zabezpieczone folią EVA, tworzącą hermetyczną osłonę. Proces wytwarzania został przedstawiony w filmie \"Solar cell manufacturing and solar panel production by suntech\".", "Na przedniej stronie konwencjonalnych ogniw fotowoltaicznych umieszczona jest elektroda ujemna, którą stanowią cienkie poziome ścieżki (fingers, palce). Palce na bieżąco zbierają ładunki wygenerowane na powierzchni ogniwa fotowoltaicznego, które następnie odbierane są przez szersze pionowe ścieżki, szyny zbiorcze, tzw. busbary. Elektroda dodatnia usytuowana jest na tylnej części ogniwa. Z busbarów prąd przepływa do miedzianej wstążki, która łączy elektrodę ujemną jednego ogniwa z elektrodą dodatnią drugiego. Wstążki umożliwiają więc transport generowanego foto prądu z obszaru jednego ogniwa fotowoltaicznego do następnych ogniw tworzących panel. Dziesięć lat temu wszystkie panele PV były budowane z ogniw fotowoltaicznych zawierających 2 busbary. Obecnie większość paneli fotowoltaicznych bazuje na konstrukcji ogniw fotowoltaicznych zawierających co najmniej 5 busbarów. Zwiększenie liczby busbarów wpływa na podniesienie wydajności ogniw fotowoltaicznych, a także na ich trwałość. Od dołu szczelność panelu PV zapewnia specjalna folia elektroizolacyjna, tzw. backsheet, która nadaje mu też odpowiedni kolor (najczęściej biały, czarny, lub transparentny). Do usztywnienia całej konstrukcji służy rama aluminiowa. Kolejnym elementem jest puszka przyłączeniowa, z której wychodzą dwa kable zakończone wtyczkami, łączące panele w szeregi. W tej puszce znajdują się też diody bocznikujące (bypassy) [2]. Diody bocznikujące są niezbędnym elementem panelu fotowoltaicznego, chroniącym oraz usprawniającym jego działanie. Ogniwa fotowoltaiczne połączone są ze sobą szeregowo w kierunku przewodzenia ( Rys. 2 ). Gdyby któreś ogniwo przestało przewodzić, cały panel PV byłby wyłączony z produkcji prądu, ale diody bocznikujące podłączone w kierunku zaporowym umożliwiają obejście niepracującego ogniwa fotowoltaicznego. Redukują też ryzyko uszkodzenia zacienionego ogniwa fotowoltaicznego – przez zacienione (liśćmi, śniegiem) ogniwo prąd przepływa w kierunku przeciwnym, co powoduje znaczące przegrzanie ogniwa fotowoltaicznego. Przy podłączeniu kilku paneli fotowoltaicznych szeregowo celem zwiększenia napięcia, prąd płynący w obwodzie będzie równy prądowi najsłabszego elementu układu. W przypadku zacieniania jednego z paneli fotowoltaicznych (np. przez komin czy okno wykusza), moc układu radykalnie zmniejszy się. Diody bypass wyłączając z łańcucha zacieniony panel PV, zredukują straty w całej instalacji. Prąd przepływa jak na Rys. 3. Niektóre puszki posiadają specjalny rozłącznik, który rozłączy szereg lub pojedynczy panel PV w razie awarii.", "Na Rys. 4 pokazano przykładowe podłączenie trzech i dziesięciu diod bypass, które sprawia, że w trakcie zacienienia części panelu PV, ta część zostaje wyłączona z działania.", "Włączenie diod bypass do panelu fotowoltaicznego powoduje podzielenie panelu na 3 części w przypadku włączenia trzech diod bypass i na 10 części w przypadku dziesięciu diod bypass. Taki podział pozwala na wykorzystanie każdej części osobno do produkcji energii elektrycznej niezależnie od stanu pozostałych elementów ogniwa fotowoltaicznego. W tablicach określających właściwości paneli fotowoltaicznej zwykle są podawane:", "Właściwości te umożliwiają ocenę jakości ogniw fotowoltaicznych, które tworzą panel PV jak i sam panel. Panele PV dzielą się na trzy klasy A, B i C. Panele PV klasy A powinny mieć współczynnik wypełnienia FF powyżej 0,75. Trzeba także wziąć pod uwagę, że nasłonecznienie w Polsce zazwyczaj jest w granicach od 200 \\( \\frac{W}{m^{2}} \\) do 600 \\( \\frac{W}{m^{2}} \\) i uwzględnić to przy planowaniu elektrowni fotowoltaicznej."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "7. Panele fotowoltaiczne", "subject_id": 1071, "subject": "7.2 Technologie paneli fotowoltaicznych", "paragraphs": ["Panele fotowoltaiczne zbudowane są z ogniw. Zazwyczaj jest ich 60, lub 72, a czasem więcej, w zależności od mocy, jaką zamierza się uzyskać z pojedynczego panelu. Trzeba jasno powiedzieć, że wydajność komercyjnych ogniw fotowoltaicznych jest obecnie na poziomie \\( ~25\\% \\) i aby panel charakteryzował się większą mocą musi zajmować większą powierzchnię. Moc standardowego ogniwa (o wymiarach 156*156 mm*mm) wynosi około 5 Wp. Zatem, aby panel generował moc 800 Wp, musi składać się z 200 ogniw, co przekłada się na wielkość jego powierzchni. Standardowy panel montowany w popularnych instalacjach fotowoltaicznych ma wymiary 165 cm*100 cm. Czasem wymiary te różnią się nieznacznie, w zależności od producenta. Panel wykonany z krzemu monokrystalicznego o takich wymiarach charakteryzuje się mocą od 310 Wp do 340 Wp. W zależności od typu ogniwa, jakie zastosowano do budowy panelu, przyjmuje się jego nazwę, np. panel monokrystaliczny z oznaczeniem c-Si, panel polikrystaliczny – mc-Si, czy panel amorficzny – a-Si. Oprócz typowo krzemowych, produkowane są także panele cienkowarstwowe, w tym przypadku nazwy nadawane są w zależności od rodzaju warstwy aktywnej w ogniwie. I tak, np. panel fotowoltaiczny CIGS/CIS zbudowany jest z jednej strony z mieszaniny miedzi, indu, galu i selenu, a z drugiej z miedzi, indu i selenu (CIS). Wśród paneli fotowoltaicznych, ze względu na budowę ogniwa oraz całego panelu, można wyodrębnić grupy, takie jak np.: panele cienkowarstwowe, panele z kontaktami z tyłu, panele typu HIT, panele typu PERC, panele dwustronne, panele wykonane w technologii SmartWire. Oczywiście, w każdej grupie można określić dodatkowe rodzaje, które będą się wyróżniały jakimś elementem, np. ogniwa cienkowarstwowe połączone ze sobą w technologii SmartWire.", "Wewnętrzna cienka warstwa oparta na krystalicznym krzemie typu n znajduje się pomiędzy dwoma cienkimi warstwami amorficznymi. Technologię paneli monokrystalicznych opracowała firma Sanyo. Zaletą tego typu paneli jest zamiana niskoenergetycznego promieniowania (podczerwień) na energię elektryczną, niski temperaturowy współczynnik spadku mocy, który jest na poziomie \\( 0,29\\% \\)/ \\( _{}^{o}\\textrm{C} \\). Poza tym, obróbka wafla krzemowego odbywa się w niższej temperaturze, bo około 200 \\( _{}^{o}\\textrm{C} \\). Panele produkowane są też w kształcie sześciokąta (plaster pszczeli), co powoduje lepsze wykorzystanie krystalicznego krzemu.", "Typowe ogniwo fotowoltaiczne wykonane na bazie półprzewodnika Si typu p pokazuje Rys. 1. Na rysunku a) pokazano schematyczne ogniwo, na rysunku b) rzeczywiste ogniwo wykonane w technologii 2 busbarów, czyli 110 punktów wspólnych z palcami zbierającymi ładunki, a na rysunku c) panel fotowoltaiczny wykonany w technologii z 2 busbarami.", "Obecnie można spotkać technologię z 2, 3, 5 busbarami, ale także i z 12 drutami pełniącymi rolę busbarów ( Rys. 2 ).", "Panele wykonane w technologii busbarów z 12 drutami są nadal lutowane punktowo w temperaturze 250 \\( _{}^{o}\\textrm{C} \\), co powoduje naprężenia w ogniwie. W podobny sposób produkowane są panele z krzemu polikrystalicznego lub amorficznego.", "Technologia 'all back contact' z obiema elektrodami z tyłu mają stosunkowo wysoką sprawność do \\( 24\\% \\). Przednia część panelu jest jednorodna, nie widać na niej żadnych elektrod. Umiejscowienie elektrod z tyłu przyczynia się do większej odporności na korozję połączeń elektrycznych. Wadą tego rozwiązania jest tzw. efekt degradacji PID, czyli degradacja związana z występowaniem wysokich napięć (~600V) pomiędzy ramą panelu, a półprzewodnikiem. Powoduje to przepływ ładunków do ziemi i spadek mocy panelu. Z tego względu konieczne jest uziemienie bieguna dodatniego i odpowiedni dobór falownika, aby dostosować go do zaistniałego problemu.", "Polega ona na zastąpieniu klasycznego lutowania przez laminację folią, zawierającą 18 do 32 mikroprzewodów, które tworzą z palcami zbierającymi ładunki 990 do 1760 punktów kontaktowych. Pozwala to na zmniejszenie temperatury, w której wytwarzany jest panel fotowoltaiczny do 150 \\( _{}^{o}\\textrm{C} \\) na całej powierzchni, a nie punktowo, jak w przypadku lutowania w 250 \\( _{}^{o}\\textrm{C} \\). Folia z przewodami jest zakładana z przodu i tyłu panelu. Umożliwia to producentom zaoszczędzenie pasty srebrnej i materiału lutowniczego. Tak duża ilość punktów kontaktowych pozwala pracować ogniwu nawet przy mikropęknięciach.", "Ogniwo fotowoltaiczne w panelu gontowym [1] jest cięte na 3 do 6 pasków, które następnie montowane są w ciągi, łączące przód każdego paska z tyłem następnego za pomocą odpowiedniego kleju przewodzącego elektrycznie (ECA), który może być drukowany lub dozowany na powierzchni paska. Poszczególne ogniwa montowane są \"na zakładkę”, czyli każdy, cienki pasek lekko zachodzi na kolejny, a ich łączenia ukryte są pod pojedynczymi \"busbarami” ( Rys. 3 ) [2]. Aby otrzymać wymagany układ panelu, trzeba podzielić ogniwo na odpowiednią liczbę części. Zazwyczaj montowane są ciągi pasków o długości do 2 m, co odpowiada dłuższej stronie tradycyjnego panelu z 72-ogniwami. Ciągi pasków są następnie łączone ze sobą przez wstążki przewodzące, montowane według tradycyjnej procedury produkcji panelu fotowoltaicznego.", "Taka konstrukcja umożliwia optymalne wykorzystanie powierzchni całego panelu, co zwiększa jego obszar aktywny, a tym samym pozwala na uzyskanie wyższej wydajności z 1 \\( m^{2} \\) powierzchni nawet o \\( 15\\% \\).", "Podsumowując, w panelach wykonanych w technologii Shinegled powierzchnia panelu jest lepiej wykorzystana, są mniejsze straty omowe oraz zwiększona niezawodność. Mniejsze straty omowe to także niższa temperatura pracy ogniwa."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "7. Panele fotowoltaiczne", "subject_id": 1063, "subject": "7.3 Panele fotowoltaiczne wykonane technologią typu PERC", "paragraphs": ["Technologia typu PERC (ang. Passivated Emitter and Rear Cell) jest technologią pasywacji emitera i tylnej części ogniwa. Określa ona konstrukcję ogniwa fotowoltaicznego różniącego się od budowy standardowego ogniwa. Różnica polega na dołożeniu dodatkowej warstwy pasywującej od tyłu ogniwa. Warstwa ta odbija promienie słoneczne, nie zaabsorbowane przez warstwę, z powrotem do ogniwa fotowoltaicznego, zwiększając prawdopodobieństwo absorpcji tych promieni a przez to i produkcję energii elektrycznej. Jest to spowodowane niskim współczynnikiem ekstynkcji dla długości fal w obszarze podczerwieni (powyżej 800 nm). Ogniwo fotowoltaiczne wykonane w technologii PERC po raz pierwszy zostało zademonstrowane na Uniwersytecie Nowej Południowej Walii (UNSW) w Australii w 1983 r. [1]. Technologia ta osiągnęła wydajność \\( 25\\% \\).", "Tak wysoka wydajność ogniw typu PERC jest dobrą podstawą budowania paneli fotowoltaicznych. Ogniwa PERC mają dobre rezultaty w pochmurne dni, tak porankiem jak i wieczorem. Powyżej długości fali \\( \\lambda =1180 nm \\) ogniwo oparte na krzemie nie absorbuje. Ponieważ warstwa pasywacji odbija światło z powrotem do ogniwa, zmniejszając poziom absorpcji przez warstwę tylną, zmniejsza to też nagrzewanie panelu. To zmniejszenie absorpcji pomaga panelowi pracować w niższych temperaturach i pozytywnie wpływa na jego wydajność energetyczną.", "Technologia PERC zwiększa czułość paneli dla długości fal w podczerwieni [2]. Poniżej pokazano parametry panelu fotowoltaicznego opartego na monokrystalicznym krzemie typu PERC przez jednego z producentów. Prezentowane przez firmę panele fotowoltaiczne to ogniwo z 12 busbarami ( Rys. 2 ) oraz panel z 60 ogniwam i panel z ogniwami połówkowymi, gdzie każde ogniwo jest połączone z następnym przez 12 busbarów.", "Zob. przykład karty katalogowej panelu fotowoltaicznego wykonanego w technologii PERC z ogniwami połówkowymi."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "7. Panele fotowoltaiczne", "subject_id": 1064, "subject": "7.4 Panele wykonane z ogniw połówkowych", "paragraphs": ["Fotowoltaiczne panele połówkowe to nowa technologia wykorzystywana już w produkcji seryjnej. Ogniwo połówkowe o rozmiarze 156x78 \\( mm^{2} \\) powstaje poprzez podzielenie tradycyjnego ogniwa 156x156 \\( mm^{2} \\) na pół. Panel połówkowy zbudowany jest z dwukrotnie większej liczby ogniw połówkowych łączonych w łańcuchy, które są połączone równolegle. Podział ogniwa na pół powoduje zmniejszenie o połowę prądu produkowanego przez pojedyncze ogniwo, przy zachowaniu tego samego napięcia. Zmniejsza też straty na rezystancji wewnątrz ogniwa, a tym samym nie podnosi temperatury pracy ogniwa. Zwiększa to nieznacznie moc generowaną przez panel. W panelu jest 120 ogniw połówkowych, które połączone są 3 diodami bocznikującymi bypass, dzieląc panel na 6 części po 20 ogniw, pracujących oddzielnie ( Rys. 1 ). W panelach standardowych z 60 ogniwami również zamontowane są 3 diody bypass, które też obejmują po 20 ogniw ( Rys. 1 ), ale dzielą one taki panel na 3 części. Diody bocznikujące, bypassy, są połączone w kierunku zaporowym i w sytuacji, gdy dane ogniwo/a nie pracuje (np. z powodu zacienienia) umożliwia przepływ prądu z ominięciem niepracującego ogniwa/ogniw. Oznacza to, że gdy w panelu standardowym zostaje zacienione jedno ogniwo dioda bypass wyłączy 1/3 panelu, natomiast w panelu z ogniwami połówkowymi zostanie wyłączone tylko 1/6 panelu, co z oczywistego powodu przekłada się pozytywnie na moc wyprodukowaną przez panel.", "Pracę panelu przy wyłączeniu jednego ogniwa w panelu standardowym i połówkowym pokazano na Rys. 2.", "Jak widać na Rys. 2, ilość produkowanej energii przez panele z ogniwami połówkowymi w niesprzyjających warunkach zacienienia jest wyższa. Straty zostały zminimalizowane o \\( 50\\% \\). Jeszcze większa różnica wystąpi w przypadku zacienienia połowy panelu. Taka sytuacja w naszych warunkach może się zdarzyć, np. z powodu śniegu, na instalacjach dachowych czy naziemnych ustawionych pod kątem. Panel standardowy zostanie wówczas całkowicie wyłączony z produkcji energii elektrycznej, zaś panel z ogniwami połówkowymi będzie pracował z wydajnością \\( 50\\% \\) mocy [1].", "Każda litera oznacza część panala składająca się z 20 półogniw. Są one połączone ze sobą szeregowo i równolegle i dodatkowo przez diody bypass. Pozwala to pracować panelowi wydajnie. Panel fotowoltaiczny zbudowany z ogniw połówkowych charakteryzuje się mniejszymi stratami mocy, w porównaniu z panelem standardowym. Moc stracona na oporniku wewnętrznym jednego ogniwa wynosi", "a pomnożona przez 60 ogniw w standardowym panelu wynosi", "Straty na ogniwie w panelu połówkowym równają się", "co pomnożone przez 120 ogniw daje \\( 15\\cdot R\\cdot I^{2} \\), czyli są one 4 razy mniejsze. Powoduje to w konsekwencji niższą temperaturę pracy panelu i jego większą wydajność [2]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "7. Panele fotowoltaiczne", "subject_id": 1065, "subject": "7.5 Panele fotowoltaiczne dwustronnie aktywne", "paragraphs": ["Panele fotowoltaiczne dwustronnie aktywne to takie, których ogniwa absorbują światło z obu stron, tzn. z przodu i z tyłu (wykonane w technologii bifacial). Panele dwustronne posiadają dwie strony aktywne i z obu stron pokryte są szkłem hartowanym lub przeźroczystą folią. W tej technologii więcej fotonów dociera do panelu, więc produkowana energia jest większa od uzyskiwanej z paneli tradycyjnych, jednostronnych, nawet o \\( 30\\% \\).", "Ogniwa używane w panelach dwustronnych mają przeważnie struktury:", "Promienie słoneczne odbijają się od różnych podłoży w różnym procencie, w zależności od rodzaju podłoża. Dla efektywności paneli dwustronnych kluczowy jest tzw. współczynnik albedo, który pokazuje zdolność odbijania światła od danej powierzchni. Im powierzchnia jest jaśniejsza, tym więcej światła może odbić, co skutkuje uzyskaniem większej energii z tylnej powierzchni panelu. W przypadku powierzchni bardzo jasnych współczynnik albedo może być bliski nawet \\( 80\\% \\).", "Największym współczynnikiem albedo charakteryzuje się biała membrana dachowa i śnieg. Uzyskanie dodatkowej energii z tylnej powierzchni panelu dwustronnego zależy więc od podłoża, jego wysokiego współczynnika albedo, a ponadto od kąta nachylenia panelu i wysokości umiejscowienia nad powierzchnią odbijającą. Wytrzymałość na obciążenie i działanie związków chemicznych w przypadku paneli dwustronnych typu szyba–ogniwa–szyba jest większa od paneli jednostronnych. Podwójna szyba ma większą wytrzymałość mechaniczną, a i odporność szyby na działanie związków chemicznych jest większa niż dla folii EVA. Cena takiego panelu także jest wyższa. Produkuje się też panele, które mają rozsunięte ogniwa, dając możliwość specjalnych zastosowań. Podwójna szyba zapewnia ogniwom stabilność, co daje możliwość zastosowania tego typu konstrukcji do zadaszania tarasów, wiat czy wstawiania do dużych połaci pokrytych szybą, a wymagających zaciemnienia. W ten sposób panel dwustronny może pełnić rolę nie tylko producenta energii, ale także być wykorzystywany do realizacji innych celów użytkowych i estetycznych.", "Polski producent Hanplast Energy rozpoczyna produkcję ogniw fotowoltaicznych w technologii HPERC. Opracowane ogniwo stanowi pośrednie rozwiązanie pomiędzy ogniwami wykonanymi w technologii PERC i HIT. Technologia ta ma bazować na ogniwach monokrystalicznych HJT typu n. Zastosowano łączenie ogniw w technologii SmartWire Connection Technology (SWCT). Producent deklaruje sprawność panelu w zakresie \\( 23-24\\% \\), czyli do \\( 10\\% \\) wyższą wydajność niż dla konwencjonalnych paneli, \\( 87,25\\% \\) początkowej mocy panelu po 25 latach pracy, większy uzysk energii nawet do \\( 30\\% \\). Wszystko to dzięki zastosowaniu technologii ogniw dwustronnych ( Rys. 3 ) [1], [2], [3]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "7. Panele fotowoltaiczne", "subject_id": 1059, "subject": "7.6 Systemy solarno-termalne", "paragraphs": ["Ogniwami hybrydowymi (kolektorami hybrydowymi, ang. Photovoltaic Thermal, PVT) nazywa się również układy w których zastosowano połączenie panelu słonecznego i kolektora [1]. Kolektory słoneczne przetwarzają energię promieniowania słonecznego na energię cieplną, panele zaś energię promieniowania słonecznego na energię elektryczną. W związku z powyższym kolektory mogą podgrzewać wodę użytkową oraz wspomagać pracę centralnego ogrzewania. Energię wytworzoną przez panele można również wykorzystać na różne sposoby. Jak zostało opisane w poprzednich rozdziałach wydajność ogniw fotowoltaicznych na bazie krzemu zmniejsza się wraz ze wzrostem temperatury. Tempo tego wzrostu opisuje współczynnik temperaturowy1. Przykładowy układ został przedstawiony na Rys. 1 [2].", "Dużą zaletą jest posiadanie jednej, zamiast dwóch osobnych, instalacji. Takie rozwiązanie pozwala na zaoszczędzenie miejsca, w przypadku ograniczonej przestrzeni przewidzianej na realizację instalacji. Przykładową realizacją jest panel ISIEtherm [3], który według producentów ma zapewnić wzrost elektrycznego zysku (uzyskanego z energii słonecznej) o co najmniej \\( 10\\% \\) rocznie względem układów bez koncentratorów. Może on być wykorzystany do instalacji w basenach kąpielowych, obiektach hotelowych i jako pompy cieplne."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "8. Parametry ogniw i paneli", "subject_id": 802, "subject": "8.1 Pomiar parametrów ogniwa", "paragraphs": ["Pomiar parametrów elektrycznych pojedynczego ogniwa odbywa się przy użyciu urządzenia zwanego symulatorem słońca. Symulator słońca/ sztuczne słońce (ang. solar simulator / artificial sun simulator) jest urządzeniem laboratoryjnym, które wytwarza oświetlenie zbliżone do naturalnego światła słonecznego. Zadaniem symulatora słonecznego jest zapewnienie w warunkach laboratoryjnych kontrolowanego stanowiska badawczego, służącego do badania ogniw słonecznych. Symulator słoneczny wyznacza charakterystykę prądowo-napięciową, a oprogramowanie z nim zintegrowane wyznacza parametry ogniwa. W wybranych modelach możliwa jest zmiana temperatury lub symulacja zjawisk pogodowych [1]. Pomiar charakterystyki prądowo-napięciowej wykonywany jest w standardowych warunkach testowych (ang. Standard Test Conditions, STC): natężenie promieniowania 1000 \\( \\frac{W}{m^{2}} \\), widmo słoneczne AM 1.5, temperatura ogniwa powinna wynosić 25°C.", "Alternatywnymi warunkami testowymi rzadziej stosowanymi do pomiarów są tzw. warunki nominalnej temperatury pracy modułu fotowoltaicznego (ang. Normal Operating Cell Temperature – NOCT). Według NOTC ogniwo jest oświetlane promieniowaniem słonecznym o natężeniu 800 \\( \\frac{W}{m^{2}} \\), w temperaturze 20 \\( _{}^{o}\\textrm{C} \\) i prędkości wiatru równej 1 m/s. Wydajności otrzymywane w pomiarach wykonanych w warunkach NOTC są niższe o około \\( 30\\% \\), za to zbliżone do wydajności rzeczywistych [2]. Symulatory słoneczne muszą spełniać normy widma słonecznego określone przez Międzynarodową Komisję Elektrotechniczną (IEC). Widmo spektralne światła wychodzącego ze źródła w symulatorze słonecznym jest kontrolowane zazwyczaj przy użyciu filtrów. Sprawdzana jest też jego stabilność czasowa oraz jednorodność przestrzenna. Żywotność lampy w zależności od zastosowania wynosi 1000-5000 godzin. W zależności od stopnia wypełnienia warunków normatywnych przypisana jest każdemu urządzeniu odpowiednia klasa. Parametry symulatora słonecznego określa się w trzech kategoriach: dopasowanie widmowe, nierównomierność przestrzenna i niestabilność czasowa. Każda z kategorii szergowana jest w trzech klasach A, B, C [3]. Klasa AAA, zgodnie z normami IEC 60904-9, ASTM E927 i JIS C8912, jest symbolem wypełnienia trzech różnych parametrów normy, czyli Class A Spectral Match (dopasowanie widma do widma AM1.5 powinno się mieścić w zakresie 0,75–1,25, jako 1,00 rozumiemy widmo dopasowane idealnie), Class A Spatial Uniformity (dopuszczalna niejednorodność wynosi mniej niż \\( 2\\% \\) dla ogniw o średnicy do 20 cm, a \\( 3\\% \\) dla ogniw większych) i Class A Temporal Stability (niestabilność musi być mniejsza niż \\( 2\\% \\)). Wypełnienie warunków normatywnych pozwala na wykonywanie testów z najwyższą precyzją. Badania wykonane takim urządzeniem stanowią podstawę oceny technicznej ogniwa. Ogniwa fotowltaiczne wchodzące na rynek powinny być przebadane i posiadać dokument certyfikacji.", "Akademia Górniczo-Hutnicza posiada symulator światła słonecznego. Jest to urządzenie I-V Curve Tracer For Solar Cells Qualification (Klasa AAA, standard IEC 60891). Zbudowane jest ono z lampy, zasilacza, układu sterującego i pomiarowego, komputera z oprogramowaniem, stolika pomiarowego, kontrolera temperatury ( Rys. 1 ).", "Widok ogólny stanowiska przedstawiono na Rys. 2 [4]. W urządzeniu wykonywany jest pomiar tzw. metodą czteropunktową (ang. four probes Kelvin technique) 1 – stąd obecność elektrod tzw. napięciowych i prądowych.", "Urządzenie może mierzyć ogniwa słoneczne o maksymalnej wielkości 20cm x 20cm. Najważniejszą częścią zestawu pomiarowego jest zespół lamp z filtrem dający widmo podobne do AM1.5 oświetlające marmurowy stolik pomiarowy z zestawem elektrod ( Rys. 3 ). Zespół elektrod z mierzonym ogniwem fotowoltaicznym jest przedstawiony na Rys. 3b. Urządzenie posiada możliwość badania zależności wydajności ogniw od temperatury. Przed dokonaniem pomiarów symulator powinien być skalibrowany, odpowiednio dla ogniw monokrzemowych i polikrzemowych. Kalibrowane jest natężenie prądu zwarcia.", "Urządzenie jest sterowane przy pomocy oprogramowania komputerowego Solar Cell Tester. Program służy do rejestracji i opracowania charakterystyk prądowo-napięciowych. Ekran główny programu (pulpit operatora ( Rys. 4 ) ) przedstawia charakterystykę prądowo-napięciową (czerwone kropki), zależność mocy ogniwa od zmierzonego na nim napięcia (niebieska linia). Na ekranie głównym wyświetlane są min. zmierzone parametry ogniwa i warunki pomiaru. Z poziomu ekranu głównego można wprowadzić informacje na temat badanego ogniwa, przeprowadzana jest kalibracja oraz eksport otrzymanych wyników.", "Film prezentuje kompaktowy symulator firmy ISOSun Solar Simulator."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "8. Parametry ogniw i paneli", "subject_id": 1027, "subject": "8.2 Symulacja zmian parametrów ogniwa w programie PC1D", "paragraphs": ["Wpływ czynników na charakterystyki i parametry ogniw fotowoltaicznych można badać doświadczalnie. Przy projektowaniu ogniw użytecznym i tanim narzędziem są symulacje komputerowe. Przykładowym programem, w którym można przeprowadzić symulacje charakterystyk prądowo-napięciowych dla ogniw fotowoltaicznych jest PC1D. PC1D jest prostym programem udostępnianym bezpłatnie przez Uniwersytet Nowej Południowej Walii (Sydney). Program rozwiązuje sprzężone równania nieliniowe dla quasi-jednorodnego transportu elektronów i dziur urządzeniach półprzewodnikowych. W przedstawionych poniżej symulacjach została użyta wersja 5.9 programu. PC1D zawiera pliki biblioteczne o parametrach krystalicznych półprzewodników stosowanych w technologii fotowoltaicznej, takich jak krzem, german, arsenek galu, fosforyt indu itd. (zob. Rys. 1, Rys. 2 ) [1], [2].", "Symulacja została wykonana dla ogniw o powierzchni \\( 100cm^{2} \\) i grubości \\( 300\\mu m \\). Właściwości (widmo absorpcyjne, współczynnik odbicia, przerwa energetyczna, ruchliwość ładunków itd.) zostały zaimportowane z biblioteki materiałów programu. Symulacja zakłada oświetlenie ogniwa widmem AM1.5, o natężeniu światła 0,1 \\( \\frac{W}{cm^{2}} \\), w temperaturze 300 K.", "Parametry ogniwa zostały zebrane i przedstawione na Rys. 4.", "Następnie, aby określić sam wpływ temperatury na wydajność ogniwa krzemowego przeprowadzono symulację dla zakresu temperatury -30 \\( _{}^{o}\\textrm{C} \\) do 50 \\( _{}^{o}\\textrm{C} \\). Jak pokazano na Rys. 5 wydajność maleje linowo wraz ze wzrostem temperatury. W programie temperaturę można określić w Kelwinach lub stopniach Celsjusza. Algorytm programu uwzględnia wpływ temperatury na ruchliwość nośników, rekombinację powierzchniową i objętościową.", "Otrzymana z symulacji malejąca zależność liniowa wydajności ogniwa od temperatury jest zgodna z wynikami badań przeprowadzanymi na rzeczywistych ogniwach fotowoltaicznych (zob. rozdział: 8.3 Zmiany parametrów ogniwa z temperaturą )."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "8. Parametry ogniw i paneli", "subject_id": 1026, "subject": "8.3 Zmiany parametrów ogniwa z temperaturą", "paragraphs": ["Ogniwa i panele fotowoltaiczne pracują w zmieniających się warunkach atmosferycznych. Warunki te wpływają na parametry ogniw. Czynnikiem, mającym istotny wpływ na zmianę parametrów ogniwa, jest jego temperatura.", "Zmiany natężenia padającego światła i zmiana temperatury otoczenia oddziałują na temperaturę ogniw, wpływ ma również wilgotność oraz prędkość wiatru. Wiatr stanowi naturalny czynnik chłodzący. Na lepsze chłodzenie (wentylacje) może wpłynąć montaż paneli (umieszczenie paneli na stelażach zwiększa cyrkulację powietrza). W Polsce zakres rozważanych temperatur, w których pracują ogniwa fotowoltaiczne to przedział od -20 \\( _{}^{o}\\textrm{C} \\) do 70 \\( _{}^{o}\\textrm{C} \\) (standardowe panele fotowoltaiczne pracują w zakresie temperatur od -40 \\( _{}^{o}\\textrm{C} \\) do +85 \\( _{}^{o}\\textrm{C} \\)).", "Większe natężenie światła to większa ilość zaabsorbowanej energii, więc zwiększenie natężenia światła wpływa pozytywnie na wydajność ogniw. W przypadku powszechnie stosowanych ogniw krzemowych wraz ze wzrostem temperatury następuje zmniejszenie wydajności ogniwa.", "Wraz z temperaturą zmieniają się parametry materiałowe:", "Współczynnik absorpcji krzemu [1] i przerwa energetyczna [2] maleją wraz z temperaturą. Koncentracja nośników wzrasta ze wzrostem temperatury [3]. Ruchliwość nośników w półprzewodnikach zależy wykładniczo od temperatury. W niskich temperaturach temperaturowa zależność ruchliwości jest zależnością ( 1 ). We wzorze jako \\( \\mu \\) oznaczono ruchliwość nośników, a jako \\( T \\) temperaturę bezwzględną.", "Dla wysokich temperatur ruchliwość opisana jest zależnością ( 2 ).", "Wzrost temperatury związany jest też ze zmniejszeniem zdolności do rozseparowania dziur i elektronów oraz zwiększeniem rozpraszania nośników ładunku na drganiach sieci krystalicznej. Zmiany te powodują zmniejszenie napięcia złącza p-n i zmiany w ruchliwości nośników ładunków. W konsekwencji wraz ze wzrostem temperatury rośnie prąd zwarcia. W przypadku wzrostu temperatury z \\( 25_{}^{o}\\textrm{C} \\) do \\( 60_{}^{o}\\textrm{C} \\) zmiana napięcia obwodu otwartego wyniesie \\( 1,2\\% \\), natężenia mocy wyjściowej o \\( 1,3\\% \\), a współczynnika wypełnienia o \\( 1,0\\% \\) [4].", "W przypadku komercyjnego panelu fotowoltaicznego o podatności na zmiany temperatury informują parametry podawane na karcie katalogowej każdego ogniwa tzw. współczynniki temperaturowe. Współczynnik temperaturowy (ang. temperature coefficient) podawany jest dla mocy maksymalnej, napięcia obwodu otwartego i prądu zwarcia panelu. Panel powinien wykazywać temperaturę ogniw podczas pracy w warunkach NOTC (ang. Normal Operating Cell Temperature) równą co najwyżej \\( 45_{}^{o}\\textrm{C} \\) (im mniejsza wartość tym wyższej jakości jest panel).", "Na Rys. 1 zestawiono parametry temperaturowe dla czterech komercyjnie dostępnych paneli fotowoltaicznych: I - moduł monokrystaliczny BEM 355W White (Seria extreme plus) 66 ogniw (firma: Brukbet), II - moduł dwustronnie aktywny z ogniwami typu PERT, BEM 335W, III - Opti seria Nivo Extreme (firma: BrukBet), III - moduł polikrystaliczny serii SV60P o mocy 280Wp (firma: Selfa), IV- moduł monokrystaliczny serii SV60M o mocy do 315Wp (firma: Selfa).", "Zmiany wydajności w funkcji temperatury dla powyższych paneli fotowoltaicznych przedstawiono na wykresie ( Rys. 2 ).", "Jak można odczytać z wykresu Rys. 2, w temperaturze 60 stopni wydajność spada o \\( 1,5\\% \\) względem wartości w 40 stopniach Celsjusza. Ciągła praca paneli fotowoltaicznych w wysokich temperaturach niesie za sobą również ryzyko skrócenia ich żywotności. Ochrona i dłuższa żywotność może być zapewniana poprzez użycie dodatkowych warstw ochronnych (np. wzmocnionej foli elektroizolacyjnej lub dodatkowej tafli szklanej) oraz poprzez zapewnienie dobrej wentylacji."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "8. Parametry ogniw i paneli", "subject_id": 803, "subject": "8.4 Pomiar parametrów panelu", "paragraphs": ["Moc jaką można uzyskać z panelu fotowoltaicznego uzależniona jest od warunków w jakich panel pracuje i zależy przede wszystkim od natężenia promieniowania słonecznego oraz temperatury. Ponieważ porównywanie paneli pracujących w różnych warunkach nie jest miarodajne, wprowadzono 2 standardy ustalające w jakich warunkach należy przeprowadzać pomiary:", "W momencie projektowania systemu fotowoltaicznego należy korzystać z parametrów wyznaczonych w warunkach STC, natomiast warunki NOCT dają lepsze pojęcie o tym, jak będzie zachowywał się panel w rzeczywistych warunkach pracy w naszym klimacie. Pomiary paneli fotowoltaicznych przeprowadzane są w specjalistycznych komorach pomiarowych. Komory te charakteryzują się kontrolowanymi parametrami:", "Na Rys. 1 przedstawiono komorę do symulacji środowiska [2]. Spełnia ona wymienione powyżej warunki, za jej pomocą można przeprowadzić test STC oraz NOCT. Wielkość wnętrza 2m*3mi wysokość 2m. Ekran dotykowy pozwala na wprowadzenie parametrów warunków pomiaru panelu fotowoltaicznego: takich jak temperatura, wilgotność i natężenie oświetlenia. Na górze komory wyświetlany jest status komory pomiarowej. Elementy sterowania, wskaźniki, wyprowadzenia czujników pokazano na Rys. 2.", "Lampy MHG są zabezpieczone szklanymi pokrywami, które są podgrzewane celem ochronienia przed zaparowaniem. Czujniki temperatury i wilgotności służą do sterowania warunków w komorze pomiarowej. Otwory nawiewów wentylatorów wprowadzają przygotowane powietrze do wnętrza komory celem utrzymania zadanych warunków środowiska. Z tyłu komory znajdują nawilżacz i grzałka powietrza oraz parownik układu chłodniczego. Na rysunku widać także przepusty do przeprowadzenia przewodów pomiarowych oraz stolik pomiarowy. Każdy panel fotowoltaiczny posiada tabliczkę znamionową, na której pokazane są charakterystyczne parametry panelu Rys. 3.", "Celem ich wyznaczenia przeprowadza się badania charakterystyki prądowo-napięciowej. Pomiary przeprowadzane są za pomocą specjalistycznej aparatury, której schemat przedstawiono na Rys. 4 [2].", "Panel fotowoltaiczny umieszcza się w komorze umożliwiającej utrzymanie stałej temperatury i natężenia promieniowania. Następnie podpina się go do źródła napięcia sterującego i dokonuje pomiaru napięcia oraz prądu przepływającego przez panel PV. Całość jest sterowana przez komputer służący do rejestracji wyników pomiarowych i warunków środowiskowych. Poniżej pokazano typową zależność prądu od napięcia dla panelu fotowoltaicznego oraz charakterystyczne parametry elektryczne, opisujące panel fotowoltaiczny ( Rys. 5 ).", "Parametry ogniwa fotowoltaicznego, jakie uzyskano w określonej temperaturze pracy i określonym natężeniu promieniowania słonecznego to: \\( I_{sc} \\) – prąd zwarcia, czyli maksymalny prąd, jaki może wygenerować panel fotowoltaiczny, \\( I_{pm} \\) – prąd, przy którym można pobrać maksymalną moc z ogniwa fotowoltaicznego, \\( V_{oc} \\) – napięcie obwodu otwartego, czyli maksymalne napięcie, jakie można uzyskać z panelu fotowoltaicznego, \\( V_{pm} \\) – napięcie, przy którym można pobrać maksymalną moc z ogniwa fotowoltaicznego. Na podstawie danych do wykresu i wyznaczonych, podanych powyżej, wielkości oblicza się maksymalną moc, wydajność, temperaturowy wskaźnik mocy, temperaturowy wskaźnik napięcia Voc, temperaturowy wskaźnik prądu Isc. Przykładowe parametry elektryczne w standardowych warunkach STC dla panelu BS-330=6MHB5-EL z karty katalogowej Bauer Solartechnik GmbH:"], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "9. Systemy fotowoltaiczne", "subject_id": 798, "subject": "9.1 Systemy fotowoltaiczne wyspowe typu \"off-grid\"", "paragraphs": ["System fotowoltaiczny to elektrownia słoneczna, umożliwiającą przemianę energii słonecznej w energię elektryczną z wykorzystaniem paneli fotowoltaicznych. Podstawowy podział instalacji fotowoltaicznych opiera się na ich mocach. Wyróżnia się następujące typy instalacji odnawialnych źródeł energii [1]:", "Mikroinstalacja to instalacja odnawialnego źródła energii o zainstalowanej łącznej mocy elektrycznej (określonej przez producenta mocy znamionowej sprzętu, dzięki któremu następuje produkcja energii elektrycznej), nie większej niż 50 kW, przyłączonej do sieci elektroenergetycznej o napięciu znamionowym niższym niż 110 kV. Największą dynamikę wzrostu mocy zainstalowanej uzyskano w przypadku mikroinstalacji. Natomiast pod pojęciem małej instalacji rozumie się instalację o zainstalowanej łącznej mocy elektrycznej większej niż 50 kW i mniejszej niż 500 kW, przyłączoną do sieci elektroenergetycznej o napięciu znamionowym niższym niż 110 kV. Największą instalacją fotowoltaiczną są farmy fotowoltaiczne o mocy większej niż 500 kW, których moc może sięgać nawet rzędu kilkuset MW. W przypadku instalacji o mocy pomiędzy 500 kW, a 1 MW mówimy o średniej instalacji, natomiast powyżej 1 MW o dużej instalacji. Systemy fotowoltaiczne dzielimy na dwie grupy ze względu na sposób współpracy z siecią:", "Innym kryterium podziału rodzajów instalacji fotowoltaicznej jest możliwość śledzenia ruchu Słońca przez system PV. Pod tym względem można wyróżnić:", "W oparciu o metodę instalacji systemów fotowoltaicznych w budynku, systemy PV mogą zostać podzielone na dwa typy [4]: systemy fotowoltaiczne doinstalowane do budynku (BAPV), w których moduły PV nie mają bezpośredniego wpływu na konstrukcje budynków i są bezpośrednio mocowane do budynków za pomocą konstrukcji wsporczej [5], fotowoltaiczne systemy zintegrowane z budynkiem (BIPV), w których moduły PV są scalone ze strukturą budynku [6].", "Instalacje fotowoltaiczne wyspowe typu off-grid działa poza publiczną siecią elektroenergetyczną. System tego typu składa się z paneli fotowoltaicznych, inwertera, regulatora ładowania oraz zasobników energii. Schemat blokowy instalacji fotowoltaicznej wyspowej przedstawia Rys. 1.", "W tym typie instalacji wyprodukowana energia elektryczna w postaci prądu stałego jest zamieniana przez inwerter na prąd przemienny. W przypadku wyprodukowania nadwyżki energii jest ona magazynowana w tzw. zasobnikach energii w celu późniejszego wykorzystania. W instalacjach domowych najczęściej wykorzystywanymi zasobnikami energii elektrycznej są akumulatory. Systemy fotowoltaiczne wyspowe typu off-grid podzielone są na:", "Instalacje off-gridowe znajdują zastosowanie przede wszystkim w miejscach, dla których koszty podłączenia do sieci elektrycznej są zbyt duże lub ich podłączenie z jakichś powodów jest niemożliwe [7]. Przykładami tego typu miejsc mogą być np.: domy letniskowe, statki, jachty i samochody. Systemy fotowoltaiczne typu off-grid znajdują również zastosowanie w zasilaniu prądem ulicznych lamp, znaków drogowych oraz urządzeń przenośnych. Przykłady instalacji fotowoltaicznej pracującej w trybie off-grid został przedstawiony na Rys. 2, Rys. 3 oraz Rys. 4."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "9. Systemy fotowoltaiczne", "subject_id": 797, "subject": "9.2 Systemy fotowoltaiczne sieciowe typu \"on-grid\"", "paragraphs": ["Instalacja fotowoltaiczna przyłączona do sieci elektroenergetycznej typu on-grid stanowi największy odsetek wśród instalacji fotowoltaicznych. System tego typu składa się z paneli fotowoltaicznych, inwertera oraz układu przyłączeniowego do sieci. Schemat blokowy instalacji fotowoltaicznej typu on-grid przyłączonej do sieci 230 V został przedstawiony na Rys. 1, natomiast farmy fotowoltaicznej na Rys. 2.", "Rozliczenie z zakładem energetycznym odbywa się na zasadzie bilansu pod koniec okresu rozliczeniowego, czyli do 365 dni od chwili wprowadzenia energii do sieci [1]. W przypadku instalacji o mocy do 10 kWh możliwe jest odebranie z sieci \\( 80\\% \\) wygenerowanej energii, natomiast dla instalacji o mocy powyżej 10 kWh \\( 70\\% \\). Z tego względu instalacja typu on-grid wymaga zainstalowania licznika dwukierunkowego, którego zadaniem jest odpowiednio mierzenie ilości energii pobranej z sieci i oddanej do niej."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "9. Systemy fotowoltaiczne", "subject_id": 796, "subject": "9.3 Instalacje gruntowe", "paragraphs": ["Największe systemy stacjonarne instalowane są na gruncie. W przypadku budowy farm fotowoltaicznych o mocy zainstalowanej rzędu kilkuset MW powierzchnia, którą zajmuje instalacja jest rzędu kilkuset hektarów. Jedną z największych farm w Polsce jest instalacja fotowoltaiczna o mocy 2 MW w Sokołowie Małopolskim, zajmująca powierzchnię 4 hektarów, którą przedstawiono na Rys. 1. Instalacja została zbudowana na konstrukcji stalowej RS-12 firmy RECA SOLAR oraz w oparciu o technologię modułów dwustronnych tzw. bifacial. Farma złożona jest z 5970 sztuk modułów. Generalnym wykonawcą farmy jest firma Great Solar sp. z o.o. Budowa farmy została zakończona w 2020 r.", "Największą farmą fotowoltaiczną w Europie jest Núñez de Balboa o mocy 500 MW, która jest położona w gminie Usagre, w regionie Estremadura w Hiszpanii. Farma położona jest na obszarze blisko 1000 hektarów i składa się z 1,43 mln paneli i 115 falowników (dane z 2020 r.) [1]. Drugą pod względem wielkości farmą fotowoltaiczną w Europie jest Cestas Solar Park we Francji o mocy 300 MW. Instalacja zajmuje 250 hektarów i składa się z około miliona paneli. Farmę z lotu ptaka przedstawiono na Rys. 2. Na filmie \"Construction of PV power plant in Cestas\" przedstawiono budowę farmy Cestas Solar Par, natomiast na filmie \"Krinner Solarpark Cestas\" widok ukończonej budowy.", "Znalezienie dużych terenów nieużytków w Europie jest trudne w porównaniu do azjatyckich obszarów pustynnych i podgórskich. Jedną z największych na świecie farm fotowoltaicznych zainstalowaną na gruncie jest Tengger Desert Solar Park o mocy 1,547 GW (łączna moc zainstalowana w Polsce do maja 2020 r. wynosi 1,95 GW [2]). Farma znajduje się w Zhongwei w Chinach i zajmuje powierzchnię 4300 hektarów. Inną dużą farmą fotowoltaiczną na świecie jest Longyangxia Dam Solar Park w Chinach. Składa się z ponad 4 milionów paneli, a jej moc zainstalowana to 850 MW [3].", "Oprócz dużych farm fotowoltaicznych instalowane są systemy o mocach od kilku do kilkuset kW. Instalację tego typu przedstawiono na Rys. 2."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "9. Systemy fotowoltaiczne", "subject_id": 1028, "subject": "9.4 Instalacje pływające", "paragraphs": ["Pływające systemy fotowoltaiczne FPV (ang. floating fotovoltaics systems) to rodzaj instalacji montowanych na powierzchni zbiorników wodnych. Zastosowanie systemów FPV umożliwia uniknięcia problemów związanych z kosztami dzierżawy terenu, który staje się coraz droższy i mniej dostępny. Montaż instalacji PV na wodzie umożliwia także zwiększenie wydajności instalacji dzięki poprawie chłodzenia paneli ze względu na słabsze nagrzewanie się powierzchni wody w stosunku do powierzchni ziemi i zmniejszenie osadzania się kurzu. Montaż systemów pływających to także oszczędność terenów z punktu widzenia rolniczego i urbanistycznego. Negatywnym aspektem instalowania tego typu systemów może być wyłączenie części akwenu z gospodarki rybackiej, silne falowanie w przypadku instalacji morskich i oceanicznych, jak również problem z odbiorem energii [1]. Systemy fotowoltaiczne pływające są instalowane przez zastosowanie różnych rozwiązań montażowym. Panele fotowoltaiczne instalowane są nad wodą na pontonach wykonanych z tworzyw sztucznych np. polietylenu o dużej gęstości HDPE (ang. high density polyethylene). Instalacja zakotwiczona jest za pomocą ciężarków cementowych umieszczonych na dnie zbiornika wodnego lub ustawionych na jego brzegu. Instalację PV zakotwiczoną do dna zbiornika przedstawiono na Rys. 1.", "Instalacje pływające są wykonywane również poprzez wykorzystanie systemu częściowo zatopionego, w którym panele są częściowo zanurzone w wodzie, co umożliwia wzrost wydajności paneli dzięki ich chłodzeniu przez wodę [2]. W systemach częściowo zatopionych wykorzystuje się panele na elastycznych podłożach, które pływają bezpośrednio na wodzie. Panele unoszą się na powierzchni wody dzięki zastosowaniu pływaków umieszczonych przy krawędzi paneli i zakotwiczonych linami. Taką koncepcję montażu systemów PV po raz pierwszy przedstawiła firma MIRACO, instalując system o powierzchni łącznej 75 \\( m^{2} \\) oraz mocy 8 kW w miejscowości Comino na Malcie. Pierwszy system fotowoltaiczny pływający został wykonany w celach badawczych w 2007 r. w Aichi w Japonii o mocy 20 kW. Panele były umieszczone na płytach z polistyrenu piankowego i uniesione pod katem 1,3° w kierunku południowym [1]. Pierwszym komercyjnym systemem PV pływającym na wodach powierzchniowych była instalacja o mocy 175 kW. Instalacja została wykonana przez firmę SPG Solar w 2008 r. na terenie firmy Far Niente Winery. Pierwszą elektrownią fotowoltaiczną pływającą na morzu była farma wykonana przez firmę Ocean of Energy. Farma ta została zainstalowana w holenderskiej części Morza Północnego pod koniec listopada 2019 r. ( Rys. 2 ). Moc instalacji wynosiła początkowo 8,5 kW i składała się z 28 paneli, a 20 stycznia 2020 r. została zwiększona do 17,5 kW poprzez zainstalowanie kolejnych 28 paneli. Farma do chwili obecnej przetrwała klika burz w tym orkan „Sabina”, w czasie którego pozostała nienaruszona pomimo prędkości wiatru przekraczającego ponad 30 \\( \\frac{m}{s} \\), jak również 5-metrowych fal.", "Jedna z największych instalacji fotowoltaicznych pływających powstała na jeziorze w Anhui w Chinach. Liczy ona ponad 165 000 paneli fotowoltaicznych i produkuje rocznie 40 MWp energii elektrycznej [3]. Pływającą instalację w Anhui przedstawiono na filmie \"World's largest floating solar farm in E China\"."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "9. Systemy fotowoltaiczne", "subject_id": 1029, "subject": "9.5 Systemy PV ruchome - instalacje nadążne", "paragraphs": ["Systemy fotowoltaiczne ruchome to instalacje, których orientacja względem kierunku padania promieni słonecznych zmienia się wraz ze zmianą ruchu Słońca lub których położenie zmienia się wraz ze zmianą położenia obiektów, na których są zainstalowane. Ruchome instalacje PV podzielono na dwie główne grupy:", "Fotowoltaiczne systemy nadążne to takie systemy, w których płaszczyzna paneli obraca się w taki sposób, aby promienie słoneczne padały prostopadle do płaszczyzny panelu w celu zwiększenia ilości zaabsorbowanej energii. W porównaniu do systemów stacjonarnych systemy nadążne wytwarzają do \\( 40\\% \\) więcej energii elektrycznej w porównaniu do systemów stacjonarnych [5], [6]. Istnieją dwa rodzaje instalacji nadążnych. Do pierwszej grupy należą instalacje naziemne, w których panele umieszczone są na obrotowych słupach zwanych trackerami. Drugie to instalacje pływające, w których płaszczyzny paneli obracają się w kierunku aktualnej pozycji Słońca. Ze względu na liczbę płaszczyzn, w których odbywa się ruch paneli fotowoltaicznych, systemy dzielimy na jednoosiowe i dwuosiowe. Systemy jednoosiowe to instalacje z możliwością ruchu paneli ze wschodu na zachód tylko względem jednej osi obrotu. Trackery dwuosiowe umożliwiają jednoczesny ruch paneli względem dwóch osi obrotu [7]. Systemy nadążne dwuosiowe poruszają się ze wschodu na zachód wraz z możliwością zmiany kąta pochylenia paneli względem powierzchni ziemi. Na Rys. 1 przedstawiono typy trackerów jedno- i dwuosiowych.", "Zasadę działania obu typów trackerów przedstawiono na filmach \"Single Axial Solar Tracker\" i \"ASUN 2 Axis Solar Tracker\".", "Systemy nadążne dzieli się również ze względu na zastosowany system sterowania, a mianowicie na [8]:", "W układzie otwartym sterowanie położeniem trackera względem Słońca odbywa się na podstawie modeli matematycznych. Modele opierają się na danych określających położenie Słońca w określonym dniu i czasie dla danej szerokości geograficznej, czyli na kalendarzu astronomicznym. W trackerach ze sterowaniem w pętli zamkniętej położeniem instalacji steruje się za pomocą czujników np. fotorezystorów, czyli rezystorów o rezystancji zależnej od oświetlania LDR (ang. Light Dependent Resistor) [9], [10]. Inny sposób sterowania położeniem trackera polega na znalezieniu maksymalnego punktu mocy MPP (ang. maximum power point) [11]. Zmienia się on w zależności od natężenia promieniowania i temperatury. Działanie systemu sterowania z MPP polega na zmianie położenia instalacji w małych odstępach czasu i porównaniu uzyskanych wartości mocy. Na podstawie uzyskanego wyniku instalacja ustawia się w położeniu, dla którego otrzymuje najwyższą moc. W celu zwiększenia wydajności nadążnych systemów fotowoltaicznych wykorzystywane są także koncentratory promieniowania słonecznego CPV (ang. Concentrated Photovoltaics) [12]. Technologia CPV jest nową rozwijającą się technologią systemów fotowoltaicznych umożliwiającą skupianie promieniowania słonecznego na ogniwach PV poprzez zastosowanie soczewek lub zakrzywionych zwierciadeł.", "Instalacja nadążna naziemna składa się z zestawu paneli fotowoltaicznych umieszczonych na stelażu usytuowanym na obracającym się słupie. Przykładem nadążnej instalacji jednoosiowej jest system o mocy 172 MW znajdująca się w Telangana w Indiach ( Rys. 2 ) [13]. Cała instalacja składa się z ponad 520 000 paneli wykonanych z multikrystalicznego krzemu firmy Hareon Solar i zajmuje ponad 450 ha. Na Rys. 3 przedstawiono przykład instalacji nadążnej dwuosiowej.", "Fotowoltaiczne systemy nadążne wykonywane są także w jednej z najnowszych technologii CPV (ang. Concentrating Photovoltaics) z wykorzystaniem koncentratorów promieniowania słonecznego. Największą na świecie nadążną dwuosiową farmą fotowoltaiczną wykonaną w technologii CPV jest Golmud CPV Solar Park o mocy 138 MWp, która jest zlokalizowana w pobliżu miasta Golmud w Chinach ( Rys. 4 ) [14].", "Instalacje fotowoltaiczne zainstalowane na powierzchni wody są najrzadziej spotykanymi pośród wszystkich typów instalacji fotowoltaicznych. W tego typu instalacji panele są umieszczane na pływającej platformie i śledzą ruch Słońca poprzez jej obrót wokół własnej osi. Jeden ze sposobów wprowadzenia w ruch platformy z panelami PV polega na skręcaniu jej dzięki kołu tocznemu. Innym sposobem wprowadzenia w ruch obrotowy pływającej instalacji jest zastosowanie stałego miejsca do cumowania i sterowanie liną. Kolejnym przykładem pływającej instalacji nadążnej jest system fotowoltaiczny z koncentratorem promieniowania słonecznego FTCC (ang. Floating Tracking Cooling Concentrator). Instalacja FTCC składa się z pływających platform, na których zamontowane są poziomo panele fotowoltaiczne, a koncentratory pod kątem w stosunku do powierzchni paneli, co przedstawiono schematycznie na Rys. 5.", "System FTCC porusza się ruchem nieuporządkowanym wraz z falowaniem wody. Pierwszą tego typu instalację wykonano w Colignola w Toskanii w 2011 r.; przedstawiono ją na filmie \"Italian engineers pioneer floating solar panels\"."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "9. Systemy fotowoltaiczne", "subject_id": 1030, "subject": "9.6 Instalacje przenośne - przedmioty codziennego użytku", "paragraphs": ["Fotowoltaiczne systemy przenośne umożliwiają zasilanie prądem urządzeń i obiektów w miejscach, w których zasilanie tradycyjne z przyczyn technicznych byłoby niemożliwe lub utrudnione. Do tej grupy zaliczyć można m.in.: kalkulatory, zegarki, plecaki, ubrania, jak również zabawki. Przykłady przedmiotów codziennego użytku zostały przedstawione na Rys. 1, Rys. 2, Rys. 3."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "9. Systemy fotowoltaiczne", "subject_id": 1031, "subject": "9.7 Instalacje przenośne - środki transportu", "paragraphs": ["Panele fotowoltaiczne znajdują zastosowanie w środkach transportu jak np.: satelity, samoloty, samochody, jachty, łodzie, tramwaje wodne itp. Pomysłodawcą pierwszego samolotu zasilanego energią słoneczną, przedstawionego na Rys. 1, nazwanego Solar Impulse był Bertrand Piccard. Samolot wykonał swój pierwszy lot w 2010 r., a w 2016 r. zakończyła się jego podróż dookoła świata.", "Pierwszy bezzałogowy samolot w Polsce został stworzony przez Koło Naukowe AGH Solar Plane w Krakowie ( Rys. 2 ). Samolot o rozpiętości skrzydeł prawie 4 m waży tylko 5 kg i może osiągać prędkość ok. 50 \\( \\frac{km}{h} \\). Samolot zasilany jest energią z 48 paneli fotowoltaicznych o całkowitej mocy 167 W.", "Ogniwa fotowoltaiczne znalazły także zastosowanie w skrzydłach Międzynarodowej Stacji Kosmicznej, którą przedstawiono na Rys. 3.", "Odbiorcą instalacji fotowoltaicznych jest także rynek samochodowy. Samochody elektryczne mogą być ładowane za pomocą elektrycznych stacji ładowania, jak również energią elektryczną wygenerowaną przez ogniwa fotowoltaiczne, które są bezpośrednio zainstalowane na pojeździe. Przykładem zastosowania ogniw fotowoltaicznych do napędzania pojazdów jest samochód elektryczny Lightyear One, którego maska, dach i bagażnik pokryty jest ogniwami PV łącznie o powierzchni 5 \\( m^{2} \\). Samochód ten został przedstawiony na Rys. 4.", "Panele zbudowane z ogniw monokrystalicznego krzemu o wymiarach 156 mm na 156 mm zostały zastosowane w samochodzie Volkswagen T5 California, przedstawionym na Rys. 5. W samochodzie zastosowano elastyczne panele fotowoltaiczne firmy Solbian serii Solbian Flex CP.", "Przykładem zastosowania systemów fotowoltaicznych na jednostkach pływających jest statek „Harta”, przedstawiony na Rys. 6. Statek zaprojektowała i wybudowała Stocznia Januszkowice. Zastosowane w statku silniki są produkcji polskiej wykonane przez Instytut Napędów i Maszyn Elektrycznych Komel, natomiast dostawcą fotowoltaiki i baterii jest firma Soltech Service. Panele fotowoltaiczne wykorzystane w projekcie statku posiadają maksymalną moc ok. 8 kW.", "Ogniwa słoneczne znajdują zastosowanie również w łodziach. Przykładem może być łódź Vindo 32 należąca do Mayi i Aladino z kanału YouTube Sailing Magic Carpet, którzy za cel obrali opłyniecie świata. Łódź Vindo 32 została wyposażona w elastyczny panel fotowoltaiczny Solbian serii SP o mocy 130 W, zbudowany z monokrystalicznych ogniw krzemowych. Elastyczne panele fotowoltaiczne Solbian serii SP znalazły zastosowanie również w katamaranie Alibi 54, który przedstawiono na Rys. 7.", "Na budowę zero-emisyjnej łodzi wyścigowej z napędem elektrycznym wykorzystującej w \\( 100\\% \\) odnawialną energię słoneczną zdecydowali się studenci z Akademii Górniczo-Hutniczej w Krakowie. Łódź AGH Solar Boat Team zasilana jest 384 monokrystalicznymi ogniwami fotowoltaicznymi serii SunPower c60, dostarczającymi do 1 kW mocy ( Rys. 8 ). Energia ta gromadzona jest w akumulatorach litowo-jonowych o pojemności 1,5 kWh. Zespół bierze udział w licznych międzynarodowych wyścigach łodzi solarnych i w 2018 r. zajął 3 miejsca w zawodach Monaco Solar & Energy Boat Challenge [1].", "Ogniwa fotowoltaiczne znajdują również zastosowanie w namiotach i osłonach przeciwsłonecznych np. w bazie wojskowej Armii Stanów Zjednoczonych w Afryce przedstawionej na Rys. 9.", "Innym ciekawym zastosowaniem ogniw fotowoltaicznych jest ich montaż w inteligentnej odzieży wyposażonej w czujniki kontroli parametrów życiowych. Nad tego typu rozwiązaniem pracowali naukowcy z Uniwersytetu Salento z Włoch, którzy opracowali ubranie z zasilaniem ogniwami PV o mocy 265 mW [2]. Jednym z problemów stosowania ogniw fotowoltaicznych na ubraniach stanowi brak odporności na działanie wody. Ubranie odporne na działanie wody z systemem fotowoltaicznym wykonali naukowcy z Tokio. Stworzyli ultracienkie ogniwo fotowoltaiczne pokryte z obydwu stron rozciągliwą i wodoodporną warstwą. Tego typu ogniwo poddane rozciąganiu i działaniu wody nie traci swoich fotowoltaicznych właściwości [3]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "10. Inwertery", "subject_id": 800, "subject": "10.1 Funkcje inwerterów", "paragraphs": ["Inwertery, nazywane także falownikami lub przekształtnikami DC/AC, to urządzenia służące do zmiany napięcia i prądu stałego (DC) na napięcie i prąd przemienny (AC) sinusoidalny o parametrach zgodnych z ich wartościami w sieci publicznej niskiego napięcia (230/400V, 50Hz). Urządzenia te znajdują zastosowanie w systemach fotowoltaicznych, ponieważ panele fotowoltaiczne generują energię elektryczną w postaci prądu i napięcia stałego, które muszą zostać przetworzone na prąd i napięcie przemienne. W celu uzyskania odpowiednich parametrów prądu i napięcia inwertery zbudowane są z następujących elementów [1]:", "Przekształtnik DC/DC dopasowuje wartość napięcia wejściowego do napięcia wyjściowego. Po przejściu prądu stałego przez przetwornik DC/DC prąd zostaje przesłany do przekształtnika DC/AC. Następuje konwersja napięcia stałego o określonej wartości na napięcie przemienne o amplitudzie i częstotliwości dopasowanej do parametrów sieci elektroenergetycznej (230V, 50 Hz). Ostatnim elementem standardowego inwertera jest filtr wygładzający LC, który ogranicza zawartość wyższych harmonicznych do poziomu określonego przez normy. Na rysunku Rys. 1 (oprac. na podstawie [1]) został przedstawiony schemat przekształtnika DC/DC obniżającego napięcie ( Rys. 1a) oraz podwyższającego napięcie ( Rys. 1b) (oprac. na podstawie [1]). Schemat przekształtnika DC/AC przedstawia Rys. 2 (oprac. na podstawie [1]), natomiast schemat filtra wygładzającego Rys. 3 (oprac. na podstawie [1]). Na schematach zastosowano następujące oznaczenia: L – cewka, D – dioda, C – kondensator, R – rezystor, F – bezpiecznik, Ł – przełącznik, T – tranzystor oraz Tr – transformator, a ze szczegółowym opisem zasady działania poszczególnych układów elektronicznych można zapoznać się na przykład w książce A. Filipowicza [2]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "10. Inwertery", "subject_id": 799, "subject": "10.2 Klasyfikacja inwerterów", "paragraphs": ["Instalacje fotowoltaiczne mogą być podłączone do sieci elektroenergetycznej lub mogą stanowić instalację samodzielną. Ze względu na ten podział instalacji inwertery dzielą się na:", "Inwertery wyspowe umożliwiają ładowanie akumulatorów i nie są podłączone do sieci elektroenergetycznej. Możliwość przesyłania energii do sieci bez możliwości ładowania akumulatorów posiadają inwertery sieciowe. W przypadku inwerterów sieciowych, jeśli napięcie sieci elektroenergetycznej zniknie, automatycznie dochodzi do wyłączenia inwertera. Jest to kluczowe ze względu na bezpieczeństwo, w przypadku kiedy np. wykonywane są prace konserwacyjne, dystrybutor prądu przestaje zasilać sieć i niepożądane jest oddawanie prądu wygenerowanego przez instalacje PV. Inwertery hybrydowe mogą być przełączane w oba modele pracy. Inwertery stosowane w instalacjach fotowoltaicznych są również klasyfikowane ze względu na wielkość, czyli moc instalacji fotowoltaicznych, z którą współpracują [1]:", "W zależności od obecności w inwerterze transformatora, który ma na zadanie oddzielić galwanicznie stronę prądu stałego od strony prądu zmiennego, falowniki dzieli się na [2]:", "Inny podział inwerterów opiera się na ilości faz, do których mogą one być podłączone. Wśród nich wyróżnia się inwertery:"], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "10. Inwertery", "subject_id": 801, "subject": "10.3 Dobór inwerterów", "paragraphs": ["Dobór inwertera do instalacji fotowoltaicznej jest bardzo ważnym etapem projektowania systemów PV. Źle dobrany inwerter, nawet przy dobrych jakościowo panelach fotowoltaicznych, może znacząco obniżyć sprawność całej instalacji. Kluczowym parametrem w doborze inwertera jest jego moc po stronie prądu stałego. Zgodnie z ogólnie przyjętą zasadą moc instalacji fotowoltaicznej powinna wynosić od 85 do \\( 118\\% \\) mocy inwertera. Wynika to z faktu, że rzeczywiste warunki pracy paneli fotowoltaicznych są różne od warunków laboratoryjnych, w których są badane (warunki STC: 1000 \\( \\frac{W}{m^{2}} \\), 25°C, AM1.5). Instalacja fotowoltaiczna rzadko pracuje w warunkach swojej nominalnej mocy. Dobór inwertera do instalacji fotowoltaicznej może odbywać się na jego doborze pod względem ilości regulatorów punktu mocy maksymalnej MPPT. W przypadku, kiedy instalacja fotowoltaiczna zbudowana jest z inwertera z jednym MPPT to punkt maksymalnej mocy MPPT będzie szukany dla wszystkich paneli jednocześnie. Ma to również miejsce, gdy panele tworzą kilka łańcuchów i są połączone oddzielnie do inwertera. Z tego względu ważne jest, aby każdy panel PV miał zbliżone warunki pracy i parametry. Natomiast instalacja fotowoltaiczna zbudowana z kilku szeregów łańcuchów o różnej liczbie paneli lub nierównomiernym oświetlaniu wymaga zastosowania inwertera o większej licznie MPPT. W takim przypadku każdy łańcuch paneli PV połączony do danego MPPT będzie odbierany przez inwerter, jako jeden oddzielny generator energii [1]. Dopasowanie inwertera przeprowadza się także na podstawie technologii, w jakiej zostały wyprodukowane panele zastosowane w instalacji fotowoltaicznej. W przypadku paneli monokrystalicznych, polikrystalicznych, cienkowarstwowych CIS/CIGS, a także mikromorficznych, w których warstwa przezroczystych tlenków przewodzących (TCO) jest oddzielona laminatem od szyby, możliwe jest zastosowanie zarówno inwerterów beztransformatorowych jak i transformatorowych. Inwertery transformatorowe galwanicznie izolowane są stosowane w przypadku instalacji wykonanej z paneli, w których warstwa TCO nie jest izolowana od szyby. Dotyczy to paneli wykonanych w technologii cienkowarstwowej CdTe i amorficznych, które wymagają uziemienia bieguna ujemnego [2]. Brak uziemienia może spowodować przepływ prądu do ramy panelu, co z kolei może powodować wytrącanie się jonów sodu ze szkła i jego matowienie. Dzięki zastosowaniu inwertera transformatorowego zapewniana jest separacja galwaniczna między stronami DC i AC systemu PV. W przypadku wystąpienia zwarcia po stronie DC prąd zwarcia nie płynie przez inwerter, co chroni go przed uszkodzeniem."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "11. Magazynowanie energii elektrycznej", "subject_id": 1022, "subject": "11.1 Sposoby magazynowania energii", "paragraphs": ["Magazynowanie energii jest jednym z podstawowych elementów w systemach produkcji energii ze źródeł odnawialnych. Jest to szczególnie ważne, gdy energia produkowana jest niesystematycznie, jak to jest w przypadku systemów fotowoltaicznych, gdzie dostępność energii słonecznej jest różna w skali roku – zmienia się w zależności od pory roku, w dzień i w nocy oraz z dnia na dzień (różne warunki pogodowe). Zużycie energii w zależności od pory dnia i roku obrazuje Rys. 1. Aby zrównoważyć różne schematy czasowe obciążeń i produkcji energii słonecznej, magazynowanie energii musi być włączone do prawie wszystkich autonomicznych systemów zasilania.", "Wymagania dotyczące elektrycznych systemów magazynowania energii [1]:", "Przez magazynowanie energii rozumie się wszelakie metody, umożliwiające przechowywanie wytworzonej energii elektrycznej. Obecnie profesjonalne magazynowanie energii w skali świata jest oparte na specjalnych elektrowniach [2]. Zgodnie z ustawą o OZE magazynem energii jest wyodrębnione urządzenie lub zespół urządzeń służących do przechowywania energii w dowolnej postaci, niepowodujących emisji będących obciążeniem dla środowiska, w sposób pozwalający co najmniej na częściowe jej odzyskanie.", "Magazynowanie energii elektrycznej w sieci elektroenergetycznej Możliwe jest traktowanie sieci elektroenergetycznej jako sposobu na magazynowanie energii słonecznej. W okresie zbyt dużej produkcji prądu nadwyżka wprowadzana jest do sieci, skąd w dowolnym czasie może być odebrana, ale tylko w \\( 80\\% \\), pozostałe \\( 20\\% \\) jest liczone jako „opłata” dla zakładu energetycznego za tę formę przechowywania energii. Swobodny przepływ energii między siecią a konsumentem możliwy jest dzięki dwukierunkowemu licznikowi. Taka forma instalacji fotowoltaicznej to on-grid. Oczywiście, nie pozwala ona na osiągnięcie energetycznej autonomii, ale umożliwia korzystanie z energii elektrycznej wytworzonej we własnym domu, bez posiadania baterii akumulatorów.", "Magazynowanie energii elektrycznej – inne sposoby Istnieją możliwości magazynowania energii elektrycznej w polu elektrycznym i magnetycznym, a także poprzez jej zamianę na energię elektrochemiczną, mechaniczną, chemiczną oraz energię termiczną. Niektóre z nich mogą być użyte w gospodarstwach domowych, a inne do zastosowań przemysłowych.", "Zamiana na energię elektrochemiczną Najbardziej intuicyjna i prosta metoda magazynowania energii to ładowanie akumulatorów. Obecnie stosuje się akumulatory kwasowo-ołowiowe, niklowo-kadmowe (NiCd), niklowo-metalowo-wodorkowe (NiMH) i litowo-jonowe [3]. Akumulatory magazynują prąd stały pod napięciem, np. 12 V. W celu wykorzystania energii zgromadzonej w akumulatorach konieczne jest podłączenie do urządzeń elektronicznych, które zamieniają prąd stały na zmienny, czyli zastosowania inwerterów. Zagadnienia magazynowania energii w akumulatorach wymagają omówienia jeszcze kilku tematów, np. kwestii maksymalnych i minimalnych napięć odbioru i dostarczania prądu do akumulatora.", "Zamiana na energię mechaniczną Duże elektrownie z turbinami gazowymi korzystają ze sprężonego powietrza jako sposobu na magazynowanie energii. W ciągu dnia, gdy produkcja energii elektrycznej jest największa następuje sprężanie powietrza. W momencie, gdy w sieci jest zapotrzebowanie, to sprężone powietrze jest wykorzystywane do produkcji energii elektrycznej. W przypadku małych instalacji ze względu na małą wydajność takie przechowywanie energii nie jest opłacalne. Można energię elektryczną przechowywać z zastosowaniem tak zwanych elektrowni szczytowo-pompowych, wyposażonych w tzw. pompoturbiny, które w ciągu mniejszego zapotrzebowania na energię elektryczną pompują wodę do wyżej położonego zbiornika. A zmagazynowana w ten sposób energia jest odzyskiwana przez pompoturbinę rewersyjną w okresie wzrostu zapotrzebowania na energię. Elektrownie szczytowo-pompowe znakomicie nadają się do magazynowania ogromnych ilości energii w długim czasie, odbierając moc z systemu w czasie jej nadpodaży, zaś dostarczając w okresie zwiększonego zapotrzebowania. Sprawność magazynowania energii w elektrowni szczytowo-pompowej zawiera się w przedziale od \\( 65 \\) do \\( 85\\% \\), co stanowi bardzo dobry wynik na tle innych technologii magazynowania energii.", "Zamiana na energię kinetyczną Na krótką metę można magazynować energię w postaci energii kinetycznej wirującego koła zamachowego ( Rys. 2 ) [2]. Stosowane są one często w silnikach spalinowych (o mniejszej niż 6 liczbie cylindrów) do wyrównywania ich pracy, więc technologia ta jest w miarę dobrze opanowana. Ale poza nielicznymi zastosowaniami (np. w samochodach hybrydowych) na większą skalę one się nie pojawiają.", "Chemiczne magazynowanie energii elektrycznej – produkcja wodoru Jednym ze sposobów produkcji wodoru jest elektroliza. Zaletą magazynowania energii w postaci wodoru jest możliwość przechowywania go przez długi czas oraz wysoka gęstość energii (trzykrotnie większa niż w przypadku benzyny i ponad stukrotnie większa niż w przypadku akumulatorów). Dzięki temu może potencjalnie być wykorzystywany jako paliwo samochodowe. Zastosowanie wodoru w ogniwach paliwowych daje możliwość, podobnie jak koła zamachowe, reagowania na gwałtowne zmiany zapotrzebowania na energię w sieci. Alternatywą dla przechowywania energii w postaci wodoru jest przechowywanie jej w postaci metanu. Jest on łatwiejszy do przechowywania przez długi czas, a ponadto może być bezpośrednio wykorzystywany w istniejących elektrowniach gazowych. Wadą są dalsze straty energii w procesie wytwarzania metanu, które sprawiają, że całkowita ilość odzyskiwanej energii nie przekracza \\( 38\\% \\) [4]. Wytwarzanie metanu jest atrakcyjne dla przechowywania nadmiarowej energii wytwarzanej przez elektrownie fotowoltaiczne, a także wiatrowe [5]. Instalacje zamieniające nadmiarową energię w metan powstały w Danii oraz w Niemczech.", "Magazynowanie energii elektrycznej w superkondensatorach Superkondensator to rodzaj kondensatora elektrolitycznego o dużej pojemności. Działa on gromadząc ładunek na podwójnej warstwie elektrycznej, która powstaje na granicy elektrolitu i elektrody. Wykorzystane nanorurki węglowe pozwalają na uzyskanie dużej powierzchni, a dzięki temu wzrasta pojemność kondensatorów. Przewagą superkondensatorów [6] nad akumulatorami jest większa gęstość energii. Oznacza to, że potrafią one oddać energię o dużej mocy. Co więcej, ogromną zaletą jest mały spadek właściwości użytkowych i długa żywotność (do 20 lat eksploatacji).", "Wykorzystanie pola magnetycznego Wykorzystanie pola magnetycznego jako magazynu energii dla prądu stałego wymaga nadprzewodnika. Pole magnetyczne, wytworzone przez prąd w nadprzewodniku, utrzymuje się przez nieskończenie długi czas, a co za tym idzie, energia może być w nim przechowywana też dowolnie długo. Niestety nadprzewodniki wymagają niskich temperatur, czyli chłodzenia, co jest bardzo kosztowne. Wydajność takiego układu jest rzędu \\( 95\\% \\), niestety przechowywanie dużej ilości energii nie jest możliwe [7].", "Magazynowane energii elektrycznej – procesy termiczne Energię nadmiarową można zmagazynować przez ochłodzenie powietrza do -195°C co powoduje jego skroplenie. Objętość powietrza spada tysiąc razy, a jego przechowywanie staje się znacznie prostsze niż przechowywanie sprężonego wodoru. W momencie zapotrzebowania skroplone powietrze można ogrzać, co spowoduje jego zamianę w gaz pod dużym ciśnieniem, który można użyć do napędzania turbiny generującej prąd elektryczny. Wykorzystanie ciepła odpadowego z elektrowni może podnieść jej efektywność do \\( 70\\% \\) [8], [9]. Istnieje szereg metod przechowywania energii w postaci różnicy temperatur. W większości zastosowań energia ta jednak nie jest zamieniana potem na energię elektryczną, tylko wykorzystywana w zmagazynowanej postaci (np. do ogrzewania). Metody, które umożliwiają magazynowanie energii elektrycznej, to między innymi pompa ciepła. Pompa ciepła może być wykorzystana do magazynowania energii w następujący sposób: dwa zbiorniki o dużej pojemności cieplnej połączone są pompą. W momencie małego zapotrzebowania na prąd pompuje się ciepło do gorącego zbiornika. W momencie większego zapotrzebowania pompa jest wyłączana, a zamiast tego uruchamiane są turbiny generujące prąd dzięki różnicy temperatur. Brytyjska firma Isentropic rozwija to rozwiązanie, przewidując, że może stać się ono konkurencją dla elektrowni szczytowo-pompowych, przy kosztach rzędu 35$/MWh i efektywności odzyskiwania energii rzędu \\( 72-80\\% \\) [10]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "11. Magazynowanie energii elektrycznej", "subject_id": 1033, "subject": "11.2 Akumulatory", "paragraphs": ["Energię, wytworzoną przez panele fotowoltaiczne w ciągu dnia, która nie została zużyta przez odbiorniki, można magazynować w akumulatorach różnego typu. Efektywność ich działania szacowana jest na poziomie \\( 90\\% \\). Zmagazynowana energia może być zużywana w nocy lub w dni ze złymi warunkami pogodowymi. Koszty magazynów energii w układzie off-grid dochodzą do poziomu około \\( 30\\% \\) kosztów całej instalacji fotowoltaicznej. Na Rys. 1 pokazano schemat elektryczny układu fotowoltaicznego typu off-grid z magazynem energii, czyli zestawem akumulatorów. W momencie ładowania energia elektryczna zamieniana jest na energię chemiczną, a w procesie rozładowania (pobierania energii) energia chemiczna zamieniana jest na elektryczną. Zaletami akumulatorów są:", "Energia wytwarzana w panelach fotowoltaicznych w ciągu dnia, która nie była zużywana przez odbiorniki, jest magazynowana w akumulatorach. Zmagazynowana energia może być zużywana w nocy lub w dni ze złymi warunkami pogodowymi. Akumulatory w systemach fotowoltaicznych są często ładowane/rozładowywane, dlatego muszą spełniać większe wymagania od akumulatorów stosowanych np. w samochodach. Najczęściej stosowane są akumulatory klasyczne, kwasowo-ołowiowe (PbA), produkowane specjalnie dla systemów fotowoltaicznych, które jednak mają ten minus, że psują się przy regularnym rozładowywaniu poniżej \\( 50\\% \\). Inne rodzaje wykorzystywanych akumulatorów, to akumulatory niklowo-kadmowe (NiCd) lub niklowo-metalowo-wodorkowe (NiMH), w których wymagane jest głębokie rozładowanie oraz akumulatory litowo-jonowe. Akumulatory hermetyczne często zawierają elektrolit w postaci żelu i wtedy nie wymagają konserwacji. Żywotność typowych akumulatorów podłączonych do systemów fotowoltaicznych trwa od trzech do pięciu lat, w zależności od cykli ładowania/rozładowywania, temperatury i innych parametrów. Im akumulator jest częściej ładowany/rozładowywany, tym krótszy jest okres jego eksploatacji.", "Akumulatory, zależnie od rodzaju, mogą być ładowane na różne sposoby, na przykład przy stałym prądzie, przy stałym napięciu itp. Sposób ładowania określany jest przez producenta. Akumulatory opracowane specjalnie dla systemów fotowoltaicznych są zaprojektowane tak, aby miały następujące właściwości [1]:", "Wymagania techniczne dotyczące wydajności i energii systemu fotowoltaicznego typu off-grid, czyli poza siecią, są prezentowane przez Rydh i Sandén [2]. Aby uzyskać dostateczną ilość energii zimą do zmagazynowania, wymagana jest większa ilość paneli fotowoltaicznych niż wynika to ze średniego zużycia energii. Są potrzebne, by wychwycić wystarczająco dużo energii w ciągu kilku słonecznych godzin zimą i zmagazynować ją w akumulatorach. Aby wykorzystać energię z akumulatorów i z paneli fotowoltaicznych, niezbędny jest odpowiedni układ elektroniczny, którego schemat przedstawiono na Rys. 1.", "Na Rys. 1 pokazano schemat działania układu elektrycznego systemu fotowoltaicznego off-grid. Panel fotowoltaiczny zamienia energię promieniowania słonecznego na energię elektryczną, która poprzez wyłącznik oraz miernik skierowana jest do sterownika ładowania do magazynu energii oraz odbiorników prądu stałego (DC). Z magazynu energia płynie poprzez miernik i wyłącznik do falownika, który przetwarza prąd stały (DC) na prąd zmienny (AC). Prąd AC przekazywany jest dalej do odbiorników (AC). Magazyny energii w postaci akumulatorów ołowiowych składają się z komory, w której znajduje się ciekły elektrolit, czyli kwas siarkowy \\( H_{2}SO_{4} \\) w którym zanurzone są elektrody, elektroda dodatnia \\( PbO_{2} \\) oraz elektroda ujemna Pb. Zachodzą tutaj następujące procesy ładowania i rozładowana – zob. Rys. 2.", "Akumulator całkowicie naładowany, to taki, w którym elektroda dodatnia pokryta jest nadtlenkiem ołowiu, a ujemna to czysty ołów. W tym momencie cały kwas jest w elektrolicie, czyli ciężar właściwy elektrolitu jest największy. W czasie rozładowywania część kwasu łączy się z płytą elektrod, tworząc związek siarczan ołowiu, powstający na obu elektrodach. W czasie trwania tego procesu można mierzyć ciężar właściwy elektrolitu, który będzie się zmniejszał, dając informację o stanie rozładowania akumulatora. W czasie ładowania akumulatora kwas siarkowy jest wypychany z płytek akumulatora do elektrolitu. W tym momencie ciężar właściwy elektrolitu będzie wzrastał, aż do całkowitego naładowania akumulatora. Po całkowitym naładowaniu akumulatora, energia dostarczona do niego powoduje elektrolizę wody, podczas której wydziela się wodór i tlen. Jest to główny powód dodawania wody do ogniw akumulatorowych.", "Do popularnych producentów produkujących akumulatory należą Tesla, Mercedes Benz, MA, LG Chem i Enphase [3]. Akumulatory Tesli charakteryzują się wysoką wydajnością rzędu \\( 90\\% \\) z gwarancją na 10 lat. Mercedes Benz produkuje akumulatory o pojemności 2,5 kWh, które można łączyć w zespół do 8 akumulatorów. Produkt Tesli z serii PowerWall 2 zawiera akumulator (produkcji Panasonic) wraz z falownikiem. Charakteryzuje się on wydajnością rzędu \\( 90\\% \\) oraz możliwością rozładowania do \\( 100\\% \\). SMA produkuje falownik, które mogą być używane w systemie off-grid i on-grid jak też zintegrowane z akumulatorami Mercedes-Benz, LG Chem, Sony i innymi. LG Chem opracował serię akumulatorów, których sprawność sięga \\( 95\\% \\). Marka Enphase produkuje małe akumulatory o sprawności do \\( 96\\% \\) oraz możliwości rozładowania do \\( 95\\% \\). W tabeli (na Rys. 3 ) przedstawiono porównanie parametrów akumulatorów różnych producentów. Najważniejsze z nich to pojemność i gwarantowana żywotność. Tabela porównuje parametry akumulatorów różnych producentów.", "Pojemność akumulatora określa jaka energia może być zmagazynowana, oczywiście im wartość jest większa tym lepiej. Następna wielkość to technologia w jakiej wytwarzany jest akumulator. Żywotność akumulatora określa po jakim czasie (po ilu latach) możliwość magazynowania energii zmniejszy się do jakiej wartości początkowej. W następnych wierszach podane są waga, wymiary, możliwość rozbudowy i zastosowania jako UPS."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "11. Magazynowanie energii elektrycznej", "subject_id": 1032, "subject": "11.3 Zbiorniki sprężonego powietrza", "paragraphs": ["Jednym ze sposobów zmagazynowania energii jest sprężanie powietrza. W okresach kiedy energia jest tania lub korzystając ze źródeł odnawialnych dokonujemy kompresji powietrza i gromadzimy skompresowany gaz w zbiornikach. Schemat takiego systemu kompresji i produkcji energii elektrycznej z wykorzystaniem energii zgromadzonej w zbiornikach gazu przedstawiono na filmie \"CAES - Compressed Air Energy Storage - IMAGES Project – animation\".", "W systemie wprowadzany jest gaz przez filtr, kompresory nisko- i wysokociśnieniowe do wielkogabarytowych zbiorników naturalnych, takich jak podziemna komora solna lub sztucznych o mniejszej objętości. Chłodnica obniża temperaturę gazu w celu zmniejszenia naprężeń termicznych w instalacji. Procesy napełniania zarówno naturalnego zbiornika jak i sztucznego przedstawiono w kolejnych kadrach filmu. Tak zgromadzona energia może być użyta w dowolnym momencie np. szczytu energetycznego kiedy ceny energii elektrycznej są najwyższe lub w sytuacjach awaryjnych do produkcji energii elektrycznej. Sprężony gaz jest uwalniany i poprzez rekuperator oraz komory podgrzewania napędza turbiny wysokociśnieniową, a następnie niskociśnieniową. Współosiowo z turbinami umieszczony jest generator wytwarzający energię elektryczną, która jest przekazywana do sieci. Schemat procesu produkcji energii elektrycznej jest pokazany w końcowych kadrach filmu, gdzie sprężone powietrze pobierane jest z podziemnej komory solnej.", "Produkcja przebiega analogicznie jeśli pobieramy sprężony gaz ze sztucznych zbiorników. Już samo napełnianie zbiorników w okresach taniej energii i produkcja w okresach kiedy cena energii jest wysoka jest uzasadnione ekonomicznie. Proces staje się jeszcze bardziej opłacalny jeśli system zasilimy z elektrowni fotowoltaicznej, której maksima produkcji nie pokrywają się z maksimami zużycia w sieci. Drugim jeszcze poważniejszym argumentem jest bezpieczeństwo energetyczne. Systemy ze sprężonym powietrzem podobnie jak elektrownie pompowo-szczytowe stanowią poważne zabezpieczenie ciągłości dostaw energii elektrycznej w przypadku awarii innych źródeł. Przykład działania instalacji ze sprzężonym powietrzem przedstawiono na filmie \"RWE Power: ADELE - Adiabatic compressed-air energy storage (CAES) for electricity supply\"."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "11. Magazynowanie energii elektrycznej", "subject_id": 1023, "subject": "11.4 Zbiorniki ciekłych gazów", "paragraphs": ["Zasobniki energii na sprężone powietrze mają silnego konkurenta jakim są zbiorniki na ciekłe powietrze. Zasadniczą różnicą – pomijając system sprężania gazu zamieniony na system skraplania – jest fakt, że w tej samej objętości zbiornika możemy przechowywać znacznie większe ilości gazu, jeśli jest on w postaci cieczy. Dodatkową emocję wiążemy z tą technologią, bo podobnie jak w przypadku produkcji monokryształów, gdzie twórcą metody był Polak – Jan Czochralski, w przypadku skraplania powietrza pierwszymi uczonymi, którzy tego dokonali w 1883 r. byli Profesorowie Uniwersytetu Jagielońskiego – Karol Olszewski i Zygmunt Wróblewski. Proces skraplania, a następnie produkcji energii elektrycznej przedstawiono na wideo animacji (zob. film \"Liquid Air Energy Storage Animation 2018\"). Przedstawia ona ideę użycia ciekłego powietrza do produkcji jako zasobnika do produkcji energii elektrycznej. System LAES (ang. Liquid Air Energy Storage) opracowany koncepcyjnie w Wielkiej Brytanii jako modułowy system do powielania na instalacje o dużych mocach produkcyjny został uruchomiony jako instalacja pilotująca w Slough."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "12. Projektowanie instalacji PV wspomagane komputerowo", "subject_id": 1034, "subject": "12.1 Używane programy symulacyjne", "paragraphs": ["Projektowanie instalacji fotowoltaicznej możliwe jest dzięki użyciu specjalistycznego oprogramowania. Programy do symulacji pozwalają na optymalizację instalacji PV, jak również na ocenę oczekiwanych efektów i założeń projektanta. Przykładowymi programami służącymi do projektowania instalacji PV są:", "Programy te są dedykowane dla projektantów instalacji fotowoltaicznych, jak również architektów, czy instalatorów. Programy mogą stanowić także pomoc naukową lub dydaktyczną dla studentów uczelni wyższych. Laboratorium Fotowoltaiczne na Wydziale Informatyki, Elektroniki i Telekomunikacji AGH wyposażone jest w dwa specjalistyczne programy służące do projektowania instalacji fotowoltaicznej. Programami tymi są PV*SOL oraz Polysun – używane przez projektantów na całym świecie."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "12. Projektowanie instalacji PV wspomagane komputerowo", "subject_id": 1035, "subject": "12.2 Projektowanie instalacji w programie PV*SOL", "paragraphs": ["Program PV*SOL to program firmy Valentin Software GmbH służący do projektowania, dynamicznej symulacji i kalkulacji uzysku energii z dachowych i gruntowanych systemów fotowoltaicznych. Przed przystąpieniem do projektowania systemów fotowoltaicznych należy przeprowadzić wywiad z klientem w celu uzyskania informacji na temat obiektu i terenu przeznaczonego pod montaż instalacji. Ważne jest określenie orientacji obiektu względem słońca, rodzaju poszycia dachu oraz kąta nachylenia dachu, jak również zdobycie wiedzy na temat ukształtowania terenu, w przypadku projektu instalacji na gruncie. W projekcie należy uwzględnić także obecność obiektów znajdujących się w pobliżu miejsca przyszłej instalacji, mogących mieć wpływ na jej zacienienie. Należy określić zapotrzebowanie na energię na podstawie rachunków za prąd, liczby domowników oraz przewidywanych ewentualnych dodatkowych odbiorników w przyszłości. Po zebraniu wszystkich niezbędnych informacji wykonywany jest projekt instalacji fotowoltaicznej za pomocą oprogramowania. Program PV*SOL umożliwia wprowadzenie danych projektowych np. numeru oferty i danych projektanta, danych kontaktowych klienta, opisu projektu, adresu instalacji i planowanej daty uruchomienia. Na Rys. 1 przedstawiono ekran roboczy programu PV*SOL, umożliwiający wprowadzenie najważniejszych danych projektowych."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "12. Projektowanie instalacji PV wspomagane komputerowo", "subject_id": 1036, "subject": "12.2.1 Projekt obiektów 3D", "paragraphs": ["Projekt instalacji fotowoltaicznej w programie PV*SOL rozpoczynamy od wprowadzenia wstępnych informacji dotyczących rodzaju instalacji PV, której projekt ma dotyczyć. W zależności od wersji programu PV*SOL lista typów systemów fotowoltaicznych do zaprojektowania jest różna i z roku na rok jest rozbudowywana. Wersja programu PV*SOL Premium 2020 umożliwia zaprojektowanie jednego z niżej wymienionych systemów fotowoltaicznych tj.:", "Po wyborze rodzaju instalacji, projektant dokonuje wizualizacji systemu fotowoltaicznego oraz dla danej lokalizacji wprowadza jej dane geograficzne i z bazy danych wprowadza warunki klimatyczne ( Rys. 1 ).", "Wyszukanie danej lokalizacji z całego świata wraz z przypisaniem jej danych klimatycznych w programie PV*SOL jest łatwe dzięki interaktywnej mapie wbudowanej w bazie danych MeteoSyn, której główne okno robocze przedstawiono na Rys. 2.", "Do każdej lokalizacji przypisane są warunki klimatyczne jak np. suma roczna nasłonecznienia i roczna średnia temperatura. Program umożliwia także tworzenie nowych danych klimatycznych albo poprzez metodę interpolacji z istniejących już danych pomiarowych lub na podstawie własnych danych miesięcznych. Program umożliwia projektowanie trójwymiarowe obiektów do obłożenia panelami PV, dzięki wbudowanemu modułowi wyboru rodzaju obiektu 3D, którego funkcje przedstawiono na Rys. 3. Program pozwala także na wprowadzenie do projektu gotowych elementów budynków (np. okna, drzwi), dachów (np. kominy, lukarny) oraz obiektów (np. ogrodzenia, drzewa), które mogą znaleźć się w pobliżu instalacji.", "Wymiary oraz orientacja względem stron świata wybranego obiektu do obłożenia panelami fotowoltaicznymi, jak również pozostałych obiektów w projekcie mogą być dowolnie zmieniane za pomocą okna edytowania, które przedstawiono na Rys. 4."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "12. Projektowanie instalacji PV wspomagane komputerowo", "subject_id": 1037, "subject": "12.2.2 Projekt instalacji fotowoltaicznej", "paragraphs": ["Położenie paneli fotowoltaicznych w programie PV*SOL realizuje się przy pomocy modułu o nazwie Obłożenie Modułami ( Rys. 1 ). Moduł ten pozwala na pokrycie powierzchni instalacji na dwa sposoby. Pierwszy z nich to ręczne wypełnienie pojedynczymi panelami, a drugi to automatyczne wypełnienie całej dostępnej powierzchni.", "Panele fotowoltaiczne, podobnie jak inwertery, są wybierane z wbudowanej w program bazy, która jest na bieżąco aktualizowana przez producenta. Dzięki niej możliwy jest szybki wybór paneli fotowoltaicznych, dla których podane są najważniejsze parametry jak np.: moc znamieniowa, napięcie, natężenie oraz wymiary, a także zastosowany typ ogniwa PV. Przykładowy widok bazy komponentów przedstawiono na Rys. 2.", "Przykład projektu instalacji fotowoltaicznej zainstalowanej na dachu spadzistym skierowanym w kierunku południowym przedstawiono na Rys. 3. Program umożliwia edytowanie parametrów paneli takich jak np. odległość między panelami oraz usytuowanie względem dachu. Przykładowa instalacja składa się z 19 paneli fotowoltaicznych serii GH240P156 firmy GH Solar o łącznej mocy 4,56 kWp. Ponadto program umożliwia automatyczne zaprojektowanie okablowania dla instalacji fotowoltaicznej, którego schemat przedstawiono na Rys. 4. Program dokonuje obliczeń przekrojów wszystkich zastosowanych kabli, ich długość, jak również strat w kablach całej instalacji."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "12. Projektowanie instalacji PV wspomagane komputerowo", "subject_id": 1038, "subject": "12.2.3 Symulacja efektywności instalacji PV", "paragraphs": ["Program PV*SOL dzięki wbudowanym bazom dotyczących danych klimatycznych, parametrów elektrycznych paneli fotowoltaicznych i inwerterów umożliwia wykonanie symulacji efektywności pracy zaprojektowanej instalacji fotowoltaicznej. Program umożliwia symulację zacienienia paneli na przestrzeni całego roku, którego przykładowy wynik przedstawiono na Rys. 1. Wyniki symulacji umożliwiają projektantowi na dobór optymalnego rozłożenia paneli fotowoltaicznych.", "Po zakończeniu projektowania możliwe jest wykonanie raportu dla zaprojektowanej instalacji. Wygenerowany w programie PV*SOL projekt zawiera także m.in.:", "Program umożliwia przedstawienie danych w postaci wykresów dotyczących wygenerowanej energii w poszczególnych miesiącach. Przykład uzyskanych wyników przedstawia Rys. 3.", "W raporcie uwzględniony jest oczekiwany czas zwrotu planowanej inwestycji oraz jej analiza opłacalności ekonomicznej, którego przykład przedstawia Rys. 4.", "Dzięki danym klimatycznym wprowadzonym do programu, możliwe jest otrzymanie zależności natężenia nasłonecznienia na powierzchnię panelu w poszczególnych miesiącach roku ( Rys. 5 ).", "Możliwe jest także m.in. określenie średniej temperatury w ciągu każdego miesiąca dla powierzchni panelu i powierzchni poziomych Rys. 6."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "12. Projektowanie instalacji PV wspomagane komputerowo", "subject_id": 1039, "subject": "12.3 Projektowanie instalacji w programie Polysun", "paragraphs": ["Oprogramowanie Polysun firmy Vela Solaris służące do projektowania, obliczania wydajności i optymalizowania instalacji fotowoltaicznych. Oprócz typowych systemów PV, daje on możliwość symulowania kolektorów hybrydowych PVT (fotowoltaiczno-termicznych) oraz łączenia systemów fotowoltaicznych z pompami ciepła, chłodnicami i bojlerami. Program posiada bibliotekę z gotowymi projektami, które można modyfikować. Możliwy jest dobór odpowiedniego układu dla klienta. Stosowane zapotrzebowanie można optymalizować dla odbiorców, którzy są zainteresowani wytwarzaniem energii na potrzeby ogrzewania, ciepłej wody (DHW, domestic hot water) lub basenu Rys. 1."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "13. Przyłączenie elektrowni do sieci", "subject_id": 1041, "subject": "13.1 Regulacje prawne dotyczące przyłączeń elektrowni", "paragraphs": ["W związku z różnorodnością aspektów, które dotyczą fotowoltaiki, rozporządzenia i akty prawne pochodzą z zakresów prawa budowlanego, energetycznego, o odnawialnych źródłach energii oraz prawa o ochronie przeciwpożarowej i przeciwporażeniowej ( Rys. 1 ). W rozdziale zostaną kolejno omówione te zagadnienia.", "19 września 2020 r. weszła w życie nowelizacja ustawy prawa budowlanego. Ustawa z dnia 13 lutego 2020 r. o zmianie ustawy – Prawo budowlane oraz niektórych innych ustaw [1].", "Według art. 29. ust. 4 pkt. 3 nie jest wymagana decyzja na pozwolenie budowy oraz nie jest wymagane zgłoszenie wykonywania robót budowlanych, polegających na instalowaniu pomp ciepła, wolno stojących kolektorów słonecznych, urządzeń fotowoltaicznych o mocy zainstalowanej elektrycznej nie większej niż 50 kW. Pozwolenie jest wymagane jeśli zachodzą dodatkowe okoliczności np. instalacja wykonywana jest na obiekcie wpisanym do rejestru zabytków, należy do obszaru Natura2000 lub wymaga przeprowadzenia oceny oddziaływania na środowisko [2], [3]. W przypadku jeśli w związku z instalacją fotowoltaiczną planowana jest rozbudowa budynku, na którym będzie wykonana instalacja również potrzebne są pozwolenia na budowę. Ten obowiązek spoczywa na inwestorze i musi on zostać wypełniony przed rozpoczęciem prac budowlanych. Każda inwestycja (nie tylko fotowoltaiczna) musi być zgodna z planem zagospodarowania przestrzennego lub decyzją o warunkach zabudowy.", "Ustawodawca przewiduje jednak, że w przypadku instalacji o mocy zainstalowanej elektrycznej powyżej 6,5 kW istnieje obowiązek uzgodnienia projektu instalacji fotowoltaicznej z rzeczoznawcą do spraw zabezpieczeń przeciwpożarowych, pod względem zgodności z wymaganiami ochrony przeciwpożarowej i jednocześnie zobowiązuje do dokonania zawiadomienia organów Państwowej Straży Pożarnej (art. 56, ust. 1 ustawy). Nie zostało sprecyzowane jaki zakres projektu powinien zostać uzgodniony z rzeczoznawcą. Niemniej jednak Stowarzyszenie Branży Fotowoltaicznej przygotowało i opracowało sugerowane dobre praktyki przeciwpożarowe, dotyczące instalacji montowanych w budynkach, wykonywaniu połączeń za pomocą szybkozłączek, badaniach termowizyjnych, ochronie kabli i przewodów przed uszkodzeniem, odpowiednich narzędziach, oznaczeniach instalacji PV, przeglądach serwisowych i dodatkowych zabezpieczeniach w aspekcie ochrony przeciwpożarowej [4]. Ochrona przeciwpożarowa regulowana jest przez Ustawę z dnia 24 sierpnia 1991 r. o ochronie przeciwpożarowej z późniejszymi zmianami [5].", "Samo podłączenie do sieci reguluje Rozporządzenie Komisji (UE) 2016/631 z dnia 14 kwietnia 2016 r. ustanawiające kodeks sieci dotyczący wymogów w zakresie przyłączenia jednostek wytwórczych do sieci {openaghreference author=\"Komisja Unii Europejskiej\" title=\"\"Rozporządzenie Komisji (UE) 2016/631 z dnia 14 kwietnia 2016 r. ustanawiające kodeks sieci dotyczący wymogów w zakresie przyłączenia jednostek wytwórczych do sieci\" access=\"14.12.2020\" url=\"https://eur-lex.europa.eu/legal-content/PL/ALL/?uri=CELEX%3A32016R0631\"}, [6]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "13. Przyłączenie elektrowni do sieci", "subject_id": 1040, "subject": "13.2 Przyłączenie elektrowni do sieci", "paragraphs": ["Podłączenie do sieci regulują akty prawne [1], [2], z których najistotniejsze jest Rozporządzenie Komisji (UE) 2016/631 z dnia 14 kwietnia 2016 r. Zgłoszenia przyłączenia instalacji do sieci może dokonywać kilka rodzajów podmiotów: osoby fizyczne, osoby fizyczne prowadzące działalność gospodarczą, przedsiębiorstwa (najczęściej są to mikro, małe i średnie firmy) oraz inne podmioty prawne. Warunki przyłączania wynikają z rozporządzenia Komisji (UE) 2016/631 z 14 kwietnia 2016 r. ustanawiającego Kodeks NC RfG (Network Code Requirements for Generators). Jest to akt, którego zastosowanie w porządkach prawnych krajów członkowskich UE jest bezpośrednie (tj. nie wymaga aktów bezpośrednich). Kodeks zdefiniował typy jednostek wytwórczych ze względu na różny poziom napięcia, pod jakim przyłączone są jednostki wytwórcze i maksymalną moc wytwórczą. Zostały one zebrane w tabeli na Rys. 1.", "W przypadku gdy obiekt wyposażony w fotowoltaikę jest już przyłączony do sieci dystrybutora, a moc instalacji nie przekracza mocy przyłączeniowej możemy dokonać przyłączenia na podstawie zgłoszenia. Jeśli jednak obiekt nie jest podłączony lub moc fotowoltaiki jest większa od mocy przyłączeniowej, przyłączenia należy dokonać na podstawie wniosku. Należy wtedy wystąpić o zwiększenie mocy przyłączeniowej lub dostosować przyłącze energetyczne do planowanego wzrostu mocy przyłączeniowej. Kolejne etapy przyłączenia zostały przedstawione na Rys. 2.", "Procedura przyłączenia jest bezpłatna. Najpowszechniejsze i najprostsze sa tzw. przyłączenia mikroinstalacji. Jako mikroinstalacje rozumie się instalację, w której moc szczytowa nie przekracza 50 kWp, jednocześnie moc zainstalowana nie może przekraczać mocy przyłączeniowej (określonej w umowie o świadczeniu usług). Ustawa o Odnawialnych Źródłach Energii (OZE) zawiera szereg ułatwień dla tzw. prosumentów [3]. Prosument to połączenie wyrazów „producent” i „konsument”. Prosument jest klientem zaangażowanym w produkcję konsumowanych dóbr, w tym przypadku energii.", "Prosument energii odnawialnej to odbiorca końcowy wytwarzający energię elektryczną wyłącznie z odnawialnych źródeł energii na własne potrzeby w mikroinstalacji pod warunkiem, że w przypadku odbiorcy końcowego niebędącego odbiorcą energii elektrycznej w gospodarstwie domowym, nie stanowi to przedmiotu przeważającej działalności gospodarczej określonej zgodnie z przepisami wydanymi na podstawie art. 40 ust. 2 ustawy z dnia 29 czerwca 1995 r. o statystyce publicznej (Dz. U. z 2019 r. poz. 649 i 730).", "W takim wypadku przyłączenie następuje na podstawie złożonego wniosku. Wniosek zawiera dane wnioskodawcy, dane obiektu przyłączonego do sieci, w którym wykonano mikroinstalację, dane przyłączanej mikroinstalacji (liczbę modułów moc, dane inwertera) i informacje dodatkowe. Szczegółowe wykazy dokumentów i wnioski przedstawiają konkretni właściciele sieci dystrybucyjnej. Ustawa definiuje czas odpowiedzi na wniosek, np. wniosek wnioskodawcy niewyposażonego w źródło, który chce się przyłączyć do sieci powyżej 1 kV, zostanie rozpatrzony w terminie 60 dni. Wniosek wnioskodawcy wyposażonego w źródło powinien zostać rozpatrzony w ciągu 120 dni. Po weryfikacji i zatwierdzeniu wniosku o instalacji właściciel sieci dokonuje instalacji licznika dwukierunkowego. Następnie podpisywana jest odpowiednia umowa regulująca współpracę (umowa sprzedaży lub dystrybucji). W przypadku prosumentów, czyli osób produkujących prąd również na własny użytek, podpisywana jest umowa kompleksowa. W przypadku zmian dotyczących systemu (zmianie mocy, zawieszeniu produkcji trwającym od 30 dni do 24 miesięcy, zakończeniu wytwarzania energii elektrycznej) odbiorca ma obowiązek informować zakład energetyczny.", "Przykładowe wnioski: TAURON – MikroinstalacjaEnerga – zgłoszenie instalacji"], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "13. Przyłączenie elektrowni do sieci", "subject_id": 1073, "subject": "13.3 Instalacje odgromowe", "paragraphs": ["Uziemienie jest ważnym elementem bezpieczeństwa i wydajności systemów fotowoltaicznych. Uziemianie oznacza połączenie z ziemią, w punkcie o zerowym potencjale odniesienia. Stosuje się dwie metody uziemienia sprzętu oraz uziemienie systemu. Uziemienie sprzętu to łączenie ze sobą metalowych ram, obudów, czyli materiałów przewodzących, normalnie nieprzesyłających prądu i podłączanie ich do ziemi. W ten sposób utrzymuje się te materiały o potencjale 0 V w stosunku do ziemi. Uziemienie systemowe to podłączenie jednego z przewodów przenoszących prąd w systemie (DC lub AC) do uziemienia w jednym punkcie, co oznacza, że przewód będzie miał odniesienie do masy, a zatem pozostanie na potencjale 0 V do ziemi. Ponieważ należy zapobiegać potencjałom na powierzchniach odkrytych, dlatego uziemienie sprzętu jest wymagane we wszystkich systemach, podczas gdy uziemienie systemu nie jest konieczne [1]. Wszystkie sieci energetyczne w domach czy mieszkaniach są uziemione, co oznacza, że uziemiony jest zarówno sprzęt jak i system. Uziemienie systemu to połączenia wykonane dla DC z przewodem ujemnym, a dla AC z neutralnym, przewody te stają się przewodami uziemienia. Usterka uziemienia to niezamierzone, przewodzące elektrycznie połączenie między przewodem prądowym obwodu elektrycznego, a przewodami normalnie nieprądowymi, np. metalowymi obudowami, metalowymi bieżniami, urządzeniami metalowymi lub uziemieniem ( Rys. 1 ).", "Prawidłowo uziemiony panel PV przedstawiono na Rys. 2. Metalowa obudowa połączona jest z prętem uziemienia przez przewód uziemiający urządzenie. To połączenie uziemiające zapewnia zerowy potencjał w stosunku do ziemi, przez co jest bezpieczne dla osoby dotykającej skrzynkę i układy elektroniczne wykorzystane w systemie PV.", "Na Rys. 2 pokazano ochronę odgromową z dodatkowym przewodem uziemiającym, łączącym bezpośrednio panel fotowoltaiczny z prętem uziemienia. Połączenie to zapewnia bezpośrednią, niskoomową ścieżkę. Elektronika ma własne połączenie z uziemieniem. Dzięki temu uziemieniu ryzyko skutków wyładowań atmosferycznych jest znacznie zmniejszone. Wszystkie systemy elektryczne są narażone na przepięcia przejściowe. Skoki napięcia mogą być spowodowane bezpośrednimi uderzeniami pioruna, pobliskimi błyskawicami, które indukują prąd i napięcie na przewodach systemowych lub przepięciami sieci energetycznej, które często są spowodowane dużymi silnikami przemysłowymi lub innymi dużymi obciążeniami indukcyjnymi, które są wyłączane i włączane. Podczas gdy błyskawica jest zawsze problemem, najczęstsze prawdopodobieństwo przepięcia pochodzi z sieci użytkowej, więc całe domy i ich urządzenia wymagają ochrony przeciwprzepięciowej. Długie przebiegi przewodów między tablicą a falownikiem również zwiększają to ryzyko. Typowe miejsca ochrony przeciwprzepięciowej znajdują się przy wejściu do sieci AC i urządzeniach monitorujących system, które są częścią systemu fotowoltaicznego. Najlepszą ochroną przeciwprzepięciową jest dobrze uziemiony system. Uziemienie sprzętu jest absolutnie konieczne we wszystkich systemach fotowoltaicznych [2]. Przewód uziemiający służy do łączenia wszystkich elementów nośnych i odsłoniętych części metalowych, które mogą mieć kontakt z przewodami przewodzącymi prąd, np. ramy paneli PV, elementy montażowe układu, metalowe podstawy urządzeń, takich jak falowniki, rozłączniki i liczniki, metalowe skrzynki podłączeniowe, uchwyty metalowe podtrzymujące przewody oraz każda odsłonięta metalowa część, która może mieć kontakt z przewodami. W warunkach normalnych prąd nie płynie w przewodzie uziemiającym. Jedynym okresem, w którym przewodzi prąd jest usterka, gdy przez ścieżkę o niskiej rezystancji płynie prąd do masy. Elementem uziemiającym jest taśma stalowa ocynkowana (tzw. bednarka) wkopana w ziemię lub pręt wbity w ziemię ( Rys. 3 ). Mogą być także inne sposoby dające bezpośredni kontakt przewodu uziemiającego z ziemią w otworze, wykopie lub w fundamencie.", "Przewód uziemienia jest zazwyczaj gołym drutem miedzianym, używanym do podłączenia z elementem uziemiającym. Trzeba tutaj uwzględnić różnice pomiędzy materiałami tworzącymi złącze. Źle dobrane spowodują korozję, a w dalszej kolejności zwiększenie oporności i utratę połączenia z ziemią. Na Rys. 4 pokazano przykładowy schemat uziemienia całego systemu fotowoltaicznego zamontowanego na dachu lub elewacji budynku. Elementy konstrukcji oraz skrzynki ze sprzętem elektronicznym i łączeniowym są uziemione. Przewód ujemny paneli fotowoltaicznych (DC) jest uziemiony do ziemi przed falownikiem. Zabezpiecza to falownik przed usterką. W ten sposób tworzy się uziemienie układu po stronie prądu stałego DC. Przewód uziemiający urządzenie po stronie prądu przemiennego (AC) biegnie od falownika do głównego układu serwisowego, łącząc wszystkie przewody i uziemiając je. Nieuziemiony system fotowoltaiczny musi spełniać wszystkie wymagania dotyczące uziemienia sprzętu, czyli wszystkie skrzynki i elementy konstrukcyjne muszą być uziemione. Po stronie DC nie uziemia się przewodu ujemnego ani dodatniego, czyli nie ma uziemienia po stronie DC. Żaden z przewodów przenoszących prąd po stronie prądu stałego nie jest połączony z ziemią. Brak uziemienia systemu nie wpływa na funkcjonalność systemu, ale daje możliwość łatwiejszego wykrywania usterek, zarówno pomiędzy przewodami przewodzącymi prąd, jak i podłożem. W takim przypadku muszą być użyte falowniki specjalne do użytku w systemach nieuziemionych. Obwody paneli PV muszą być chronione, a izolowane wieloprzewodowe kable powinny być zainstalowane w specjalnych bieżniach. Przewody do paneli PV muszą posiadać izolację bardziej wytrzymałą niż inne przewody jednoprzewodowe. Oba muszą być chronione przez urządzenia zabezpieczające nadprądowe i muszą posiadać możliwość rozłączenia.", "Uziemienie po stronie prądu przemiennego AC jest realizowane przez podłączenie neutralnego przewodu AC do uziemienia w jednym punkcie. Uziemienie prądu przemiennego jest wykonane w głównej skrzynce serwisowej, która połączona jest ze skrzynkami i elementami konstrukcyjnymi. Przewód neutralny, który staje się przewodem uziemionym, jest połączony z drutem łączącym szyny i metalowe korpusy obudowy."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "14. Montaż instalacji fotowoltaicznej", "subject_id": 808, "subject": "14.1 Wymagania montażowe", "paragraphs": ["Montaż instalacji fotowoltaicznej poprzedzony jest wykonaniem dokumentacji projektowej. Projekt instalacji powinien uwzględniać informację dotyczącą między innymi:", "W zależności od tego w jakim miejscu będzie usytuowana instalacja PV, dobieramy adekwatne systemy montażowe. Poszczególne etapy wykonania instalacji są podobne bez względu na jej typ. W każdym przypadku należy pamiętać, aby wszystkie ramy paneli zostały uziemione. Uziemienie wykonywane jest poprzez połączenie wszystkich paneli poprzez tzw. mostki uziemiające, które następnie należy uziemić do pręta uziomowego. Rezystancja uziomu powinna wynosić mniej niż 10 Ω.", "W przypadku montażu instalacji fotowoltaicznej na dachu płaskim i skośnym istotne jest, aby zachować pewien margines od krawędzi dachu. W obszarach brzegowych dachu instalacja fotowoltaiczna narażona jest na działanie wiatru z tego względu na podstawie wymiarów budynków oblicza się margines, w którym nie powinno się instalować paneli. Dla dłuższej krawędzi dachu margines ten wynosi:", "gdzie: a – szerokość obszaru od krawędzi dachu wyłączony z instalacji paneli fotowoltaicznych, x – szerokość budynku mierzona wzdłuż ściany budynku równoległej do krawędzi a, y – wysokość budynku mierzona od gruntu do najwyższego punktu dachu.", "Podczas projektowania rozkładu paneli należy uwzględnić odstępy między panelami na klemy oraz odległości separacyjne między rzędami, które wynoszą minimum 2 cm, dla wszystkich typów instalacji. W następnych podrozdziałach zostaną przedstawione etapy wykonywania instalacji fotowoltaicznych w zależności od miejsca ich usytuowania."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "14. Montaż instalacji fotowoltaicznej", "subject_id": 809, "subject": "14.2 Montaż instalacji na płaskim dachu i gruncie", "paragraphs": ["Montaż instalacji fotowoltaicznej na dachu płaskim nie jest ograniczony przez skosy narzucone przez projekt domu. Kąt nachylenia paneli powinien wynosić 15-20°, aby pokryć maksymalnie powierzchnię i zapobiec odziaływaniu wiatru. System montażu paneli PV na płaskim dachu wymaga zastosowania stelaża wykonanego najczęściej z aluminiowych profili, które umożliwiają dopasowanie konta nachylenia paneli fotowoltaicznych. Możliwe są trzy rodzaje mocowań do dachu płaskiego:", "Instalacje do 10 kW mogą być montowane na dachu, natomiast większe powinny być montowane na gruncie. Etapy instalacji na gruncie są podobne do tych na dachu płaskim bez balastu. Wyjątek stanowi sposób przymocowania konstrukcji wsporczej do podłoża."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "14. Montaż instalacji fotowoltaicznej", "subject_id": 1042, "subject": "14.2.1 System montażowy na dachu płaskim i gruncie bez balastu", "paragraphs": ["Zastosowanie systemu montażu bez balastu umożliwia budowę konstrukcji wsporczej dla paneli PV bez dodatkowego obciążenia. W przypadku dachów ten system wymaga doszczelnienia miejsc mocowania. Połączenie konstrukcji wsporczej do dachu odbywa się za pomocą wkrętów, śrub lub szpilek. Instalację PV na konstrukcji wsporczej bez balastu przedstawia Rys. 1.", "Montaż instalacji fotowoltaicznej bez balastu można podzielić na kilka etapów.", "W przypadku montażu konstrukcji na gruncie należy zadbać o odpowiedni fundament, który powinien stanowić podstawę na całej długości konstrukcji wsporczej. Dopuszczalne jest także zastosowanie podparcia w trzech punktach stosując np. betonowe prefabrykowane pustaki uzupełnione betonem na głębokości ok. 70 cm. Przykład takiego rozwiązania przedstawiono na Rys. 3. Konstrukcja mocowana jest w takim przypadku do fundamentu za pomocą śrub do betonu. Stosowane są także konstrukcje wkręcane w grunt bez konieczności wykonywania betonowego fundamentu."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "14. Montaż instalacji fotowoltaicznej", "subject_id": 1043, "subject": "14.2.2 System montażowy na dachu płaskim z balastem", "paragraphs": ["Konstrukcje balastowe, czyli z obciążeniem są rozwiązaniem montażu instalacji fotowoltaicznej na dachach np. membranowych, dla których zachowanie gwarancji i szczelności jest ważnym aspektem. W tym przypadku konstrukcja wsporcza dla paneli fotowoltaicznych nie jest przykręcona na stałe do dachu. Z tego powodu konstrukcja wymaga dodatkowego obciążenia za pomocą betonowych bloków, co przedstawiono na Rys. 1 oraz Rys. 2.", "W przypadku zastosowania konstrukcji z balastem etapy montażu paneli fotowoltaicznych do konstrukcji wsporczej są podobne, jak w przypadku instalacji bez obciążenia. Waga obciążenia przypadającego na jeden panel PV zależy od strefy wietrzności, kąta pochylenia panelu, jak również wysokości budynku. Dla jednego panelu o standardowych wymiarach (ok. 100 cm x 164 cm) obciążenie to wynosi około 60 kg. Z tego powodu ważnym ograniczeniem zastosowania tego rodzaju systemu mocowań jest nośność dachu."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "14. Montaż instalacji fotowoltaicznej", "subject_id": 1044, "subject": "14.2.3 Systemy montażowe samonośne", "paragraphs": ["Dla systemów fotowoltaicznych o niewielkich powierzchniach stosowane są systemy montażowe samonośne. W systemach samonośnych stosowane jest obciążenie balastowe, uniemożliwiające poderwanie konstrukcji przez np. siłę wiatru. Tego typu konstrukcja przedstawiona jest na Rys. 1.", "Zaletą tego typu systemu jest to, iż jej konstrukcja powoduje, że nie jest na stałe mocowana do dachu i nie wymaga dużego obciążenia, które jest umieszczane na obrzeżach. W konsekwencji jest łatwa do przeniesienia. Kąt pochylenia względem poziomu dachu jest w tym przypadku mały i wynosi do 15°."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "14. Montaż instalacji fotowoltaicznej", "subject_id": 810, "subject": "14.3 Montaż instalacji na dachu spadzistym", "paragraphs": ["Systemy fotowoltaiczne najczęściej są montowane na dachu spadzistym. W zależności od pokrycia dachu do montażu dobierany jest odpowiedni rodzaj uchwytów. Do najczęściej stosowanych elementów łączenia zalicza się m.in.: uchwyty montażowe z regulacją (blacha trapezowa), haki (dachówka ceramiczna), śruby dwugwintowe (blachodachówka), uchwyty montażowe typu L (papa), a także uchwyty montażowe bez regulacji (dachówka karpiówka), które zostały przedstawione na Rys. 1.", "Montaż paneli fotowoltaicznych na dachu spadzistym przedstawiano w podrozdziale na przykładzie dachu pokrytego dachówką ceramiczną. Montaż składa się z następujących etapów."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "14. Montaż instalacji fotowoltaicznej", "subject_id": 811, "subject": "14.4 Montaż PV podążających za słońcem", "paragraphs": ["Fotowoltaiczne instalacje nadążne są montowane na ruchomych konstrukcjach zwanych trackerami. Montaż paneli fotowoltaicznych w systemie nadążnym można podzielić na następujące etapy:", "1. Wykonanie fundamentu pod kolumnę trackera i jego montaż. Głębokość osadzenia fundamentu zależy od konkretnych warunków panujących na miejscu montażu. Głębokość posadowienia fundamentów musi być również większa niż głębokość przemarzania gruntu, która zależy w głównej mierze od strefy klimatycznej. Wymiary fundamentu determinowane są przez projektantów oraz polskie normy i obliczane są w przypadku paneli fotowoltaicznych dla trzeciej strefy klimatycznej oraz wykonywane z betonu klasy 25. Możliwy jest także montaż instalacji fotowoltaicznej na słupie nośnym. Tego typu konstrukcje proponuje np. firma Solar Tracker Polska, której instalację PV przedstawia Rys. 1.", "Jednym z konstrukcyjnych rozwiązań jest zamontowanie tzw. kosza w fundamencie, który przedstawiono na Rys. 2 oraz Rys. 3, do którego przykręcana jest kolumna trackera. Do wykonania kolumny wykorzystywana jest na przykład rura ze stali ST3 S o średnicy 230 mm ze ścianką o grubości 6 mm i wysokości 2000 mm.", "2. Montaż konstrukcji wsporczej dla paneli fotowoltaicznych przedstawiono na Rys. 4.", "3. Zainstalowanie paneli PV do konstrukcji wsporczej za pomocą klem przesuwnych i wykonanie instalacji elektrycznej ( Rys. 5 )."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "15. Badania paneli oraz instalacji fotowoltaicznej", "subject_id": 1046, "subject": "15.1 Kontrola instalacji fotowoltaicznej", "paragraphs": ["Instalacje fotowoltaiczne cieszą się dużym zainteresowaniem, co w następstwie prowadzi do wzrostu ich produkcji. Taka sytuacja bardzo często powoduje spadek jakości komponentów oraz jakości usług montażu instalacji fotowoltaicznych. Z tego względu ważne są testy instalacji fotowoltaicznej po jej wykonaniu. Badanie instalacji fotowoltaicznej należy rozpocząć od wizualnych oględzin w celu zweryfikowania poprawności doboru i montażu elementów instalacji, jak również jej zgodności z dokumentacją projektową. Ten etap badań instalacji fotowoltaicznej jest bardzo ważny, ponieważ dzięki niemu można nie dopuścić do eksploatacji wadliwej instalacji, jak również uchronić osobę wykonującą inspekcję przed niebezpieczeństwem. Po wizualnym sprawdzeniu instalacji przeprowadza się odpowiednie pomiary instalacji fotowoltaicznej. Przeprowadzenie testów instalacji po jej wykonaniu określa norma PN-EN 62446-1:2016 [1]. Do pomiarów instalacji stosowane są specjalistyczne przyrządy, które muszą spełniać wymagania norm PN-EN 61557 [2] oraz PN-EN 61010 [3]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "15. Badania paneli oraz instalacji fotowoltaicznej", "subject_id": 812, "subject": "15.2 Testy nowej instalacji", "paragraphs": ["Każdy nowozainstalowany układ paneli fotowoltaicznych powinien przejść przegląd powykonawczy. Ma on na celu sprawdzenie czy łańcuchy paneli są podłączone prawidłowo i czy same panele nie są uszkodzone oraz wyeliminować potencjalne błędy wykonawcze [1]. Dokumentacja instalacji powinna zawierać jej schemat, daty oddania i kontroli, dane techniczne paneli i inwerterów, moc znamionową (maksymalna moc z jaką urządzenie może pracować przez długi czas bez narażenia się na uszkodzenie przy minimalnych zniekształceniach), a także dane firmy instalującej. Schemat powinien podawać liczbę paneli oraz ich typy, a także:", "Dodatkowo do dokumentacji powinny być załączone karty katalogowe urządzeń. Istotną częścią dokumentacji są instrukcje zachowania się w przypadku awarii lub zdarzenia losowego (np. pożaru). Jako pierwsze wykonuje się oględziny instalacji (procedury znajdujce się w zapisach normy PN-EN 62446-1), natomiast podstawą oględzin instalacji są wytyczne normy PN-HD 60364-6. Bazując na dokumentacji instalacji fotowoltaicznej, powinno się sprawdzić czy założone parametry pracy paneli faktycznie są osiągane. Test należy przeprowadzić zgodnie z normą PN-EN 62446.", "Testy (zgodnie z normą PN-HD 60364-6) dzielimy na dwie kategorie. Przedstawione zostały na Rys. 1 [2].", "Kategoria I obejmuje testy, które powinny zostać wykonane dla wszystkich instalacji. Jako pierwsza powinna zostać sprawdzona strona zmiennoprądowa AC instalacji (zgodnie z normą PN-HD 60364-6), a następnie strona stałoprądowa DC. W przypadku pozytywnego przejścia przez testy kategorii I, można wykonać testy kategorii II. Podstawowymi metodami badań w tej kategorii są badania rozkładu temperatur pojedynczych paneli przy użyciu kamery termowizyjnej oraz analiza charakterystyk prądowo-napięciowych. W przypadku wykrycia nieprawidłowości w testach kategorii I lub II wykonywane są testy dodatkowe np. badanie napięcia względem ziemi, test diody zaporowej, pomiar rezystancji izolacji na mokro oraz ocena zacienienia. Po zakończeniu testów sporządza i przekazuje się inwestorowi raport zawierający wyniki dla wszystkich przeprowadzonych testów, charakterystyki oraz datę kolejnego przeglądu. Taki raport jest podstawą świadczeń gwarancyjnych i odszkodowań [3]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "15. Badania paneli oraz instalacji fotowoltaicznej", "subject_id": 1045, "subject": "15.3 Wybór i weryfikacja paneli do testowania", "paragraphs": ["Panele fotowoltaiczne przeznaczone do badań powinny być odpowiednio oznakowane. Na tylnej powierzchni panelu fotowoltaicznego powinna znajdować się tabliczka znamionowa, którą przedstawiono na Rys. 1. Każda tabliczka znamionowa powinna zawierać informację odnośnie:", "Dokumentacja techniczna powinna zawierać informację odnośnie mocy znamionowej instalacji, informację o producencie, modelu oraz liczbie paneli i inwerterów, daty zainstalowania i oddania do użytku, jak również informację o zlecającym montaż i adres zainstalowanej instalacji. Dokumentacja powinna zawierać także informację o firmie projektującej instalację oraz jej schemat. Ważną częścią dokumentacji jest określenie systemów bezpieczeństwa i sposobu zachowania w czasie awarii instalacji fotowoltaicznej. Wymagania dotyczące oznakowania, sporządzania dokumentacji technicznej, jak również sposób wyboru paneli do badań określa norma UL 4730 Ed. 1 (2017) \"Wymagania dotyczące etykietowania, danych technicznych i wybieranie próbek dla paneli fotowoltaicznych\", przy czym nie dotyczy systemów z koncentratorami światła, CPV. Norma precyzuje wymagania dla producenta odnośnie:", "Norma EN 50380:2017 \"Wymagania związane z oznaczaniem i dokumentacją paneli fotowoltaicznych\" precyzuje jakie informacje powinny znaleźć się w dokumentacji technicznej panelu. Norma ta zobowiązuje do trwałego oznakowania panelu, określenia parametrów znamionowych oraz wskazuje sposób bezpiecznego i prawidłowego użytkowania. Natomiast norma EN 50461:2015 \"Ogniwa słoneczne – Karta informacyjna produktu i specyfikacja parametrów dla krystalicznych ogniw krzemowych słonecznych\" determinuje, jakie informacje powinny być podane odnośnie danych technicznych i parametrów monokrystalicznych i multikrystalicznych ogniw krzemowych, które determinują optymalną i bezpieczną produkcję paneli fotowoltaicznych."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "15. Badania paneli oraz instalacji fotowoltaicznej", "subject_id": 807, "subject": "15.4 Poprawność działania łańcuchów paneli", "paragraphs": ["W celu zweryfikowania poprawności działania łańcuchów paneli wyznaczane są charakterystyki prądowo-napięciowe. Do pomiaru charakterystyk prądowo-napięciowych wykorzystywane są specjalistyczne przyrządy np. wielofunkcyjny miernik Metrel MI 3108 Eurotest PV, który przedstawiono na Rys. 1. Miernik pozwala badać instalacje fotowoltaiczne zgodnie z normą PN-EN 62446, które jednocześnie spełniają wymagania norm PN-EN 61557 oraz PN-EN 61010. Przyrząd łączy funkcje miernika parametrów instalacji elektrycznych i testera instalacji fotowoltaicznych. Umożliwia m.in. tworzenie charakterystyk prądowo-napięciowych, przeliczanie parametrów do wartości STC (standardowe warunki testowania) oraz pomiar mocy po stronach AC i DC inwertera. Ważnym aspektem w pomiarach instalacji PV jest jednoczesny pomiar parametrów środowiskowych takich jak temperatura panelu i natężenie promieniowania słonecznego.", "Zgodnie z zaleceniami normy PN-EN 62446-1 w pierwszej kolejności zalecany jest pomiar ciągłości połączeń ochronnych (uziemiających) i wyrównawczych. Na Rys. 2 przedstawiony został schemat pomiaru ciągłości połączeń ochronnych za pomocą przyrządu MI 3108 Eurotest PV, który został podłączony do ramy panelu PV oraz do obudowy inwertera.", "Ważnym etapem weryfikacji poprawności działania instalacji PV jest test polaryzacji przewodów oraz sprawdzenie poprawnego podłączenia łańcuchów paneli. Procedura wykonywania testu polaryzacji jest opisana szczegółowo w normie PN-EN 62446-1, natomiast schemat połączeń przewodów z miernikiem MI 3109 Eurotest PV przedstawiono na Rys. 3. Pomiar polaryzacji polega na połączeniu wszystkich przewodów o polaryzacji ujemnej i sprawdzaniu po kolei napięć między wszystkimi przewodami polaryzacji dodatniej do pierwszego przewodu odniesienia. Otrzymana wartość napięcia ok. 0 V oznacza poprawność połączeń, a dwukrotność wartości znamionowej napięcia poinformuje o połączeniu odwrotnym.", "Pomiar napięcia otwartego obwodu \\( V_{oc} \\) jest jednym z ważniejszych badań, które w szybki sposób umożliwia weryfikację poprawności połączeń paneli tworzących dany łańcuch. Pomiar przeprowadza się za pomocą miernika MI 3109 Eurotest PV, którego schemat przyłączenia do instalacji przedstawia . W momencie pomiaru \\( V_{oc} \\) instalacja PV nie może być podłączona do obciążenia, a miernik podłącza się do przewodów wychodzących z paneli PV. Wartość napięcia danego łańcucha umożliwia sprawdzenie czy w odpowiedni sposób połączona jest odpowiednia ilość paneli. Możliwość wprowadzenia wartości parametrów środowiskowych do miernika umożliwia przeliczenie wartości napięcia otwartego obwodu do warunków STC. W badaniu za wartości referencyjne przyjmowane są dane z karty katalogowej paneli albo wartości zmierzone \\( V_{oc} \\) dla pojedynczego panelu. Otrzymane wyniki, które odbiegają od oczekiwanych mogą sugerować:", "Testem zalecanym przez normę PN-EN 62446-1 jest pomiar prądu zwarcia Isc, który można wykonać za pomocą miernika MI 3108. Możliwy jest także pomiar prądu pracy, wykorzystując cęgi Metrel A 1391. Na przedstawiono schemat połączenia miernika z instalacją PV w celu przeprowadzenia pomiaru prądu DC. Prąd zwarcia mierzony jest przez połączenie przewodów wychodzących z panelu PV ze sobą i założenia cęgów na przewód. Natomiast prąd pracy mierzony jest w trakcie pracy instalacji.", "Ważnym etapem weryfikacji poprawności działania instalacji fotowoltaicznej jest sprawdzenie charakterystyki prądowo-napięciowej łańcuchów paneli. Jest to rozszerzona wersja pomiarów \\( V_{oc} \\) i \\( I_{sc} \\), przy czym wykreślenie całej charakterystyki I(U) umożliwia dostarczenie informacji o napięciu punktu mocy maksymalnej \\( V_{sc} \\), prądzie punktu mocy maksymalnej \\( I_{mpp} \\) i maksymalnej mocy uzyskanej właśnie w tym punkcie. Dzięki zastosowaniu w pomiarze miernika natężenia promieniowania słonecznego charakterystyka prądowo-napięciowa może być przeliczona do warunków STC, w wyniku czego możliwe jest realne porównanie efektywności pracy instalacji z danymi katalogowymi producenta. Kształt charakterystyki pozwala diagnozować również błędy w pracy instalacji. Zmiany charakterystyki I(U) i czynniki powodujące anomalie zostały przedstawione na Rys. 6 i Rys. 7.", "W badaniu ważne jest określenie aktualnej wartości natężenia promieniowania słonecznego (irradiancji) w płaszczyźnie paneli. Jest to ważne ze względu na to iż norma PN-EN 62446-1 definiuje minimalne natężenie promieniowania, przy którym badanie charakterystyki prądowo-napięciowej jest miarodajne i możliwe jest jej przeliczenie na warunki STC. W przypadku zastosowania urządzeń firmy Metrel natężenie promieniowania powinno być na poziomie powyżej 500 \\( \\frac{W}{m^{2}} \\). Norma PN-EN 61829 określa sposób wykonywania badania efektywności pracy paneli fotowoltaicznych i dokładne przeliczenie pomiarów na warunki STC definiując wartość minimalną natężenia promieniowania słonecznego jako 700 \\( \\frac{W}{m^{2}} \\). Badanie natężenia promieniowania słonecznego możliwe jest na kilka sposobów, a mianowicie wykorzystując zewnętrzny rejestrator temperatury i natężenia promieniowania słonecznego A 1378 PV Remote Unit firmy Metrel lub za pomocą pyranometru, który przedstawiono na Rys. 8.", "Ważne w pomiarach parametrów środowiskowych jest to, aby czujnik natężenia promieniowania słonecznego został umieszczony w płaszczyźnie panelu, tak aby nie był zacieniony ani narażony na odbite światło. Czujnik temperatury powinien być umieszczony na tylnej ścianie panelu i najbliżej środka któregoś z ogniw i panelu."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "15. Badania paneli oraz instalacji fotowoltaicznej", "subject_id": 805, "subject": "15.5 Test na uderzenie gradu", "paragraphs": ["Ekstremalne warunki pogodowe jak silne gradobicie może doprowadzić do widocznych uszkodzeń paneli, jak również do mikrouszkodzeń trudnych do wizualnego zidentyfikowania. Z tego powodu panele słoneczne są poddawane obowiązkowym testom, których celem jest sprawdzenie ich odporności na uderzenia gradu zgodnie z międzynarodowymi standardami (IEC 61215). Test przeprowadzany jest w temperaturze około \\( 4^{\\circ} C \\), za pomocą specjalnych wyrzutni kulek gradowych o średnicy 1 cala (25,4 mm) i masie ok 7,53 g. Kulki uderzają panel w 11 cyklach z prędkością 23 \\( \\frac{m}{s} \\). Po zakończeniu testu nie powinno być widocznych uszkodzeń takich jak pęknięcia ogniw i szkła, mikropęknięcia i łagodne deformacje strukturalne ( Rys. 1 )."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "15. Badania paneli oraz instalacji fotowoltaicznej", "subject_id": 1075, "subject": "15.6 Test na statyczne obciążenia mechaniczne panelu", "paragraphs": ["Odporność paneli fotowoltaicznych na obciążenia mechaniczne statyczne (ang. static load test) weryfikowane jest na podstawie testów, podczas których panele obciąża się ciśnieniem rzędu 2400 Pa, wywołując w ten sposób naprężenia przez okres 1 h. Test wytrzymałości trwa tak długo, aż panel pęknie."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "15. Badania paneli oraz instalacji fotowoltaicznej", "subject_id": 806, "subject": "15.7 Testy elektroluminescencyjne", "paragraphs": ["Do identyfikacji mikrouszkodzeń niewidocznych gołym okiem służą testy elektroluminescencyjne. Do tego typu uszkodzeń może dojść np. w czasie silnego gradobicia, kiedy warunki pogodowe są dużo bardziej niesprzyjające, niż te w czasie wykonywania testów gradowych, w konsekwencji czego może dojść do przekroczenia granicy wytrzymałości paneli. Do mikrouszkodzeń może dojść także w czasie transportu czy instalacji. Testy elektroluminescencyjne mogą także posłużyć do wykrywania mikrouszkodzeń indukowanym napięciem PID. Wykonywane są w momencie, gdy prąd przepływa przez panel. W tym czasie dwie niezależne kamery elektroluminescencyjne wykonują zdjęcia ogniw fotowoltaicznych, dzięki czemu panele zostają prześwietlone. Szczegółowy opis przeprowadzenia testów elektroluminescencyjnych jest przedstawiony w [1]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "16. Uszkodzenia instalacji fotowoltaicznych", "subject_id": 804, "subject": "16.1 Rodzaje uszkodzeń w instalacjach fotowoltaicznych", "paragraphs": ["Uszkodzenia instalacji fotowoltaicznej mogą dotyczyć ogniw, paneli, jak również elementów przyłączeniowych np.: kabli, złącz, puszek przyłączeniowych. Uszkodzenia mogą wystąpić w czasie produkcji, transportu, montażu, jak również w czasie eksploatacji podczas działania wielu czynników. W czasie produkcji są poddawane np. działaniu czynników chemicznych, wysokiej temperaturze i naprężeniom mechanicznym. W czasie transportu i montażu do uszkodzenia paneli może dojść pod wpływem złego zabezpieczenia przed upadkiem, czy też niewłaściwego zachowania się instalatora podczas wykonywania instalacji np. podczas chodzenia po panelach, zbyt silnego dokręcania do konstrukcji wsporczej. W czasie eksploatacji panele mogą być narażone np. na działanie silnego wiatru, opadów gradu. W środowisku morskim panele oraz elementy konstrukcji wsporczej mogą zostać trwale uszkodzone pod wpływem wilgotnej i korozyjnej atmosfery, w wyniku gromadzenia soli na elementach instalacji. Do najczęściej występujących wad i uszkodzeń zalicza się między innymi:", "OGNIWA", "PANELE", "ELEMENTY INSTALACJI"], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "16. Uszkodzenia instalacji fotowoltaicznych", "subject_id": 1019, "subject": "16.2 Gorące punkty", "paragraphs": ["Gorące punkty (ang. hot-spots) to miejsca, w których nastąpiła niekontrolowana zmiana rezystancji powodująca wydzielenie się znacznej ilości ciepła Joule'a-Lenza i wzrost temperatury ogniwa w tych obszarach. Obecność gorących punktów może wynikać z obecności wad ścieżek prądowych jak na przykład obecność niedolutowań i zmiany przekroju, jak również mikrouszkodzeń ogniw. W obszarze uszkodzenia ogniwo zamiast generować energię, rozprasza ją w postaci ciepła. Problem występowania gorących punktów staje się bardzo poważny w przypadku, gdy część ogniwa jest zacieniona. W takiej sytuacji zacienione ogniwo nie produkuje energii elektrycznej, ale przepływa przez nie prąd wsteczny, wygenerowany przez niezacienione ogniwa, powodując podwyższenie temperatury [1]. W celu zapobiegania występowania gorących punktów w panelach stosowane są diody bocznikujące tzw. „by-pass”. Zadaniem diod bocznikujących jest przekierowanie wygenerowanego prądu w taki sposób, aby prąd nie płynął przez uszkodzone i zacienione ogniwo [2]. Temperatura gorącego punktu zależy od miejsca jego wystąpienia oraz od przewodności materiału, z którego wykonane jest ogniwo fotowoltaiczne [3]. Przykładowo gorący punkt w pobliżu krawędzi panelu krzemowego osiąga znacznie wyższe temperatury niż gorący punkt występujący w jego środku. Dzieje się tak, ponieważ przewodność cieplna w krzemowym ogniwie jest wyższa niż w laminacie. Z tego powodu ciepło jest rozprowadzane na większym obszarze w przypadku jeśli gorący punkt pojawi się w środkowej części panelu. Gorące punkty można wykryć za pomocą badania termowizyjnego instalacji fotowoltaicznej. Na Rys. 1 przedstawiony został obraz wykonany kamerą termowizyjną, ukazujący rozkład temperatury na powierzchni panelu fotowoltaicznego. Temperatura powierzchni prawidłowo pracującego panelu powinna być równomierna na całym jego obszarze. Na zdjęciu zaznaczony został obszar o podwyższonej temperaturze w porównaniu do pozostałych części panelu, świadczący o występowaniu gorących punktów.", "Ogniwa fotowoltaiczne w obszarach hot-spotów mogą nagrzać się nawet do ponad 250°C [1]. Nagrzewanie ogniwa do wysokich temperatur, przekraczających wytrzymałość folii EVA może prowadzić do trwałego jej uszkodzenia, w wyniku, czego na powierzchni ogniwa pojawiają się ciemne przebarwienia. Występowanie 'hot-spotów' powoduje przyspieszenie starzenia się ogniwa, co może skutkować skróceniem żywotności panelu i spadku wydajności energetycznej o ponad \\( 15\\% \\) [4], a w skrajnych przypadkach może prowadzić do pożaru instalacji."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "16. Uszkodzenia instalacji fotowoltaicznych", "subject_id": 1053, "subject": "16.3 Delaminacja", "paragraphs": ["Delaminacja to uszkodzenie paneli polegające na odwarstwieniu warstwy folii EVA (etylenowy polioctan winylu), którą pokryte są panele fotowoltaiczne. Proces pokrywania paneli folią EVA, czyli laminowanie, odbywa się pod określonymi parametrami technologicznymi takimi jak temperatura i ciśnienie. Konsekwencją złego doboru parametrów technologicznych tego procesu jest delaminacja, do której dochodzi w czasie eksploatacji. Najczęściej dochodzi do niej w gorącym i wilgotnym klimacie i obserwowana jest w pobliżu ścieżek prądowych. Delaminacja powoduje zmętnienie folii EVA, co można zaobserwować na Rys. 1.", "Konsekwencją delaminacji jest pogorszenie właściwości ochronnych przed wnikaniem wilgoci w głąb paneli, jak również pogorszenie transmisji światła do ogniwa, co skutkuje pogorszeniem efektywności pracy paneli [1], [2], [3]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "16. Uszkodzenia instalacji fotowoltaicznych", "subject_id": 1047, "subject": "16.4 Pęknięcia i mikropęknięcia ogniw", "paragraphs": ["Mikropęknięcia (ang. microcraks) i pęknięcia (ang. cracks) ogniw to uszkodzenia, do których może dojść na etapie produkcji, transportu i instalacji paneli fotowoltaicznych. Do pęknięć może dojść także podczas eksploatacji paneli pod wpływem uderzenia lub działania czynników atmosferycznych takich jak np.: obciążenia śniegiem, silne wiatry i opady gradu [1]. Można wyróżnić kilka rodzajów pęknięć ogniw w zależności od kierunku ich występowania:", "Największy wpływ na zmniejszenie wydajności paneli fotowoltaicznych mają pęknięcia po przekątnej i pęknięcia w wielu kierunkach, gdyż mogą prowadzić do odłączenia części ogniw od busbarów, a zatem do utraty całkowitej mocy generowanej przez panel [2], [3]. W miejscach mikropęknięć jak również na krawędziach ogniw mogą występować tzw. „ślimacze ścieżki” [4], które są konsekwencją zachodzących reakcji chemicznych między pierwiastkami pochodzącymi z elementów paneli oraz tlenem i wilgocią ze środowiska. Ze względu na to, że różne reakcje mogą powodować powstanie „ślimaczych ścieżek” pojęcie to odnosi się do klasy defektów, a nie opisuje jednego konkretnego przypadku reakcji. Jeden z mechanizmów opisujących powstawanie „ślimaczych ścieżek” opiera się na założeniu, że wilgoć i tlen dyfunduje przez folię EVA i dociera przez mikropęknięcia do powierzchni ogniwa. Na skutek reakcji między cząsteczkami tlenu z folii EVA i środowiska oraz cząsteczkami srebra, pochodzącymi z tzw. palców ogniwa (cienka siatka widoczna na przedniej stronie ogniwa), powstają takie związki jak np. tlenek srebra, chlorek srebra, węglan srebra i octan srebra [5]. Przykładową reakcję tworzenia tzw. „ślimaczych ścieżek” (octanu srebra, \\( AgC_{2}H_{3}O_{2} \\)), w wyniku działania promieniowania słonecznego i temperatury można zapisać jako:", "Przyczyną powstawania „ślimaczych ścieżek” może być także wprowadzenie cząstek srebra w procesie produkcyjnym, jako zanieczyszczeń, co może nie mieć związku z obecnością mikropęknięć w ogniwie."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "16. Uszkodzenia instalacji fotowoltaicznych", "subject_id": 1049, "subject": "16.5 Defekty złącz i puszek przyłączeniowych", "paragraphs": ["Do defektów instalacji fotowoltaicznej można zaliczyć między innymi defekty złącz oraz puszek przyłączeniowych. Konsekwencją złej jakości złącz jest zły kontakt elektryczny, uszkodzenie w czasie montażu lub po ekspozycji na działanie czynników atmosferycznych. Ostatecznie może dojść do wypalenia części instalacji. Innym powodem występowania wypalenia części instalacji jest zła jakość puszek przyłączeniowych z niepoprawnie założonymi diodami bocznikującymi. Puszki przyłączeniowe zawierają w swojej budowie diody 'by-pass', których rolą jest spowodowanie przepływu prądu poza zacienionym ogniwem. Jeśli niewłaściwie pracują to może dojść do ich przegrzania, a następnie wypalenia."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "16. Uszkodzenia instalacji fotowoltaicznych", "subject_id": 1050, "subject": "16.6 Pęknięcia szkła", "paragraphs": ["Pęknięcia szkła paneli fotowoltaicznych wynikają najczęściej z działania czynników zewnętrznych takich jak np.: uderzenia gradem, kamieniem itp. Przykład uszkodzonego szkła panelu fotowoltaicznego przedstawiono na Rys. 1. Możliwe jest także uszkodzenie warstwy szklanej z powodu niewłaściwego zachowania instalatora w czasie wykonywania instalacji fotowoltaicznej np. za mocne dokręcenie klem, czy też przez chodzenie po panelu."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "16. Uszkodzenia instalacji fotowoltaicznych", "subject_id": 1051, "subject": "16.7 Korozja warstwy TCO w ogniwach z krzemu amorficznego", "paragraphs": ["Korozja przezroczystej warstwy TCO (ang. Transparent Conductive Oxide) polega na jej zmętnieniu i dotyczy ogniw cienkowarstwowych [1], jak również wytworzonych z krzemu amorficznego [2]. Korozja TCO powstaje w obecności prądów upływu, które powodują generowanie napięcia między ogniwem a ziemią, co powoduje przedostawanie się atomów sodu, będących składnikiem szkła, do warstwy TCO. Postępowanie korozji ma swój początek na krawędziach panelu fotowoltaicznego, następnie proces postępuje na dalsze obszary ogniwa. W konsekwencji następuje zmętnienie warstwy oraz spadek wydajności ogniwa. Ze względu na położenie warstwy TCO w ogniwie, wyróżnia się technologie substrate, kiedy warstwa ta jest bezpośrednio przyległa do warstwy szklanej ogniwa oraz technologie superstage w przypadku kiedy warstwa TCO jest rozdzielona warstwą luminatu od szkła. Z tego powodu najbardziej narażone są ogniwa wytworzone w technologii substrate. W celu zapobiegania korozji warstwy TCO zlecane jest stosowanie falowników transformatorowych (izolacja galwaniczna), a także uziemianie bieguna „-” tablicy paneli."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "16. Uszkodzenia instalacji fotowoltaicznych", "subject_id": 1052, "subject": "16.8 Degradacja indukowanym napięciem PID", "paragraphs": ["Do strat mocy paneli PV może dojść w wyniku występowania degradacji indukowanym napięciem PID (ang. Potential Induced Degradation), polegającym na występowaniu niewielkiego upływu prądu [1]. Zjawisko to zachodzi podczas występowania wysokiej różnicy potencjału między uziemioną ramą paneli fotowoltaicznych o potencjale 0 V, a skrajnie położonymi w stringu panelami (skrajnymi ogniwami) o różnej biegunowości. W przypadku systematycznego pojawiania się zjawiska PID może dojść do nieodwracalnego uszkodzenia złączy ogniw. Natomiast w przypadku, kiedy zjawisko zachodzi nieregularnie może dojść do odwracalnej polaryzacji ogniwa i nie powodować stałych uszkodzeń [2]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "16. Uszkodzenia instalacji fotowoltaicznych", "subject_id": 1048, "subject": "16.9 Markery technologiczne na krawędziach ogniw", "paragraphs": [], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "17. Aspekty ekonomiczne fotowoltaiki", "subject_id": 1020, "subject": "17.1 Koszty instalacji fotowoltaicznej", "paragraphs": ["Ze względu na duże potrzeby energetyczne korzystanie z fotowoltaiki staje się coraz bardziej opłacalne. Generalnie opłacalność inwestycji w elektrownię fotowoltaiczną zależy od ceny instalacji i cen energii. Na koszty fotowoltaiki w dużej mierze składają się głównie koszty samej instalacji, ponoszone jednorazowo. Cena zestawu instalacyjnego zależy również od miejsca gdzie będą instalowane panele. Na koszt instalacji mając wpływ:", "Przykładowy rozkład procentowy kosztów dla firmy wykonującej instalacje został przedstawiony na Rys. 1 – oprac. na podstawie [1], [2].", "Aktualna średnia cena instalacji w Stanach Zjednoczonych w zależności od rozmiaru została przedstawiona na Rys. 2. Dla 1kW otrzymujemy koszt 5 $/kW, a przypadku i 74 kW koszt za 1kW wynosi 3$. Średni koszt instalacji fotowoltaiki słonecznej na świecie od 2010 do 2019 r spada od wielu lat i obecnie wynosi 995$/kW ( Rys. 2 – oprac. na podstawie danych z [3])."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "17. Aspekty ekonomiczne fotowoltaiki", "subject_id": 1058, "subject": "17.2 Ceny paneli", "paragraphs": ["Najpopularniejszymi typami ogniw są ogniwa krzemowe oraz cienkowarstwowe, ogniwa wielozłączowe (ze względu na koszt) i barwnikowe (ze względu na wydajność, jednak stanowią marginalną część sprzedaży). Pośród powszechnie dostępnych panele monokrystaliczne są najdroższe, ale ze względu na najwyższą sprawność są chętnie wybierane. Tańsze ogniwa to ogniwa polikrystaliczne, natomiast najtańszą opcją są krzemowe ogniwa amorficzne (tabela na Rys. 1 – oprac. na podstawie [1]).", "W związku z rozwojem technologicznym, udoskonalaniem techniki wytwarzania, spada cena samych paneli. Richard Swanson – założyciel SunPower Corporation, producent paneli słonecznych – zaproponował odpowiednik prawa Moor’a dla paneli słonecznych. Prawo Swansona [2] postuluje, że cena słonecznych paneli fotowoltaicznych ma tendencję do spadku o \\( 20\\% \\) za każde podwojenie skumulowanej ilości wysyłanego towaru. Jest to prawo empiryczne. Ceny krystalicznych ogniw słonecznych spadły z 76,67 USD/W w 1977 r. do przewidywanego poziomu 0,74 USD/W w 2013 r., w 2017 r. wynosiły 0.63 USD/W, by w 2020 r. osiągnąć cenę 0.21 USD/W [3] ( Rys. 2 – oprac. na podstawie [4])."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "17. Aspekty ekonomiczne fotowoltaiki", "subject_id": 813, "subject": "17.3 Rozwój instalacji w Polsce", "paragraphs": ["Łączna ilość energii wyprodukowana z fotowoltaiki w 2019 r. w Polsce wyniosła ok. 924 GWh, zaś prognoza na 2020 r. wynosi ok. 2190 GWh. Ilość energii wyprodukowanej w Polsce według źródła została przedstawiona na Rys. 1, natomiast procentowy rozkład źródeł energii w produkcji energii przedstawia Rys. 2. Energia wyprodukowana z fotowoltaiki stanowi \\( 1,9\\% \\) ogólnej wyprodukowanej energii w 2020 r. w Polsce [1]).", "W sektorze PV w Polsce jest zatrudnionych 5-6 tys. osób, z czego około 1000 osób zatrudnionych w firmach produkujących panele i komponenty instalacji. Tempo przyrostu nowych mocy instalacji fotowoltaicznych wynosi ok. \\( 150\\% \\) rocznie ( Rys. 3 ). W 2020 r. Polska zajmuje piąte miejsce w Europie pod względem przyrostu nowych mocy w fotowoltaice [2]. \\( 71\\% \\) zainstalowanych źródeł fotowoltaicznych stanowią mikroinstalacje.", "Średnia cena prądu w Polsce wynosi 0,62zł/kWh i ciągle rośnie, co w połączeniu z malejącymi kosztami instalacji czyni fotowoltaikę najbardziej obiecującą dziedziną OZE. W ostatnich latach pojawiły się uwarunkowania stymulujące inwestycje w wytwarzanie energii elektrycznej i cieplnej. Uporządkowano przepisy dotyczące przyłączenia do sieci – zrezygnowano z dokumentacji w formie papierowej, co pozwoliło skrócić czas procedury instalacyjnej. Zrezygnowano także z obowiązku uzyskania koncesji przez właścicieli odnawialnych źródeł energii o mocy do 50 kWp [1]. W ostatnich latach pojawiły się w Polsce rządowe programy wspierające instalacje fotowoltaiczne. Od 2014 r. działały dopłaty w ramach programu Prosument. Program oferował kredyt preferencyjny do \\( 100\\% \\) kosztów instalacji oraz dotacje w wysokości \\( 20\\% \\) lub \\( 40\\% \\) dofinansowania ( \\( 15\\% \\) lub \\( 30\\% \\) po 2016 r). Program powstał jako kontynuacja wcześniejszego programu \"Wspieranie rozproszonych, odnawialnych źródeł energii\". Z historycznych programów warto wspomnieć jeszcze program \"BOCIAN-rozproszone, odnawialne źródła energii\" realizowany przez Narodowy Fundusz Ochrony środowiska i Gospodarki Wodnej od 2015 r. Od 30.08.2019 r. ruszył program dofinansowań \"Mój Prąd\", w ramach którego właściciel każdej nowej instalacji fotowoltaicznej może liczyć na dofinansowanie w formie dotacji do \\( 50\\% \\) kosztów kwalifikowanych mikroinstalacji wchodzącej w skład przedsięwzięcia (nie więcej niż 5 tys. zł na jedno przedsięwzięcie). Budżet bezzwrotnych form dofinansowania wyniósł 1 miliard złotych. W ramach programu do 21 maja 2020 r. przyłączono instalacje o łącznej mocy 200,77 MW przyznając prawie 26 tys. dofinansowań [3], [4].", "Od 2019 r. można odliczyć od podatku dochodowego 53 000 zł w odniesieniu do wszystkich realizowanych przedsięwzięć termomodernizacyjnych w poszczególnych budynkach jednorodzinnych, których podatnik jest właścicielem lub współwłaścicielem. Instalacja fotowoltaiki w rozumieniu ustawy jest traktowana jako przedsięwzięcie termomodernizacyjne [5].", "Na rozwój branży fotowoltaicznej mają bardzo silny wpływ zmiany w regulacjach prawnych. Rozwój fotowoltaiki związany jest z nałożeniem obowiązku na państwa należące do Unii Europejskiej do zapewnienia \\( 20\\% \\) udziału energii pochodzących z odnawialnych źródeł energii w całkowitym zużyciu energii do końca 2020 r. Zobowiązanie to weszło w życie wraz z podpisaniem dyrektywy w 2009 r. Zgodnie z dyrektywą docelowy udział OZE w końcowym zużyciu energii brutto do końca 2020 r. dla Polski ma wynieść co najmniej \\( 15\\% \\) [6]. Raport dotyczący rynku fotowoltaicznego w Polsce 2019 r. [7] wskazuje dynamiczny wzrost mikroinstalacji w ostatnich dwóch latach. Porównanie mocy zainstalowanej w źródłach fotowoltaicznych od 2014 r. do czerwca 2019 r. z uwzględnieniem rodzaju instalacji fotowoltaicznej przedstawia Rys. 4 – oprac. na podstawie [1].", "Przyrost mocy z mikroinstalacji obserwowany jest od 2015 r., gdy w życie weszła ustawa o odnawialnych źródłach energii [8]. Zwiększenie produkcji energii elektrycznej z mikroinstalacji było także konsekwencją Regionalnych Programów Operacyjnych na lata 2014-2020. Łączna moc zainstalowana w źródłach fotowoltaicznych na koniec 2018 r. wynosiła ok. 500 MW, w maju 2019 r. przekroczyła 700 MW, a już pół roku później ok. 1,5 GW, natomiast w maju 2020 r. przekroczyła 1,95 GW. Wzrost sprzedaży energii z odnawialnych źródeł było także spowodowane wprowadzeniem systemu aukcyjnego. W systemie aukcyjnym wytwórcy deklarują ilość dostarczonej energii w czasie 15 lat oraz cenę za jaką będą sprzedawali energię. Zwycięzcami aukcji są producenci energii, którzy zaproponowali najniższą cenę. Aukcje na energię wprowadzono na podstawie ustawy o OZE z 2015 r. [6], która nie weszła w życie od razu, ale po jej nowelizacji w 2016 r. [7]. W 2018 r. zainstalowana moc pochodząca z instalacji, które wygrały aukcje OZE wynosiła ok. 50 MW, natomiast w 2019 r. ok 170 MW, co stanowi prawie 3,5-krotny wzrost mocy. Aukcje kontroluje Urząd Regulacji Energetyki, a ich przebieg opisuje Regulamin Aukcji [8]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "17. Aspekty ekonomiczne fotowoltaiki", "subject_id": 814, "subject": "17.4 Rozwój instalacji w Europie", "paragraphs": ["Moc zainstalowanych ogniw fotowoltaicznych w ciągu ostatnich lat wzrosła o wzrosła o około 100 GW. W 2019 r. wynosiła 130 GW. Średni wzrost wynosi 10 GW/rok, jego tempo, podobnie jak na całym świecie, zwiększa się – w 2019 r. moc wzrosła o \\( 13\\% \\). W Europie zainstalowano 16,7 GW, co oznacza ponad stuprocentowy wzrost w porównaniu z 8,2 GW na koniec 2018 r. Największe wzrosty zanotowały Hiszpania (wzrost o 4,7 GW), Niemcy (4 GW), Holandia (2,5 GW) oraz Francja (1,1 GW). Wpływ na to miała wejście w życie Dyrektywa OZE (28/2009/WE) w 2009 r. W latach 2007-2014 instalacje były skoncentrowane w Hiszpanii. Drugi największy europejski rynek fotowoltaiki to Włochy, gdzie całkowita moc elektrowni fotowoltaicznych przekracza już 21 GW. Fotowoltaika stanowiła \\( 92\\% \\) przyrostu nowych mocy w małych instalacjach OZE – Rys. 1 [1]."], "definitions": []} {"field": "Fotowoltaika", "coursebook": "Fotowoltaika", "chapter": "17. Aspekty ekonomiczne fotowoltaiki", "subject_id": 1021, "subject": "17.5 Rozwój instalacji na świecie", "paragraphs": ["Na całym świecie regularnie wzrasta światowa konsumpcja energii – według British Petrol Statistical Review of World Energy 2020 całkowite zużycie energii wzrosło o \\( 1,3\\% \\) względem poprzedniego roku ( Rys. 1 ). Odnawialne źródła energii (w tym biopaliwa) odnotowały rekordowy wzrost w zakresie zużycia energii ( \\( 3,2 EJ =3,2 \\cdot 10^{18}J \\)). Wiatr w największym stopniu przyczynił się do rozwoju odnawialnych źródeł energii (1,4 EJ), drugi w kolejności wkład wniosła energii pochodząca ze Słońca (1,2 EJ). Od kilku lat najszybciej rozwija się rynek fotowoltaiki w Chinach. 16 GW nowych instalacji zainstalowano w Unii Europejskiej, a w Stanach Zjednoczonych pojawiło się ich 13. Wydatki na badania i rozwój w dziedzinie energii odnawialnej wzrosły o \\( 10\\% \\), osiągając \\( 13 mld $ \\). Około połowa tej kwoty została przeznaczona na energię słoneczną [1], [2].", "Chiny (odpowiadające za \\( 28,5\\% \\) globalnej emisji \\( CO_2 \\)) zadeklarowały, że do 2060 r. chcą osiągnąć neutralność klimatyczną, czyli przestać emitować do atmosfery nadmiar dwutlenku węgla. IHS Markit wskazuje, że moc paneli fotowoltaicznych będzie musiała wzrosnąć ponad dziesięciokrotnie z obecnych 213 GW do 2200 GW, a moc wiatraków z 231 GW do 1700 GW. Rozwój technologii odnawialnych źródeł energii, w tym fotowoltaiki, w najbliższych latach stanie się jednym z kluczowych obszarów gospodarki [3]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "", "subject_id": 1882, "subject": "Wstęp", "paragraphs": ["Indocti discant, et ament meminisse periti [łac.] - laicy niech się (z tego) uczą, znawcy niech się cieszą, że pamiętają - podręcznik kierujemy przede wszystkim do studentów kierunków nauk o Ziemi (geologii, geografii, ochrony środowiska, geoturystyki itd.). Mamy jednak nadzieję, że zainteresuje on także wszystkich, których fascynuje nasza planeta, będąca naszym środowiskiem życia i poznanie jej funkcjonowania jest niesłychanie istotne, wręcz konieczne, dla naszej przyszłości.", "Założyliśmy, że podręcznik będzie prezentował tylko treści podstawowe, musi być napisany prostym językiem i mieć klarowną konstrukcję. To nie jest podręcznik dla naukowców i profesjonalistów, ale dla adeptów nauk o Ziemi. Zawiera on bazowe informacje, bez nadmiaru szczegółów. Poruszane zagadnienia staraliśmy się zilustrować na modelach i zdjęciach. Chcemy zachęcić, szczególnie młodych ludzi, do zrozumienia, że Ziemia to wspaniała, fascynująca planeta, która jest wciąż formowana. I że każdy proces geologiczny ma swoje uwarunkowania i oddziałuje na powierzchnię naszej planety, a każda wywołana zmiana pociąga za sobą następną. Procesy egzogeniczne, w powiązaniu z procesami endogenicznymi i biologicznymi kształtują środowisko zewnętrzne i nadają kierunek ewolucji Ziemi. Zapraszamy do lektury o procesach ziemskich.", "Podczas prac nad tym e-podręcznikiem uzyskaliśmy nieocenione wsparcie ze strony wielu naszych przyjaciół, którzy podzielili się z nami własnymi materiałami i dobrą radą.", "Za udostępnienie materiałów fotograficznych z własnych archiwów podziękowania chcieliśmy złożyć Sławomirowi Bębenkowi, Dorocie Górniak, Andrzejowi Jońcowi, Michałowi Krobickiemu, Markowi Łodzińskiemu, Mateuszowi Szczęchowi, Krzysztofowi Szopie, Ewie Waśkowskiej oraz Ewie Welc. Dziękujemy za udostępnienie okazów skał z prywatnych kolekcji Michałowi Krobickiemu, Markowi Łodzińskiemu oraz Piotrowi Siwkowi. Jesteśmy bardzo wdzięczni za pomoc w pracach edytorskich, w których wspomogli nas Maria Czuj-Górniak, Kacper Oliwa, Izabela Ptaszek, Elżbieta Słomka oraz Karolina Słomka-Polonis.", "Szczególne podziękowania składamy Pani Marcie Stąporek, która cierpliwie znosiła nasze „humory”, na bieżąco rozwiązywała wszelkie trudności i to co było dla nas najcenniejsze, wniosła w czas pracy edytorskiej wiele ciepła oraz uśmiechu i bez pomocy której ten podręcznik nigdy by nie powstał."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Procesy egzogeniczne", "subject_id": 1505, "subject": "Procesy egzogeniczne", "paragraphs": ["Procesy egzogeniczne należą do procesów morfotwórczych, czyli kształtujących powierzchnię Ziemi [1], [2], [4], [5], [3], [6]. Ze względu na charakter dzielone są one na:", "Działalność procesów egzogenicznych wpisuje się w teorię peneplenizacji.", "Peneplenizacja polega na przewlekłym współdziałaniu procesów twórczych i niszczących, zwanych ogólnie procesami planacyjnymi [1], [4], [3] (gradacyjnymi) (Rys. 1), które powodują:", "Procesy egzogeniczne, zarówno budujące jak i niszczące, zachodzą w różnych środowiskach i związane są z występowaniem wody we wszystkich stanach skupienia, powietrza i zjawisk atmosferycznych, organizmów żywych, ciepła słonecznego, grawitacji i upadków meteorytów. Zwykle procesy egzogeniczne rozpatruje się w grupach, w zależności od głównego oddziałującego czynnika i wyróżnia się:"], "definitions": [{"name": " Definicja 1: Procesy egzogeniczne ", "content": " Procesy przyrodnicze, które napędzane są energią zewnętrzną,\nczyli pozyskiwaną ze źródeł pozaziemskich, nazywane są procesami egzogenicznymi. Głównymi źródłami tej\nenergii jest Słońce (zob. Energia słoneczna) i grawitacja. "}, {"name": " Definicja 2: Peneplenizacja ", "content": " Długotrwałe współdziałanie procesów geologicznych, prowadzące do\nwyrównania powierzchni Ziemi nazywane jest peneplenizacją. Celem peneplenizacji jest osiągnięcie możliwie\npłaskiej morfologii na rozległych obszarach, którą nazywa się penepleną (prawierównią, zrównaniem\nkońcowym). Peneplenę charakteryzuje pagórkowata rzeźba, w której występują niskie wzniesienia o łagodnie\nnachylonych stokach oraz szerokie i płytkie doliny [7], [4]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Czynniki procesów egzogenicznych", "subject_id": 1511, "subject": "Słońce", "paragraphs": ["Słońce składa się z: (Rys. 1A):", "Jądro Słońca zajmuje około 20–25% promienia słonecznego. Zbudowane jest z plazmy, której głównymi składnikami są elektrony, protony i jądra atomów helu. W jądrze jest wytwarzane 99% energii Słońca. Energia ta powstaje w procesie syntezy termojądrowej, w procesie przekształcania wodoru w hel.", "Ponad jądrem występuje strefa promienista, która rozciąga się do około 70% promienia słonecznego. Podobnie jak jądro, składa się z plazmy, czyli jonów i elektronów. Energia w tej strefie przekazywana jest przez promieniowanie. Wraz ze wzrostem odległości od jądra, temperatura i gęstość tej sfery znacząco spadają.", "Następna jest strefa konwektywna (zwana także konwekcyjną), którą charakteryzuje występowanie konwekcji termicznej. Temperatura w tej strefie jest niższa niż w strefie promienistej, a cięższe atomy nie są całkowicie zjonizowane. Komórki konwekcyjne, wynoszące ciepło na zewnątrz, tworzą ślad na powierzchni Słońca w postaci granuli, które mają formę wielokątów o rozmiarach rzędu 1000 km.", "Powierzchniową warstwę Słońca, o grubości około 400 km, stanowi fotosfera. W niej powstaje większość fotonów opuszczających Słońce i jest ona widoczna gołym okiem z Ziemi. Światło słoneczne powyżej fotosfery rozchodzi się niemal swobodnie w przestrzeni.", "Na zewnątrz fotosfery rozciąga się atmosfera słoneczna, którą dzieli się na chromosferę, warstwę przejściową, koronę słoneczną i heliosferę. Chromosfera, warstwa przejściowa i korona są znacznie gorętsze niż powierzchnia Słońca. Temperatura w chromosferze stopniowo wzrasta do około 20 000 K. Jest ona widoczna jako kolorowy błysk podczas zaćmień Słońca. Powyżej chromosfery znajduje się cienka (około 200 km) warstwa przejściowa, w której temperatura wzrasta gwałtownie do blisko miliona kelwinów. W koronie słonecznej temperatura osiąga 2 000 000 K. Generowany jest w niej wiatr słoneczny, który dochodzi do Ziemi. Heliosfera jest zewnętrzną warstwą atmosfery słonecznej. Wypełnia ją plazma wiatru słonecznego.", "Słońce emituje energię, głównie w postaci promieniowania elektromagnetycznego, w zakresie promieniowania ultrafioletowego, widzialnego i podczerwonego i jest najważniejszym źródłem energii dla życia na Ziemi (zob. Energia słoneczna). Niewielka część tej energii wchodzi do wiatru słonecznego, czyli strumienia całkowicie zjonizowanej wodorowo-helowej plazmy, poruszającej się z prędkością około 300-800 km/s) [1], [2], [3]."], "definitions": [{"name": " Definicja 1: Słońce ", "content": " Słońce to centralna gwiazda Układu Słonecznego. Jest gwiazdą ciągu głównego\ntypu G (G2V), klasyfikowaną jako żółty karzeł. Ma kształt kulisty, który jest stabilizowany przez grawitację i\nograniczany przez pole magnetyczne. Promień Słońca wynosi około 695 000 km, czyli 109 razy więcej niż\npromień Ziemi. Jego masa jest około 330 000 razy większa od masy Ziemi i stanowi około 99,86%\ncałkowitej masy Układu Słonecznego. W środku Słońca temperatura osiąga około 16 mln K,\na gęstość \\(1,6\\cdot 105\\frac {kg}{m^3}\\). Około 3/4 masy Słońca składa się z wodoru; reszta to głównie hel (około 25%), z\nakcesorycznymi ilościami cięższych pierwiastków, w tym tlenu, węgla, neonu i żelaza [1], [2], [3].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Czynniki procesów egzogenicznych", "subject_id": 1512, "subject": "Energia słoneczna", "paragraphs": ["Natężenie promieniowania słonecznego można mierzyć w przestrzeni kosmicznej lub na powierzchni Ziemi po absorpcji i rozproszeniu atmosferycznym. Natężenie promieniowania w przestrzeni jest funkcją odległości od Słońca, cyklu słonecznego i zmian między cyklami. Natężenie promieniowania na powierzchni Ziemi zależy dodatkowo od nachylenia powierzchni pomiarowej, wysokości Słońca nad horyzontem oraz warunków atmosferycznych. Promieniowanie słoneczne wpływa na przebieg procesów geologicznych, metabolizm roślin i zachowanie zwierząt [1]. Badanie i pomiar natężenia promieniowania słonecznego ma kilka ważnych zastosowań, w tym przewidywanie wytwarzania energii z elektrowni słonecznych, obciążenie ogrzewania i chłodzenia budynków, modelowanie klimatu i prognozowanie pogody, zastosowania pasywnego chłodzenia radiacyjnego w ciągu dnia oraz podróże kosmiczne [1]."], "definitions": [{"name": " Definicja 1: Energia słoneczna ", "content": " Energia słoneczna to energia promieniowania słonecznego zdolna\ndo wytwarzania ciepła i wywoływania reakcji chemicznych lub generowania elektryczności [1], [2]. Używa się\nteż pojęcia energia słoneczna dla opisania energii wytwarzanej przez Słońce w wyniku reakcji termojądrowych\n[3].\nNatężenie promieniowania słonecznego to moc na jednostkę powierzchni (powierzchniowa gęstość mocy)\nodbierana ze Słońca w postaci promieniowania elektromagnetycznego w zakresie długości fal instrumentu\npomiarowego. Natężenie promieniowania słonecznego jest mierzone w watach na metr kwadratowy (\\(W/m^2\\)) w\njednostkach SI. "}, {"name": " Definicja 2: Stała słoneczna ", "content": " Stała słoneczna jest to ilość energii słonecznej docierającej w jednostce\nczasu do jednostki powierzchni prostopadłej do kierunku rozchodzenia się promieniowania na górnej granicy\natmosfery [4]. Jej wartość wynosi ok. 1370 \\(W/m^2\\). Wbrew nazwie wartość stałej słonecznej ulega wahaniom, które są\nskutkiem zmian odległości Ziemi od Słońca w ruchu po orbicie oraz zmian aktywności Słońca. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Czynniki procesów egzogenicznych", "subject_id": 1514, "subject": "Prawo powszechnego ciążenia", "paragraphs": ["Prawo powszechnego ciążenia jest przedstawione w Prawo powszechnego ciążenia i na Rys. 1 (gdzie, M – masa Ziemi, m – masa ciała przyciąganego, G – stała grawitacji, R – odległość ciała przyciąganego od środka Ziemi, a - odległość ciała przyciąganego od osi obrotu Ziemi, \\(\\omega \\) – prędkość obrotowa Ziemi w punkcie, gdzie znajduje się ciało przyciągane). Siła przyciągania Ziemi (F = mg) jest modyfikowana przez siłę odśrodkową. Odległość ciała przyciąganego od środka Ziemi zależy od położenia tego ciała na powierzchni Ziemi, czyli dokładnie na powierzchni geoidy.", "Przyciąganie Ziemi ma wpływ na następujące procesy:", "Siła przyciągania Słońca i Księżyca wpływa na powierzchnię Ziemi, w szczególności na zmiany powierzchni oceanów [5], [6], [7]. Zmiany te znane są jako pływy (zob. Pływy)."], "definitions": [{"name": " Definicja 1: Przyspieszenie ziemskie ", "content": " Przyspieszenie ziemskie, zwane też ziemskim przyspieszeniem\ngrawitacyjnym jest to przyspieszenie spadku swobodnego na Ziemi, przyspieszenie (w próżni) nadawane\nprzez siłę grawitacyjną Ziemi ciału znajdującemu się na jej powierzchni. Przyjmuje się wartość\nprzyspieszenia ziemskiego 9,80665 \\(m/s^2\\) zmierzoną na poziomie morza na 45\\(^{\\circ }\\) szerokości geograficznej [1].\n"}, {"name": " Definicja 2: Geoida ", "content": " Geoida to teoretyczna powierzchnia ekwipotencjalna (zob. Kształt Ziemi [w:]\nGeologia. Ziemia i procesy endogeniczne), czyli kształt, jaki przybrałaby powierzchnia oceanu pod wpływem\nprzyciągania Ziemi, w tym przyciągania grawitacyjnego i obrotu Ziemi, gdyby nie było innych wpływów, takich\njak wiatry i pływy. Powierzchnia ta przedłużona jest w sposób umowny pod powierzchnią lądów. Wszystkie\npunkty na powierzchni geoidy mają ten sam geopotencjał (suma energii potencjalnej grawitacji i\nenergii potencjalnej odśrodkowej). Siła przyciągania Ziemi działa wszędzie prostopadle do geoidy.\nKształt geoidy wyznacza się na podstawie pomiarów astronomiczno-geodezyjnych, grawimetrycznych\ni niwelacyjnych. Kształt ten, aktualnie wyznaczany przede wszystkim na podstawie altymetrii\nsatelitarnej, jest zbliżony do elipsoidy obrotowej. Odchylenie maksymalne jest rzędu 100 metrów [2].\n \n \n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Procesy oraz obiegi związków i pierwiastków w przyrodzie", "subject_id": 1517, "subject": "Cykliczność procesów geologicznych i cykl skalny", "paragraphs": ["Cykl geotektoniczny, czyli cykl Wilsona (zob. Mechanizm kolizji) przedstawia procesy, w wyniku których następują przemieszczenia płyt litosfery, powstawanie oceanów, ich zamykanie i formowanie orogenów (zob. Orogeneza i epejrogeneza - definicje podstawowe).", "W cykl skalny zaangażowane są następujące procesy (Rys. 1):", "Masy skalne zmieniają swoje położenie we wnętrzu Ziemi. Część z nich dostaje się w warunki wysokich temperatur, gdzie następuje wytopienie z nich składników i wytworzenie stopów, zwanych magmą. Każdy z trzech głównych typów genetycznych skał (skały magmowe, osadowe i metamorficzne) może ulec przetopieniu i uformować skałę magmową [4], [5], [6]. Magma migruje i podlega wznoszeniu. W obrębie skorupy ziemskiej lub na jej powierzchni jest ochładzana i krzepnie tworząc skałę magmową (zob. Dyferencjacja magmy, Krystalizacja magmy, Stadia krystalizacji magmy, Intruzje magmowe).", "Podczas tektonicznych procesów orogenicznych skały są wypiętrzane i tworzą góry (zob. Orogeneza i epejrogeneza - definicje podstawowe, Orogeny bezkolizyjne, Orogeny kolizyjne). W strukturach powierzchniowych Ziemi są poddawane działaniu atmosfery, hydrosfery i biosfery, gdzie podlegają procesom wietrzenia i erozji. Procesy te powodują rozpad i rozkład skał, a ich fragmenty, w formie ziaren są transportowane grawitacyjnie w niżej położone obszary wodne lub lądowe, gdzie ulegają gromadzeniu w procesie sedymentacji tworząc osadowe skały detrytyczne [4], [5], [6], (zob. Geologiczna działalność oceanów i mórz, Geologiczna działalność wód płynących, Geologiczna działalność lodu, Wietrzenie, Geologiczna działalność wiatru, Geologiczna działalność wód stojących). Zgromadzony luźny materiał w wyniku diagenezy przekształca się w zwięzłą skałę osadową (zob. Skały okruchowe, Niestokowe ruchy masowe i ich przyczyny). Skały osadowe mogą też powstawać przez krystalizację minerałów z roztworów. Zmineralizowanie wód następuje często przez związki pochodzące z rozkładu wcześniejszych generacji skał. Pewne odmiany skał tworzą się dzięki sedymentacji materiałów wytwarzanych przez organizmy żywe (skały biogeniczne) [4], [5], [6], (zob. Ewaporaty, Skały węglanowe, Wapienie).", "Skały poddane działaniu wysokich temperatur i ciśnień podlegają przemianom fizycznym lub chemicznym, tworząc skały metamorficzne (zob. Skały metamorficzne [w:] Geologia. Ziemia i procesy endogeniczne.). Procesy metamorficzne obejmują metamorfizm regionalny, kontaktowy, imapktytowy, dynamometamorfizm oraz metasomatozę (zob. Rodzaje metamorfizmu, Metasomatoza) [4], [5], [6], [7]."], "definitions": [{"name": " Definicja 1: Cykl skalny ", "content": " Cykl skalny, zwany także cyklem geologicznym, opisuje procesy prowadzące\ndo powstania skał, ich przeobrażeń i zniszczenia. Cykl skalny jest serią procesów naturalnych, w których\nnastępuje obieg materii pomiędzy skałami, w wyniku przekształceń skał jednego typu w inne typy [1], [2], [3].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Procesy oraz obiegi związków i pierwiastków w przyrodzie", "subject_id": 1519, "subject": "Procesy cyklu hydrologicznego", "paragraphs": ["Woda podlega parowaniu, czyli ze stanu ciekłego przechodzi w stan gazowy (parę wodną). Parowanie zachodzi wtedy, gdy cząsteczka ma dostatecznie wysoką energię kinetyczną, by przezwyciężyć siły przyciągania między cząsteczkami cieczy. Energia kinetyczna cząsteczek wody związana jest z energią dostarczaną przez promieniowanie słoneczne. Parowaniu podlega woda występująca w zbiornikach oceanicznych, morskich, jeziornych, w rzekach oraz znajdująca się w powierzchniowych strukturach lądów. Para woda może też dostawać się do atmosfery z gazów wulkanicznych, w wyniku sublimacji, czyli przechodzenia lodu w stan gazowy, a także przez transpirację, czyli jest dostarczana przez rośliny, które są ważnym źródłem wody. W roślinach woda powstaje jako produkt uboczny fotosyntezy. Woda dostaje się do atmosfery również w wyniku oddychania przez zwierzęta i ludzi.", "Do fazy ciekłej para woda wraca dzięki procesowi kondensacji [5], [6]. Kondensacja, czyli skraplanie ma miejsce podczas ochładzania pary wodnej lub mieszania się mas powietrza o różnych temperaturach. Skraplanie wody, związane jest z uformowaniem kropli, które zachodzi wokół mikroskopijnych cząsteczek pyłu lub soli, zwanych jądrami kondensacji. Małe kropelki wody zawieszone są w atmosferze i stają się widoczne w chmurach lub we mgle. Ich powstawanie łączy się z występowaniem w powietrzu pyłów zawieszonych. W chmurach kropelki wody zderzają się tworząc większe formy. Gdy osiągną odpowiednią wielkość, spadają grawitacyjnie na Ziemię w postaci deszczu, śniegu lub gradu tworząc opad atmosferyczny. Na powierzchni Ziemi opad może odparować, infiltrować lub spłynąć do strumieni, jezior i finalnie do oceanów.", "Infiltracja to proces, w którym woda z powierzchni Ziemi przedostaje się do struktur podpowierzchniowych (zob. Infiltracja). Zdolność infiltracji zależy od ilości, rodzaju i intensywności opadów, nachylenia terenu, własności i nasycenia podłoża, temperatury, rodzaju i ilości pokrywy roślinnej. Infiltracja podłoża gliniastego, bogatego w minerały ilaste zachodzi wolno, natomiast podłoże żwirowe w krótkim czasie przyjmuje znaczne ilości wody [5], [6]. Woda z infiltracji, która występuje w przypowierzchniowych częściach skorupy ziemskiej wypełniając przestrzenie porowe w skałach, nazywana jest wodą gruntową. Przemieszcza się ona powoli w strukturach ziemskich, tworząc odpływ wód gruntowych (podziemny) [5], [6]. Niektóre wody gruntowe mogą ponownie przedostać się na powierzchnię, skąd wypływają jako źródła tworząc strumienie lub w wypływają obrębie jezior, zbiorników morskich i oceanicznych. W związku z tym, iż systemy wód powierzchniowych i podziemnych są ze sobą połączone, wody strumieni i jezior mogą infiltrować i zasilać wody gruntowe.", "Wody w strumieniach i jeziorach nazywane są wodami powierzchniowymi. Przepływ wody po powierzchni Ziemi ma miejsce, gdy nadmiar wody deszczowej, burzowej, roztopowej lub pochodzącej z innych źródeł nie podlega wystarczająco szybkiej infiltracji. Taki przepływ nazywany jest odpływem powierzchniowym (Rys. 2).", "Retencja to zdolność do gromadzenia i przetrzymywania wody na i w obrębie skorupy ziemskiej. Rozróżnia się retencję oceanów, retencję wody słodkiej na powierzchni kontynentów, retencję podłoża i retencję atmosfery. Pojęcie retencji (tzw. małej retencji) odnosi się też do mniejszych jednostek, używane jest w stosunku do zdolności gromadzenia wody w lasach lub małych zbiornikach naturalnych i sztucznych (Rys. 3)."], "definitions": [{"name": " Definicja 1: Obieg wody w przyrodzie (cykl hydrologiczny) ", "content": " Cykl hydrologiczny przedstawia cyrkulację\nwody na Ziemi, to znaczy zmiany jej stanu i położenia w systemie ziemskim [1], [2], [3], [4]. W jego obrębie\nwyróżnia się duży obieg, obejmujący oceany i kontynenty oraz obieg mały, który rozpatruje cyrkulację tylko\noceanów lub kontynentów albo mniejszych regionów. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Procesy oraz obiegi związków i pierwiastków w przyrodzie", "subject_id": 1520, "subject": "Cykl węglowy", "paragraphs": ["Dwutlenek węgla do atmosfery ziemskiej dostaje się w wyniku różnych procesów. W przeszłości geologicznej podstawowym jego źródłem był wulkanizm, który współcześnie odgrywa mniejszą rolę [3] (zob. Wulkanizm [w:] Geologia. Ziemia i procesy endogeniczne.). Dwutlenek węgla produkowany jest przez spalanie (utlenianie), czyli reakcję chemiczną polegającą na łączeniu się węgla z tlenem: \\({C+O_2=CO_2}{\\uparrow }\\). Zachodzi też przez rozkład substancji organicznej, w trakcie której następuje uwolnienie dwutlenku węgla i metanu do atmosfery [4] oraz przez oddychanie, czyli w procesie wymiany gazowej odbywającej się pomiędzy organizmami zwierzęcymi, a atmosferą. Wzbogacenie w dwutlenek węgla ma miejsce również przez działalność antropogeniczną (np. produkcję cementu i wapnia [5], podczas których wyprażane są węglany \\({CaCO_3=CaO+CO_2}{\\uparrow }\\)). Węgiel jest składnikiem metanu \\(CH_4\\), który uwalniany jest do atmosfery z hydratów lub podczas wydobywania kopalin.", "Ważnym procesem regulującym ilość dwutlenku węgla w atmosferze jest fotosynteza (Rys. 2), polegająca na przekształcaniu energii świetlnej w energię chemiczną, której część jest magazynowana w cząsteczkach węglowodanów [6]", "Przeprowadzana jest ona przez organizmy nazywane fotoautotrofami, do których należy większość roślin lądowych, glonów i sinic. Fotosynteza zachodzi na powierzchni Ziemi w środowiskach lądowych i wodnych, zarówno morskich i słodkowodnych.", "Węgiel jest głównym pierwiastkiem wchodzącym w skład związków organicznych, z których są zbudowane tkanki organiczne. Biomasa, czyli żywe organizmy oraz materia pochodząca z martwych organizmów, jest częściowo spalana (głównie przez człowieka) lub ulega rozkładowi. Procesy te dostarczają dwutlenek węgla i metan do atmosfery [4]. Tylko część węgla z biomasy ulega akumulacji.", "Wycofywanie węgla z obiegu związane jest z retencją, czyli gromadzeniem i przetrzymywaniem go. Ze względu na środowisko wyróżniana jest retencja oceaniczna, atmosferyczna, glebowa i skalna. Największa ilość węgla znajduje się w skałach węglanowych, tj. wapienie i dolomity (Rys. 3) (zob. Skały węglanowe). Większość tych skał ma pochodzenie biogeniczne i występujący w nich węgiel został wychwycony z wody morskiej przez organizmy żywe, takie jak korale, małże, czy glony (zob. Wapienie), [7], [8].", "Część biomasy nie ulega rozkładowi i następuje gromadzenie węgla w kaustobiolitach (zob. Kaustobiolity), [7], [8]. Biomasa lądowa ulega akumulacji, w wyniku której powstają torfy, które przekształcają się w węgle (zob. Powstawanie węgli humusowych), (Rys. 4). Morska akumulacja prowadzi do powstania łupków bitumicznych oraz innych kaustobiolitów ciekłych i gazowych. Akumulacja antropogeniczna odbywa się przez sekwestrację. Jest to wychwytywanie dwutlenku węgla z atmosfery (np. ze spalin) i magazynowanie go (np. przez zatłaczanie pod powierzchnię Ziemi). Z sekwestracją łączy się też mineralizacja, czyli doprowadzenie do reakcji chemicznych dwutlenku węgla z minerałami skały goszczącej [9].", "Przetapianie i przeobrażenie skał bogatych w węgiel następuje na dużych głębokościach, gdzie panują odpowiednio wysokie temperatury. Węgiel wchodzi w skład magmowych i metamorficznych (między innymi jako minerały grafit i diament) oraz par i gazów wulkanicznych, skąd może być uwalniany do atmosfery [3]."], "definitions": [{"name": " Definicja 1: Cykl węglowy ", "content": " Cykl węglowy to cykl biogeochemiczny, opisujący cyrkulację węgla na\nZiemi [1], [2]. Węgiel wielokrotnie przemieszcza się w obiegu zamkniętym między atmosferą, skorupą ziemską,\nhydrosferą i biosferą. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Procesy oraz obiegi związków i pierwiastków w przyrodzie", "subject_id": 1522, "subject": "Cykl azotowy", "paragraphs": ["Procesy te zachodzą dzięki bakteryjnym procesom biochemicznym.", "Wiązanie azotu, czyli przemiana gazowego azotu (\\(N_2\\)) w związki, które są przyswajalne dla roślin [3] zachodzi przy udziale bakterii. Pewna ilość azotu jest wiązana przez wyładowania atmosferyczne.", "Amonifikacja polega na łączeniu gazowego azotu z wodorem i wytwarzaniu amoniaku \\(NH_3\\) [4]. Proces ten jest prowadzony przez bakterie zwane diazotrofami, które wytwarzają enzym azotazę. Amonifikacja ma miejsce również podczas rozkładu tkanek organicznych roślinnych lub zwierzęcych. Amoniak jest też wytwarzany sztucznie przez człowieka w procesie Habera-Boscha: \\(N_2 + 3H_2 = 2NH_3\\).", "Wchłanianie związków azotu z gleby przez włośniki roślin nazywane jest asymilacją azotu [5]. Odbywa się przy współudziale symbiotycznych bakterii Rhizobia. Do organizmów zwierzęcych azot trafia drogą pokarmową, poprzez konsumpcję aminokwasów, nukleotydów i innych małych związków organicznych zawartych w roślinach lub innych zwierzętach. Człowiek wprowadza związki azotu do gleby w postaci nawozów sztucznych lub eksploatacji minerałów azotowych, takich jak saletra chilijska \\(NaNO_3\\).", "Podczas nitryfikacji zachodzi przekształcenie amoniaku w azotyny i azotany [4], które są przyswajalne dla roślin. Proces ten jest prowadzony przez bakterie Nitrosomonas, Nitrospiras i Nitrobacter. Związki te są też wytwarzane przez człowieka w produkcji nawozów sztucznych.", "Denitryfikacja polega na redukcji azotanów do formy gazowej \\(N_2\\) i zachodzi przy udziale beztlenowych bakterii Pseudomonas i Paracoccus [6]. Kończy ona cykl azotowy."], "definitions": [{"name": " Definicja 1: Cykl azotowy ", "content": " Cykl azotowy to cykl biogeochemiczny opisujący cyrkulację azotu na Ziemi\n[1], [2]. Azot wielokrotnie przemieszcza się w cyklu zamkniętym między atmosferą, skorupą ziemską, hydrosferą\ni biosferą. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Procesy oraz obiegi związków i pierwiastków w przyrodzie", "subject_id": 1523, "subject": "Cykl fosforowy", "paragraphs": ["W obiegu fosforu biorą udział następujące procesy:", "W wyniku wypiętrzenia skały magmowe zawierające minerały bogate w fosfor takie, jak apatyt (Rys. 2A), (zob. Fosforany) dostają się do stref wietrzenia i podlegają rozpadowi i rozkładowi (zob. Wietrzenie mechaniczne, Wietrzenie chemiczne). Materiał z nich pochodzący jest jest transportowany jako ziarna w procesach fluwialnych, ablacyjnych, eolicznych i w powierzchniowych ruchach masowych lub w formie roztworu przez wody. Apatyt może zostać rozpuszczony przez naturalne kwasy wytwarzane w glebie oraz przez niektóre gatunki grzybów i w formie roztworów dostaje się do gleby oraz do zbiorników wodnych. Tak utworzone jony fosforanowe mogą być włączane w metabolizm bakterii fosforanowych, przez co łatwiej są przyswajane przez rośliny i zwierzęta.", "W wodzie morskiej rozpuszczony fosfor nieorganiczny, głównie ortofosforan, jest asymilowany przez fitoplankton i przekształcany w organiczne związki fosforu [2]. Fitoplankton uwalnia rozpuszczony w komórkach fosfor nieorganiczny i organiczny do otaczającego środowiska. Niektóre organiczne związki fosforu mogą być hydrolizowane przez enzymy syntetyzowane przez bakterie oraz fitoplankton i w tej formie pobierane są przez rośliny wodne i lądowe. Sporo fosforu trafia do organizmów zwierzęcych. Fosfor przekazywany jest przez konsumpcję roślin i oddawany jest do środowiska przez wydalanie. Odchody zwierzęce zawierają związki fosforu, z których nagromadzenia lokalnie powstają skały fosforowe, zwane guanem (zob. Skały fosforanowe i manganowe), [3]. Pokłady guan są wydobywane i używane jako nawóz, przez co fosfor w nich zawarty wraca do gleby.", "Niewielka część związków fosforu jest zdeponowana w osadach morskich, jeziornych lub rzecznych [4]. Zlityfikowane skały bogate w fosfor to fosforyty (Rys. 2B), (zob. Skały fosforanowe i manganowe). Są one wydobywane przez człowieka i przerabiane na nawóz sztuczny."], "definitions": [{"name": " Definicja 1: Cykl fosforowy ", "content": " Cykl fosforowy to cykl biogeochemiczny, opisujący cyrkulację fosforu na\nZiemi [1], (Rys. 1)."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały osadowe", "subject_id": 1506, "subject": "Skały osadowe", "paragraphs": ["Skały osadowe powstają w wyniku procesów sedymentacyjnych [5], [6], [2], [7], [8], [9], czyli procesów fizycznych, chemicznych i organicznych, które prowadzą do formowania skał osadowych.", "Do utworzenia skały osadowej potrzebne jest miejsce i materiał. Skały osadowe powstają w obszarze sedymentacyjnym. Jest to miejsce depozycji materiału, czyli jego nagromadzenia oraz przebiegu innych procesów prowadzących do uformowania skały osadowej. Basenem lub zbiornikiem sedymentacyjnym nazywa się obszar, w którym gromadzą się miąższe serie osadowe [7], [10]. Zwykle podlega on obniżaniu (subsydencji) i ma formę zagłębienia w skorupie ziemskiej (Rys. 1), [9].", ".", "Ze względu na warunki, zbiorniki sedymentacyjne dzielone są na:", "Mają one różną morfologię, rozmiary i charakteryzują je indywidualne cechy, co przekłada się na powstawanie różnorodnych odmian skał osadowych. Materiał, który jest w nich deponowany może pochodzić ze źródeł znajdujących się w obrębie basenu sedymentacyjnego, jak i zewnątrz basenowych.", "Skały osadowe powstają z materiału pochodzącego z [5], [11], [6], [8], [1]:", "Podstawowym procesem sedymentacyjnym jest depozycja, czyli osadzenie materiału w środowisku. Prowadzi ona do nagromadzenia materiału osadowego i uformowania skały osadowej. Depozycja może być poprzedzona przez transport, jeśli następuje przemieszczenie materiału od miejsca występowania skały macierzystej do miejsca jego składowania (Rys. 1), [1], [12], [6]. Materiał osadowy może wejść raz w cykl transportowo-depozycyjny lub może wielokrotnie uczestniczyć w takich cyklach. Ponowne zaangażowanie materiału w procesy sedymentacyjne wiąże się z jego redepozycją, czyli powtórnym jego transporcie i powtórnym składowaniem, które poprzedzone jest erozją [9].", "Świeżo złożony materiał mineralny, lityczny lub biologiczny nazywany jest osadem. Podlega on przemianom fizycznym i chemicznym, które prowadzą do jego modyfikacji. Procesy, które się odbywają w okresie postdepozycyjnym do etapu lityfikacji skały nazywane są diagenezą [3], [6], [13], [1].", "Procesy sedymentacyjne oraz powstający w ich efekcie osad uzależnione są od czynników środowiskowych takich jak [6]:"], "definitions": [{"name": " Definicja 1: Skały osadowe ", "content": " Skały osadowe to skały powstające przez nagromadzenie elementów\nmineralnych, litycznych i/lub organicznych na powierzchni Ziemi lub w przypowierzchniowych częściach\nskorupy ziemskiej [1], [2], [3], [4]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały osadowe", "subject_id": 1507, "subject": "Budulec skał osadowych", "paragraphs": ["Zatem, podstawowym budulcem skały osadowej jest minerał i jego pochodne (tj. mineraloid, biominerał), fragment skały lub element organiczny, które pod wpływem procesów sedymentacyjnych zostały zgromadzone w basenie sedymentacyjnym.", "Ze względu na lokalizację źródła materiału deponowanego w zbiorniku sedymentacyjnym wyróżnia się [1], [2], [3], [4], [5], [6], [7]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1509, "subject": "Materiały allogeniczne", "paragraphs": ["Skład skały osadowej jest uzależniony od:", "Trwałość ziarna w środowisku związana jest z jego odpornością na procesy wietrzenia, zarówno chemicznego, jak i fizycznego, w szczególności na zmiany podczas transportu. Uzależniona jest ona od warunków środowiskowych, ale i własnych ziarna, dla których istotne są:", "Odporność głównych minerałów skałotwórczych", "Pospolite skałotwórcze minerały skał osadowych, tj. chlorki (np. sylwin, halit), siarczany (np. gips, anhydryt (zob. Siarcznay) oraz węglany (np. kalcyt, dolomit (zob. Minerały węglanu wapnia)) wykazują dość niską stabilność środowiskową i zaliczane są do minerałów nietrwałych (zob. Odporność minerałów na wietrzenie). Choć ich cechy fizyczne (niska twardość oraz obecne systemy łupliwości) powodują, że są nieodporne na niszczenie mechaniczne, ich nietrwałość wynika przede wszystkim z podatności na wietrzenie chemiczne (zob. Wietrzenie chemiczne), [7]. Minerały te wchodzą powszechnie w reakcje chemiczne ze związkami atmosfery, biosfery i hydrosfery. W wyniku wietrzenia dochodzi do ich:", "Proces wietrzenia chemicznego zachodzi w relatywnie krótkim czasie i minerały niestabilne są dość szybko eliminowane ze środowiska. Zachowanie allogenicznych minerałów niestabilnych jest możliwe przy zminimalizowaniu czasu ich ekspozycji. Odbywa się ono przez odcięcie ich od czynników wietrzeniowych przez szybkie pogrzebanie, czyli przykrycie kolejnymi warstwami skał osadowych.", "Słabą odporność na wietrzenie chemiczne wykazują również minerały główne skał magmowych oraz metamorficznych, które zasobne są w żelazo oraz magnez (minerały maficzne), tj. oliwiny, pirokseny, amfibole, biotyty, epidoty oraz minerały z grupy serpentynu (zob. Skały magmowe i piroklastyczne [w:] Geologia. Ziemia i procesy endogeniczne). Z kolei minerały zasobniejsze w krzem oraz glin, tj. skalenie, skaleniowce, charakteryzuje wyższa stabilność środowiskowa i wchodzą one w osadowe cykle transportowo-depozycyjne. Podlegają one procesowi wietrzenia chemicznego, gdyż skalenie powszechnie przechodzą w serycyt lub minerały ilaste (np. illit, kaolinit, montmorylonit, wodorotlenki glinu i węglany) (Rys. 3), [8], [5], [6]. Proces ten zachodzi dość wolno, przez co funkcjonują one przez pewien czas w środowisku. Najwyższą stabilność wykazują kwarc, muskowit i minerały ciężkie. Są to minerały, które wielokrotnie mogą uczestniczyć w cyklach sedymentacyjnych i podlegać licznym redepozycjom [6].", "Kwarc (zob. Kwarc [w:] Geologia. Ziemia i procesy endogeniczne) stanowi najpowszechniejszy składnik allogeniczny skał osadowych i jednocześnie jest to minerał dominujący na powierzchni skorupy ziemskiej (Rys. 2, Rys. 4). Ogólna produkcja kwarcu przez procesy geologiczne nie jest wysoka. Kwarc powstaje jako główny minerał skałotwórczy w procesach magmowych, przez krystalizację ze stopów bogatych w krzemionkę oraz w procesach osadowych przez wytrącanie się z roztworów i wietrzenie chemiczne [9]. Aktualna ilość kwarcu na powierzchni Ziemi jest wynikiem jego trwałości w środowisku oraz efektem długookresowej kumulacji. Parametry fizykochemiczne kwarcu powodują, że jest on minerałem odpornym na czynniki wietrzenia [7], [6]. W niskotemperaturowych warunkach powierzchniowych Ziemi kwarc bardzo rzadko wchodzi w reakcje chemiczne i jest obojętnym składnikiem systemu. Podlegając procesom mechanicznego wietrzenia, ziarna kwarcowe z czasem ulegają zmniejszeniu i uzyskują obtoczenie. Ze względu na wysoką twardość kwarcu, wynoszącą 7 w skali Mosha oraz brak łupliwości proces ten przebiega stosunkowo wolno i kwarc długo funkcjonuje w środowiskach sedymentacyjnych [6].", "Innymi minerałami stabilnymi są niektóre z minerałów ciężkich, np. turmalin, cyrkon, rutyl, apatyt, magnetyt, granaty, ilmenit, allanit, magnetyt, kyanit, andaluzyt (zob. Minerały poboczne i akcesoryczne [w:] Geologia. Ziemia i procesy endogeniczne). Z reguły, ich ogólny udział w skałach osadowych jest niski. Wynika on z niewielkiej wyjściowej ilości tych minerałów w skałach źródłowych. Minerały te powstają głównie w wyniku krystalizacji ze stopu magmowego. Skałami macierzystymi dla nich są skały magmowe i metamorficzne, w których minerały te są składnikami akcesorycznymi, czyli marginalnymi. Ich większe koncentracje, będące efektem selekcji względem ciężaru właściwego, spotykane są w materiale osadowym występującym w pobliżu skały macierzystej. Świadectwem trwałości środowiskowej minerałów ciężkich są najstarsze znane ziemskie minerały, wśród których znajduje się cyrkon wieku 4,4 mld lat. Został on odnaleziony na wtórnym złożu, w obrębie zmetamorfizowanej skały osadowej liczącej około 3 mld lat.", "Do minerałów stabilnych zaliczany jest też muskowit (Rys. 3), (zob. Miki [w:] Geologia. Ziemia i procesy endogeniczne). Minerał ten nie jest podatny na wietrzenie chemiczne, ale jego parametry fizyczne, tj. niska twardość, która wynosi 3 w skali Mosha oraz bardzo dobra łupliwość powodują, że podczas transportu ulega on istotnemu rozdrobnieniu i podziałowi wzdłuż płaszczyzn łupliwości. Dlatego, w skałach osadowych muskowit występuje w postaci bardzo drobnych i połyskujących łusek (ziarna w formie blaszek). Proces rozdrobnienia muskowitu istotnie zwalnia, gdy osiąga on formę niewielkich łusek. Drobne blaszki są lekkie i transportowane są w wyższych częściach prądów, gdzie zwykle jest niewiele ziaren kwarcowych, które są głównymi narzędziami erozyjnymi powodującymi rozdrabnianie muskowitu.", "Procesy sedymentacyjne są procesami selektywnymi. W ich trakcie dochodzi do eliminacji składników nietrwałych i zachowania oraz koncentracji elementów o wyższej stabilności. Najwyższy stopień selekcji osiąga materiał, który podlegał wielu redepozycjom. O dojrzałości skały osadowej świadczy między innymi skład mineralny ziaren allogenicznych. Skały o wysokiej dojrzałości mineralnej to takie, których składniki przeszły zaawansowaną selekcję i składają się tylko z minerałów stabilnych (zob. Tekstury skał okruchowych).", "Podczas transportu minerały allogeniczne podlegają wietrzeniu. Zmiany chemiczne i fizyczne w stabilnych, krótko transportowanych ziarnach mineralnych są zwykle słabo widoczne i minerały te posiadają cechy takie same lub bardzo podobne do minerałów „świeżych”. Podczas wydłużonego transportu dochodzi do bardziej zaawansowanych zmian, co może powodować utrudnienia w identyfikacji makroskopowej minerałów. Typową modyfikacją jest obniżenie twardości, redukcja połysku, zmiana kolorystyki czy uzyskanie obtoczenia."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1508, "subject": "Materiały autigeniczne", "paragraphs": ["Procesy, które prowadzą do powstania nowych minerałów obejmują:", "Główne grupy autigenicznych minerałów skałotwórczych skał osadowych wyróżniane są w oparciu o ich skład chemiczny. Najważniejsze z nich to [7], [8]:", "To ważna grupa minerałów autigenicznych, która buduje, powszechne na powierzchni Ziemi, skały węglanowe. W środowiskach sedymentacyjnych anion węglanowy łączy się z wieloma kationami metali i tworzy różnorodne związki chemiczne. Najczęściej wchodzi w związki z wapniem, magnezem i żelazem. Występuje również w połączeniach z manganem, cynkiem, miedzią, ołowiem. Przekłada się to na dużą różnorodność minerałów węglanowych. Wiele z tych minerałów występuje w ciągach izomorficznych. Do najczęściej spotykanych minerałów należą kalcyt, aragonit, syderyt oraz dolomit (zob. Minerały węglanu wapnia, Dolomit, syderyt i inne węglany), w mniejszej ilości występują ankeryt, malachit, rodochrozyt i magnezyt. Węglany powstają powszechnie w warunkach hipergenicznych przez krystalizację, podczas diagenezy lub jako biominerały. Tworzą się zarówno w basenach słono- i słodkowodnych oraz w środowiskach lądowych.", "W tej grupie pospolitymi minerałami skałotwórczymi skał osadowych są minerały grupy krzemionki \\((SiO_2)\\) (zob. Kwarc i opal) oraz minerały ilaste (zob. Minerały ilaste). Minerały grupy krzemionki występują głównie jako opal i kwarc. Należą do minerałów trwałych, które raczej nie wchodzą w reakcje z innymi substancjami występującymi środowisku (zob. Materiały allogeniczne). Powstają przez wytrącanie się z roztworów, diagenezę lub jako biominerały. Minerały ilaste, to druga obszerna grupa minerałów powszechna w warunkach powierzchniowych Ziemi. W środowiskach sedymentacyjnych popularne są kaolinit, illit, montmorylonit, glaukonit, haloizyt, allofan, wermikulit, seladonit, hydromuskowit, nontronit i inne. Powstają w wyniku wietrzenia zachodzącego w warunkach lądowych i wodnych oraz w wyniku diagenezy.", "W warunkach hipergenicznych anion siarczanowy wchodzi w związki z wieloma kationami, np. wapnia, magnezu, barytu, potasu, miedzi, sodu, strontu, cynku i ołowiu, tworząc różnorodną grupę minerałów. W tej grupie najbardziej rozpowszechnionymi minerałami są gips i anhydryt (zob. Siarcznay). Inne siarczany, tj., celestyn, baryt, anglezyt, mirabilit, polihalit, kainit, kizeryt, glauberyt, występują w mniejszej ilości. Siarczany krystalizują w środowiskach ewaporacyjnych, powstają też w wyniku wietrzenia i diagenezy.", "Pośród halogenków największe znaczenie mają chlorki, które powstają przez ewaporację słonych wód. W warunkach powierzchniowych Ziemi chlorki oraz tlenochlorki tworzą związki z sodem, potasem, amoniakiem, wapniem, magnezem, miedzią, rtęcią, ołowiem, żelazem, manganem i innymi. W środowiskach sedymentacyjnych najwięcej powstaje halitu, inne chlorki, tj. sylwin, karnalit, mają mniejsze znaczenie (zob. Chlorki). Chlorki są nietrwałe, wykazują silną higroskopijność i powinowactwo do szybkiego rozpuszczenia w wodzie.", "Znaczenie skałotwórcze mają tlenki i wodorotlenki, głównie żelaza (getyt, lepidokrokit, hematyt), glinu (gibbsyt, diaspor, bohemit), w mniejszym zakresie manganu (piroluzyt, manganit) (zob. Tlenki i wodorotlenki). Są rozpowszechnione w warunkach powierzchniowych Ziemi i powstają głównie w wyniku wietrzenia skał zasobnych w żelazo, glin i mangan, niektóre wytrącają się z roztworów.", "W obrębie tej grupy fosforany wapnia (kolofanit, frankolit, apatyt) oraz fosforany żelaza (wiwianit) mają największe znaczenie skałotwórcze (zob. Fosforany). Fosforany tworzą się w wyniku procesów wietrzenia lub jako biominerały.", "Siarczki to minerały różnych metali, głównie żelaza, miedzi i ołowiu. W środowisku powierzchniowym Ziemi najpowszechniejsze są siarczki żelaza (piryt, markasyt) (zob. Siarczki). Powstają w procesach wietrzenia oraz wytrącają się w warunkach redukcyjnych.", "Minerały autigeniczne skał osadowych budują samodzielne kryształy lub występują jako mono- lub polimineralne agregaty. Tworzą też obwódki regeneracyjne formowane na ziarnach allogenicznych tego samego typu minerałów [6], [3].", "Do powstania większości z wyżej wymienionych minerałów dochodzi również w procesach niesedymentacyjnych. Wiele z nich tworzy się też w procesach hydrotermalnych oraz niskotemperaturowego i niskociśnieniowego metamorfizmu.", "Powszechnym składnikiem niemineralnym skał osadowych jest substancja organiczna. Produkowana jest ona w obrębie żywych organizmów i powstaje w procesach biochemicznych. Jej nagromadzenia w środowiskach osadowych pochodzą z tkanek organicznych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1607, "subject": "Minerały węglanu wapnia", "paragraphs": ["Kalcyt to najczęściej występujący w przyrodzie minerał węglanowy, który wchodzi w skład dużej ilości skał osadowych (Rys. 1, Rys. 2), (Tabela 1). Tworzy ponad dwa tysiące form kryształów i kombinacji kryształów, w tym najbardziej popularne są postacie romboedrów oraz skalenoedrów [1], [2]. Powszechnie tworzy zrosty bliźniacze i wielokrotne.", "Autigeniczny kalcyt jest szeroko rozpowszechnionym komponentem skał osadowych. Jako podstawowy minerał buduje skały węglanowe, tj. wapienie, margle (zob. Wapienie) oraz występuje jako główny lub poboczny składnik ziarnisty skał klastycznych, główne piaskowców wapnistych lub mułowców marglistych. Jest pospolitym komponentem spoiw w skałach klastycznych. Minerał ten występuje też w drobnych formach skalnych tworząc konkrecje i sekrecje (zob. Formy skał osadowych). Szczególną formą wystąpień kalcytu i aragonitu są węglanowe nacieki jaskiniowe (zob. Kras).", "Aragonit", "Aragonit jest polimorficzną odmianą kalcytu, która krystalizuje w układzie rombowym (Rys. 3), (Tabela 1). Powszechnie występuje w środowiskach współczesnych, natomiast w środowiskach kopalnych spotykany jest rzadko. Stanowi nietrwałą formę węglanu wapnia, która z czasem przechodzi w kalcyt [8], [6].", "W diagnostyce minerałów węglanów wapnia wykorzystywana jest ich reaktywność z kwasami. Do analizy stosuje się zwykle słabo stężony (stężenie 5-10%) kwas solny, którym zakrapla się powierzchnię skały. Interakcja kalcytu i aragonitu z kwasem zachodzi wg reakcji: \\(CaCO_3 + 2HCl \\to CaCl_2 \\downarrow + H_2O + CO_2 \\uparrow \\) w ciągu kilku sekund. Jest silna i gwałtowna. W jej trakcie dochodzi do intensywnego spienienia kwasu oraz ucieczki gazowego ditlenku węgla. Potocznie określa się ją jako „burzenie z kwasem”. Inną istotną cechą diagnostyczną minerałów węglanu wapnia jest ich twardość, wynosząca 3-4 w skali Mosha (Tabela 1). Kalcyt należy do minerałów wzorcowych, który definiuje 3 stopień twardości. W skałach węglanowych kalcyt i aragonit tworzą różnej wielkości kryształy, występują w formie fanero- i skrytokrystalicznej. We wyrosłych fanerokryształach znaczenie diagnostyczne mają jeszcze systemy łupliwości i połysk, natomiast w kryształach hipautomorficznych lub izomorficznych również pokrój. Minerały węglanu wapnia mają różne zabarwienie, najczęściej występują w jasnych pastelowych kolorach, ale mogą również przyjmować barwy czarne, bordowe, zielone, niebieskie i fioletowe [6], [1]. Kalcyt i aragonit mają wiele cech wspólnych i w warunkach terenowych rzadko podejmowane są próby ich rozróżnienia. Zwykle identyfikuje się je jako grupę.", "Kalcyt i aragonit powstają przez krystalizację, diagenezę i procesy hydrotermalne. Wytwarzane są również w strukturach organizmów i wchodzą w skład elementów szkieletowych [4], [2]. Są powszechnymi biominerałami, które pospolicie są produkowane zwłaszcza przez bezkręgowce (zob. Biominerały). Mają formę biokalcytu lub bioaragonitu. W kalcycie pochodzenia morskiego część jonów wapnia jest zastępowana przez magnez i powstaje kalcyt wysokomoganezowy [8]. Podczas krystalizacji kalcytu z wód słodkich powstaje odmiana niskomagnezowa [6]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1608, "subject": "Dolomit, syderyt i inne węglany", "paragraphs": ["Dolomit", "Dolomit buduje skały zwane dolomitami, ponadto wchodzi w skład margli, mułowców i opok (zob. Wapienie, Skały krzemionkowe, Pelity i aleuryty, Dolomity i syderyty), (Rys. 1, Rys. 2), (Tabela 1), niekiedy występuje w spoiwach skał klastycznych. Najczęściej tworzy drobne kryształy, makroskopowo widoczne kryształy występują rzadziej.", "Powstawanie dolomitu związane jest przede wszystkim z procesem diagenezy i epigenezy. Proces jego formowania nazywany jest dolomityzacją. Polega ona na częściowym zastępowaniu wapnia przez magnez w kryształach kalcytu i odbywa się pod wpływem zasobnych w magnez roztworów wodnych [1], [3]. Dolomityzacja jest procesem powszechnym i obejmuje duże jednostki skalne. Dolomit powstaje także przez wytrącanie (również wspomagane procesami biologicznymi) w środowisku silne zasolonych wód o wysokim pH. Jednak proces ten zachodzi dość rzadko.", "Syderyt", "Syderyt jest głównym składnikiem skał zwanych syderytami, występuje również jako składnik główny lub poboczny skał ilastych (zob. Pelity aleuryty, Dolomity i syderyty), (Rys. 2), (Tabela 1). Zwykle tworzy małe, niedostrzegalne makroskopowo kryształy. Krystalizacja syderytu zachodzi w warunkach redukcyjnych, w strefach wód anoksycznych. Powstaje on też w wyniku wietrzenia lub w procesie syderytyzacji skał węglanowych, czyli wzbogacenia węglanów w żelazo [1], [2].", "Do identyfikacji makroskopowej dolomitu i syderytu, podobnie jak do innych minerałów węglanowych, wykorzystywane są kwasy. Minerały te słabo reagują z kwasem solnym, do „burzenia” dochodzi dopiero po sproszkowaniu minerału. Reakcja ta ma przebieg mniej gwałtowny, w porównaniu do analogicznej reakcji z kalcytem. Makroskopowe odróżnienie form skrytokrystalicznych dolomitu od syderytu może być problematyczne. Zwykle przy identyfikacji zwraca się uwagę na istotną różnicę w ciężarze właściwym, która jest wyższa u syderytu oraz na zabarwienie. Syderyt powszechnie występuje w odcieniach beżowo-brunatnych. W wyniku wietrzenia chemicznego dochodzi do utleniania żelaza w syderycie, dlatego pokrywa się on warstwą, charakterystycznie zabarwionych na rdzawo tlenków i wodorotlenków żelaza. Aczkolwiek, zarówno dolomit, jak i syderyt mogą być zabarwione na różne kolory.", "Inne minerały z grupy węglanów", "Węglany są szeroko rozpowszechnione i w środowisku powierzchniowym Ziemi łączą się z różnymi kationami. Poza węglanami wapnia i żelaza, znaczenie skałotwórcze w środowiskach osadowych mają węglany magnezu, miedzi i manganu.", "Magnezyt to węglan magnezu, który powstaje przez krystalizację z roztworów wzbogaconych w magnez, bądź podczas diagenezy wapieni lub dolomitów, przez wprowadzanie w miejsce magnezu wapnia (Rys. 3). Najczęściej jest zabarwiony na biało [1].", "Malachit i azuryt to zasadowe węglany miedzi, które powstają głównie w procesach wietrzenia utworów rudnych zawierających miedź [1]. Minerały te posiadają charakterystyczną barwę i zgodną z barwą rysę. Malachit jest zielony (Rys. 3), natomiast azuryt – niebieski.", "Rodochrozyt to węglan manganu, który charakteryzuje różowa lub czerwonawa barwa (Rys. 3). Najczęściej powstaje w środowiskach głębokomorskich. Jest powszechnym składnikiem konkrecji manganowych. Podczas wietrzenia chemicznego, w rodochrozycie mangan przechodzi w formę tlenkową, co powoduje zmianę jego barwy na ciemno szarą lub na czarną [2].", "Ankeryt to węglan wapnia i żelaza, który jest zwykle spotykany w spoiwach skał klastycznych. Na ogół towarzyszy złożom ewaporatów. Jest minerałem barwy jasnej, najczęściej białej, szarej lub brązowej. Podczas podgrzewania zmienia kolor na ciemny i nabiera własności magnetycznych [2], [3]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1609, "subject": "Kwarc i opal", "paragraphs": ["W procesach osadowych powstaje odmiana niskotemperaturowa kwarcu, która jest zwana kwarcem \\(\\beta \\) (Tabela 1), (zob. Kwarc [w:] Geologia. Ziemia i procesy endogeniczne). Zwykle kryształy kwarcu są niewielkie i nierozróżnialne makroskopowo, najczęściej reprezentowane są przez chalcedon [1], [2], [3], [5], czyli skrytokrystaliczną formę kwarcu (Rys. 1). W strukturze chalcedonu występują drobne inkluzje wody [3], które wpływają na obniżenie jego twardości do wartości 6.5 w skali Mohsa. Większe kryształy kwarcu osadowego nie są powszechne. Szczególną odmianą kwarcu są diamenty marmaroskie. Są to wysokiej czystości kryształy, które są przeźroczyste i wykazują mocny połysk diamentowy.", "Opale", "Drugą, pospolicie występującą formą autigenicznej krzemionki jest opal (Rys. 2), (Tabela 1). Opale pochodzenia osadowego, to głownie opale zwyczajne, czyli nie wykazujące efektów optycznych, tj. opalescencja i opalizacja. Są to mineraloidy zawierające wodę, zwykle w ilości od 3% do 10% , które zbudowane są z koloidalnej krzemionki [3]. Mocniej uwodnione opale, posiadające około 20% wody, nazywane są hydroopalami. Zakres twardości opalu jest dość szeroki i zależny od zawartości wody. Opale osadowe zwykle zabarwione są na szaro, zielonkawo, beżowo, są też odmiany nieprzeźroczyste o barwie brunatnej lub brązowo-czarnej (menilit).", "Kwarc i opal charakteryzuje wysoka twardość, która obok przełamu jest ważną dla nich cechą identyfikacyjną. Inne minerały główne skał osadowych wykazują twardości istotnie niższe, zwykle poniżej wartości 4 w skali Mohsa.", "Opal tworzy się głównie w procesie diagenezy oraz jest strącany z wód, głównie w warunkach morskich. Część opalu osadowego jest pochodzenia organicznego i wytworzony jest w formie krzemionkowych elementów szkieletowych (zob. Biominerały).", "Opal i kwarc powszechnie występują w skałach osadowych. Są podstawowymi składnikami skał krzemionkowych, tj. rogowce, opoki, krzemienie i czerty (zob. Skały krzemionkowe). W wyniku nagromadzeń biominerałów krzemionkowych powstają odmiany skał organogenicznych, tj. radiolaryty, spongiolity, diatomity. Minerały krzemionkowe wstępują pospolicie jako komponent spoiw skał okruchowych, np. piaskowców i zlepieńców lub składnik skał drobnoklastycznych, tj. mułowce (zob. Psefity, Psamity, Pelity i aleuryty).", "Opal jest nietrwałą formą krzemionki i z czasem ulega krystalizacji i przekształceniu w chalcedon. W sprzyjających warunkach może dochodzić do dalszych procesów rekrystalizacyjnych i formowania coraz to większych kryształów."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1610, "subject": "Minerały ilaste", "paragraphs": ["W obrębie minerałów ilastych, szerokie rozpowszechnienie na Ziemi mają kaolinit, illit, montmorylonit, haloizyt, allofan. Tworzą się one w różnych środowiskach i różnych warunkach klimatycznych. Są głównymi składnikami iłowców, mułowców, margli, spoiw skał klastycznych, glin, pobocznym składnikiem węglanów, skał siarczanowych i solnych.", "Kaolinit buduje monomineralne skały ilaste zwane kaolinami (zob. Skały rezydularne). Proces powstawania kaolinitu nazywany jest kaolinizacją. Podlegają mu przed wszystkim skalenie, ale dotyczy też innych glinokrzemianów. Minerały ilaste ulegają uplastycznieniu i pęcznieją pod wpływem wody [6], [3], do czego nawiązuje ich nazwa, z [gr.] ilos oznaczająca błoto. Wyjątkowy pod tym względem jest montmorylonit, który zwiększa swoją objętość nawet ośmiokrotnie [1]. Powstaje w środowisku podwodnego wietrzenia glinokrzemianów i jest podstawowym składnikiem bentonitów. Minerały ilaste zwykle formują agregaty polimineralne, choć niektóre z nich występują w agregatach monomineralnych, np. kaolinitu lub glaukonitu.", "Glaukonit jest typowym minerałem środowisk morskich (Rys. 2), (Tabela 1). Powszechnie tworzy się na obszarach szelfowych, rzadziej w warunkach skłonowych [1], [8]. Powstaje w trakcie wietrzenia pomorskiego (halmyrolizy). Glaukonit zwykle występuje w formie skrytokrystalicznej tworząc milimetrowej wielkości agregaty [1]. Wyróżnia go charakterystyczna, intensywnie zielona barwa. Do cechy tej nawiązuje nazwa tego minerału, [z gr.] glaukos oznacza niebieskozielony [9]. Glaukonit to składnik poboczny lub akcesoryczny skał klastycznych, głównie piaskowców, mułowców, obecny jest też w marglach i wapieniach. Ma wpływ na ogólne zabarwienie skał klastycznych i nawet niewielka jego domieszka nadaje skale charakterystyczny zielonawy odcień. Skały klastyczne, które w ponad połowie zbudowane są z glaukonitu nazywane są glaukonitytami (zob. Skały żelaziste).", "W skałach żelazistych znaczenie skałotwórcze mają szamozyt i turyngit. Są to minerały zaliczane do chlorytów żelazistych. Od innych popularnych minerałów ilastych wyróżnia je wyższa twardość, która wynosi 2-3 w skali Mohsa. Mają zabarwienie szaro-zielone lub zielono-czarne, są nieprzeświecające i mają matowy lub szklisty połysk."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1611, "subject": "Siarczany", "paragraphs": ["Gips to najczęściej spotykany w środowisku powierzchniowym Ziemi siarczan. Ma różne wykształcenie, może występować w ponad 70 postaciach [1]. Wykazuje tendencję do jawnokrystaliczności i znany jest z tego, że tworzy największe kryształy pośród minerałów autigenicznych. Kryształy gipsu szablastego, o charakterystycznej formie łukowato wygiętych długich listewek, osiągają nawet po kilka metrów długości. Charakterystyczną cechą gipsu jest niska twardość (ulega on zarysowaniu paznokciem). Jest minerałem wskaźnikowym w skali Mohsa i definiuje 2 stopień twardości (zob. Właściwości fizyczne minerałów [w:] Geologia. Ziemia i procesy endogeniczne). Poza twardością, do zespołu jego cech swoistych należą połysk, łupliwość oraz forma kryształów. Gips tworzy kryształy tabliczkowe lub słupowe (w różnych odmianach tego pokroju, czyli pręcikowe i włókniste). Słupy gipsowe wykazują podłużne prążkowanie [1].", "Cechą wspomagającą diagnostykę gipsu jest powszechność tworzenia przez niego zbliźniaczeń podwójnych, nazywanych jaskółczymi ogonami (Rys. 2), [3]. Są to bliźniaki stykowe, powstają przez zrośnięcie dwóch symetrycznych kryształów o pokroju tabliczkowym, wzdłuż ich dłuższego boku. Takie zespolenie tworzy formę, w której systemy łupliwości od centrum rozchodzą się pod kątem kilkudziesięciu stopni i tworzą układ jodełkowy. Gipsy mają różną kolorystykę, zwykle zabarwione są na jasne, pastelowe kolory lub na szaro. Przeźroczyste kryształy gipsu tabliczkowego, o mocnym szklistym połysku nazywane są selenitem.", "Anhydryt zwykle występuje w formie skrytokrystalicznej lub drobnokrystalicznej, od gipsu różni go wyższa twardość (nie ulega zarysowaniu paznokciem) (Rys. 3, Tabela 1).", "Gipsy i anhydryty to minerały powszechne w środowisku sedymentacyjnym. Krystalizują z roztworów, podczas niskotemperaturowej ewaporacji wód słonych. Powyżej temperatury 42\\(^{\\circ }\\)C powstają głównie anhydryty, poniżej tej temperatury tworzą się gipsy. W procesie diagenezy lub wietrzenia może dochodzić do przekształcenia gipsu w anhydryt i anhydrytu w gips. Hydratacja (uwodnienie) anhydrytu powoduje powstanie gipsu, natomiast proces odwrotny, związany z utratą wody (dehydratacja), prowadzi do powstania ahydrytu z gipsu. Anhydryty przyjmując wodę zwiększają swoją wyjściową objętość i ulegają deformacjom plastycznym [7], [6]. Gipsy powstają też w wyniku wietrzenia minerałów siarczkowych [1].", "Gipsy i anhydryty są dominującymi minerałami ewaporatach siarczanowych (zob. Ewaporaty siarczanowe). Powszechnie występują w złożach solnych (zob. Skały solne) oraz węgli humusowych (zob. Kaustobiolity), są składnikami pobocznymi skał węglanowych i marglistych.", "Inne siarczany występują w mniejszej ilości. Do powszechnych należy celestyn (siarczan strontu) i polihalit (uwodniony siarczan potasu, magnezu i wapnia (Rys. 4), które krystalizują w środowiskach ewaporacyjnych oraz wytrącają się ze zmineralizowanych wód gorących źródeł. Celestyn ponadto wchodzi w skład organicznych elementów szkieletowych [5]. Pospolitym siarczanem jest jeszcze baryt (siarczan baru), który tworzy się przy gorących źródłach. Buduje konkrecje występujące w skałach węglanowych i okruchowych oraz stanowi składnik konkrecji manganowych [6]. W wyniku wietrzenia chemicznego galeny i innych związków ołowiu powstaje anglezyt (siarczan ołowiu). Znacznie rzadszy jest kainit (siarczan magnezowo-potasowy), kizeryt (uwodniony siarczan magnezu) oraz powstający w wyniku ewaporacji silnie zmineralizowanych wód mirabilit (uwodniony siarczan sodu)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1612, "subject": "Chlorki", "paragraphs": ["Halit jest minerałem bezbarwnym, ale bywa zabarwiony na różne kolory, co związane jest z obecnością defektów w sieci krystalicznej lub domieszek, np. jodu, bromu, innych chlorków, żelaza, substancji organicznych i bitumicznych czy minerałów ilastych [3].", "Halit powstaje w wyniku ewaporacji wód słonych. Chlorek sodu jest standardowym składnikiem wód morskich oraz oceanicznych i stanowi przeciętnie 75-80% wszystkich rozpuszczonych substancji (zob. Chemizm, temperatura i ruch wód oceanów i mórz), [1]. Występuje również w wodach jezior słonych (zob. Zbiorniki limniczne i warunki ich funkcjonowania). Halit jest głównym minerałem skałotwórczym halitytu, jako składnik poboczny lub akcesoryczny wchodzi w skład skał gipsowych i ilastych.", "W środowiskach ewaporacyjnych, obok halitu, powstają również inne minerały chlorkowe. Najczęściej są to sylwin (chlorek potasu) i karnalit (uwodniony chlorek potasu i magnezu) (Rys. 2). Zwykle stanowią one poboczne lub akcesoryczne składniki halitytu. Występują również jako podstawowe minerały monomineralnych skał solnych, nazywanych odpowiednio sylwinitami i karnalitytami. Cechy fizyczne sylwinu i karnalitu są zbliżone do cech halitu, od którego odróżnia je gorzki, nieprzyjemny smak oraz istotnie wyższa higroskopijność. Do cech swoistych sylwinu można zaliczyć gorzko-kwaśny smak, a karnalitu - charakterystyczny dźwięk, zwany kwiczeniem, który wydobywa się przy nacisku kryształów [8]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1613, "subject": "Tlenki i wodorotlenki", "paragraphs": ["Tlenki i wodorotlenki żelaza", "Największe rozpowszechnienie w środowiskach powierzchniowych Ziemi mają tlenki i wodorotlenki żelaza [5]. Charakteryzuje je specyficzne zabarwienie w kolorach pomarańczowych, cynobrowych, brązowo-czerwonych lub bordowych (Rys. 1). W ich obrębie często spotykane są lepidokrokit i getyt oraz hematyt (Tabela 1), inne minerały są rzadsze i występują lokalnie.", "Getyt i lepidokrokit wraz domieszkami kwarcu i minerałów ilastych tworzą limonit (zob. Skały żelaziste), [1], [2]. Limonity są powszechne w obrębie pokryw zwietrzelinowych, spoiw skał klastycznych oraz jako składniki poboczne i akcesoryczne w skałach klastycznych i węglanowych. Tworzą się w procesie limonityzacji [8]. Wodorotlenki żelaza powstają też jako pseudomorfozy po pirycie, hematycie, lub innych minerałach pierwotnych, które zawierają żelazo.", "Hematyt występuje w formie naskorupień lub skupień oolitowych (zob. Skały żelaziste). Jest minerałem nietrwałym i przechodzi stosunkowo szybko w formy wodorotlenkowe. Domieszki drobnych i rozsianych kryształów hematytu w skałach powodują wybarwienie skał na kolor bordowy.", "Tlenki i wodorotlenki glinu", "Powszechnymi w środowisku minerałami zbudowanymi z tlenków i wodorotlenków glinu są gibbsyt, diaspor i bohemit. Wchodzą one w skład boksytów i laterytów, które powstają w procesach wietrzenia zachodzącego w klimacie tropikalnym i subtropikalnym (zob. Skały rezydularne).", "Tlenki i wodorotlenki manganu", "Niewielka ilość dostępnego dla procesów sedymentacyjnych manganu powoduje, że tlenki i wodorotlenki manganu nie mają zbyt szerokiego rozpowszechnienia w środowiskach osadowych. Wchodzą one w skład różnych minerałów, m.in. piroluzytu i manganitu (Tabela 1), a ich polimineralne skupienia nazywane są wadem (Rys. 2), [1], [11]. Pospolite są formy konkrecyjne oraz dendryty manganowe, które powstają w szczelinach skalnych. Mają one charakterystyczne czarne i ciemnoszare zabarwienie.", "Odrębną grupę tworzą tlenki i wodorotlenki manganu i baru (np. w formie hollandytu), które wraz z tlenkami manganu wchodzą w skład psylomelanu (romanechitu) [1]. Powstają w wyniku wietrzenia, wytrącają się w środowiskach płytko- i głębokomorskich, jak również ze stagnujących wód jeziornych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1614, "subject": "Siarczki", "paragraphs": ["Największe rozpowszechnienie mają piryt i markasyt, które są polimorficznymi odmianami siarczku żelaza (różnią się strukturą, a zatem układem krystalograficznym) (Rys. 1, Tabela 1), [6]. Są to minerały dość charakterystyczne z uwagi na złotą lub mosiężną barwę, czarną rysę oraz wysoki ciężar właściwy. W skałach osadowych piryt występuje zwykle w formie skrytokrystalicznej lub drobnoziarnistej. Buduje niewielkie kuliste agregaty nazywane framboidami. Tworzy głównie kryształy amorficzne, rzadziej idiomorficzne o pokroju izometrycznym. Typowe dla skupień krystalicznych pirytu są zbliźniaczenia zwane krzyżami żelaznymi [1].", "Markasyt buduje konkrecje lub współwystępuje z pirytem i węglanami [1], [6]. Najczęściej ma teksturę skryto- i bardzo drobnoziarnistą. Od mosiężno-żółtego pirytu odróżnia go mosiężno-zielony odcień. Skrytokrystaliczną formę siarczków żelaza, powstającą przez krystalizację z koloidu siarczkowego, która składa się z pirytu i markasytu ogólnie określa się mielnikowitem.", "Siarczki żelaza są pospolitym składnikiem skał osadowych, występują jako minerały poboczne lub akcesoryczne w łupkach marglistych, ilastych, glinach, wapieniach, marglach oraz rzadziej w piaskowcach. Towarzyszą również pokładom węgli kamiennych i brunatnych. Krystalizują w środowiskach redukcyjnych, powstają podczas wietrzenia skał zawierających żelazo oraz podczas diagenezy. Powszechnie tworzą formy konkrecyjne (Rys. 1). Na powierzchni Ziemi siarczki podlegają procesom wietrzenia i zwykle ulegają przekształceniu w tlenki, wodorotlenki lub siarczany.", "Chalkozyn (błyszcz miedzi) oraz chalkopiryt (Tabela 1) to siarczki osadowe zawierające miedź. Powstają w środowiskach redukcyjnych. Towarzyszą złożom miedzi, występują głównie w miedzionośnych łupkach ilastych, mułowcowych i marglistych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1615, "subject": "Fosforany", "paragraphs": ["W środowiskach osadowych najczęściej powstają fosforany wapnia oraz żelaza.", "Fosforany wapnia wchodzą w skład apatytów, wśród których najbardziej popularny jest fluoroapatyt (Tabela 1) (minerał wzorcowy w skali Mohsa i definiujący twardość o wartości 5) oraz jego odmiany, tj., kolofan o charakterystycznej szaro-brunatnej lub żółtawej barwie i frankolit, który wzbogacony jest w jon węglanowy, przez co zwany jest potocznie apatytem węglanowym [3]. Apatyty są najważniejszym składnikiem skał fosforanowych (zob. Skały fosforanowe i manganowe). Fosforany występują w formie skrytokrystalicznej, najczęściej budują konkrecje.", "Powszechnym fosforanem w środowiskach osadowych jest jeszcze wiwianit (fosforan żelaza). Jest on składnikiem torfów, występuje w skałach ilastych oraz towarzyszy osadowym rudom żelaza. Łatwo się utlenia i wówczas zmienia barwę z białej na intensywnie niebieską."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Minerały skał osadowych", "subject_id": 1616, "subject": "Biominerały", "paragraphs": ["Elementy biomineralne, należą do tzw. części twardych organizmu (najczęściej elementów endo- i egzoszkieletowych). Po śmierci organizmów zostają w środowisku i uczestniczą w procesach sedymentacyjnych. Biominerały występują w organizmach roślinnych, jak i zwierzęcych. Elementy, które są z nich wytwarzane spełniają określone funkcje w organizmach i ich forma jest przez te funkcje determinowana. Zwykle są to elementy stabilizujące ciało miękkie, ochronne lub służące pozyskaniu pożywienia. Są też efektem oczyszczania organizmów z nadmiaru pewnych substancji lub mogą powstać jako patologie rozwojowe.", "Biominerały występują jako substancje amorficzne lub krystaliczne. Tworzą różnej wielkości kryształy, od bardzo drobnych mikrokryształów, które znajdują się w komórkach roślin (rafidy, cystolity) [1], do form większych, które wchodzą w skład zwierzęcych elementów szkieletowych. Formy jawnokrystaliczne są rzadkie, spotyka się je, np. w niektórych muszlach mięczaków.", "Organiczne elementy szkieletowe mają znaczenie skałotwórcze. Są powszechnie spotykanymi pobocznymi i akcesorycznymi składnikami skał, jak również ich głównymi komponentami. W klasyfikacjach skał osadowych podstawą wyodrębnienia niektórych typów litologicznych jest obecność określonych form biominerałów. Największe znaczenie odgrywają tu elementy szkieletu zewnętrznego lub wewnętrznego bezkręgowców oraz pancerzyki pierwotniaków. Gdy są one składnikiem dominującym, wydziela się skały organodetrytyczne lub niektóre typy skał organogenicznych. Zwykle skład mineralny takiej skały wynika ze składu chemicznego biomierałów.", "Biominerały o znaczeniu skałotwórczym zbudowane są z:", "Największe znaczenie w środowisku mają biominerały węglanu wapnia (Rys. 1), (zob. Minerały węglanu wapnia), które występują w formie trygonalnego biokalcytu, bądź rombowego bioaragonitu. Wiele grup organizmów bezkręgowych wytwarza węglanowe elementy szkieletowe [2], [3], [4], [5], [6], [7], [8], [9] np. koralowce, mięczaki, szkarłupnie, mszywioły, ramienionogi, gąbki, pierścienice, z czego najbardziej masywne formy są szkieletami koralowców oraz mięczaków. Biowęglany produkowane są również przez protisty oraz rośliny, tj. otwornice, kokolity i glony. Preferencja do produkcji biokalcytu lub bioaragonitu jest indywidualną cechą taksonomiczną organizmu na poziomie gatunku, rodzaju lub wyższym. Z racji tego, że rombowy aragonit jest nietrwałą formą węglanu wapnia i przechodzi w formę trygonalną, zwykle biominerały węglanowe ze środowisk kopalnych reprezentowane są głównie przez biokalcyt. Powszechną formą występowania biominerałów węglanowych jest zachowanie ich w skałach jako ziarna, zwane bioklastami. Mogą być one elementami wszystkich skał osadowych, najczęściej jednak występują w wapieniach i marglach oraz w piaskowcach, mułowcach i iłowcach. Szczególnie duże ich nagromadzenia są głównym składnikiem skał biodetrytycznych, np., zlepów muszlowych, wapieni krynoidowych, mułu globigerynowego czy kredy piszącej (zob. Wapienie). Biomineralne struktury organiczne o typie budowli rafowych, biohermalnych i naskorupień tworzą wapienie organogeniczne.", "Biominerały krzemionkowe (Rys. 2) są rzadziej spotykane, gdyż ilość organizmów, która je wytwarza jest znacznie mniejsza. Biominerały te występują w formie bezpostaciowej krzemionki, jako bioopal lub krystalicznej, jako biochalcedon (zob. Kwarc i opal). W procesie diagenezy następuje krystalizacja bioopalu i przekształca się on w chalcedon. Znaczenie skałotwórcze mają przede wszystkim elementy krzemionkowe wytwarzane przez promienice, okrzemki i gąbki. Ich nagromadzenia prowadzą do powstania skał krzemionkowych, tj. radiolaryty, diatomity i ziemia okrzemkowa oraz spongiolity, gezy i opoki (zob. Skały krzemionkowe). Krzemionkowe elementy szkieletowe są bardzo małe, większość ich jest mniejsza od 0,5 mm.", "Fosforany wapnia w formie bioapatytu są najmniej rozpowszechnionymi biominerałami w środowiskach sedymentacyjnych (zob. Fosforany). Znaczenie skałotwórcze mają muszle niektórych ramienionogów (część z nich wytwarza muszle fosforanowe), konodonty (gromada wymarła) oraz elementy kostne i zęby kręgowców (Rys. 3). Bioapatyt występuje w skrytokrystalicznej formie kolofanu. Biominerały fosforanu wapnia rzadko tworzą indywidualne nagromadzenia, są podstawowym budulcem fosforytów i guana [10]."], "definitions": [{"name": " Definicja 1: Biomineralizacja ", "content": " Minerały, które tworzone są w wyniku procesów biologicznych\nnazywane są biominerałami, a proces ich wytwarzania biomineralizacją. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Klasyfikacja i formy skał osadowych", "subject_id": 1618, "subject": "Formy skał osadowych", "paragraphs": ["Skały osadowe powstają na powierzchni skorupy ziemskiej lub w jej obrębie.", "Materiał zgromadzony na powierzchni Ziemi ma formę:", "Formy powłokowe mają różną grubość, kształt i zasięg lateralny. Ich dolne granice są zgodne z morfologią podłoża, natomiast górne rozwijają się swobodnie. Materiał ziarnowy składowany jest na powierzchniach poziomych lub nachylonych pod niewielkimi kątami. Jeśli kąt nachylenia podłoża wzrasta zachodzą powierzchniowe ruchy masowe i skały osadowe mają formy typowe dla koluwiów. Są to stożki, jęzory i pokrywy. Natomiast krystalizacja minerałów zachodzi na dowolnie zorientowanych powierzchniach. Przy gromadzeniu się materiału we wnętrzu skorupy ziemskiej lub w zagłębieniach na jej powierzchni, formy skał osadowych są ograniczone dostępną przestrzenią, do której się dopasowują.", "Podstawową i najczęściej spotykaną formą skały osadowej jest warstwa. Powstaje ona w wyniku procesu depozycyjnego, który obejmuje stosunkowo rozległy obszar.", "Powierzchnie horyzontalne warstw mają różny charakter. Zależy on od procesów depozycyjnych, ale i erozyjnych oraz deformacyjnych. Na działalność procesów niszczących szczególnie narażone są ich powierzchnie stropowe (zob. Struktury erozyjne). Miąższość warstwy jest stała lub zmienia się obocznie. Warstwy, które mają niewielką rozciągłość i na krótkich dystansach ulegają wyklinowywaniu nazywane są soczewkami.", "Podstawowy podział warstw jest oparty o parametry miąższościowe i w jego obrębie wyróżnia się 5 typów w zakresie od bardzo cienkich do bardzo grubych, wg. schematu [4]:", "Warstwa jest podstawową i indywidualną jednostką większości skał osadowych. Może stanowić jednostkę niepodzielną lub składającą się z elementów podrzędnych. Ze względu na budowę wewnętrzną, wyróżniane są (Rys. 3):", "W wyniku serii postępujących po sobie jednostkowych depozycji materiału w basenie sedymentacyjnym powstaje kompleks warstw, którego cechą jest warstwowanie (zwane również stratyfikacją) (Rys. 2). Jeśli nie zostanie zaburzony układ warstw, to zaleganie serii jest zgodne z porządkiem stratygraficznym, czyli niżejległa warstwa jest starsza w stosunku do wyżejległej.", "Inne formy skał osadowych powstają przez depozycję materiału, która koncentruje się na ograniczonym obszarze. Powszechne w przyrodzie są formy liniowe, czyli wąskie i wydłużone, które przyjmują kształty wałów, pręg, jęzorów (powstają podczas, np. depozycji fluwialnej, osuwiskowej lub lodowcowej). Przy zasilaniu punktowym (np. podczas osypywania lub obrywów) tworzą się zwarte formy, będące miejscowym nagromadzeniem materiału, tj. stożki i kopuły (Rys. 4). Stożki to formy swobodne lub przystokowe, są w przekroju poprzecznym trójkątne, a ich miąższość ulega redukcji na krótkim dystansie. Tworzą się przez nagromadzenie materiału klastycznego. Kopuły są formami wypukłymi, zwykle obłymi w planie. Powstają przez swobodną depozycję klastyczną lub chemiczną, lub przez swobodny wzrost form organicznych, np. raf lub bioherm.", "Osobną grupę tworzą skupienia gniazdowe, które powstają przez wypełnienie niewielkich zagłębień morfologicznych, np. studni krasowych czy lejów sufozyjnych [7]. Wówczas forma skały osadowej wynika wprost z morfologii zagłębienia, do którego się dopasowuje.", "Oprócz nagromadzeń powierzchniowych, skały osadowe powstają wewnątrz istniejących skał. Wówczas tworzą niewielkie i zwarte formy, które nazywane są konkrecjami lub sekrecjami (Rys. 5, Rys. 6). Zwykle ich struktura jest różna od skały otaczającej."], "definitions": [{"name": " Definicja 1: Warstwa ", "content": " Warstwa to indywidualna i wyodrębniona, mająca formę płyty, jednostka\nskały osadowej, której grubość, zwana miąższością warstwy, wielokrotnie jest mniejsza od jej zasięgu\nlateralnego, czyli długości i szerokości (Rys. 1, Rys. 2). Granicę dolną warstwy nazywa się spągiem, a górną\nstropem. Boczne granice warstwy są swobodne, gdy zanika ona w zbiorniku przez wyklinowanie się, czyli\nstopniową redukcję swojej miąższości lub są wymuszone morfologią zbiornika, gdy warstwa kontaktuje z jego\ngranicą [1], [2], [3]. "}, {"name": " Definicja 2: Sekrecja ", "content": " Sekrecja [5], [2], [6] to wypełnienie kawern w skałach, powstałe przez\nstrącenie się na jej ścianach minerałów lub mineraloidów. Zapełnienie kawerny odbywa się dośrodkowo,\nnajpierw obejmuje części peryferyczne (sekrecje częściowe), kolejno części bardziej wewnętrzne i na końcu\nczęści centralne (sekrecja pełna). Kształt sekrecji jest uzależniony od morfologii pustki. Sekrecje lateralne\npowstają w strukturach o przebiegu liniowym, np. rozwartych spękaniach i mają formę żył mineralnych.\n"}, {"name": " Definicja 3: ", "content": " Konkrecja [2], [6] to wyodrębniona forma osadowa pod względem składu\nmineralnego oraz struktury wewnętrznej, która narasta odśrodkowo w obrębie skały osadowej. Powstaje\n \n \nprzez stopniowe strącanie się minerałów lub mineraloidów względem ośrodka, zwanego jądrem lub\nrdzeniem konkrecji. Jądro pod względem mineralogicznym może być różne od konkrecji. Konkrecje\nzwykle charakteryzuje obła morfologia i mają formy owalne lub soczewkowate. Typowe są dla nich\nstruktury bezładne lub koncentryczne, wtórnie mogą się wykształcać struktury promieniste [3].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Klasyfikacja i formy skał osadowych", "subject_id": 1617, "subject": "Klasyfikacja skał osadowych", "paragraphs": [], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Struktury skał osadowych", "subject_id": 1878, "subject": "Struktury sedymentacyjne", "paragraphs": ["Struktury pierwotne wykazują duże zróżnicowanie pod względem form. Wynika ono z mechanizmów ich powstawania oraz cech swoistych osadów. W ich obrębie wyróżnia się [7], [5]:", "Struktury depozycyjne powstają jako pierwsze. Po etapie osadzania się materiału lub jeszcze w trakcie składowania struktury te mogą być modyfikowane przez kolejne procesy sedymentacyjne. Reorganizacja układu materiału prowadzi do wykształcenia struktur erozyjnych i deformacyjnych.", "Struktury sedymentacyjne są formami przestrzennymi, dlatego optymalne dla ich identyfikacji są obserwacje w trzech różnych wymiarach. W odsłonięciach naturalnych zwykle występują ograniczone możliwości analizy i do badań dostępne są najczęściej przekroje warstw oraz niewielkie fragmenty ich powierzchni granicznych, tj. spągu i stropu. Dla interpretacji struktur depozycyjnych oraz deformacyjnych, które są strukturami wewnątrzławicowymi, obserwacje pionowych profilów warstw zwykle dostarczają wystarczającą ilość informacji. Warto prowadzić obserwacje na powierzchniach zwietrzałych, gdyż wyrazistość struktur wewnątrzwarstwowych jest na nich lepsza. Procesy wietrzeniowe poprawiają czytelność struktur sedymentacyjnych przez uwypuklenie ich w reliefie skały. Struktury erozyjne, które są strukturami powiązanymi ze spągiem lub stropem, wymagają dostępu do powierzchni granicznych warstw."], "definitions": [{"name": " Definicja 1: Struktury sedymentacyjne ", "content": " Obserwowalne makroskopowo, trójwymiarowe formy\nwynikające z rozmieszczenia budulca w obrębie skał osadowych, które powstały w procesach sedymentacyjnych\nnazywane są strukturami sedymentacyjnymi [1], [2], [3], [4]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Struktury skał osadowych", "subject_id": 1620, "subject": "Struktury depozycyjne", "paragraphs": ["Powszechną strukturą depozycyjną jest warstwowanie, czyli występowanie jednostek osadowych wyraźnie ograniczonych horyzontalnymi lub nachylonymi pod niewielkimi kątami granicami, które nazywane są warstwami (Rys. 1). Warstwa jest jednostką podstawową, zwyczajowo dla wyróżniających się warstw o znacznej miąższości używa się terminu ławica [1], [2], [3]. Strukturę wynikającą z obecności zestawu płaskich warstw o mniej więcej stałej miąższości, które oddzielone są jedna od drugiej poziomo zalegającymi granicami, określa się jako uławicenie. Fuga międzyławicowa to miejsce styku dwóch warstw, czyli kontakt stropu warstwy niżejległej ze spągiem warstwy wyżejległej [1], [4], [5]. Poziome połączenie dwóch warstw w jedną, przy lateralnym zaniku granicy międzywarstwowej nazywane jest amalgamacją (Rys. 1).", "Warstwowanie jest cechą większości skał osadowych. Analiza struktur depozycyjnych skał warstwowanych opiera się o obserwacje konfiguracji osadu w warstwach oraz o obserwacje wzajemnych relacji przestrzennych warstw lub zestawów lamin.", "Wewnątrzwarstwowe struktury są:", "Struktury masywne (bezładne) występują w warstwach jednorodnych teksturalnie, w których profilu pionowym nie występuje zróżnicowanie w rozkładzie materiału. Gradacyjna zmiana wielkości składników, obserwowana w przekroju warstwy tworzy uziarnienie frakcjonalne. Ze względu na kierunek gradacji wydziela się [1], [2]:", "Struktury laminowane charakteryzuje obecność lamin, czyli występowania jeden nad drugim, płaskich i cienkich, różniących się od siebie pakietów osadu (Rys. 3). Analiza laminacji i warstwowań obejmuje kształt lamin/warstewek oraz ich układ w warstwie, przez określenie ich zalegania w stosunku do powierzchni spągowej i stropowej warstwy. Występują dwa główne typy laminacji:", "Laminację równoległą (poziomą) tworzy powtarzający się układ lamin/warstewek ułożonych mniej więcej poziomo w stosunku do powierzchni granicznych, czyli stropu lub spągu warstwy [1], [2], [5], [6], [7], [8], [9]. Biorąc pod uwagę geometrię jednostek, w jej obrębie wydzielana jest (Rys. 3):", "W laminacji przekątnej (kątowej) laminy są nachylone w stosunku do powierzchni granicznych warstwy [1], [5], [4], [8], [9].", "W warstwowaniu przekątnym zgodne wychylenie względem poziomu depozycyjnego obejmuje warstwy lub zestawy lamin.", "Podział warstwowania przekątnego opiera się o wzajemny stosunek warstw. Różna orientacja dolnych powierzchni warstw powoduje wyróżnienie [1], [2], [7]:", "Warstwowanie płaskie, występuje gdy granice między poszczególnymi zestawami lamin mają charakter płaszczyznowy, a laminy dochodzą do powierzchni granicznej warstwy kątowo lub stycznie tworząc laminację przekątną (Rys. 5, Rys. 6, Rys. 7). Ze względu na położenie granic zestawów lamin w jego obrębie występuje:", "Warstwowanie rynnowe, występuje gdy spągi zestawów lamin lub warstw mają charakter siodłowaty i są wygięte ku dołowi."], "definitions": [{"name": " Definicja 1: Struktura depozycyjna ", "content": " Struktura depozycyjna to przestrzenna konfiguracja\nosadu, która została uformowana w trakcie osadzania materiału w basenie sedymentacyjnym.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Struktury skał osadowych", "subject_id": 1621, "subject": "Struktury erozyjne", "paragraphs": ["Struktury erozyjne występują w formie (Rys. 1, Rys. 2), [1], [2], [3]:", "Struktury erozyjne tworzą się w wyniku:", "Ślady prądowe", "Prądy wodne lub powietrzne, które przemieszczają się po dnie basenu sedymentacyjnego powszechnie tworzą struktury erozyjne. Cechą charakterystyczną tych struktur jest jednokierunkowa, zgodna ze zwrotem przepływu orientacja (Rys. 4, Rys. 6, Rys. 7). Struktury erozyjne powstają nie tylko przez bezpośrednie działanie strumienia wody lub powietrza, ale też przy współudziale narzędzi erozji, czyli przedmiotów, które są przez ten prąd transportowane.", "Prądy powietrzne oddziaływują na powierzchnię osadu głównie w warunkach lądowych (zob. Uwarunkowania działalności eolicznej). Generalnie prowadzą do obniżenia powierzchni terenu. Typowymi strukturami wiatrowymi są ślady z rozwiewania (ślady deflacyjne). Wywiewaniu (deflacji) podlega sypki materiał, którego odprowadzenie powoduje odsłonięcie powierzchni odpornej na rozwiewanie, czyli stropu osadu kohezyjnego (np. zawilgoconego) lub litej skały. Niezwiązane z podłożem przedmioty znajdujące się na rozwiewanej powierzchni stanowią przeszkody. Ograniczają proces deflacyjny osłaniając znajdujący się pod nimi materiał (zob. Deflacja i formy deflacyjne). Nierównomierne tempo erozji wiatrowej powoduje wykształcanie wiatrowych form erozyjnych. Ich gabaryty są różne, zależą od siły wiatru oraz od wielkości przeszkody. Wokół przedmiotów tworzą się struktury (okołoprzedmiotwe) z rozwiewania. Usunięcie osadu od strony dowietrznej powoduje powstanie pod nią cokołu mającego formę asymetrycznego, wydłużonego w kierunku przepływu prądu trzonu. Jest on uformowany z pozostawionego pod przeszkodą oraz w jej cieniu wiatrowym (na jej zapleczu) osadu. Struktury okołoprzedmiotowe powstają róuwnież przy ostańcach wiatrowych (deflacyjnych) (zob. Deflacja i formy deflacyjne).", "Kanały erozyjne to długie, linijne w planie, a w przekroju poprzecznym półkoliste rynny, które powstają na trasie przepływu skoncentrowanego, wysokoenergetycznego i obciążonego materiałem klastycznym prądu wodnego [1], [2], [4]. Po etapie erozji, w którym zostają utworzone wcięcia kanałowe, następuje etap depozycji. Formy te wypełniane są materiałem gradacyjnie drobniejącym ku górze. Materiał ten jest zwykle grubiejziarnisty w stosunku do osadu podłoża. Czytelność kanału jest podkreślona przez kontrast teksturalny pomiędzy osadami podłoża, a jego wypełnieniem. Kanały erozyjne wyraźnie zaznaczają się w profilach odsłonięć (Rys. 5). Mają ostre dolne granice, które przecinają struktury depozycyjne skał podległych. Kanały erozyjne mają różne rozmiary, zwykle rozcinają kilka (lub wiele więcej) warstw podłoża. Wcięcie erozyjne może być też płytkie i naruszać tylko część pojedynczej warstwy. Gabaryty kanału zmieniają się w profilu podłużnym. W proksymalnej i centralnej części struktury, gdzie działalność erozyjna prądu jest wyższa, osiągają największe wymiary, w częściach w dystalnych ulegają wypłyceniu.", "Rozmycia erozyjne stanowią płytkie (głębokości centymetrów, rzadziej decymetrów) (Rys. 6), zagłębienia o niewyraźnie zaznaczonych osiach, które powstały na trasie przepływu prądów wodnych [1]. Zazwyczaj mają łagodną morfologię. Powierzchnia rozmyć jest równa lub urzeźbiona. Mogą na niej występować różnie wykształcone grzbiety i bruzdy prądowe.", "Do powszechnych struktur erozyjnych należą jamki wirowe [5], [1], [6], [7], [2]. Są one tworzone przez przydenne wiry wodne, które powstają podczas przepływu prądu. Mają formę linowych, asymetrycznych w profilu podłużnym zagłębień. Od strony doprądowej są strome, po stronie zaprądowej stopniowo się rozszerzają i wypłycają. Jamki wirowe mają z niewielkie rozmiary, z reguły ich głębokości liczone są w pojedynczych centymetrach.", "W trakcie przepływu prądów wodnych po dnie zbudowanym z osadów spoistych powstają kotły wirowe (eworsyjne) [1]. Formowane są w procesie eworsji przez rozmywanie podłoża wspomaganą abrazją narzędziową, czyli szlifowaniem, wprawionym w ruch wirowy, materiałem ziarnistym. Płytkie kotły wirowe to formy młodociane. Są asymetrycznymi zagłębieniami o ostro nachylonych ścianach od strony doprądowej oraz łagodniejszych od strony zaprądowej. Formy głębokie, cylindryczne, które mają gładkie, pionowe lub prawie pionowe ściany, to struktury dojrzałe.", "Występowanie przeszkody (przedmiotu lub niewielkiej formy morfologicznej) na trasie przepływu prądu wodnego powoduje wytworzenie struktury okołoprzedmiotowej, zwanej śladem z opływania (Rys. 8), [1], [7]. Ślad erozyjny powstaje w bezpośrednim otoczeniu przeszkody, zwykle wzdłuż niej (lub zarówno przed jej czołem, jak i wzdłużnie) formują się bruzdy opływowe, które za przeszkodą ulegają rozszerzeniu, wypłyceniu i gradacyjnie zanikają.", "Innym typem struktur erozyjnych są ślady narzędziowe (Rys. 8), [1], [7]. Tworzą się one powszechnie w warunkach wodnych, jak i lądowych. Najczęściej są to struktury linijne, które powstają przez naruszenie powierzchni złożonego osadu narzędziami, czyli przedmiotami niesionymi przez prądy. Narzędzia to dowolny twardy materiał znajdujący w środowisku sedymentacyjnym, przykładowo fragmenty gałęzi, klasty czy elementy szkieletowe organiczne, tj. fragmenty muszli lub kości. W zależności od formy wyróżnia się ślady:", "Ślady organiczne", "Duża i różnorodna grupa struktur erozyjnych jest tworzona przez organizmy zwierzęce zasiedlające strefy denne basenów sedymentacyjnych (Rys. 9), [1], [6]. Deformacja powierzchni zdeponowanego osadu odbywa się podczas ruchu organizmów. Ślady organiczne mają różną morfologię, najczęściej są to serie niewielkich zagłębień lub wąskich i wydłużonych bruzd. Ich morfologia zależy od sposobu przemieszczania się i budowy aparatu lokomotorycznego zwierząt. Reprezentowane są przez ślady pełzania, skakania, kroczenia oraz ślady zagrzebywania. Ślady biogeniczne w większości są kręte, o zmiennym kursie i powszechnie krzyżują się. Ich odlewy noszą nazwę bioglifów.", "Ślady grawitacyjnych przemieszczeń", "Ślady erozyjne powstają najczęściej poprzez działalność prądów lub organizmów, ale mogą również powstać w wyniku działania innych czynników zewnętrznych. Powszechnie tworzą się podczas kontaktu osadu z przemieszczanym grawitacyjne narzędziem. Tego rodzaju struktury formowane są na powierzchniach pochyłych, np. na stożkach poprzez transport rotacyjny, zsuwy lub poślizgi narzędzi erozji, np. dużych ziarn skalnych, materiału organicznego, pakietów osadu. W zależności od typu przemieszczenia mają one formy zadziorów uderzeniowych, bruzd ślizgowych lub trakcyjnych. Mogą też powstawać na powierzchniach horyzontalnych w wyniku uderzeń. Do takich struktur należą kratery uderzeniowe, czyli ślady powstające przez upadek grawitacyjny narzędzi, np. bloków i bomb wulkanicznych, gradu, meteorytów oraz deszczu (Rys. 2), [1], [6], [7]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Struktury skał osadowych", "subject_id": 1622, "subject": "Struktury deformacyjne", "paragraphs": ["W wyniku odwodnienia osadów powstają struktury o typie ucieczkowym. Najczęściej mają one formę kanałów ucieczkowych lub struktur miseczkowych. Kanały ucieczkowe to pionowe, walcowate struktury powstałe na trasie skoncentrowanego przepływu wyciskanej z osadu wody [2], [5], [4]. Przecinają one pierwotne struktury sedymentacyjne, zaburzają układ osadu i deformują laminacje w strefach przykanałowych. Skoncentrowany przepływ zaciera pierwotne struktury, dlatego kanały zwykle wypełnione są osadem bezładnym. Znacznie rzadziej występują w nich struktury fluidalne, mające formę, zgodnych z kierunkiem przepływu, smugowań. Rozerwane laminy w strefach przykanałowych są podgięte ku górze, czyli w kierunku ucieczki wody. Kanały ucieczkowe wychodzące na dno basenu kończą się niewielkimi kraterami, powstałymi przez wyrzucenie ze strefy przypowierzchniowej kanału upłynnionego materiału.", "Struktury miseczkowe powstają w osadach laminowanych kohezyjnymi iłami i mułami lub w wzbogaconych w muł strefach masywnego osadu (Rys. 3, Rys. 4), [5], [3], [6]. Tworzą je podgięte łagodnie ku górze fragmenty rozerwanych lamin. Przerwanie ciągłości lamin i ich deformacja jest wywołana punktową iniekcją wody. Struktury miseczkowe zwykle występują seryjnie. Powtarzają się zarówno lateralnie, jak i w profilu pionowym.", "Kanały ucieczkowe powstają również podczas odgazowania osadu (np. ucieczki metanu lub powietrza). Mają formę prostych, pionowych, przecinających laminację kanalików (Rys. 4). W osadach sypkich kanalik kończy się lejkowatym zagłębieniem, które powstaje przez grawitacyjny ruch osadu przykanałowego.", "Inne typy struktur deformacyjnych powstają przez ruchy masowe. Powszechnie spotykane są warstwowania zaburzone [5], [3]. Powstają one najczęściej podczas grawitacyjnych przemieszczeń osadu, zwykle wskutek osuwania, ześlizgów lub płynięcia (Rys. 5). W zależności od skali przemieszczenia, zaburzenia te obejmują pojedynczą warstwę lub zespół warstw. W trakcie ruchu materiału powstają deformacje ciągłe i nieciągłe, o różnym stopniu komplikacji. Ze względu na stopień deformacji wyróżnia się [5]:", "W warstwowaniu zaburzonym dochodzi do powstania odcinkowych zmian miąższości lamin i/lub struktur fałdowych, w tym do wykształcenia fałdów deformacyjnych. Są one wynikiem upłynnienia lub uplastycznienia osadu. Fałdy deformacyjne to zespół mniej lub bardziej izolowanych struktur fałdowych (synklin i antyklin) (Rys. 6), [5], [3]. Powstają przez deformacje, przemieszczanego grawitacyjnie jednego, uwodnionego pakietu osadowego. Cechą charakterystyczną jest jednostronne, zgodne z kierunkiem przemieszczenia obalenie tych fałdów. Warstwowaniu zaburzonemu powszechnie towarzyszą struktury z upłynnienia, np. wycienienia i pogrubienia w obrębie deformowanej ławicy.", "Struktury, podobne do fałdów deformacyjnych, są też formowane pod wpływem działalności prądów dennych. Zwłaszcza prądów gęstych i ciężkich, które niosą duży ładunek materiału klastycznego. Do zaburzeń dochodzi przez ukierunkowany nacisk, który podczas przepływu jest wywierany na zewnętrzne części osadu. Powoduje on uplastycznienie nieskonsolidowanego osadu i umożliwia jego dalsze fałdowanie.", "Deformacje o innym charakterze są związane z niestatecznym warstwowaniem gęstościowym w tzw. układach złożonych (Rys. 7), [5], [1], [2], [3], [4]. Powstają przez przemieszczenie pionowe materiału, wywołane dążnością do uzyskania układu statecznego pomiędzy warstwami o różnym ciężarze objętościowym. Najczęściej ruch ten jest generowany w osadzie, w którym ponad warstwą o mniejszym ciężarze objętościowym znajduje się warstwa o większym ciężarze. W takim układzie materiał wyżejległy ulega przemieszczeniu zajmując pozycje poniżej swojego depozycyjnego spągu. To z kolei wymusza migrację materiału podległej warstwy ku górze. W końcowym stadium tego procesu osiągane jest stateczne warstwowanie gęstościowe, w którym całość osadu o większym ciężarze objętościowym zajmuje stabilne położenie, poniżej osadu o mniejszym ciężarze. Istotne znacznie ma tutaj ilość wody w osadzie, gdyż wiele deformacji w układach złożonych tworzy się w warunkach upłynnienia. Utrata wody wiąże się z zatrzymaniem deformacji na różnych etapach jej rozwoju.", "Wzajemne relacje przestrzenne osadu grzęznącego i wyciskanego zależą również od lepkości sąsiadujących ze sobą warstw. W wyniku niestatecznego warstwowania gęstościowego powszechnie tworzą się formy proste i dochodzi do wytworzenia falistej powierzchni granicznej pomiędzy warstwami (symetrycznej lub nieregularnej) lub powstania indywidualnych form o kształcie szerokich kropel, o spłaszczonych powierzchniach czołowych, które odchodzą zarówno od stropu, jak i od spągu warstw. Formy wyciskane ku górze warstw noszą nazwę diapirów. Rzadziej tworzą się cienkie, wydłużone formy nazywane soplami, które opadają od stropu warstwy nadległej. Ogólnie dla określenia grupy tego typu deformacji używa się terminu pogrązy (Rys. 7, Rys. 8, Rys. 9), [2], [6], [3], [4], [7], [8].", "W kolejnych stadiach rozwoju deformacji dochodzi do izolacji się pogrązów i powstania swobodnych form, które podlegają indywidualnemu przemieszczaniu. W zależności od kształtu nazywane są one:", "Obraz struktury deformacyjnej komplikuje się, jeśli niestatecznemu warstwowaniu gęstościowemu towarzyszy ruch międzyławicowy. Wtedy struktury, które mają z natury orientację pionową, będą dodatkowo modyfikowane przez składową poziomą.", "W pakietach osadowych, które zbudowane są z warstw o różnych ciężarach objętościowych, powstają zaburzenia o znacznym stopniu komplikacji, które w ogólnym obrazie przypominają warstwowanie zaburzone.", "Inny typ deformacji powstanie wskutek upłynnienia osadu znajdującego się pod warstwą sztywną i kruchą (Rys. 10). W takim układzie warstwa nadległa podlega dezintegracji na różnej wielkości fragmenty, które indywidualnie grzęzną w osadzie upłynnionym. Podział warstwy sztywnej na elementy ma też miejsce w układzie odwrotnym, przez działalność upłynnionego osadu pozostającego w nadkładzie. Jest wynikiem penetracji przez osad upłynniony (o większym ciężarze) spękań, które występują w warstwie podległej (o mniejszym ciężarze). Dla uzyskania stateczności, odspojone wzdłuż spękań elementy, podlegają transportowi ku górze [5].", "Kolejnym typem deformacji synsedymentacyjnych, związanych z wewnątrzławicowym upłynnieniem osadu, jest warstwowanie konwolutne (Rys. 11), [5], [2], [1], [6], [3], [4]. Tworzą go serie niewielkich struktur fałdowych, wykształconych na bazie przekątnej i równoległej laminacji, które gradacyjnie zanikają ku spągowi i stropowi warstwy. Są one nazywane konwolucjami. Powstają głównie w osadach drobnoziarnistych frakcji od aleurytowej po bardzo drobnopsamitową.", "Deformacje ciągłe i nieciągłe występują powszechnie w osadach, które podlegały zmianom objętości. Przejawem kurczenia się masy osadowej są spękania ciosowe, w wyniku których dochodzi do przerwania ciągłości struktur. Ich powstanie powiązane jest z wycienieniem i deformacją obszarów przyspękaniowych. Odwrotny proces, czyli pęcznienie wywołuje deformacje ciągłe i utworzenie zaburzeń fałdowych. Przy znacznym zwiększeniu objętości zaburzenia fałdowe tracą ciągłość i następuje wykształcenie deformacji nieciągłych. Zarówno kurczenie się, jak i pęcznienie związane jest głównie z utratą lub dostawą wody do osadu.", "Kolejną grupą struktur deformacyjnych są struktury bioturbacyjne [5], [2], [7], [8]. Ppowstają one przez zaburzenie pierwotnego układu osadu w wyniku działalności organizmów (Rys. 12). Najczęściej tworzone są podczas przemieszczania się organizmów zwierzęcych w obrębie niezlityfikowanego osadu. Przy intensywnym zbioturbowaniu osadu następuje zatarcie jego pierwotnych struktur sedymentacyjnych, a w zaawansowanym stadium dochodzi do jego homogenizacji. Jeśli organizmy penetrujące osad należą do mułożerców, w miejscach bioturbacji zwykle występuje wzbogacenia w związki węgla organicznego.", "Do organicznych deformacji zaliczane są również ryzoidy, czyli zaburzenia osadu, najczęściej nieciągłe, które powstają podczas penetracji osadu przez systemy korzeniowe roślin."], "definitions": [{"name": " Definicja 1: Struktury deformacyjne ", "content": " Struktury deformacyjne są zaburzeniami wewnątrzwarstwowymi,\nw wyniku których dochodzi do przekształcenia struktur depozycyjnych, a przez to do komplikacji struktury\nwewnętrznej osadu. Powstają w etapie postdepozycyjnym, ale jeszcze przed lityfikacją osadu. W ich obrębie\nwystępują:\n\ndeformacje ciągłe, które obejmują zmiany oryginalnej morfologii pierwotnych struktur przy\nzachowaniu ich kontynuacji,\n\ndeformacje nieciągłe, które są związane są z rozczłonkowaniem wcześniej powstałych struktur\nsedymentacyjnych i podziałem osadu na fragmenty.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały okruchowe", "subject_id": 1623, "subject": "Skały okruchowe", "paragraphs": ["Podstawowym składnikiem skały okruchowej jest ziarno (klast) [1].", "Nagromadzenie niezwiązanego materiału ziarnistego tworzy skałę okruchową luźną. Skały, w których klasty zostały połączone nazywane są zwięzłymi [4]. Zespolenie ziaren następuje przez wytworzenie spoiwa, które uformowane zostaje podczas diagenezy.", "Podziały wewnętrzne skał piroklastycznych i detrytycznych prowadzone są w oparciu o frakcję materiału ziarnistego (zob. Tekstury skał okruchowych). W klasyfikacjach brana jest pod uwagę też zwięzłość skały, a w odniesieniu do frakcji psefitowej również stopień obtoczenia klastów (zob. Tekstury skał okruchowych). Standardowy opis skał okruchowych uwzględnia identyfikację ich cech strukturalnych (zob. Formy skał osadowych, Struktury depozycyjne, Struktury erozyjne, Struktury deformacyjne), tekstualnych oraz składu mineralnego lub/i litologicznego ziarna; w przypadku skał zwięzłych również określenie rodzaju spoiwa."], "definitions": [{"name": " Definicja 1: Ziarno ", "content": " Ziarnem jest fragment skały macierzystej, element organiczny lub skrzepły\npodczas transportu strzęp lawy. Może ono mieć formę okruchu skalnego, kryształu lub jego fragmentu, również\nszkieletu organicznego, zachowanego w całości lub w części, jeśli taki został doniesiony do zbiornika\nsedymentacyjnego. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały okruchowe", "subject_id": 1624, "subject": "Tekstury skał okruchowych", "paragraphs": ["Frakcja materiału klastycznego", "Wielkość ziaren w skale osadowej nazywana jest frakcją [1], [2]. W analizie makroskopowej dla określenia frakcji najczęściej stosowana jest skala metryczna, która oparta jest o bezpośredni pomiar ziarna. Standardowo wydzielane są 4 główne frakcje, czyli psefitowa, psamitowa, aleurytowa i pelitowa, które obejmują następujące przedziały wielkościowe [3]:", "Frakcja służy do ustalenia zakresu wielkości ziarna, wyznaczenia jego przeciętnej średnicy, do oszacowania wzajemnych proporcji poszczególnych rodzajów wielkości ziaren oraz od określenia stopnia selekcji, czyli wysortowania ziarna (Rys. 1), [1], [4], [5], [6]. Niski stopień selekcji charakteryzuje skały, w których występuje duży rozrzut wielkości ziarna, natomiast wysoki stopień selekcji wykazują skały, które zbudowane są z ziaren o zbliżonych wymiarach. Do szacowania stopnia selekcji powszechnie wykorzystywane są wzorce graficzne.", "Obtoczenie", "Podczas transportu ziarno podlega przekształceniu. Zmniejsza się jego rozmiar i dochodzi do modyfikacji jego morfologii. W pierwotnie kanciastym okruchu następuje redukcja ostrych form oraz stopniowe obniżanie i wygładzanie stref narożno-krawędziowych (Rys. 3). Prowadzi to do zaokrąglenia ziarna przez powstanie tzw. obtoczenia, które jest miarą starcia jego pierwotnie kanciastych części [4], [1], [2], [6].", "W charakterystyce makroskopowej przyjęto 4-stopniową skalę obtoczenia, według której (Rys. 2), [2], [6]:", "Na podstawie stopnia selekcji ziarna oraz jego obtoczenia określany jest stopień dojrzałości teksturalnej skały okruchowej [8], [1]. Wysoki stopień dojrzałości wykazują skały dobrze wysortowane i zbudowane z ziaren obtoczonych. Niski stopień dotyczy skał, w których występuje duży rozrzut wielkości i obecne są ziarna słabo lub nieobtoczone.", "Upakowanie", "Stopień wypełnienia skały okruchowej przez ziarna nazywany jest upakowaniem [2], [1]. Pomiędzy ziarnami mogą występować pory, czyli wolne, nie wypełnione przestrzenie (zob. Szkielet ziarnowy i spoiwo). Obecność porów jest cechą skały porowatej [4], [1], [6]. W luźnych skałach grubo- i średnioziarnistych upakowanie związane jest z objętością powierzchni porowej. Wyższy stopień upakowania wykazują skały, w których powierzchnia porowa jest niewielka, wraz ze wzrostem tej powierzchni spada stopień upakowania. Upakowanie zależy od wielu parametrów, m.in. od frakcji materiału, kształtu ziaren oraz stopnia wysortowania. Podczas diagenezy następuje redukcja lub zanik przestrzeni porowej (np. przez kompakcję lub krystalizację spoiwa w przestrzeniach międzyziarnowych). Skały zwięzłe, w których przestrzeń porowa została wyeliminowana mają tekstury zbite.", "Kształt ziarna", "Kolejnym parametrem teksturalnym, określanym przy analizach makroskopowych jest kształt ziarna, czyli jego ogólna forma geometryczna [1], [9], [6]. Pierwotna forma wykształca się podczas rozpadu skały macierzystej, wtórna jest efektem późniejszych modyfikacji zachodzących podczas transportu. Kształt ziarna zależy od przebiegu oraz warunków sedymentacji, ale również od własności swoistych okruchu, w szczególności od jego twardości, łupliwości, ścieralności, sprężystości i obecności struktur wewnętrznych.", "Ziarna występują w 4 typach kształtów (Rys. 4):", "Przyporządkowanie do odpowiedniego typu kształtu opiera się na zebraniu z każdego ziarna 3 pomiarów w płaszczyznach wzajemnie do siebie prostopadłych: (a) długości (pomiar wzdłuż najdłuższej osi), (b) szerokości, (c) wysokości (pomiar wzdłuż najkrótszej osi). W praktyce sedymentologicznej do wyznaczania kształtów ziaren używany jest diagram kształtów, którego zastosowanie wymaga wyznaczenia stosunków szerokości do długości ziarna (b/a) oraz wysokości do szerokości (c/b).", "Podczas prac terenowych, gdy potrzebna jest sprawna kwalifikacja kształtu ziarna, szacuje się je biorąc pod uwagę stosunki wymiarów przyjmując, iż (Rys. 4), [2], [6], [1]:", "Kształty ziaren określa się zwykle w obrębie frakcji psefitowej. Dla uzyskania wiarygodnych danych potrzebna jest określona populacja pomiarów. Optymalną ilość daje próba składająca się z 300 ziaren, ale miarodajne wyniki uzyskiwane są już z pomiarów 100 ziaren. Oprócz danych metrycznych, charakterystyka każdego ziarna powinna obejmować identyfikację petrograficzną/mineralogiczną oraz cech strukturalnych.", "Charakter powierzchni ziaren", "Charakter powierzchni ziaren obtoczonych jest kształtowany podczas transportu. Powierzchnie ziaren są matowe, gładkie lub urzeźbione rysami i ich cechy są wskaźnikowe dla warunków, w których odbywało się przemieszczenie. Powierzchnie matowe formowane są podczas transportu ziarna w środowiskach lądowych, powierzchnie gładkie i lśniące mają ziarna środowisk wodnych. Rysy powstają podczas kolizji ziaren z twardym ostrokrawędzistym materiałem w ośrodku powietrznym lub pod naciskiem. W analizie makroskopowej cechy powierzchni ziarna określa się w odniesieniu do frakcji psefitowej lub grubopsamitowej, w mniejszych ziarnach do opisu tej cechy potrzebna jest aparatura optyczna. Obserwację powierzchni prowadzi się na klastach, o znacznej twardości, które długo pozostawały w transporcie. Zwykle wykorzystuje się, powszechnie występujące w środowiskach sedymentacyjnych, ziarna kwarcowe [6].", "Cechy teksturalane ziaren wynikają z mechanizmu ich powstania oraz przemian podczas transportu. Po złożeniu materiału cechy te są utrwalane lub podlegają dalszym modyfikacjom w etapie postdepozycyjnym, np. przez drążenia skałotoczy, wciski, powstałe przez rozpuszczanie pod ciśnieniem powierzchni stycznych ziaren, zwietrzenia czy ścięcia erozyjne."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały okruchowe", "subject_id": 1625, "subject": "Szkielet ziarnowy i spoiwo", "paragraphs": ["Podstawowym składnikiem skały okruchowej jest ziarno. Zespół ziaren, który buduje korpus skały nazywany jest szkieletem ziarnowym [1], [2]. Ze względu na ilość ziarna oraz wzajemne relacje pomiędzy ziarnami w szkielecie ziarnowym wydziela się skały o [2], [1], [3], (Rys. 1):", "Spoiwo (lepiszcze)", "Przekształcenie luźnej skały okruchowej w skałę zwięzłą wiąże się z wytworzeniem w niej spoiwa (lepiszcza) (Rys. 3), (zob. Skały okruchowe), [1], [3], [5], [6]. Jest to element, który łączy ziarna i stabilizuje formę skały okruchowej.", "Pod względem teksturalnym spoiwa dzielona są na:", "Spoiwa chemiczne mogą budować wszystkie minerały autigeniczne. Do najczęściej spotykanych spoiw należą spoiwa [5], [6]:", "W skałach klastycznych spoiwa są jednoskładnikowe, czyli monominerlane (np. spoiwo węglanowe czy krzemionkowe) lub dwu- / trzyskładnikowe, czyli oligominerlane (np. spoiwo ilasto-żelaziste czy krzemionkowo-ilasto-żelaziste).", "Spoiwa detrytyczne charakteryzowane są pod względem mineralogicznym oraz w oparciu o frakcję materiału ziarnistego. W skałach ziarnistych występują głównie spoiwa drobnoklastyczne (tj. mułowcowe lub ilaste), choć powszechnie spotykane są też spoiwa z udziałem frakcji psamitowej. Frakcja spoiwa koreluje się ze stopniem wysortowania szkieletu ziarnowego. Spoiwo o dużym rozrzucie frakcji zwykle występuje w obrębie skał o niskim stopniu selekcji ziarna.", "Udział spoiwa w skałach okruchowych jest zróżnicowany (Rys. 4). Ze względu na jego ilość wydziela się [3], [6], [7]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały okruchowe", "subject_id": 1843, "subject": "Materiały piroklastyczne", "paragraphs": ["Ziarna piroklastyczne mają formę (Rys. 1):", "Najczęściej stosowany podział ziaren piroklastycznych jest oparty o kryteria teksturalne i prowadzony jest ze względu na frakcję materiału [1], [2], [3], [4], [5], [1]. Zgodnie z nim, we frakcji psefitowej wyróżnia się ziarna wielkości powyżej 64 mm, które nazywane blokami i bombami wulkanicznymi oraz ziarna mniejsze, które nazywane są lapillami. Podział ziaren na bloki i bomby ma podłoże genetyczne (Rys. 2). Bloki są litoklastami akcydentalnymi. Tworzą je ostrokrawędziste klasty pochodzące z rozsadzenia skał osłony komina wulkanicznego. Bomby wulkaniczne są piroklastami juwenilnymi o typie litoklastów, rzadziej mieszanymi o typie litoklastyczno-witroklastycznym. Powstają przez skrzepnięcie porcji lawy podczas transportu w atmosferze (Rys. 2). Typowy jest dla nich obły, zwykle wrzecionowaty kształt. Lapille są głównie pochodzenia juwenilnego. Mają formę obłych lub nieregularnych w kształcie litoklastów lub witroklastów. Lapille o wysokiej porowatości nazywane są scoriami lub szlakami. Ich gąbczastą odmianą jest pumeks. Ziarna piroklastyczne mniejsze od 2 mm zaliczane są do popiołu wulkanicznego. W niektórych klasyfikacjach, frakcje poniżej 0,0625 mm wyodrębnia się jako pył wulkaniczny. Ziarna popiołu mają formy krystaloklastów lub witroklastów i w większości są piroklastykami juwenilnymi.", "Kształty ziaren piroklastycznych zależą od ich genezy. Piroklastyki juwenilne, zwłaszcza psefitowe o typie bomb czy lapilli, są obłe lub nieregularne. Ich formowanie zachodzi podczas transportu powietrznego przez modelowanie w strumieniu powietrza krzepnącej, a więc jeszcze płynnej lub plastycznej lawy [2]. Bomby, powstałe z wprawionej w ruch wirowy lawy, tworzą obłe i spiralnie skręcone wrzecionowate formy. Ziarna frakcji psamitowej i drobniejsze są mniej regularne. Zwykle występują w nich struktury ucieczkowe, które są efektem odgazowania zachodzącego podczas transportu. W trakcie depozycji część ziaren piroklastycznych, zwłaszcza większych frakcji, podlega kruszeniu. Zachodzi ono podczas upadku ziarna na powierzchnię Ziemi. Rozbicie ziarna powoduje rozdrobnienie materiału piroklastycznego i wykształcenie ostrokrawędzistych form. Materiał juwenilny, który jest zasobny w gazy może podlegać kruszeniu już podczas transportu powietrznego. Jest on rozrywany przez parcie gazów lub pęka podczas gwałtownego studzenia stopu [1]. Pierwotną i wtórną ostrokrawędzistość wykazują ziarna lityczne."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały okruchowe", "subject_id": 1626, "subject": "Skały piroklastyczne", "paragraphs": ["Luźna skała piroklastyczna, która została zdeponowana w warunkach lądowych nazywana jest tefrą (Rys. 1, Rys. 2), [6], [3], [4]. Ma ona strukturę bezładną i cechuje ją słaba selekcja ziarna. W zależności od stopnia wysortowania (zob. Skały piroklastyczne [w:] Geologia. Ziemia i procesy endogeniczne) i dominującej frakcji ziaren wyróżnia się w jej obrębie tefry:", "Do tefry drobnoziarnistej zalicza się popioły i pyły wulkaniczne. Popioły wulkaniczne zbudowane są z frakcji psamitowej i drobniejszych, natomiast osady piroklastyczne składające się tylko z frakcji pelitowej i aleurytowej są pyłem wulkanicznym [5]. Stopień wysortowania tefry jest wyraźnie korelowalny z długością transportu. Wraz ze wzrostem dystansu pomiędzy wulkanem, a miejscem depozycji następuje poprawa wysortowania, która zaznacza się przez redukcję ilości materiału frakcji grubiej ziarnistych.", "Odmiany zwięzłe tefry nazywane są ogólnie tufami [6], [4], (Rys. 3, Rys. 4). We frakcji psefitowej wydzielane są brekcje piroklastyczne i konglomeraty. Brekcje są zwięzłymi odpowiednikami blokowisk. Składają się one w 75% z bloków, którym towarzyszą domieszki bomb wulkanicznych i wiążący skałę materiał frakcji drobniejszych. Konglomeraty tufowe (piroklastyczne) są zwięzłymi ekwiwalentami tefry bombowej i bombowo-lapillowej [1], [3], [4], [5], [7]. W ich składzie ziarnowym dominują bomby wulkaniczne i lapille, które spaja masa drobniejszych frakcji.", "Skały zwięzłe frakcji drobnopsefitowej nazywane są tufami lapillowymi, a zbudowane ziaren frakcji psamitowej i drobniejszych - tufami popiołowymi [6].", "Tufy są zwykle skałami porowatymi. Powstają przez dość szybką lityfikację. Jest ona wspomagana przez wody atmosferyczne, które infiltrują złożony, często jeszcze podgrzany materiał.", "Materiał piroklastyczny deponowany w środowisku wodnym, który zawiera minimum 25% piroklastów tworzy skałę nazywaną tufitem (Rys. 4), [1], [3], [4], [6], [5], [8]. Oprócz ziaren piroklastycznych w tufitach występują inne allo- lub autigeniczne składniki skał osadowych. Klasyfikacje tufitów oparte o frakcję prowadzone są z użyciem nomenklatury właściwej dla skał detrytycznych i w ich obrębie wydziela się konglomeraty i brekcje, piaskowce, mułowce i iłowce. Do powstania tufitów zwykle dochodzi w środowiskach niskoenergetycznych, które cechuje wolne tempo sedymentacji tła. Wykształcają się w nich struktury sedymentacyjne właściwe dla środowiska depozycji.", "Skały piroklastyczne o innym charakterze powstają wskutek redepozycji materiału piroklastycznego przez masowe ruchy grawitacyjne, głównie przez osuwiska czy spływy (spływy popiołowe, lahary) [7]. Powstają wówczas formy koluwiów zbudowanych z luźnego materiału, który po lityfikacji przechodzi w odmiany zwięzłe. Specyficznym typem skał formowanych przez ruchy grawitacyjne są ignimbryty (tufy spieczone) [9], [5], [8]. Powstają przez depozycję rozgrzanego materiału piroklastycznego transportowanego w formie chmur gorejących. Materiał ten ulega szybkiemu związaniu, które następuje podczas jego studzenia."], "definitions": [{"name": " Definicja 1: Skały piroklastyczne ", "content": " Skały, które składają się w co najmniej 75% z materiału\npiroklastycznego nazywane są skałami piroklastycznymi. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały okruchowe", "subject_id": 1627, "subject": "Skały detrytyczne", "paragraphs": ["Zwykle w szkielecie ziarnowym skał detrytycznych występuje jedna lub dwie frakcje materiału ziarnistego. Inne frakcje, o ile występują, są komponentem pobocznym lub akcesorycznym. Szczególnym typem skały okruchowej, która składa się z ziaren wszystkich frakcji jest glina (mikstyt) (Rys. 1), (zob. Glina lodowcowa), [1], [3]. Ma strukturę masywną i zawiera ziarna o różnym stopniu obtoczenia. Uważana jest za skałę skrajnie niedojrzałą teksturalnie. Gliny powstają w wyniku wietrzenia in situ, są też efektem masowej depozycji (np. podczas powierzchniowych ruchów masowych lub zrzucania moreny przez lodowiec). W związku z obecnością frakcji drobnoklastycznych, które są kohezyjne, gliny wykazują spoistość.", "Inny powszechnie stosowany podział skał okruchowych uwzględnia stosunek ilościowy ziaren do drobnoziarnistego matriks. Zgodnie z nim wydzielane są [4], [1], [6]:", "Skały detrytyczne są skałami o bardzo szerokim rozprzestrzenieniu. Stanowią powszechny i ważny budulec zewnętrznej części skorupy ziemskiej. Materiał klastyczny jest masowo produkowany i deponowany w wielu różnych basenach sedymentacyjnych i w bardzo zróżnicowanych warunkach środowiskowych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały okruchowe", "subject_id": 1628, "subject": "Psefity", "paragraphs": ["W wyniku konsolidacji ostrokrawędzistych ziaren psefitowych powstają brekcje (okruchowce, druzgoty) (Rys. 1), [3], [2], [1], [6], [5], [7]. W brekcjach, których materiał podlegał przemieszczeniom (np. grawitacyjnym) (zob. Stokowe ruchy masowe i ich przyczyny), składnikiem spoiwa jest zwykle drobnoziarnisty materiał okruchowy. Stanowi on samodzielne lepiszcze o typie matriks lub jest komponentem mieszanego spoiwa klastyczno-chemicznego. Czyste spoiwa chemiczne są rzadziej spotykane. Występują głównie w brekcjach zbudowanych z materiału, który nie był przemieszczany.", "Skałami luźnymi zbudowanymi z ziaren obtoczonych frakcji psefitowej są żwiry (Rys. 2), [6], [5], [2]. Żwir powstaje podczas transportu gruzu. Zmiana kształtu ziaren zachodzi przez abrazję, w trakcie której dochodzi do ich obróbki mechanicznej. Powoduje ona ogólne zaokrąglenie okruchów, przez wygładzenie ich powierzchni i eliminację ostrokrawędzistych stref. W porównaniu do gruzów, żwiry są skałami o wyższej dojrzałości teksturalnej, choć stopień ich wysortowania jest niski z uwagi na duży rozrzut wielkości ziarna. Stopień ten wzrasta wraz ze spadkiem maksymalnej średnicy ziarna w skale. Odmiany drobnokalibrowe żwirów zwykle współwystępują z grubym psamitem, tworząc odmiany mieszane skał zwane żwirami zapiaszczonymi (piaszczystymi). Transport materiału psefitowego odbywa się przez czynniki o odpowiedniej nośności, takie które są zdolne wprawić ruch ziarno psefitowe. Zwykle żwiry powstają w środowisku wysokoenergetycznym, np. wód płynących (zob. Osady rzeczne) czy w strefie falowania (zob. Sedymentacja płytkomorska).", "Zwięzłą odmianą żwirów są zlepieńce (konglomeraty) [2], [4], [5], [6]. Ich lepiszcze zwykle zawiera materiał drobnoziarnisty, będący podstawowym składnikiem spoiwa lub komponentem towarzyszącym.", "Klasyfikacje wielkości ziarn są podziałami otwartymi i nie określają górnego limitu frakcji (zob. Tekstury skał okruchowych). Do psefitu zaliczane jest każde ziarno skalne, które jest większe od 2 mm. Powoduje to, że zakres wielkości ziaren tej frakcji jest bardzo duży i ze względów pragmatycznych rozdziela się go na dwie kategorie wielkościowe. W obrębie psefitów nieobtoczonych ziarna powyżej 20 cm nazywane są głazami, a poniżej 20 cm gruzem lub okruchami, z kolei, w psefitach obtoczonych ziarna powyżej 20 cm nazywane są blokami, natomiast żwirem lub otoczakami nazywa się ziarna mniejsze.", "Podziały psefitów prowadzone są w oparciu o różne kryteria, poza wymienionymi powyżej najczęściej stosuje się:"], "definitions": [{"name": " Definicja 1: Psefity ", "content": " Psefity to skały grubokruchowe, w których ziarna szkieletu są większe od 2 mm\n(Rys. 1), (zob. Skały detrytyczne), [1], [2], [3], [4]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały okruchowe", "subject_id": 1629, "subject": "Psamity", "paragraphs": ["Przy makroskopowym opisie uwzględniany jest podział frakcji psamitowej na 5 części i zgodnie z nim wyróżnia się klasy skalne, odrębnie dla skał luźnych i zwięzłych [6], [3] według schematu:", "Stopień selekcji ziarna w piaskach i piaskowcach jest różny. Zwykle poprawia się wraz z redukcją wielkości maksymalnego ziarna. Rozrzut wielkości ziarna zależy od skuteczności selekcyjnej czynnika transportowego oraz od ciężaru poszczególnych ziaren. Z reguły piasek drobnoziarnisty jest skałą o wysokiej dojrzałości teksturalnej, ale w przyrodzie występują też dobrze wyselekcjonowane piaski średnioziarniste, których nagromadzenie związane jest z transportem fluwialnym lub morskim. Odmiany źle wysortowanych piaskowców, które zawierają domieszki ziarna żwirowego, są wydzielane jako skały mieszane pod nazwą piaskowców zlepieńcowatych, natomiast bardzo drobnoziarniste piaskowce ze znaczną ilością frakcji drobniejszych, głównie aleurytowej, nazywane są piaskowcami pylastymi.", "Skład piasków i piaskowców zależy od kompozycji mineralnej skały macierzystej oraz od przebiegu transportu, podczas którego zachodzi selekcja mineralna. Efektem tej selekcji jest koncentracja minerałów stabilnych, która następuje poprzez eliminację minerałów nietrwałych. Najbardziej rozpowszechnionym trwałym minerałem jest kwarc (zob. Materiały allogeniczne), [2] i jego udział w skałach psamitowych świadczy o długości transportu. Ze względu na udział kwarcu psamity dzielone są na [3], [7]:", "Piaski/piaskowce (Rys. 2) kwarcowe są monomiktyczne lub prawie monomiktyczne i obok kwarcu zawierają akcesoryczne ilości innych minerałów stabilnych. Mają one szare lub beżowe zabarwienie, z reguły są równoziarniste i drobnoziarniste. W piaskach słabiej wysortowanych, średniopsamitowemu kwarcowi towarzyszą domieszki drobnopsamitowych magnetytów, granatów i innych minerałów ciężkich oraz muskowit. Generalnie domieszka pozakwarcowych ziaren ciemnych nadaje piaskom kwarcowym szary odcień. Piaski te są skałami o wysokiej dojrzałości mineralnej i teksturalnej.", "Piaski/piaskowce arkozowe (Rys. 3) są oligomiktyczne i obok dominującego kwarcu występuje w nich co najmniej 20% domieszka ziarna skaleniowego, w tym skaleni potasowych. Obecność skaleni wpływa na charakterystyczny różowawy odcień skały. Piaski arkozowe z reguły wykazują słabe wysortowanie, w ich skład wchodzą różne frakcje materiału psamitowego, niekiedy również drobnokalibrowy żwir.", "Piaski/piaskowce szarogłazowe są polimiktyczne (Rys. 4). W ich obrębie oprócz kwarcu, który stanowi istotny składnik skały, występują ziarna skał magmowych, metamorficznych lub innych osadowych, w tym ciemnych, tj. bazalty, amfibolity, mułowce. Ze względu na domieszkę ciemnego ziarna litycznego skały te charakteryzuje ciemnoszare zabarwienie, co podkreślone jest w nazwie tej odmiany piasku/piaskowca. Szarogłazy należą do skał słabowysortowanych, które zawierają w różnym stopniu obtoczone klasty drobnokalibrowego żwiru [2], [8], [3].", "Piaski/piaskowce lokalne (Rys. 5), które rozwijają się na- i w otoczeniu obszaru źródłowego i nie przeszły segregacji mineralnej. Tworzą nagromadzenia, których skład mineralny/lityczny odpowiada składowi skały macierzystej. W zależności od składu źródła są to nagromadzenia monomineralne, np. piaski koralowe, gipsowe, bazaltowe, lub polimiktyczne, np. piaski skaleniowo-amfibolowo-kwarcowe, powstałe przez rozpad głębinowych skał kwaśnych lub gnejsów. Piaski/piaskowce lokalne mają bardzo niską dojrzałość tekstualną.", "W obrębie piaskowców występują spoiwa klastyczne, chemiczne, oraz spoiwa mieszane. Z reguły spoiwa klastyczne częściej obserwowane są w odmianach grubiej ziarnistych psamitów, a chemiczne - w drobnoziarnistych.", "Piaski w większości to skały, zbudowane z ziarna selekcjonowanego, które podlegało transportowi i zwykle wielokrotnie było redeponowane. Psamity powstają w różnych środowiskach lądowych oraz w wodnych. Obok podziałów teksturalnych i mineralnych, dla usystematyzowania populacji piasków i piaskowców powszechnie stosowane są klasyfikacje, które opierają się ona na wskazaniu środowiska depozycji, np. piaski/piaskowce plażowe, wydmowe, rzeczne, deltowe, szelfowe, pływowe, turbidytowe, jeziorne i inne."], "definitions": [{"name": " Definicja 1: Psamity ", "content": " Psamity zbudowane są z ziaren wielkości od 2 mm, (zob. Skały detrytyczne) do\n0,0625 mm [1], [2], [3], [4], [5]. Nagromadzenia luźnego materiału tej frakcji nazywane są piaskami, a formy\nzwięzłe piaskowcami (Rys. 2, Rys. 3, Rys. 4, Rys. 5). "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały okruchowe", "subject_id": 1630, "subject": "Pelity i aleuryty", "paragraphs": ["Dominującym ziarnem w skałach ilastych jest ziarno frakcji pelitowej [1], [2]. Może ono mieć pochodzenie allo- lub autigeniczne. Iły powstałe jako produkt wietrzenia in situ zbudowane są ze składników autigenicznych i włączane są do skał rezydualnych (zob. Skały rezydularne), natomiast iły składające się z ziarn pochodzenia allogenicznego należą do skał detrytycznych [3]. Sedymentacja iłów detrytycznych wymaga specyficznych warunków. Do wyselekcjonowania detrytycznego pelitu dochodzi w wybitnie niskoenergetycznych warunkach. Takie procesy zachodzą najczęściej podczas suspensji w środowiskach wód stojących, np. w strefach abysalnych zbiorników oceanicznych lub w zbiornikach limnicznych.", "W związku ze znaczną zawartością minerałów ilastych, muły i iły są skałami spoistymi. W obecności wody ulegają uplastycznieniu. Mają różną kolorystykę, która zależna jest od ich podstawowego składu mineralnego oraz domieszek. Zwykle są zabarwione na beżowo, szaro, zielonkawo, niebieskawo, ale bywają też odmiany czerwone, czarne i brunatne. Makroskopowo są pelityczne, identyfikacja ich drobnych składników pozostaje poza możliwościami obserwacji okiem nieuzbrojonym (zob. Skały osadowe). Są skałami masywnymi lub laminowanymi. Tworzą samodzielne jednostki skalne lub współwystępują z innymi skałami, najczęściej z grubiej ziarnistymi skałami detrytycznymi, węglanowymi, krzemionkowymi, ewaporatami i kaustobiolitami. Powszechnie zawierają domieszki minerałów autigenicznych. Tworzą się powszechnie w różnego typu zbiornikach wodnych i lądowych.", "Zwięzłymi odpowiednikami mułu i iłu są odpowiednio mułowce, pyłowce i iłowce [4], [5], [1], [3], [6], [7]. Część skał pelitowych i aleurytowych wykazuje złupkowacenie, które wykształca się w fazie diagenezy. Jest to struktura zaznaczająca się występowaniem charakterystycznej, zgodnej z kierunkami, stratyfikacji poziomej podzielności. Wzdłuż niej następuje naturalne odspajanie się cienkich płytek skalnych. Skały o takiej strukturze nazywa się potocznie łupkami [2], [3], [6], w zależności od dominującego ziarna - mułowcowymi lub – ilastymi/iłowcowymi."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały węglanowe", "subject_id": 1631, "subject": "Skały węglanowe", "paragraphs": ["Skały węglanowe, podobnie jak skały okruchowe, powstają w wielu różnych środowiskach. Są pospolite i szeroko rozprzestrzenione na powierzchni Ziemi. Węglany, występujące jako faza stała, jak i w formie rozpuszczonej, są powszechne w obszarach sedymentacyjnych. Skały węglanowe powstają głównie w zbiornikach wodnych śródlądowych oraz morskich i oceanicznych, deponowane są w wodach znajdujących się powyżej poziomu CCD [2], [3], [4], [5]. W środowisku lądowym tworzą się na mniejszą skalę. Dla powstawania skał węglanowych kluczowe znaczenie mają procesy prowadzące do wytworzenia autigenicznego materiału, czyli [6], [7], [4]:", "Mniejsze znaczenie mają procesy:", "Skały węglanowe należą do skał nietrwałych. Są podatne na wietrzenie chemiczne i mechaniczne. Ulegają rozpuszczaniu przez wody zawierające \\(CO_2\\), co nazywane jest krasowieniem (zob. Kras). Mają niskie parametry ścieralności i wysoką podatność na niszczenie w trakcie transportu.", "Formy skał węglanowych", "Formy skał węglanowych wynikają z genezy i sposobu depozycji materiału. Większość skał wykazuje uławicenie i występuje w formie warstw (zob. Formy skał osadowych). Są efektem depozycji arealnej, obejmującej określone powierzchnie basenu sedymentacyjnego. Inne, znacznie bardziej zwarte i ograniczone lateralnie formy, związane są z budowlami organicznymi. Powstają w efekcie wzrostu struktur powłokowych, kopułowatych lub nieregularnych. Małe formy powstają natomiast wewnątrz skał lub w obrębie pustek występujących w skałach skorupy ziemskiej i tworzą się w procesie diagenezy lub epigenezy. Należą do nich wapienne konkrecje oraz sekrecje (zob. Formy skał osadowych). Szczególnie powszechne są sekrecje lateralne (żyły) w szczelinach skalnych, które zwane są strzałką kalcytową."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały węglanowe", "subject_id": 1632, "subject": "Składniki teksturalne skał węglanowych", "paragraphs": ["Składniki cementu/spoiwa", "Składniki cementu/spoiwa mają formę kryształów. Ze względu na ich rozmiar wyróżnia się:", "Mikryt jest składnikiem pierwotnym lub wtórnym. Może powstawać na wiele sposobów, takich jak krystalizacja z roztworu, procesy biochemiczne, dezintegracja szkieletów węglanowych lub podczas diagenezy. Sparyt tworzy się na różnych etapach formowania się skały. Pierwotny jest efektem krystalizacji węglanów w przestrzeniach międzyziarnowych. Wtórny powstaje przez rekrystalizację mikrytu lub ziaren. Kryształy mikrytu i sparytu mogą być jedynym składnikiem skał węglanowych i budować odmiany skał homogenicznych (wapieni mikrytowych i sparytowych). Makroskopowo można rozróżnić tylko sparyt, którego kryształy osiągają wielkości powyżej dziesiątych milimetra.", "Składniki ziarniste", "Drugim typem składników skał węglanowych są ziarna. Ze względu na genezę wydzielane są w ich obrębie [2], [8], [9], [7], [10]:", "Bioklasty to ziarna mające pochodzenie organiczne, które wytwarzane są w procesach biochemicznych [11], [4]. Zbudowane są z biokalcytu bądź bioaragonitu (zob. Biominerały), (Rys. 2). Są to głównie elementy twarde pełniące funkcję ochrony, usztywnienia lub podtrzymania powłok miękkich organizmów. Bioklasty produkowane są przez różne grupy taksonomiczne, w większości pochodzą od zwierząt bezkręgowych, które żyją w środowiskach wodnych [7]. Najczęściej występującymi bioklastami są całe lub pokruszone muszle, pancerzyki, korality, zwapniałe części roślinne oraz elementy budowli organicznych. W strefach płytkowodnych, które objęte są sedymentacją węglanową, zwykle panują korzystne warunki dla rozwoju organizmów, w tym produkujących masywne szkielety wewnętrzne lub zewnętrzne. W takich środowiskach proces produkcji autigenicznych biowęglanów przebiega szybko i następuje wytworzenie, w stosunkowo krótkim czasie, dużej ilości materiału. Drugą strefą dostarczającą znacznej ilości bioklastów jest pelagiał.", "Ziarna obleczone (ooklasty) [11], [12], ,[4], [13], [7], składają się z jądra oraz koncentrycznej otoczki okołojądrowej (Rys. 3). Jądro jest składnikiem okruchowym, allo- lub autigenicznym i może być niewęglanowe. Jest otoczone przez serię powłok wapiennych, formujących charakterystyczną, zbudowaną ze współśrodkowych lamin, sferoidalną strukturę. Ziarna obleczone charakteryzuje różne wykształcenie, które wynika z ich genezy. Ze względu na pochodzenie dzielone są one na dwie grupy:", "Ooidy [1], [2], [4], [11], [12], [14] są ziarnami kulistymi, o regularnej budowie wewnętrznej, które zwykle nie przekraczają 2-3 mm wielkości. Posiadają gładką, wyrównaną powierzchnię i centralnie zlokalizowane jądro. Otoczka oodiów składa się z gęsto upakowanych lamin, które są w zarysie okrągłe lub półokrągłe. Oodidy tworzą się w środowiskach wysokoenergetycznych i ich wielkość oraz kształt są modelowane podczas trakcji. Ooidy o rozmiarach większych niż standardowe nazywane są pizoidami.", "Onkoidy [2], [3], [4], [11], [12] to ziarna pochodzenia biochemicznego. W tworzeniu powłok węglanowych biorą udział organizmy, które zasiedlają powierzchnię ziaren. Najczęściej są to glony, sinice, bakterie lub/i grzyby. Organizmy te wykazują zdolność wiązania węglanów w obrębie/lub na swoich plechach. Onkoidy są w przekroju okrągłe, owalne lub nieregularne. Mają lekko falistą, niewyrównaną powierzchnię. Laminację wewnętrzną charakteryzuje nieregularny przebieg oraz zmienny stopień upakowania. Poszczególne laminy są nieprzystające i mają różną ciągłość. Pomiędzy laminami mogą występować niewielkie bioklasty. Rozmiary onkoidów są bardzo zróżnicowane, od pojedynczych milimetrów do centymetrów, rzadziej powstają ziarna większe. Formy małe wykazują większy stopień regularności.", "Ooidy i onkoidy tworzą się w płytkich i ruchliwych wodach. Ooidy zwykle występują w środowiskach o wysokiej energii wód, natomiast onkoidy rozwijają się w strefach wód, o różnej ruchliwości, zwykle umiarkowanej", "Litoklasty to materiał okruchowy, który powstał przez destrukcję wcześniej istniejących skał węglanowych (Rys. 4), [2], [10]. Ze względu na miejsce jego pochodzenia dzielone są one na [12], [9], [14]:", "Litoklasty są zróżnicowane pod względem kształtów, frakcji i obtoczenia. Z reguły intraklasty przechodzą krótszą drogę transportu przez co, w porównaniu do ekstraklastów, wykazują niższy stopień obtoczenia.", "Peloidy to homogeniczne, obłe w kształcie, drobne ziarna mikrytowe [11], [12], [4], [7], [10], [14]. Mają wielkości mikrometrów lub pojedynczych milimetrów. Ich geneza jest różnorodna i nie zawsze prosta do określenia. Mogą to być, np. grudki fekalne (pellety), przerobione grudki mułu węglanowego, czy też ooidy lub bioklasty o zatartej budowie pierwotnej (zmikrytyzowane). Występują jako izolowane ziarna lub wchodzą wraz z innymi drobnymi ziarnami (np. małymi ooidami, koprolitami, fragmentami bioklastów) w skład gruzełków, czyli większych form, których średnice wynoszą od dziesiątych milimetra do kilku milimetrów."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały węglanowe", "subject_id": 1633, "subject": "Wapienie", "paragraphs": ["Przy analizach makroskopowych używanie powyższej klasyfikacji może sprawiać trudności, ze względu na ograniczone możliwości identyfikacji drobnych składników. W zasadzie bez wykorzystania specjalistycznego sprzętu optycznego nie można precyzyjnie określić cech teksturalnych wapieni drobnoziarnistych. Dlatego przy opisie makroskopowym przyjęto stosowanie nazewnictwa mniej formalnego, które uwzględnia widoczne okiem nieuzbrojonym cechy tekstualne wapieni.", "Dla określenia wapieni zbudowanych z drobnych, makroskopowo nierozróżnialnych składników, które na poziomie obserwacyjnym są jednorodne teksturalnie, powszechnie stosowany jest termin wapienie pelityczne (Rys. 1). Mogą one być zbudowane z mikrytu, ale też drobnych, pozostających poza możliwościami identyfikacji makroskopowej, składników ziarnistych lub/i drobnego sparytu.", "Skały wapienne, które składają się z makroskopowo rozpoznawalnego sparytu nazywane są wapieniami sparytowymi.", "W obrębie wapieni zawierających widoczne makroskopowo ziarna, wyróżnia się:", "Podstawowym składnikiem wapieni detrytycznych (okruchowych) są litoklasty (Rys. 3), (zob. Składniki teksturalne skał węglowych), [9], [5], [10]. Mogą one mieć pochodzenie wewnątrz- i pozazbiornikowe. Wapienie z intraklastami są efektem depozycji fragmentów skał wapiennych zdeponowanych wcześniej w tym samym basenie sedymentacyjnym. Ich powstanie wiąże się z destrukcją epizodyczną lub permanentną. Epizodyczna zachodzi przy występującym efemerycznie krótkotrwałym wzroście energii środowiska. Charakteryzuje ją duża jednostkowa produkcja materiału klastycznego, który jest masowo deponowany. Materiał ten buduje izolowane warstwy wapieni. Destrukcja permanentna to sukcesywna i systematyczna dostawa niewielkich ilości materiału klastycznego w dłuższym przedziale czasu. Zwykle zachodzi wskutek niszczenia skał, które znalazły się w wyżejenergetycznych środowiskach. Materiał detrytyczny gromadzi się w bezpośrednim otoczeniu niszczonej formy (np. rafy lub wyniesionego bloku) i wchodzi w skład, kolejno występujących po sobie, serii warstw. Wapienie zawierające intraklasty wykazują zwykle niską dojrzałość teksturalną i cechuje je duży rozrzut wielkości ziarna. Kształt i stopień obtoczenia klastów jest zależny od drogi transportu, ale też od stopnia ich konsolidacji. Intraklasty powstałe ze skał zwięzłych wykazują niski stopień obtoczenia, a ziarna pochodzące ze słabo skonsolidowanego lub plastycznego i kohezyjnego materiału są zaoblone.", "Drugim typem wapieni detrytycznych są skały zbudowane z ekstraklastów, czyli ziaren pochodzących ze źródła zewnątrzbasenowego. W porównaniu do wapieni z intraklastami wykazują zwykle wyższą dojrzałość teksturalną, ich materiał podczas transportu przechodzi selekcję i uzyskuje obtoczenie.", "Wapienie ooidowe i onkoidowe (oolity i onkolity) [2], [3], [1], [11], [4], [10] to skały, które zbudowane są głównie z ziaren obleczonych (Rys. 4), (zob. Składniki teksturalne skał węglowych). Tworzą się w środowiskach płytkich o wysokiej ruchliwości wód. Oolity cechuje nieduży rozrzut wielkości ziarna i wysoki stopień upakowania. Zawierają niewielką ilość mułu węglanowego oraz mocno rozdrobnione bioklasty (zob. Składniki teksturalne skał węglowych). Powszechnie występują w nich struktury sedymentacyjne (najczęściej laminacje przekątne) (zob. Struktury depozycyjne), związane z depozycją lub przerabianiem materiału na dnie basenowym. Wapienie onkoidowe charakteryzuje większy rozrzut wielkości ziarna, mniejszy stopień upakowania (zob. Tekstury skał okruchowych) i obecność większej ilości mułu węglanowego. Towarzyszące onkoidom bioklasty zwykle wykazują różny stopień rozdrobnienia.", "Głównym składnikiem wapieni organodetrytycznych są bioklasty, czyli ziarna wapienne produkowane przez organizmy, które w trakcie depozycji stanowiły materiał luźny i niezwiązany biogenicznie (Rys. 5, Rys. 6), (zob. Składniki teksturalne skał węglowych). Skałę składającą się z licznych, gęsto upakowanych bioklastów nazywa się zlepem bioklastycznym. Jej odmianami są zlepy muszlowe (muszlowce) krynoidowe, ramienionogowe, małżowe itd. W nazwie tych skał uwzględniony jest typ bioklastów lub grupa organizmów skałotwórczych [3], [1], [11], [5]. Ilość ziaren pochodzenia organicznego, jak i ich rozmieszczenie w pojedynczej warstwie, może być zróżnicowana. W wapieniach powszechnie występują normalne gradacje oraz różne struktury laminacyjne. Przerabianie materiału przez prądy prowadzi do selekcji frakcyjnej oraz uporządkowania składników. Jego efektem jest organizacja przestrzenna ziaren i powstanie zwykle zgodnego, poziomego lub prawie poziomego ich zalegania. Pokrywa bioklastyczna składająca się z uporządkowanych, gęsto upakowanych bioklastów, nazywana jest brukiem bioklastycznym/muszlowym [9], [10].", "Wapienie organodetrytyczne są powszechne przede wszystkim w środowiskach płytkowodnych, w których następuje masowa produkcja węglanowego materiału organicznego. Duże ilości bioklastów są wytwarzane i kumulowane w miejscach siedlisk organizmów żyjących w grupach. Nazwy poszczególnych odmian wapieni bioklastycznych tworzone są:", "Powyższą formę nazewnictwa zwykle stosuje się dla skał o zwartym szkielecie ziarnowym, natomiast wyrażenia przyimkowe (np. wapień z brachiopodami) używa się dla wapieni o rozproszonym szkielecie ziarnowym (wak).", "Wapienie bioklastyczne powstają również w głębokowodnych środowiskach morskich. Zbudowane są z mikroszczątków należących do organizmów planktonicznych, które formują wapienne muły [3], [11]. Makroskopowo są to skały bardzo drobnoziarniste lub jednorodne teksturalnie, czyli pelityczne. Szczególnym typem wapienia bioklastycznego jest kreda pisząca, która jest skałą słabo zwięzłą i porowatą. Składa się głównie ze skorupek otwornic planktonicznych i z kokolitów [1], [12], [10].", "Lądowe wapienie organodetryczne tworzą się głównie w środowiskach jaskiniowych i składają się ze scementoanych wzajemnie skalcyfikowanych kości ssaków (tzw. brekcje kostne). W innych lądowych środowiskach zachowują się sporadycznie.", "Odrębną grupą węglanów, związaną z budowlami organicznymi, są wapienie organogeniczne (Rys. 7). Tradycyjnie ich obrębie wyróżniane są rafy, biohermy i biostromy, choć obecnie termin rafa stosowany jest też dla wszystkich struktur węglanowych in situ tworzonych przez osiadłe organizmy [13], a jako osobny typ budowli węglanowych wyróżnia się kopce mułowe, które mogą być zarówno pochodzenia organicznego, jak i nieorganicznego.", "Sztywne i stabilne konstrukcje, składające się z połączonych w trakcie wzrostu organicznego elementów szkieletowych zachowanych w pozycji wzrostowej, które zostały wyprodukowane w procesach życiowych kolonii organicznej nazywa się wapieniami rafowymi [1], [11], [14], (Rys. 7). Struktura takiego wapienia zależy od form przyrostu organizmów skałotwórczych. Nieregularny rozrost kolonii powoduje powstanie struktur bezładnych i pozbawionych stratyfikacji, natomiast przy przyroście regularnym mogą wykształcić się struktury laminacyjne lub ławicowe, zwykle słabo zaznaczające się i nieciągłe. Wapienie rafowe są skałami porowatymi, w których porowatość wynika ze specyfiki wzrostu i swobodnego rozwoju budowli. Jest ona częściowo redukowana w trakcie funkcjonowania rafy przez wypełnianie mułem węglanowym, a w etapach postdepozycyjnych przez kompakcje i sekrecję węglanami.", "Wapienie biohermalne i biostromy powstają z nagromadzenia in situ elementów szkieletowych organizmów bentosowych, które występują w skupiskach. Biohermy od biostrom różnią się formą. Biohermy mają soczewkowate, rzadziej kopułowate kształty, natomiast biostromy są typem ławicy organogenicznej. Szczególną odmianą wapieni biohermalnych i biostromowych są wapienie gąbkowe (Rys. 7), w których oprócz elementów szkieletowych, występują mumie gąbkowe, powstałe przez kalcyfikację organów miękkich gąbek.", "Odmianą skał organogenicznych są wapienie powstałe wskutek skałotwórczej aktywności organizmów, tj. sinice, glony, grzyby, bakterie, które wykazują zdolność inkrustacji wewnątrztkankowej lub wiązania mułu wapiennego na swoich powierzchniach. Tworzą one wapienne formy dywanowe, o charakterze mat powlekających dno basenowe. Charakterystyczną ich odmianą są stromatolity (Rys. 7). Są to wapienie, które cechuje nieregularna laminacja, wykazująca różną geometrię od falistej do mocno urozmaiconej o typie kopułowatym [3], [1], [10], [15].", "W opisach makroskopowych stosowany też jest podział wapieni oparty o wielkość budujących je ziaren, wg. którego wyróżnia się 3 klasy skalne: kalcyrudyty, kalkarenity i kalcylutyty.", "Inne klasyfikacje systematyzują wapienie względu na genezę i wydzielane są skały chemiczne, biogeniczne oraz detrytyczne. Stosowane są również podziały środowiskowe, bazujące na miejscu ich depozycji. Wyodrębnia się wapienie o pochodzeniu lądowym i wodnym, w tym słodkowodnym i morskim oraz szereg podtypów odnoszących się do konkretnych środowisk, np. szelfowe, skłonowe, pelagiczne itd...", "Skały mieszane", "W środowiskach osadowych powszechnie tworzą się skały węglanowe mieszane. Najczęściej spotykane są margle [2], [4], [5], czyli skały wapienno-ilaste, zawierające minimum 35% każdego ze składników. W przypadku znacznego udziału węglanów, w zakresie 70% - 90% wydziela się wapienie margliste, natomiast skały zbudowane z takiej samej ilości minerałów ilastych z domieszką węglanów nazywa się iłami wapnistymi [5], [14]. Wapienie, w których 10% - 50% składników zostało przekształconych w dolomit określane są wapieniami dolomitycznymi.", "Odmianą skał mieszanych składającą się z węglanów oraz autigenicznej krzemionki są opoki (zob. Skały krzemionkowe). Wapienie zawierające krzemionkę w ilościach pobocznych nazywane są wapieniami krzemionkowymi. Dość powszechnym składnikiem wapieni są psamity, zwykle w formie ziaren silikoklastycznych lub glaukonitowych, a skały zawierające takie komponenty nazywane są wapieniami zapiaszczonymi.", "Powszechnie spotykane wapienie mają barwy jasne, od białych do jasnoszarych lub jasno kremowych. Występują też odmiany barwne, których kolor wynika z obecności w nich składników pozawęglanowych. Zwykle na zielone zabarwienie wapieni wpływają domieszki glaukonitu, na żółtawo, czerwono lub zielono barwią wapienie tlenki żelaza, natomiast związki bitumiczne i siarczki żelaza powodują czarne, brunatne lub ciemnoszare zabarwienie."], "definitions": [{"name": " Definicja 1: Wapienie ", "content": " Skały osadowe zbudowane z węglanu wapnia w formie kalcytu (zob. Minerały\nwęglanu wapnia) lub aragonitu nazywane są wapieniami. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Skały węglanowe", "subject_id": 1634, "subject": "Dolomity i syderyty", "paragraphs": ["Dolomityzacja może doprowadzić do utrwalenia lub zaniku cech skały pierwotnej. W zależności od charakteru przemian, w dolomitach zostaną zachowane wyjściowe cechy strukturalno-teksturalne wapieni lub nastąpi ich zatarcie. Dolomityzacja to proces długotrwały, zwykle przebiega gradacyjnie i wybiórczo. Najpierw przemianom podlegają małe ziarna węglanowe oraz mikrytowa masa podstawowa, natomiast składniki większe dolomityzowane są w dalszej kolejności. Dolomityzacja składników kalcytowych zachodzi wolnej niż aragonitowych, a najbardziej odporne są elementy zbudowane z wysokomagnezowego kalcytu. Przy bardziej zaawansowanej dolomityzacji pierwotne cechy wapieni ulegają całkowitemu zanikowi i wapienie ziarniste ulegają przekształceniu w homogeniczne teksturalnie, zwykle skrytokrystaliczne dolomity. W wyniku postępującej rekrystalizacji powstają dolomity krystaliczne, które zbudowane są ze sparytu dolomitowego. Odmiany, których świeże powierzchnie są chropowate i skrzące nazywane są dolomitami cukrowymi. Efekt świetlny połyskiwania wywołany jest mocnym szklistym połyskiem kryształów dolomitu.", "Inną cechą teksturalną, którą wykazuje część dolomitów jest porowatość. Wykształca się ona podczas dolomityzacji. Zastąpienie kalcytu przez dolomit wiąże się ze zmianą objętości, która może być kompensowana przez powstanie w skale pustych przestrzeni. Dolomity z makroskopowo widoczną porowatością nazywane są dolomitami komórkowymi [1].", "Przyjmuje się, że dolomity zbudowane są w co najmniej w połowie z minerału dolomitu. Drugim głównym minerałem jest kalcyt, którego udział zależy od stadium zaawansowania procesu dolomityzacji. Skały, w których ilość kalcytu wynosi 50-10% nazywane są dolomitami wapnistymi. Dolomity sensu stricto zbudowane są w 90% z minerału dolomitu.", "Dolomity są zwykle skałami o zabarwieniu jasnym: białym, jasnoszarym, kremowym lub żółtawym. Obecność domieszek innych minerałów może powodować zmianę ich zabarwienia na zieloną, czerwoną, brunatną czy czarną. Powszechnymi minerałami pobocznymi występującymi w dolomitach są minerały ilaste, siarczki, tlenki i wodorotlenki.", "Należą do skał rozpowszechnionych w środowisku sedymentacyjnym, które zwykle powiązane są z kompleksami skał drobnoklastycznych. Występują głównie wśród skał ilastych, mułowcowych lub marglistych. W ich składzie mineralnym, oprócz minerału syderytu występuje kalcyt, minerały ilaste, siarczki żelaza, fosforany wapnia, tlenki manganu i inne. Syderyty zawierające większe domieszki minerałów ilastych nazywane są syderytami ilastymi.", "Na świeżym przełamie syderyty mają najczęściej barwy szare, od popielatych po prawie czarne. Ich powierzchnie graniczne pokryte są cienką warstewką limonitową o charakterystycznym brązowym, pomarańczowym lub czerwonawym zabarwieniu. Warstewka ta, nazywana korą (skórką) syderytyczną, powstaje przez utlenienie i uwodnienie żelaza (zob. Tlenki i wodorotlenki) w zewnętrznych strefach skały.", "W makroskopowym obrazie, syderyty są zwykle homogenicznymi skałami pelitycznymi. Niektóre odmiany zawierają widoczne okiem nieuzbrojonym ziarna, najczęściej są to ooidy lub bioklasty (zob. Składniki teksturalne skał węglanowych). Odmiany ziarniste, tj. oolity syderytowe lub muszlowce syderytowe są dość rzadkie.", "Ze względu na formę występowania wyróżnia się:", "We wnętrzu syderytów ilastych powszechnie występują spękania, które nazywane są septariami (Rys. 2), [3], [7], [8]. Powstają w trakcie diagenezy, jako kompensacja zmiany objętości minerałów ilastych. Spękania te pozostają puste lub tworzą się w nich sekrecje (całkowite lub częściowe), które najczęściej wypełnia jawnokrystaliczny kalcyt. Syderyty pokładowe mają niewielkie miąższości i zwykle występują w warstwach lub soczewkach od bardzo cienkich do średnich. Geometria konkrecji syderytowych jest zróżnicowana i obejmuje całe spektrum kształtów od okrągłych, przez owalne do spłaszczonych. Mają one wielkości zwykle rzędu centymetrów lub decymetrów.", "Powstawanie syderytów związane jest głównie ze środowiskami wodnymi, które charakteryzuje niedobór tlenu. Powstają też na etapie diagenezy."], "definitions": [{"name": " Definicja 1: Dolomity ", "content": " Dolomity to skały, które zbudowane są w ponad 50% z minerału dolomitu\n(zob. Dolomit, syderyt i inne węglany), (Rys. 1). "}, {"name": " Definicja 2: Syderyty ", "content": " Syderyty to skały w których dominującym minerałem jest syderyt (Rys. 2),\n(zob. Dolomit, syderyt i inne węglany), [1], [3]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Pozostałe skały osadowe", "subject_id": 1638, "subject": "Skały krzemionkowe", "paragraphs": ["Skały krzemionkowe są twarde i zbite i ze względu na dużą sztywność są kruche i podlegają deformacjom nieciągłym. Powszechnie występują w nich spękania o typie ciosu i kliważu. Wyjątek wśród skał krzemionkowych stanowią diatomity, które są skałami porowatymi, a przez to lekkimi. Składniki skał krzemionkowych są drobne i zwykle pozostają poza możliwościami identyfikacji makroskopowej (Rys. 1, Rys. 2, Rys. 3).", "Ze względu na genezę budulca, skały krzemionkowe dzielone są na:", "Bioklasty, z uwagi na swoje niewielkie rozmiary, są rzadko rozróżniane makroskopowo. Stosowanie klasyfikacji genetycznej, biorącej pod uwagę pochodzenie krzemionki, opiera się głównie na analizach mikroskopowych. W trakcie procesów postdepozycyjnych, elementy organiczne zostają utrwalone albo ulegają przekształceniu w substancję amorficzną lub krystaliczną.", "Skały krzemionkowe występują w formie [1], [7], [4], [8], [9]:", "Warstwowane skały krzemionkowe", "Warstwy skał krzemionkowych nazywane są rogowcami (Rys. 2). Zwykle przewarstwiają one inne odmiany skał osadowych, np. węglanowych czy detrytycznych. Kompleksy jednorodne, składające się tylko z warstw skał krzemionkowych są rzadkie. Rogowce są skałami masywnymi lub laminowanymi (zwykle z laminacją równoległą). Mają wyraźne zaznaczone powierzchnie graniczne i z reguły niewielkie miąższości. W większości są skałami pierwotnymi, czyli powstałymi przez depozycję materiału krzemionkowego w zbiorniku sedymentacyjnym. Mają barwy beżowe lub szare, ale występujące w nich domieszki mogą wpływać na zmianę ich zabarwienia. Szczególną odmianą są lidyty, czyli równolegle laminowane czarne rogowce, które zawierają związki węgla organicznego. W rogowcach czerwonych, które zaliczane są do jaspisów, barwa pochodzi od tlenków żelaza [6], [4], [3].", "Konkrecyjne skały krzemionkowe", "Miejscowe skupienia krzemionki wewnątrz innych skał osadowych tworzą konkrecje (Rys. 3). Powstają podczas procesu diagenezy i są elementami wtórnymi. Występują zazwyczaj w skałach węglanowych, rzadziej w skałach okruchowych. Tworzą formy niewielkich rozmiarów, których średnice (lub miąższości) liczone są w milimetrach lub centymetrach.", "Ze względu na wykształcenie w ich obrębie wydziela się [6], [4], [5], [3]:", "Krzemienie są konkrecjami o wyrazistych granicach, które kontrastują ze skałą otaczającą pod względem barwy, tekstury i/lub struktury (Rys. 3). Od zewnątrz obleka je cienka powłoka, tzw. kora krzemienna (skórka), która obok krzemionki zawiera materiał skały otaczającej. Krzemienie mają rozmaitą morfologię. W szczelinach i fugach międzyławicowych tworzą się formy płaskie (tzw. płaskury krzemienne), wewnątrz warstw występują konkrecje owalne, bochenkowate, soczewkowate (tzw. buły krzemienne), wydłużone (soplowe) lub nieregularne.", "Czerty są konkrecjami upodobnionymi kolorystycznie i strukturalnie do skały otaczającej (Rys. 3). Powstają zwykle przez przesycenie krzemionką luźnych osadów węglanowych. Rozkład krzemionki w czertach jest różny. Skały o mniej więcej równomiernym rozkładzie są wewnętrznie jednorodne, natomiast w czertach o nierównomiernym rozkładzie występują obszary wzbogacone w krzemionkę, zwane jądrowymi, które otoczone są przez strefy ze zwiększoną ilością składnika pozakrzemionkowego, czyli skały otaczającej. Czerty mają zróżnicowane kształty. Występują w formach konkrecyjnych regularnych, które są w zarysie okrągłe lub owalne lub tworzą formy niesymetryczne.", "Krzemienie zwykle mają barwy szare, brązowe lub czarne, natomiast czerty zabarwione są na biało, jasnoszaro lub są kremowe.", "Duża ilość skał krzemionkowych powstaje w strefach abysalnych oceanów, gdzie deponowane są muły krzemionkowe. Ich sedymentacja jest uzależniona od produkcji organicznej planktonu krzemionkonośnego, głównie promienic. Skały zbudowane z krzemionki gąbkowej tworzą się w strefach płytszych zbiorników morskich. W zbiornikach słodkowodnych i morskich deponowane są diatomity (Rys. 2), odpowiednio jeziorne lub morskie. Ich powstanie jest związane z masowym wytwarzaniem elementów krzemionkowych podczas zakwitów planktonu okrzemkowego.", "W skałach organogenicznych krzemionce towarzyszą węglany, kwarc detrytyczny, minerały ilaste, żelaziste, a w skałach pochodzenia morskiego również ziarna glaukonitu. Osady krzemionkowe są charakterystyczne dla środowisk niskoenergetycznych, typowe dla basenów o niskim tempie depozycji, z ograniczonym wpływem sedymentacji klastycznej i węglanowej. Skały krzemionkowe chemiczne związane są głównie ze środowiskami lądowymi i tworzą nagromadzenia lokalne, zwane martwicami krzemionkowymi i gejzerytami [4], [6].", "Cześć skał krzemionkowych powstaje podczas diagenezy i epigenezy. Proces wzbogacania skał w krzemionkę nazywany jest sylifikacją [3]. Zachodzi on przez zastępowanie składników skały minerałami krzemionkowymi (substytucja) lub wypełnianiem przez krzemionkę wolnych przestrzeni w skale. Podczas procesów diagenetycznych dochodzi do przekształceń krzemionki w skałach, następuje krystalizacja, podczas której opal przechodzi w chalcedon lub rekrystalizacja chalcedonu [1], [7]. Bioopal, wchodzący w skład elementów szkieletowych jest rozpuszczany, po czym wtórnie ulega strącaniu.", "Skały mieszane", "W środowiskach sedymentacji krzemionkowo-klastycznej dochodzi do powstania skał mieszanych. W takich warunkach formowane są gezy, które zbudowane są z krzemionki autigenicznej i allogenicznej (Rys. 4). Składają się z ziarn kwarcowych frakcji psamitowej i pelitowej [6], [3], które spojone są autigeniczną krzemionką. Skały pelitowe i aleurytowe zawierające domieszkę allogenicznej krzemionki wydzielane są jako iły/iłowce i muły/mułowce krzemionkowe. Odmiany przejściowe pomiędzy skałami krzemionkowymi i wapiennymi nazywane są opokami (Rys. 4), [6], [4]. Składają się z kalcytu oraz autigenicznej krzemionki. Opoki, ze względu na swoiste cechy teksturalne należą do skał charakterystycznych. Są to skały lekkie i porowate, barwy białej, jasno szarej lub żółtawej. Porowatość sprzyja odwapnieniu opoki. Po rozpuszczeniu węglanów w skale pozostają tylko składniki krzemionkowe, przez co zwiększa się jeszcze bardziej jej powierzchnia porowa. Ze względu na niski ciężar właściwy, taka skała nazywana jest opoką lekką (odwapnioną).", "Gezy i opoki formowane są w zbiornikach morskich i oceanicznych, a krzemionka w nich występująca ma zwykle pochodzenie gąbkowe."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Pozostałe skały osadowe", "subject_id": 1635, "subject": "Ewaporaty", "paragraphs": ["Ze względu na skład chemiczny, w ich obrębie wydzielane są:", "Klasyfikacje środowiskowe segregują ewaporaty względem basenu sedymentacyjnego i wyróżniane są np. ewaporaty lagunowe, jeziorne, pustynne i inne.", "Ewaporaty są skałami nietrwałymi środowiskowo. Szczególnie niską trwałość mają skały łatworozpuszczalne w wodzie. Są one wyodrębniane jako osobna grupa nazywana skałami solnymi (zob. Skały solne). W ich obrębie największe znaczenie mają chlorki (zob. Chlorki). Ewaporaty występują w różnych formach. Najczęściej tworzą przeławicenia lub skupienia konkrecyjne w obrębie utworów klastycznych. Niektóre z nich (np. gipsy, anhydryty czy halityty) formują większe jednostki skalne, których charakterystyczną cechą jest wykształcenie wyrazistej stratyfikacji oraz obecność przewarstwień skał drobnookruchowych.", "Procesy ewaporacyjne skutecznie zachodzą w warunkach klimatu gorącego i suchego, w śródlądowych zbiornikach wód zmineralizowanych lub w odizolowanych od otwartych wód zatokach morskich i lagunach. Nasycenie roztworu w zbiorniku wodnym uzyskiwane jest w procesie ewaporacji ([z łac.] evaporatio - parowanie), czyli utraty wody przez parowanie, przy braku dodatkowego zasilania wodą.", "Sedymentacja ewaporatów jest procesem sekwencyjnym. Strącanie poszczególnych typów skał wiązane jest z określonym stężeniem roztworu. Następstwo krystalizacji minerałów, przy postępującym wzroście stężenia wody morskiej, przedstawia cykl solny. Zakłada on, iż ponad skałami węglanowymi (dolomitami), które stanowią podłoże, a zarazem pierwszy element sekwencji, następuje wytrącanie najpierw ewaporatów siarczanowych, kolejno chlorkowych.", "Ewaporaty powstają przez parowanie wód morskich i jeziornych (zob. Akumulacja i osady limniczne). Wody morskie mają zunifikowany skład chemiczny i powstające w nich sekwencje ewaporatowe mają podobny skład mineralny. Natomiast, ewaporaty jeziorne wykazują dużą różnorodność pod względem mineralnym, która wynika z warunków panujących w środowisku sedymentacyjnym, w tym ze składu chemicznego zmineralizowanych wód (zob. Akumulacja i osady limniczne).", "Do opisu teksturalnego ewaporatów stosowana jest nomenklatura określająca cechy skał krystalicznych, tj. automorfizm kryształów, fanero- i skrytokrystaliczność oraz wielkość kryształów w podziale na grubokrystaliczne (> 5 mm), średnioziarniste (2-5 mm) i drobnokrystaliczne (< 2 mm)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Pozostałe skały osadowe", "subject_id": 1636, "subject": "Ewaporaty siarczanowe", "paragraphs": ["Gipsy", "Gipsy zbudowane są z minerału gipsu. W większości są jawnokrystaliczne, a cechą, która je wyróżnia spośród innych skał osadowych, jest tworzenie dużych i bardzo dużych kryształów. Odmiany skrytokrystaliczne nie są powszechne. Gipsy mają różne barwy, zwykle są to skały jasne, zabarwione na biało, żółtawo, szare lub różowe, rzadziej spotykane są odmiany brunatne czy czarne. Jako domieszki występują w nich anhydryt i inne minerały siarczanowe, minerały ilaste, chlorki i minerały węglanowe [1], [2], [3], [4], [5], [6].", "Ze względu na pochodzenie gipsy dzielone są na:", "Gipsy cechuje duża różnorodność cech teksturalnych, przekładająca się na wyróżnienie w ich obrębie wielu odmian (Rys. 1, Rys. 2, Rys. 3), [2], [1], [4], [7], [5], [6], [8]. Powszechne są gipsy włókniste (fibrolity), które tworzą cienkie warstwy składające się z zespołu wzajemnie równoległych i zorientowanych prostopadle względem uławicenia kryształów. Ze względu na charakterystyczny jedwabisty połysk znane one są też pod nazwą szpatów satynowych. Skrytokrystaliczne lub bardzo drobnoziarniste, jasno zabarwione gipsy nazywa się alabastrami, natomiast typy grubokrystaliczne - gipsami szkieletowymi. Skały składające się z bardzo dużych kryształów gipsu wyróżnia się jako gigantogipsy, a zbudowane ze zbliźniaczonych kryształów stykowych są odmianą nazywaną gipsami jaskółczymi. Typ zbudowany z mocno wydłużonych kryształów o pokroju listewkowym nazywany jest gipsem szablastym, a składający się z średniej wielkości izometrycznych kryształów - gipsem ziarnistym (trocinowym).", "Gipsy występują w warstwach, ale powszechnie tworzą też formy konkrecyjne. Najbardziej znaną jest gipsowa „róża pustyni”, która posiada charakterystyczny wielokierunkowy pokrój i miodowe zabarwienie (Rys. 2). Gipsy współwystępują ze skałami solnymi oraz klastycznymi, głównie marglami i iłowcami, rzadziej towarzyszą skałom węglanowym. Są słabo odporne na działanie wietrzenia chemicznego. Ulegają ługowaniu, aczkolwiek, w porównaniu do skał solnych, ich skłonność do rozpuszczania jest znacznie niższa. W gipsach powszechnie rozwija się kras gipsowy, prowadzący do wytworzenia różnych form wietrzeniowych. Jedną z nich są jaskinie, które należą do najdłuższych jaskiń na Ziemi.", "Anhydryty", "Anhydryty są skałami skrytokrystalicznymi lub drobnoziarnistymi, zbudowanymi z minerału anhydrytu (Rys. 3). Odmiany grubiej ziarniste spotykane są rzadziej. Najczęściej mają barwę białą lub szarą, choć podobnie jak gipsy, mogą występować w różnym zabarwieniu. Jako domieszki w anhydrytach obecne są inne siarczany, chlorki i minerały z grupy węglanów. Powstają w wyniku ewaporacji lub podczas diagenezy, najczęściej w procesie dehydratacji gipsów [1], [3], [7]. Występują w różnych formach, co jest podstawą klasyfikacji strukturalnych, w których wydziela się m. in. anhydryty ziemiste, gruzełkowe, nodularne, warstwowe i inne.", "Skały mieszane", "Oprócz odmian monomineralnych, ewaporaty siarczanowe są głównym składnikiem skał mieszanych. Powszechnie spotykane są skały gipsowo-anhydrytowe, siarczanowo-chlorkowe oraz skały siarczanowo-klastyczne. Skały gipsowo-anhydrytowe występują zwykle w formie zwanej trzewiowcem [1], [3]. Jest to zdeformowana warstwa, składająca się z ciasno rozmieszczonych fałdów wąskopromiennych. Powstaje wskutek zmian diagenetycznych, zawiązanych z przekształcaniem się anhydrytu w gips. Pofałdowanie formowane jest sukcesywnie, podczas przyrostu objętości, jakie towarzyszy uwodnieniu anhydrytu [7], [8].", "Odmiany skał przejściowych zawierające ewaporaty siarczanowe i materiał dorobnoklastyczny nazywane są gipsami lub anhydrytami zailonymi, natomiast skały zdominowane przez minerały ilaste z istotną domieszką minerałów siarczanowych określane są jako iły/iłowce gipso- lub anhydrytonośne."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Pozostałe skały osadowe", "subject_id": 1637, "subject": "Skały solne", "paragraphs": ["Najbardziej znanymi ewaporatami solnymi są halityty (zwane popularnie solą kamienną lub kuchenną) (Rys. 1), [2], [1], [3]. Są to skały monomineralne, które zbudowane są z halitu lub prawie monomineralne, gdy oprócz halitu zawierają domieszki minerałów siarczanowych, chlorkowych, węglanowych i minerałów ilastych. Najczęściej mają struktury fanerokrystaliczne i równoziarniste, w odmianach od drobno- do gruboziarnistych. Halityty zwykle wykazują przezierność, mają barwy białe lub szare, niektóre odmiany są różowe lub pomarańczowe. Tworzą większe samodzielne jednostki skalne, w których są przeławicane utworami mułowymi lub ilastymi, lub współwystępują z ewaporatami siarczanowymi.", "Sole potasowo-magnezowe są skałami polimineralnymi, które stanowią końcowe ogniwo cyklotemu solnego [4], [4], [5]. Budują je chlorki i siarczany. Są wyraźnie krystaliczne, zwykle drobno- lub średnioziarniste, barwy białej lub szarej, rzadziej różowej (Rys. 2). W środowiskach ewaporacyjnych powszechnie występują:", "Pod wpływem nadkładu skalnego lub nacisków bocznych skały solne ulegają deformacjom. W ich obrębie powstają różnego rodzaju zafałdowania, które prowadzą nie tylko modyfikacji pierwotnych struktur wewnętrznych, ale powodują zdecydowaną zmianę morfologii ciał solnych (Rys. 3). W związku z tym, intrakrustalne skały solne rzadko tworzą warstwy. Zwykle mają formy wewnętrznie sfałdowanych poduszek, wałów, słupów lub diapirów solnych [6], [4]. Sole są podatne na deformacje ciągłe, ulegają uplastycznieniu pod wpływem niewielkiego ciśnienia (10 MPa). W środowiskach powierzchniowych Ziemi są skałami wybitnie nietrwałymi, gdyż ulegają ługowaniu. Zachowanie ewaporatów solnych zachodzi w warunkach odcięcia ich od wody i odbywa się przez szybkie pogrzebanie. Rolę izolatora, który zabezpiecza skały solne przed rozpuszczaniem, pełnią przewarstwienia skał mułowych i iłowych.", "Sole tworzą samodzielne odmiany skalne lub występują, jako główny składnik skał mieszanych. Sole gipsowe są skałą przejściową pomiędzy ewaporatami chlorkowymi i siarczanowymi. Skały mieszane zbudowane z minerałów chlorkowych i drobnoklastycznych ziarn detrytycznych nazywane są solami zailonymi lub iłami solonośnymi. Jedną z takich odmian jest zuber, w której występuje od 15-85% halitu (Rys. 2), [2], [7], [3]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Pozostałe skały osadowe", "subject_id": 1640, "subject": "Skały żelaziste", "paragraphs": ["Powstają w różnych warunkach. W środowiskach redukcyjnych tworzą się siarczki, węglany i krzemiany żelaza, natomiast w środowiskach tlenowych formują się tlenki i wodorotlenki żelaza. Głównym źródłem żelaza dla procesów sedymentacyjnych są obszary objęte wietrzeniem.", "Żelaziste skały tlenkowe i wodorotlenkowe", "Pośród skał żelazistych największe rozprzestrzenienie w środowisku powierzchniowym Ziemi mają tlenki i wodorotlenki żelaza. Wśród nich najczęściej spotykany jest limonit [5], [3], [6], w starszej nomenklaturze znany jako żelaziak [1]. Jest to drobnokrystaliczna mieszanina tlenków i wodorotlenków żelaza, składająca się głównie z getytu współwystępującego z lepidokrokitem i domieszek kwarcu i minerałów ilastych (zob. Tlenki i wodorotlenki), (Rys. 1), [6]. Tlenki i wodorotlenki żelaza powszechnie tworzą konkrecje, rzadziej warstwy lub mają formy luźnych lub zbitych agregatów. W obrazie makroskopowym są pelityczne, rzadziej wykazują tekstury sferolityczne i mają struktury oolitów [1], [2], [4], których luźne nagromadzenia nazywane są piaskami żelazistymi. Pelityczna skała limonityczna (zwykle uwodniona) o charakterystycznym pomarańczowym zabarwieniu nazywana jest ochrą. W jej składzie występuje podwyższona ilość minerałów ilastych oraz koloidalnych wodorotlenków żelaza. W obszarach lądowych powstają odmiany nazywane rudami darniowymi (bagiennymi, jeziornymi), które tworzą poziomy w górnych częściach profilów glebowych (Rys. 3), [1], [2], [6], [7].", "Tlenki żelaza są głównymi minerałami wchodzącymi w skład warstwowanych formacji żelaza (warstwowanych rud żelaza, tzw. BIF-ów) (Rys. 2), [8], [7]. Żelazo znajduje się w magnetycie i hematycie, które tworzą, charakterystycznie zabarwione na czerwono, warstewki występujące naprzemiennie z warstewkami krzemionkowymi. Tlenki żelaza powstały przez chemiczne strącanie żelaza z wód morskich w okresie Wielkiego Zdarzenia Oksydacyjnego, które miało miejsce w archaiku i wczesnym proterozoiku. W obrębie BIF-ów skumulowana jest większość światowych złóż żelaza. Zawartość wagowa żelaza w ich obrębie wynosi od 20% do 40% [9]. W obecnie panujących warunkach osadowe hematyty i magnetyty tworzą się na znacznie mniejsza skalę.", "W środowiskach sedymentacyjnych powszechne są syderyty [1], [10], [6], czyli węglanowe skały żelaziste (Rys. 2). Ich charakterystyka zamieszczona została w rozdziale poświęconym skałom węglanowym (zob. Dolomity i syderyty).", "Żelaziste skały krzemianowe", "Mniejsze rozprzestrzenienie od żelazistych skał tlenkowych mają krzemianowe skały żelaziste. Występującymi w nich nośnikami żelaza są zwykle chloryty i glaukonit (zob. Minerały ilaste). Chloryty żelaziste, głównie w formie szamozytu i turyngitu, tworzą sferolityczne ziarna o typie oolitów. Ich obecność wpływa na kolorystykę skały i powoduje jej szaro-zielone wybarwienie. Skałom krzemianowym towarzyszą domieszki syderytu lub tlenków i wodorotlenków żelaza oraz drobne bioklasty. Glaukonit stanowi dominujący składnik skał zwanych galukonitytami (zob. Minerały ilaste). Wysoka zawartość glaukonitu powoduje, że mają one charakterystyczną soczysto zieloną barwę [1], [3], [6]. Glaukonityty są typowe dla środowisk płytkomorskich [11].", "Żelaziste skały siarczkowe", "Żelaziste skały siarczkowe zbudowane są najczęściej z pirytu i markasytu (zob. Siarczki), (Rys. 5). Powstają w środowisku redukcyjnym, przez wytrącanie z wody morskiej lub formowane są w etapie postdepozycyjnym, podczas procesów diagenetycznych i epigenetycznych. Cechują je tekstury fanerokrystaliczne, drobno- lub bardzo drobnoziarniste. Budują małe formy, zwykle konkrecyjne, które występują w obrębie osadów drobnoklastycznych o typie iłów, mułów, osadów węglanowych lub osadów zasobnych w organikę [2]. Często tworzą framboidy, czyli występujące w skałach osadowych kuliste agregaty kryształów siarczku żelaza."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Pozostałe skały osadowe", "subject_id": 1642, "subject": "Skały rezydualne", "paragraphs": ["Regolity składają się z:", "W zależności od zaawansowania procesów wietrzeniowych, skały rezydualne mają różne wykształcenie. Regolity grubookruchowe, oprócz frakcji drobnych, zawierają frakcje psefitowe i psamitowe. Są skałami niedojrzałymi teksturalnie, które mają charakter gruzów (zob. Psefity). Udział składników neogenicznych jest w nich na ogół niewielki. Powstanie regolitów grubookruchowych wiąże się przede wszystkim z oddziaływaniem wietrzenia fizycznego. Przykładem takich skał są gołoborza (zob. Erozja na obszarach wiecznej zmarzliny) lub hamady (zob. Deflacja i formy deflacyjne).", "Regolity, które przeszły zaawansowane procesy wietrzenia chemicznego mają teksturę drobnoziarnistą. Składają się w przewadze z minerałów neogenicznych, głównie minerałów ilastych lub tlenków i wodorotlenków glinu i żelaza (zob. Materiały autigeniczne, Minerały ilaste, Tlenki i wodorotlenki). Minerały te tworzą małe ziarna i występują we frakcji aleurytowej i pelitowej. Regolity mają typowe cechy skał ilastych. Typowym ich przykładem są zaliczane do skał ilastych kaoliny oraz skały alitowe.", "Kaoliny, zwane glinkami ogniotrwałymi zbudowane, są z kaolinitu (zob. Minerały ilaste), który powstaje w wyniku wietrzenia skał zawierających glinokrzemiany [2], [3], [1], [4]. Są to skały pelityczne, o zabarwieniu jasnym, zwykle białym, szarym lub kremowym. Powstają ze skał bogatych w skalenie. Innym typem skał rezydualnych są bentonity. Tworzą się one w środowisku morskim, wskutek wietrzenia drobnookruchowych osadów piroklastycznych. Ich głównym minerałem skałotwórczym jest montmorylonit.", "Skały alitowe", "Podstawowymi składnikami skał alitowych są tlenki i wodorotlenki glinu, głównie gibbsyt (zob. Tlenki i wodorotlenki), diaspor i bohemit [1], [5]. Minerałom tym towarzyszą tlenki i wodorotlenki żelaza, w formie lepidokrokitu i getytu, które powodują charakterystyczne czerwone zabarwienie tych skał (zob. Tlenki i wodorotlenki). Zaawansowane wietrzenie, prowadzące do powstania regolitów alitowych odbywa się w warunkach wilgotnego i gorącego lub ciepłego klimatu tropikalnego i subtropikalnego. W jego wyniku ze skał macierzystych zostaje odprowadzona krzemionka i węglany. Ten typ wietrzenia nazywany jest alitowym lub laterytowym [1], [6].", "Podstawowymi odmianami skał alitowych są:", "Terra rosa (czerwona ziemia) jest skałą barwy czerwonej, w której dominującym składnikiem są tlenki i wodorotlenki glinu oraz towarzyszące im w różnej ilości wodorotlenki i tlenki żelaza (Rys. 3), [1], [5], [6]. Terra rosa stanowi residuum po wietrzeniu alitowym skał węglanowych [1], [2]. Występuje w formie pokryw, wypełnień szczelinowych lub gniazdowych w strukturach krasowych.", "Lateryty zbudowane są, z występujących w różnych proporcjach, tlenków i wodorotlenków glinu i żelaza (Rys. 4), (zob. Tlenki i wodorotlenki), [6], [7], [1], [2], [6]. W ich skład wchodzą głównie gibbsyt, getyt i lepidokrokit. Lateryty powstają w wyniku wietrzenia skał glinokrzemianowych. Odmiany zasobne w glin pochodzą ze skał kwaśnych, a zawierające większą ilość żelaza ze skał obojętnych i zasadowych. Ich zabarwienie jest różne, od czerwonego przez brązowe do żółtego i białego i uzależnione jest od zawartości tlenków i wodorotlenków żelaza [5].", "Boksyty składają się z tlenków i wodorotlenków glinu (Rys. 4), (zob. Tlenki i wodorotlenki), [7], [2], [5], [6]. Do ich powstania dochodzi w wyniku różnych procesów. Powszechnie tworzą się podczas krasowego wietrzenia skał węglanowych lub przez koncentrację związków glinu pochodzącego z rozmycia innych skał alitowych [1], [8]. Boksyty mają barwę brunatną, szarą lub kremową."], "definitions": [{"name": " Definicja 1: Regolity ", "content": " Regolity (skały rezydualne) są nagromadzeniami materiału\npochodzącego z wietrzenia skały macierzystej, który pozostał w miejscu jej występowania [1].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Pozostałe skały osadowe", "subject_id": 1639, "subject": "Skały fosforanowe i manganowe", "paragraphs": ["Skały fosforanowe są skałami zawierającymi podwyższoną ilość fosforu, w których przeliczając na zawartość tlenkową, udział wagowy tlenku fosforu (\\(P_2O_5\\)) wynosi co najmniej 12% [1], [2], [3], [4]. Fosforyty są odmianą skał fosforanowych, w których koncentracja tlenku fosforu przekracza 20% wagowych. Fosfor występuje głównie w kolofanicie i frankonicie, które zbudowane są z fosforanów wapnia (zob. Fosforany).", "Większość skał fosforanowych to skały pochodzenia chemicznego. Powstają przez wytrącenie minerałów fosforanowych z roztworów lub przez zastępowanie minerałów węglanowych minerałami zawierającymi fosfor [5]. Część skał fosforanowych ma genezę organogeniczną i tworzy się dzięki kumulacji materiału biogenicznego (zob. Biominerały). W ich obrębie wyróżniane są odmiany bioklastyczne, które składają się z elementów twardych produkowanych przez organizmy, tj. zęby i kości kręgowców czy muszle ramienionogów [5], [6].", "Skały fosforanowe nie są powszechne. Ich większe nagromadzenia znane są z lokalnych wystąpień. Zwykle tworzą niewielkie formy, czyli wypełnienia pustek w innych skałach, konkrecje lub spoiwo w skałach okruchowych. Warstwy fosforanowe występują rzadziej [7], [4], [6]. Konkrecje zwykle są nieduże, mają wielkości mikrometrów lub centymetrów. Mają różny stopnień zwięzłości, makroskopowo są pelityczne, mają barwę brunatną, ciemno szarą lub żółtawą (Rys. 1). Ich powierzchnie są czarne, gładkie i lśniące. Poza fosforanami, występuje w nich kwarc, glaukonit, minerały ilaste. Powszechnie zawierają skamieniałości, które przeszły proces fosforyzacji. Skały fosforanowe tworzą się w obrębie skał węglanowych lub drobnoklastycznych, tj. mułowce, iłowce i margle, rzadziej występują w piaskowcach. Zwykle tworzą poziomy. Konkrecje fosforanowe powstają głównie w środowiskach płytkomorskich, w środowiskach głębokomorskich formowane są warstwy fosforanowe warstwowe o strukturze mikrokonkrecyjnej.", "Odmianą organodetryczną morskich skał fosforanowych są fosforyty muszlowe, które składają się ze szczątków organicznych. Zwykle są to ramienionogowe zlepy muszlowe.", "Guano, to skała fosforanowa lądowa, w której kumulacja fosforu pochodzi z odchodów kręgowców. Powstaje w klimacie suchym przez nagromadzenie ekskrementów, najczęściej ptasich [7], [2]. Dodatkowym źródłem fosforu w guanach są elementy kostne i pióra. Innym typem lądowych skał fosforanowych są brekcje kostne (fosforyty kostne) [4], które deponowane są w środowiskach jaskiniowych. Stanowią typ skały organogenicznej, będącej mieszaniną ekskrementów i kości kręgowców, np. nietoperzy, sów.", "Skały manganowe", "Udział skał manganowych w środowiskach sedymentacyjnych nie jest wysoki. Ich większe nagromadzenia powiązane są ze środowiskami wietrzenia laterytowego lub ze środowiskami głębokomorskimi [6], [7], [9]. Skały te powszechnie tworzą formy konkrecyjne, które występują wśród skał ilastych i mułowych (Rys. 2). Mają one tekstury masywne lub ooidowe [8]. W ich skład wchodzą zwykle piroluzyt, psylomelan, manganit, rodochrozyt oraz związki żelaza (zob. Tlenki i wodorotlenki), [7]. Skały manganowe powstają jako efekt podmorskiego wietrzenia skał magmowych. W warunkach lądowych tworzą się manganowe skupienia szkieletowe, mające formy dendrytów."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Pozostałe skały osadowe", "subject_id": 1641, "subject": "Kaustobiolity", "paragraphs": ["Węgle, zawierają powyżej 50% wagowych pierwiastka węgla (zob. Cykl węglowy). Pochodzi on z różnych typów organizmów. Ze względu na źródło węgla wydziela się [1], [2], [3], [4]:", "Węgle humusowe obejmują skały szeregu węglowego, czyli sekwencję odmian węgli o wzrastającej ilości pierwiastka węgla [3], [5], [6], [2], do których należy:", "Torf jest pierwszym ogniwem szeregu węglowego, w którym ilość wagowa pierwiastka węgla wynosi około 60% (Rys. 1). Składa się on z amorficznej substancji humusowej oraz z nierozłożonych lub będących w fazie rozkładu szczątków roślinnych (zob. Powstawanie węgli humusowych), [3], [4], [7], [5]. [2]. Oprócz materii organicznej, występują w nim allogeniczne aleuryty, pelity lub/i psamity, autigeniczne minerały zawierające żelazo i inne domieszki. Torf jest mocno porowaty i słabo zwięzły. Barwa torfu zależy od stopnia jego uwęglenia. Torfy, które przeszły zaawansowaną humifikację mają barwy ciemnobrązowe lub czarne i zawierają sporo amorficznego humusu. Natomiast przy mniejszym stopniu humifikacji ich barwa jest jasno brązowa lub żółta, a standardowym ich składnikiem jest duża ilość nieprzekształconych lub słabo przekształconych elementów roślinnych. Torfy mają różne struktury i w zależności od typu występujących w nich składników wyróżnia się odmiany włókniste, ziemiste lub pylaste. Podziały torfów są prowadzone ze względu na ich kaloryczność, cechy teksturalne lub warunki powstawania. W oparciu o warunki środowiskowe, wydzielane są torfy torfowisk wysokich oraz niskich (zob. Obszary bagienne i sedymentacja torfowiskowa). Ich dalszy podział bazuje na dominującym typie flory skałotwórczej i wyodrębniane są odmiany, np. torfów mszarnych, wrzosowiskowych, turzycowiskowych [3], [4].", "Węgiel brunatny zawiera 65-78% wagowych węgla organicznego [3], [1], (Rys. 2). Jego cechy strukturalno-teksturalne zależą od stopnia uwęglenia i ze względu na to dzielony jest na:", "Węgiel kamienny zawiera 76-96% wagowych węgla (Rys. 3). Jest barwy czarnej, cechuje go zwięzłość, kruchość, matowy lub błyszczący połysk oraz występowanie laminacji równoległej. Wzrost uwęglenia wiąże się z zanikiem struktur laminarnych i uzyskaniem metalicznego połysku oraz przełamu muszlowego [3], [4]. Takie cechy mają odmiany wysoko kaloryczne, tj. antracyt zawierający ponad 94% wagowych węgla i szungit, w którym udział pierwiastka węgla przekracza 96% [1], [8], [6].", "Sapropele (szlamy gnilne) (zob. Akumulacja i osady limniczne) powstają z nagromadzeń flory wodnej oraz organizmów jednokomórkowych w obrębie zbiorników wodnych morskich lub jeziornych (Rys. 4), [8], [3], [4]. Świeże sapropele stanowią koloidalną masę, zbudowaną ze znajdujących się w stanie rozkładu szczątków organicznych. Są barwy ciemno brązowej lub czarnej, zwykle zawierają domieszkę drobnoziarnistego materiału detrytycznego oraz związków żelaza. Zwięzłymi formami sapropelu, które przeszły proces diagenezy są spropelity. Odmiany powstałe w eutroficznych zbiornikach słodkowodnych nazywane są gytiami (zob. Akumulacja i osady limniczne), [9]. Są to skały pelityczne, masywne lub równolegle laminowane o jasnobrązowej barwie.", "Kaustobiolity ciekłe", "Kaustobiolity ciekłe reprezentowane są głównie przez ropę naftową (Rys. 5). Składa się ona z mieszaniny węglowodorów ciekłych, stałych i gazowych. Występuje w niej 84%-86% wagowych pierwiastka węgla oraz 12%-14% pierwiastka wodoru. Ma barwę brązową lub brunatną, jest tłusta oraz wydziela charakterystyczny bitumiczny zapach [3], [4]. Ropa powstaje przez depozycję i przekształcenie szczątków organicznych w środowisku morskim. Wygenerowana ropa ulega przemieszczeniu i ze skały macierzystej przepływa do skały zbiornikowej. Gromadzi się w obrębie skał porowatych. W wyniku gwałtownego odgazowania ropy naftowej tworzy się kruchy i tłusty w dotyku brunatny ozokeryt, który jest mieszaniną stałych węglowodorów. Natomiast przez wietrzenie ropy naftowej, zachodzące w warunkach powierzchniowych Ziemi, powstaje mocno zgęstniała, półplastyczna substancja nazywana asfaltem [3], [4], [8], [8].", "Skały mieszane", "Podczas dostawy materiału klastycznego do zbiornika objętego sedymentacją biogeniczną powstają skały o niższej kaloryczności. Należą do nich łupki palne, będące utworami drobnoklastycznymi, ilastymi lub mułowcowymi, które zawiewają domieszki węgli oraz łupki bitumiczne, zawierające domieszki kaustobiolitów płynnych i stałych [4].", "Kaustobiolity gazowe", "Gaz ziemny składa się z metanu w ilości 70-98% oraz etanu, propanu, butanu, tlenku i ditlenku węgla, azotu, wodoru oraz mieszaniny różnych innych związków. Jest bezwonny i bezbarwny. Tworzy indywidualne nagromadzenia lub występuje wraz z ropą naftową i węglami humusowymi [3], [4]. Wypełnia puste przestrzenie w skorupie ziemskiej oraz przestrzenie porowe w skałach. Podziały gazu ziemnego bazują na jego składzie oraz na zawartości prostych węglowodorów. Wyróżniane są gazy suche, składające się w ponad 95% z metanu i etanu oraz mokre, w których udział węglowodorów cięższych, tj. propan i butan wynosi ponad 5%. Gazy zawierające ponad 85% metanu nazywane są gazami wysokometanowymi. Inne podziały uwzględniają ilości domieszek azotu lub siarki w gazie ziemnym.", "Kaustobiolty gazowe występują także w obrębie hydratów (klatratów) gazowych. Składają się one z wody, która tworzy strukturę krystaliczną zamykającą cząsteczki kaustobiolitów gazowych. Nazywane są śniegiem lub lodem gazowym, odpowiednio do zawartości - metanowym, etanowym, etylenowym itd... Są powszechną formą kauastobiolitów gazowych, która występuje w oceanach oraz na obszarach wiecznej zmarzliny."], "definitions": [{"name": " Definicja 1: Kaustobiolity ", "content": " Kaustobiolity są skałami palnymi, które zawierają węgiel pochodzenia\norganicznego. Ze względu na formę (stan skupienia) dzielone są na:\n\nstałe, do których należą węgle,\n\nciekłe, do których zaliczana jest ropa naftowa i jej pochodne,\n\ngazowe, do których należy gaz ziemny i jego pochodne.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1604, "subject": "Pochodzenie wody na Ziemi i jej rola w przyrodzie", "paragraphs": ["Olbrzymią rolę w tym procesie odegrało Słońce [1]. Jony wodorowe przemieszczane przez wiatr słoneczny łączą się z tlenem zawartym w pyle kosmicznym lub w asteroidach tworząc wodę. Dużą rolę odegrało też przejście Jowisza przez pas asteroid.", "Są też zwolennicy teorii geochemicznej mówiącej, że większość wody na Ziemi pochodzi z głębi Ziemi (płaszcza) i wydostaje się w trakcie wybuchów wulkanów [1].", "Woda – tlenek wodoru (\\(H_2O\\)) może występować w trzech stanach skupienia: stałym (lód), gazowym (para wodna) i ciekłym (woda). Woda jest najważniejszym składnikiem życia na Ziemi. Jest także niezmiernie istotnym czynnikiem kształtowania powierzchni Ziemi. W olbrzymim stopniu wpływa na przebieg i tempo takich procesów, jak: erozja, transport, sedymentacja.", "Najbardziej znane i widoczne formy występowania wody w przyrodzie to deszcze, wody płynące: strumienie, rzeki oraz wody stojące: jeziora, oceany i morza. Jednak niezwykle istotną rolę w bilansie wody w przyrodzie pełnią także wody podziemne i lodowce.", "Ponad 71% powierzchni Ziemi pokrywa woda, ale niemal 97% wód stanowi woda słona w oceanach i morzach [4], [5], a tylko około 3,5% znajduje się w lodowcach, rzekach, jeziorach, bagnach, zbiornikach podziemnych i w atmosferze (Rys. 1).", "Woda słona zawiera rozpuszczone sole, głównie chlorek sodu. Zawiera także w śladowych ilościach wiele innych związków chemicznych, w których reprezentowane są wszystkie pierwiastki (zob. Chemizm, temperatura i ruch wód oceanów i mórz oraz Procesy cyklu hydrologicznego)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1602, "subject": "Oceany i morza", "paragraphs": ["Morza to fragmenty oceanów, zwykle przylegające do lądu, oddzielone od otwartych wód oceanicznych łańcuchami wysp, półwyspami lub podniesieniami dna, utrudniającymi wymianę wód głębinowych, tzw. morza przybrzeżne. Ale są to także morza otoczone lądami, w których wymiana wód odbywa się tylko cieśninami (np. Morze Śródziemne).", "Z uwagi na dominujący udział wód oceanów i mórz w bilansie globalnym, mają one kluczowe znaczenie w cyklu wodnym (por. Procesy cyklu hydrologicznego).", "Podstawowymi źródłami zasilania oceanów i mórz są opady deszczu i śniegu oraz rzeki. Parująca z oceanów i mórz woda nasyca parą wodną atmosferę. Większa część wody wyparowującej z oceanów i mórz wraca do nich z powrotem w postaci opadów. Duża część opadów na lądach również trafia do oceanów i mórz rzekami (por. Procesy cyklu hydrologicznego).", "Woda w oceanach i morzach podlega permanentnej cyrkulacji w formie prądów oceanicznych. Przemieszczanie się wód ze stref ciepłych do zimnych i odwrotnie ma olbrzymie znaczenie dla klimatu na Ziemi.", "Oceany różnią się powierzchnią, głębokością i objętością wody (Tabela 1)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1600, "subject": "Krawędź kontynentalna", "paragraphs": ["Krawędź pasywna polega na przejściu szelfu w stok kontynentalny i dalej w wyniesienie (podniesienie) przedkontynentalne (Rys. 1).", "Takie krawędzie są charakterystyczne [1] dla wybrzeży atlantyckich obu Ameryk, Europy i oceanicznych wybrzeży Afryki, Australii i Antarktydy. W tych strefach pasywne wybrzeża kontynentów przemieszczane są [2] ze strefy akrecji w kierunku stref subdukcji. U podnóża krawędzi pasywnych występują baseny sedymentacyjne powstałe w wyniku subsydencji wywołanej przez nagromadzenie osadów pochodzących z lądu.", "Krawędź aktywna związana jest ze strefami subdukcji i rowami oceanicznymi i ma charakter tektoniczny (Rys. 1). Cienka skorupa oceaniczna subdukuje pod krawędź kontynentalną, w obrębie której rozwijają się trzęsienia Ziemi i intensywny wulkanizm. Szelf kontynentalny jest wąski. Krawędzie aktywne są charakterystyczne dla zachodnich wybrzeży obu Ameryk oraz wschodnich wybrzeży Azji."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1599, "subject": "Strefy głębokościowe i sedymentacyjne", "paragraphs": ["Według kryterium batymetrycznego możemy wyróżnić strefy [1], [2], (Rys. 1):", "Strefa litoralna przylega do lądu. Charakteryzuje się bardzo zmiennymi warunkami: naświetlenia, zasolenia, temperatury wód, nagromadzenia materii organicznej. Wyznacza ją obszar między linią średniego przypływu i odpływu morza.", "W literaturze wyróżnia się często strefę nerytyczną (sublitoralną), która obejmuje szelf kontynentalny do jego krawędzi, czyli średnio 200 m do 130 m [1], [2], [3].", "Strefa batialna obejmuje skłon (stok) kontynentalny do głębokości ok. 4000 m.", "Strefa abysalna zawiera się w głębokościach od 4000 m do 6000 m. Strefa ta obejmuje większość tzw. równi abysalnych, czyli głębokiego dna oceanicznego.", "Strefa hadalna obejmuje obszary dna oceanicznego poniżej 6000 m. Są to właściwie wyłącznie dna głębokich rowów oceanicznych.", "W zależności od wpływu lądu na przebieg sedymentacji morskiej oraz warunki życia fauny i flory, wyróżniamy strefy (Rys. 2), [4], [1], [3], [5]:", "Strefa litoralna to obszar między linią średniego przypływu i średniego odpływu. Obejmuje przejście środowiska lądowego w morskie. Powstają tu osady klastyczne związane z plażą, równiami pływowymi i strefą przybrzeża.", "Strefa nerytyczna (sublitoralna) czyli strefa od linii średniego odpływu po krawędź szelfu, obejmująca morza szelfowe. Powstają tutaj osady klastyczne pochodzące z lądu oraz organogeniczne powstające z obumarłych organizmów żyjących na szelfie. W tej strefie występują także rafy, czyli podmorskie budowle utworzone z organizmów kolonijnych.", "Strefa hemipelagiczna obejmuje skłon kontynentalny oraz głębokie rowy oceaniczne. Osadzają się tutaj różnego rodzaju muły: niebieskie, szare, czerwone, zielone i czarne, zabarwione materią organiczną, pirytem, tlenkami żelaza, glaukonitem i innymi. Dobrze rozpoznanymi osadami środowiska hemipelagicznego jest flisz związany z głębokomorskimi stożkami osadowymi.", "Strefa pelagiczna obejmuje dna głębokich oceanów. Docierają tutaj tylko niewielkie ilości materiału terygenicznego oraz osady biogeniczne i hydrogeniczne. Wraz z głębokością spada ilość węglanu wapnia (poziom kompensacji kalcytu, ang. CCD), a wzrasta ilość krzemionki i substancji ilastej. Powstają tutaj muły wapienne, krzemionkowe oraz muł czerwony i głębinowy."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1598, "subject": "Chemizm, temperatura i ruch wód oceanów i mórz", "paragraphs": ["Źródłami soli w oceanach i morzach są: skorupa ziemska i wnętrze Ziemi. W wodzie morskiej rozpuszczone są gazy pochodzące z powietrza, w efekcie procesów zachodzących w wodzie morskiej i z wulkanów podwodnych. Największy udział mają azot (\\(N_2\\)), tlen (\\(O_2\\)) i dwutlenek węgla (\\(CO_2\\)) [1], [2], [3], [4].", "Temperatura wód oceanów i mórz jest uzależniona głównie od ciepła pochodzącego od Słońca [5].", "Temperatura wód powierzchownych [6], [1] jest silnie zróżnicowana: najwyższa w obszarach tropikalnych (od \\(+20^{o}\\)C do \\(+30^{o}\\)C), w strefie umiarkowanej od \\(+2^{o}\\)C do \\(+15^{o}\\)C i spada do \\(-2^{o}\\)C w obszarach podbiegunowych (Rys. 2).", "Na rozkład temperatur w strefie przypowierzchniowej duży wpływ mają prądy morskie przemieszczające masy wód.", "Temperatura, zasolenie i ciśnienie decydują o gęstości wód oceanów i mórz. Gęstość wody rośnie wraz ze wzrostem zasolenia, a maleje, gdy temperatura spada. Dla gęstości wód przypowierzchniowych ciśnienie nie ma znaczenia, ale wraz z głębokością jego rola rośnie. Do głębokości około 100 m woda jest wymieszana i ma podobną gęstość. Na głębokościach od około 100 m do 1000 m gęstość rośnie.", "Ruch wody morskiej", "Geologiczna aktywność oceanów i mórz związana jest z faktem, że ich wody znajdują się w ustawicznym ruchu.", "Głównymi formami ruchu wody morskiej są [5], [1], [2], [4], [7], [8]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1596, "subject": "Falowanie", "paragraphs": ["Charakter falowania zmienia się w zależności od odległości od brzegu. Od otwartego morza w stronę brzegu występują kolejno (Rys. 1):", "Ruch wody morskiej wygasa na pewnej głębokości, zwanej podstawą falowania. Podstawa falowania występuje na różnej głębokości w zależności od typu morza i siły falowania (Rys. 1). Na Bałtyku osiąga maksymalnie około 30 m głębokości, w morzach otwartych i oceanach 100 m, a w niektórych przypadkach sięga nawet 300 m."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1595, "subject": "Prądy przybrzeżne", "paragraphs": [], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1594, "subject": "Pływy", "paragraphs": ["Różnice w sile przyciągania spowodowane są zmianami położenia Księżyca i Słońca względem Ziemi. Różnica tak w danym miejscu Ziemi nazywana jest siłą pływową. Najsilniejsze pływy występują wtedy, gdy składowe sił Księżyca i Słońca są zgodne w fazie i sumują się (pełnia oraz nów Księżyca) (Rys. 1), [4], (por. Energia słoneczna).", "Najsłabsze są wówczas, gdy wpływy Słońca i Księżyca nie sumują się (Księżyc, Ziemia i Słońce tworzą kąt prosty).", "Średni czas między przypływami i odpływami wynosi 12 godzin i 27 minut.", "Efektem pływów są oscylacyjne prądy pływowe. Amplituda pływów, czyli różnica między poziomem morza w czasie przypływu i odpływu jest zróżnicowana: od kilku cm na Bałtyku do kilkunastu metrów w zatoce Fundy w Kanadzie [5]. Znaczące prądy pływowe występują na wybrzeżach oceanicznych, szczególnie w zatokach i przesmykach. Znacznie słabsze pływy są na wybrzeżach Morza Śródziemnego, a praktycznie niezauważalne na Bałtyku. Tabele pływów pozwalają obliczać czas i wielkość pływów dla poszczególnych lokalizacji na Ziemi [6], [7], [8], (Rys. 2)."], "definitions": [{"name": " Definicja 1: Pływy ", "content": " Pływy są to okresowe zmiany poziomu morza wywołane przez grawitacyjne\nprzyciąganie Księżyca i Słońca."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1593, "subject": "Prądy oceaniczne i globalna cyrkulacja termohalinowa", "paragraphs": ["Prądy powierzchniowe gorące i zimne", "Stałe wiatry wiejące nad oceanami powodują ruch wierzchniej warstwy wody i wywołują powstanie wielkich prądów płynących prawie niezmiennymi trasami [3], [4], [5], [6], [7]. Można je porównać do potężnych rzek pozbawionych dna i brzegów. Siła Coriolisa powoduje odchylanie prądów powierzchniowych w prawo od kierunku wiatru na półkuli północnej oraz w lewo na półkuli południowej. Rozkład prądów oceanicznych powierzchniowych przedstawia (Rys. 1).", "Prądy oceaniczne przenoszą gigantyczne ilości wody, setki razy większe od największych rzek Ziemi oraz redystrybuują ciepło, co w wielkim stopniu wpływa na klimat. Generalnie, głębokie prądy oceaniczne przemieszczają zimne wody ze stref podbiegunowych w kierunku równika.", "Szczególnym typem prądów są prądy wstępujące (ang. upwelling). Prądy te powstają w specyficznych warunkach: wiatry wiejące od lądu w stronę otwartego morza lub wzdłuż wybrzeża powodują obniżenie powierzchni morza i wywołują prąd powierzchniowy w stronę otwartego morza. W efekcie zimne wody, bogate organicznie, podnoszą się z głębi oceanu w górę skłonu kontynentalnego (Rys. 2), [8], [6]. W przeszłości geologicznej prądy wstępujące umożliwiały bogate życie organiczne w obszarze ich występowania. Obumarłe organizmy gromadzące się na dnie, w sprzyjających warunkach geochemicznych prowadziły do powstania złóż węglowodorów.", "Tego typu prądy występują obecnie głównie na przybrzeżach (wybrzeżach) Pacyfiku Ameryki Północnej i Południowej oraz na zachodnich wybrzeżach Afryki.", "W niektórych rejonach świata powstają także tzw. prądy zstępujące. Są to prądy głębinowe, które płyną pionowo wzdłuż dna oceanicznego i przenoszą duże ilości ciepła i zasolenia.", "W głębokich warstwach oceanów cyrkulacja wywołana jest zmianami gęstości wody spowodowanymi zmianami temperatury i zasolenia, których źródłem są procesy zachodzące w strefach przypowierzchniowych (dostawa wody słodkiej z rzek i lodowców, parowanie, zamarzanie lodowców) (Rys. 3), [9], [6]. Są to tzw. prądy termohalinowe.", "Prędkość prądów termohalinowych jest niewielka i wynosi około 100 m/dobę. Cyrkulacja termohalinowa może wpływać na długoterminowe zmiany klimatyczne na Ziemi. Wchodzi także w interakcję z innymi prądami oceanicznymi."], "definitions": [{"name": " Definicja 1: Prądy oceaniczne ", "content": " Prądy oceaniczne to potężne i stałe ruchy wody morskiej wywołane\nstałymi wiatrami (np. pasaty) i różnicami temperatury i gęstości wody. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1590, "subject": "Erozja morska", "paragraphs": ["Mechanizm erozji mechanicznej i hydraulicznej, których znaczenie jest największe, przejawia się w różny sposób:", "Intensywność erozji morskiej zależy od:", "W zatokach fale są wyhamowywane i częściej osadzają materiał okruchowy. Proces ten jest wyraźnie zależny od selektywnego zróżnicowania odporności skał. Jeśli są to skały magmowe, to ważnym czynnikiem będzie ich spękanie, zarówno ciosowe, jak i tektoniczne. W skałach okruchowych decydującym czynnikiem będzie rodzaj spoiwa, a w skałach węglanowych rodzaj szkieletu ziarnowego.", "Erozja morska oddziaływuje także na dno, szczególnie powyżej podstawy falowania, gdzie przemieszczany jest materiał okruchowy w stronę brzegu. Również głębokomorskie przydenne prądy oceaniczne mogą przesuwać pewne ilości materiału.", "Znacznie większe znaczenie niszczące na skłonie kontynentalnym mają podmorskie ruchy masowe inicjowane głównie przez trzęsienia Ziemi [6], [7].", "Szczególnie intensywna erozja ma miejsce w kanionach podmorskich zasilających głębokomorskie stożki napływowe. Kaniony żłobione są przez prądy zawiesinowe powstające w górnej części skłonu kontynentalnego lub wyspowego. W obrębie olbrzymich nagromadzeń materiału okruchowego: żwirów, piasków, mułów, iłów, tworzących nasyp litoralny uruchamiane są osady przez wstrząsy sejsmiczne, bądź przekroczenie równowagi przeciążonego wodą nasypu litoralnego.", "Prądy zawiesinowe są odmianą pospolitych w przyrodzie prądów gęstościowych (np. lawiny śnieżne), w których przemieszczające się w dół skłonu, pod wpływem grawitacji, ziarna są utrzymywane w zawieszeniu przez skierowaną ku górze składową pionową turbulencji wody.", "Prądy zawiesinowe niszczą dno i brzegi kanionów rozcinających skłon, natomiast na równi basenowej deponują materiał okruchowy w formie głębokomorskich stożków napływowych (por. Sedymentacja głębokomorska)."], "definitions": [{"name": " Definicja 1: Erozja morska ", "content": " Erozja morska polega na niszczeniu brzegów morskich i dna i przejawia\nsię w działalności hydraulicznej, mechanicznej, chemicznej i biologicznej. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1589, "subject": "Formy erozji morskiej", "paragraphs": ["Fale atakujące stromy brzeg niszczą go, szczególnie mocno w dolnej części. W efekcie powstaje strome, często prawie pionowe urwisko nazywane klifem. Cofanie się brzegu przyspiesza silna erozja u podstawy klifu (Rys. 1, Rys. 2, Rys. 3) powodując drążenie niszy abrazyjnej ułatwiającej odrywanie skał z wyższej części brzegu.", "Od podnóża klifu powstaje prawie płaska powierzchnia, lekko nachylona w stronę otwartego morza (Rys. 4). Jest to tzw. platforma abrazyjna.", "W warunkach stabilnego poziomu morza (lub poziomu lądu), po pewnym czasie siła erozji maleje i powierzchnia platformy powiększa się bardzo powoli lub nie ulega zmianie, a klif staje się nieaktywny.", "Materiał okruchowy, powstający w wyniku niszczenia klifu, deponowany jest w morzu, tworząc platformę akumulacyjną (Rys. 5). Wskutek obniżenia poziomu morza lub wyniesienia lądu, platforma abrazyjna zostaje podniesiona powyżej aktualnie tworzonej platformy abrazyjnej; nazywamy ją terasą morską.", "Jeśli brzeg morski zbudowany jest ze skał o różnej odporności i/lub skomplikowanej tektonice, erozja w zróżnicowany sposób niszczy brzeg. Fragmenty odporniejsze dłużej opierają się erozji i tworzą wysunięte w stronę morza izolowane formy zwane stosami (ostańcami): iglice, wieże, baszty, a także łuki i jaskinie (Rys. 6, Rys. 7),", "Erozję morską wywołują także prądy pływowe. Jej intensywność jest zmienna, uzależniona od wielkości pływów, które najsilniej oddziaływają w zatokach i cieśninach wybrzeży oceanicznych (do kilkunastu metrów), a najsłabiej w morzach zamkniętych (np. na Bałtyku – 2 cm). Pływy mają charakter cykliczny – równia pływowa jest zalewana i odsłaniana (zob. Pływy). Zatem i przypływy i odpływy przemieszczają materiał okruchowy powodując naprzemiennie erozję i depozycję. Erozja najsilniej widoczna jest w korytach kanałów pływowych [7]. Generalnie, prądy pływowe mają niezbyt duże znaczenie dla erozji morskiej."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1588, "subject": "Transport materiału okruchowego w morzach i oceanach", "paragraphs": ["Globalnie, pewne ilości materiału okruchowego dostają się do morza w trakcie erupcji wulkanicznych, są nawiewane przez wiatr, ale także pochodzą z lodowców schodzących do morza.", "Transport tego materiału okruchowego (ziarnowego) może odbywać się poprzez wiele (wcześniej omówionych) zjawisk, takich jak: falowanie, pływy, prądy przybrzeżne, prądy oceaniczne, prądy zawiesinowe czy osuwiska podmorskie [1], [2], [3], [4], [5], (por. Falowanie, Prądy przybrzeżne, Prądy oceaniczne i globalna cyrkulacja termohalinowa).", "Falowanie powoduje przesuwanie materiału okruchowego w stronę brzegu, nadbudowując plaże i usypując u podnóża klifu wał burzowy (Berg) w warunkach wysokiej energii fal.", "Prądy powrotne wynoszą część materiału okruchowego z plaży do morza, szczególnie w warunkach sztormowych.", "Materiał okruchowy w strefie przybrzeża przemieszczany jest przez prąd litoralny wzdłużbrzegowy, tworząc różne formy osadowe (por. Strefa przybrzeża).", "Prądy oceaniczne przenoszą duże ilości najdrobniejszego materiału ziarnowego, detrytycznego i organodetrytycznego.", "Potężne ilości materiału znoszone są transportem grawitacyjnym z nasypu litoralnego (usypywanego na krawędzi szelfu) przez osuwiska podmorskie, często przekształcające się w prądy zawiesinowe usypujące głębokomorskie stożki napływowe (por. Sedymentacja głębokomorska), u podnóża skłonu, na równi basenowej."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1587, "subject": "Sedymentacja morska i typy osadów", "paragraphs": ["Osady solne (sole kamienne, potasowo-magnezowe) tworzyły się w warunkach klimatu subtropikalnego i tropikalnego, w lagunach, w końcowej fazie funkcjonowania - często całkowicie odciętych od morza - panwiach, sprzyjających parowaniu wody i krystalizacji minerałów soli (Rys. 2A). Współcześnie, takie warunki panują np. w Morzu Martwym i wielu solnych jeziorach."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1586, "subject": "Sedymentacja płytkomorska", "paragraphs": ["Typowymi osadami w strefie litoralnej są: wały burzowe, osady plażowe, osady rew, osady równi pływowych [1], [2], [3], [4], [5].", "Wyróżnia się często plażę suchą lub mokrą. Mokra - bliżej morza - jest regularnie, poza rzadkimi okresami ciszy i braku falowania, zalewana przez morze, a suchą morze zalewa tylko w czasie sztormów. Plaża jest nachylona w stronę morza, pod kątem od kilku stopni dla plaż piaszczystych, nawet do \\(20^{o}\\) stopni dla plaż żwirowych. Piaski plażowe wykazują najczęściej laminację równoległą. Na plaży piaszczystej, silne wiatry wiejące wzdłuż wybrzeża, tworzą różnego rodzaju mikroformy eoliczne: riplemarki, zaczątkowe formy wydm (Rys. 1). Formy te niszczone są przez fale sztormowe morza albo (przy silnych wiatrach wiejących wzdłuż wybrzeża) przekształcane w mikroformy zasp piaskowych i wydm barchanowych, parabolicznych i poprzecznych (por. Akumulacja eoliczna). Przy sprzyjającym wietrze wiejącym od morza, piasek z tych form przenoszony jest na wał wydmowy i dalej na ląd.", "Bezpośrednio na plaży, u podnóża brzegu, powstaje w warunkach sztormowych wał burzowy (Rys. 2), zbudowany głównie ze skał frakcji psefitowej (głazy, żwiry) i psamitowej. Ma on zróżnicowaną wysokość (od kilkudziesięciu centymetrów nawet do kilku metrów), a jego powierzchnia jest lekko nachylona w stronę otwartego morza.", "Woda zmywu powrotnego, spływając z plaży, żłobi różnego rodzaju bruzdki, rynienki ściekowe zwane rillmarkami, natomiast wokół większych otoczaków wymywane są rowki nazywane śladami opływania (Rys. 3). W płytkiej wodzie, w efekcie falowania, powstają riplemarki (Rys. 3), ale są to struktury nietrwałe i zachowują się w stanie kopalnym tylko w szczególnych warunkach (np. regresji morza).", "Czasami, kiedy fale nabiegające na plażę rozbijane są na wiele „języków”, powstają charakterystyczne, łukowate stożki (żwirowo-piaszczyste i/lub piaszczyste) otwarte w stronę morza – tzw. sierpy plażowe (Rys. 4), [6], [7]."], "definitions": [{"name": " Definicja 1: Plaża ", "content": " Plażą nazywamy brzeg oceanu lub morza zbudowany z piasku lub żwiru.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1585, "subject": "Strefa przybrzeża", "paragraphs": ["W strefie przybrzeża profil dna jest zróżnicowany. Generalnie wyróżniamy dwa typy przybrzeża: rewowe i bezrewowe [1], [4].", "Na przybrzeżu rewowym występują najczęściej 2 lub 3 piaszczyste wały podwodne, równoległe do brzegu, zwane rewami. Ich wysokość dochodzi do 2-3 m, a długość wynosi zazwyczaj kilkaset metrów; czasami jednak dochodzi nawet do kilku kilometrów. Rewy charakterystyczne są dla wybrzeży o umiarkowanym falowaniu i małej skali pływów (Rys. 2), [2], [3], [5]. W warunkach długotrwale wiejącego od morza wiatru rewa może zostać przesunięta w stronę brzegu, a czasami połączona z brzegiem rozbudowując plażę.", "Między barierą a brzegiem często tworzy się laguna. Brzeg bariery od strony morza ma charakter plaży, a na jej zapleczu rozwija się pas wydm tworzonych z najdrobniejszego piasku wywiewanego z plaży.", "Na wybrzeżach pływowych, w przerwach między barierami powstają przesmyki pływowe (Rys. 3). Z obu stron przesmyku powstają nasypy piaszczyste nazywane deltami pływowymi tworzone przez prądy pływowe [1], [6], [7].", "Laguny są płytkie, a powstające w nich osady zależą od warunków klimatycznych i zasolenia. Generalnie w lagunach przeważa drobnoziarnista sedymentacja klastyczna (ił, muł).", "W klimacie suchym tropikalnym i subtropikalnym powstają w lagunach ewaporaty: sole, gipsy i wapienie. W klimacie wilgotnym w lagunach zwiększa się ilość materii organicznej."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1584, "subject": "Równie pływowe i estuaria", "paragraphs": ["Równie pływowe występują w miejscach o dużej skali pływów i częściowo izolowanych od otwartego morza: zatokach, lagunach, estuariach i deltach. Płaska powierzchnia równi pływowej rozcięta jest siecią krętych kanałów, które w głębszych partiach (strefa niżej pływowa) są cały czas zalane przez wodę. Kraniec strefy wyżej pływowej równi często zajmują słone bagna (Rys. 1).", "Materiał okruchowy dostarczają prądy pływowe od strony otwartego morza, zatem energia prądów i wielkości ziarna zmniejszają się w wyższej części równi pływowej. Osadzony tam materiał z reguły nie jest erodowany przez słabe w pierwszej fazie prądy odpływu. Wielkość ziarna jest także większa w kanałach niż na powierzchniach międzykanałowych ponieważ energia wody w kanałach jest większa (Rys. 1).", "Ze względu na cykliczne zmiany kierunku prądów pływowych, osady wykazują na zmianę grubsze i drobniejsze ziarna oraz warstwowania soczewkowe, faliste i przekątne o przemiennie przeciwnych kierunkach nachylenia [1], [2], [3].", "Estuaria są to rozszerzające się ujścia rzek, w których wyraźnie zaznacza się oddziaływanie pływów [1], [4], [5]. Nie występują zatem w morzach zamkniętych (np. Bałtyk) o niewielkiej skali pływów.", "Najpełniej rozwijają się przy ujściach starych dolin rzecznych zatopionych w efekcie podniesienia się poziomu morza lub w ujściach koryt rozprowadzających na deltach kształtowanych głównie przez pływy (Rys. 2). Mieszanie się wód słonych i słodkich zmniejsza zasolenie wód w estuariach w kierunku lądu, co ma silny wpływ na skład flory i fauny [1].", "Cechą charakterystyczną sedymentacji w estuariach jest dostawa materiału klastycznego z dwóch przeciwstawnych stron: od strony morza i przez rzeki. W estuariach usypywane są długie (nawet do kilku kilometrów), szerokie (do kilkuset metrów) i wysokie do kilkunastu metrów piaszczyste grzbiety pokryte falami piaskowymi i ripplemarkami. Transport materiału wskazuje na dwa przeciwne kierunki, [1]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1581, "subject": "Rafy", "paragraphs": ["Rafy rozwijają się w środowisku płytkowodnym na obrzeżach platform węglanowych. Są to rafy koralowo-glonowe, budowle podmorskie utworzone przez osiadłe organizmy kolonijne: korale, glony, stułbiopławy. Struktura raf jest sztywna, ale porowata, z dużą ilością pokruszonych szkieletów organizmów [1], [2], [3], [4], [5]. Najpełniej rozwinięte rafy to: Wielka Rafa Barierowa Australii, rafy Florydy i Bahamów.", "W budowie klasycznej rafy wyróżniamy, [1], (Rys. 1):", "Obszar przedrafowy gromadzi materiał okruchowy pochodzący z erozji rafy.", "W obszarze grzbietu rafowego występuje bogaty świat organiczny, zwłaszcza korale i glony.", "Obszar zarafowy (laguny i płycizny) zasiedlają korale i glony tworząc formy gniazdowe, wokół których gromadzi się materiał węglanowy pochodzący z niszczenia organizmów.", "W morfologii rafy wyróżniamy następujące elementy (Rys. 1), [1]: równię rafową, czoło rafy i skłon rafy, różniące się zespołem organizmów i dynamiką morza.", "Równia rafowa (Rys. 1) to najwyższa część rafy. Strefa zewnętrzna zasiedlona jest przez glony tworzące tzw. wał glonowy, natomiast część wewnętrzna zasiedlona jest przez korale.", "Czoło rafy jest to krawędź rafy opadająca w głąb morza, narażona na działanie fal i zasiedlona przez koralowce preferujące środowisko dynamiczne.", "Skłon rafy opada pod kątem około \\(30^{o}\\) w głąb oceanu. Stromość nachylenia złagodzona jest terasami, na których gromadzi się materiał okruchowy.", "Poza koralami, w obrębie rafy występują małże, szkarłupnie, ślimaki, skorupiaki i otwornice (Rys. 2), [6]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1845, "subject": "Sedymentacja silikoklastyczna i węglanowa", "paragraphs": ["W obszarach klimatu tropikalnego i subtropikalnego występuje obfita produktywność bentosu wapiennego i proces ten jest intensywniejszy w warunkach powolnej subsydencji dna. Obecnie takie warunki panują na szelfowych platformach węglanowych połączonych z kontynentem i izolowanych (Zatoka Perska, Bahamy).", "Generalnie, w morzach szelfowych zaznacza się następstwo facji od brzegu do krawędzi szelfu: osady klastyczne (od żwiru do piasku) (Rys. 1), osady drobnoklastyczne (muły, iły) i osady węglanowe [1], [2], [3], [4].", "Subsydencja dna morza szelfowego prowadzi do powstania bardzo grubych (setki metrów) formacji skał okruchowych i węglanowych.", "Skały, czyli osady kopalne, środowisk płytkomorskich wykazują duże zróżnicowanie, chociaż nie zawsze jest je łatwo odróżnić od osadów innych środowisk sedymentacyjnych (zob. Struktury sedymentacyjne i kolejne rozdziały w części \"Struktury skał osadowych\" e-podręcznika). Pewne cechy skał wskazują na środowisko płytkomorskie [5], [1], [4]:", "Skały okruchowe i węglanowe dominują wśród skał powstałych w morzach płytkich (szelfowych) ( Rys. 2). Skały okruchowe charakteryzują się bardzo zróżnicowanymi strukturami i teksturami odzwierciedlającymi odmienne środowiska sedymentacji: przybrzeże, równie pływowe, estuaria, laguny (zob. Skały okruchowe, Wapienie).", "Skały środowiska pływowego charakteryzuje warstwowanie przekątne o przeciwnych kierunkach przypływu i odpływu [5]. Często występują także powierzchnie erozyjne ze skupiskami muszli oraz struktury bioturbacyjne.", "W środowiskach płytkomorskich mamy niekiedy dominację skał węglanowych [2], [6]. Związane to jest z obfitością bentosu i słabego dostarczania materiału klastycznego w rejonach subtropikalnych i tropikalnych. Obecnie, tego typu sedymentacja zachodzi na platformach szelfowych związanych z kontynentem (Floryda, Zatoka Perska) lub na platformach izolowanych (Bahamy).", "Skały środowisk płytkomorskich wykazują duże zróżnicowanie, głównie ze względu na rodzaj materiału budującego skały. W polskich Karpatach łupki krzemionkowe warstw menilitowych powstały w warunkach płytkomorskich ( Rys. 3), [7]. Rozpoznano struktury wskazujące na środowisko równi pływowej (fluwialno-pływowej) z akcentem salinarnym."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1578, "subject": "Sedymentacja głębokomorska", "paragraphs": ["Strefa hemipelagiczna zawiera skłon kontynentalny, podniesienie przedkontynentalne i dna basenów oceanicznych. W składzie osadów nadal dominuje materiał okruchowy pochodzący z lądu [1].", "Skłon kontynentalny jest to wąska strefa ciągnąca się od krawędzi szelfu do głębokości kilku tysięcy metrów. Nachylenie skłonu wynosi kilka stopni, a jego powierzchnia pocięta jest podmorskimi kanionami, którymi znoszone są olbrzymie ilości materiału okruchowego przez prądy zawiesinowe na dno basenu [1], [2], [3], [4].", "Skłon kontynentalny pokrywa gruby (nawet do 2 km) kompleks różnego rodzaju mułów. Muły różnią się barwami: szare, zielone, czerwone, czarne – zabarwione glaukonitem, pirytem, tlenkami żelaza i materią organiczną. Stosunkowo łatwo powstają w nich osuwiska podmorskie przeradzające się w prądy zawiesinowe. Fragmenty lepiej skonsolidowane często przemieszczają się w całości, tworząc tzw. bloki ześlizgowe [5], [6].", "Podniesienie przedkontynentalne to obszar między skłonem kontynentalnym, a równiami abysalnymi nachylony pod niewielkim kątem do równi abysalnych. Podniesienie przedkontynentalne związane jest z pasywnymi krawędziami kontynentów (zob. Krawędź kontynentalna).", "Gromadzą się tutaj osady osuwisk podmorskich, prądów grawitacyjnych i prądów konturowych, [1]. Są to przede wszystkim muły i drobnoziarniste piaski. Tworzą gruby kompleks (nawet kilka km) w formie klina cieniejącego ku równi basenowej.", "Podniesienie przedkontynentalne pocięte jest rzadkimi, niezbyt głębokimi, ale dość szerokimi dolinami. Przemieszczają się nimi rozcieńczone prądy zawiesinowe usypujące na ich krańcu płaskie stożki napływowe. Jeśli przelewają się przez koronę doliny, wówczas nadbudowują powierzchnię podniesienia. W części podniesienia, sąsiadującej ze skłonem, występują osady osuwisk podmorskich często pokrywając duże powierzchnie.", "Głębokomorskie stożki napływowe tworzą się w głębokich basenach rozwiniętych u podnóża aktywnych krawędzi kontynentów w niezbyt szerokich (z reguły kilkadziesiąt km) basenach, usytuowanych poprzecznie do kanionów podmorskich i rozdzielonych grzbietami podmorskimi (zob. Struktury erozyjne). Niekiedy grzbiety przekształcają się w wyspy i są źródłem materiału okruchowego (strefa subdukcji). Usypywane są u wylotów kanionów podmorskich przez prądy zawiesinowe (ang. turbidites currents) z materiału okruchowego pochodzącego z lądu i gromadzonego na nasypie litoralnym. Czynnikami powodującymi zaburzenie stanu równowagi w osadzie mogą być trzęsienia Ziemi lub ekstremalne obniżenie podstawy falowania. Uruchomiony materiał okruchowy spływa w dół stoku pod wpływem siły ciężkości (Rys. 1) [1], [7], [8], [9], [10], [11]. Ziarna są długo podtrzymywane w zawieszeniu przez turbulencję. U ujścia kanionu powstaje szeroki kanał centralny, często rozwidlający się w mniejsze kanały rozprowadzające.", "U ujścia tych kanałów usypywane są tzw. loby depozycyjne (Rys. 2), które nakładając się na siebie tworzą stożek napływowy.", "W budowie stożka można wyróżnić sekwencje osadowe charakterystyczne dla: kanału centralnego, kanałów rozprowadzających, lobów depozycyjnych, osadów przelewających się z kanałów rozprowadzających oraz obrzeżenia stożka (Rys. 3, Rys. 4), [12], [13], [6], [7], [14], [15], [16], [17].", "Sekwencje kanałowe charakteryzuje spadek miąższości ławic i wielkości ziarna ku stropowi sekwencji. W kanałach stożka wewnętrznego sekwencje są grube (nawet do kilkudziesięciu metrów), z wysokim udziałem psefitów i psamitów (zlepieńce, zlepieńce piaszczyste, piaskowce zlepieńcowate i piaskowce) (zob. Skały okruchowe).", "W kanałach stożka środkowego sekwencje są cieńsze, zwykle kilka metrów, a skały wykazują drobniejsze uziarnienie (Rys. 3).", "Sekwencje lobowe charakteryzuje (odwrotnie niż w sekwencjach kanałowych) wzrost miąższości ławic psamitów (głównie piaskowców, rzadko piaskowców zlepieńcowatych) ku stropowi sekwencji. Spada również udział przeławicających psamity łupków mułowcowych i/lub ilastych.", "Grubość sekwencji lobowych, miąższość ławic psamitów i ich udział w profilu spada w kierunku peryferii stożka zewnętrznego.", "Potężne stożki napływowe usypywane są u ujścia wielkich rzek (Missisipi, Amazonka, Kongo, Ganges). Mogą mieć setki, a nawet tysiące kilometrów długości i grubość liczącą nawet 10 km. Nie mają dobrze wykształconych typowych cech stożków ze stref subdukcji (kanały, loby) ponieważ prądy zawiesinowe rozpływają się na olbrzymim obszarze. Zbudowane są głównie z bardzo drobnoziarnistego piasku i mułu z podrzędną ilością grubszego materiału [18].", "W środowisku głębokomorskim ważnym typem osadu są muły.", "Powstają one w koincydencji różnych procesów depozycyjnych: swobodne opadanie zawiesiny zawartej w wodzie morskiej, a dostarczonej przez wulkany, wiatr, rzeki, prądy przybrzeżne przenoszące materiał okruchowy poza krawędź szelfu oraz najdrobniejszy materiał okruchowy z zamierających prądów grawitacyjnych i osuwisk podmorskich [1].", "Skały, czyli osady kopalne, powstałe w środowisku hemipelagicznym reprezentują przede wszystkim grupę skał okruchowych wykazujących pewne specyficzne cechy pozwalające rozpoznać środowisko sedymentacji [1], [8], [12], [13].", "Najłatwiej rozpoznawalne są skały powstałe w obrębie głębokomorskich stożków napływowych (powszechnie nazywane fliszem), szczególnie produktów prądów zawiesinowych, tzw. turbidytów. Cechuje je zmiana uziarnienia w profilu ławic – od najgrubszego w spągu do najdrobniejszego w stropie oraz następstwo struktur depozycyjnych: uziarnienie frakcjonalne przechodzi w laminację równoległą i w warstwowanie przekątne (Rys. 5). Pełną sekwencję kończy mułowiec i/lub łupek ilasty. Często występuje niepełny zestaw struktur. Powierzchnie spągowe pokryte są hieroglifami prądowymi i organicznymi (Rys. 6), [19].", "Niektóre z tych struktur: odlewy jamek wirowych i warstwowanie przekątne, mogą być wskaźnikami kierunku transportu materiału okruchowego [1], [8], jeśli kompleks skalny nie uległ rotacji poziomej.", "Duży problem stwarza rozróżnienie genezy, zwłaszcza makroskopowe, członu mułowcowego i ilastego z prądu zawiesinowego, czy z opadu zawiesiny w toni wody. Często czynnikiem wyróżniającym muły hemipelagiczne jest barwa: czerwona, zielona, niebieska i żółta oraz mikrofauna planktoniczna.", "Typowymi skałami strefy hemipelagicznej związanymi ze stożkami napływowymi są: zlepieńce, piaskowce, łupki mułowcowe i łupki ilaste. Rozległe obszary poza sedymentacją fliszową budują mułowce o różnych barwach związanych z zawartością związków żelaza, substancji organicznej i glaukonitu (Rys. 7, Rys. 8).", "Skały powstające w środowisku hemipelagicznym wykazują duże zróżnicowanie związane ze zmiennymi warunkami głębokościowymi i sedymentacyjnymi w tej strefie. Różnią się barwami osadów (zawartość związków żelaza) i strukturami wewnętrznymi (Rys. 8)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność oceanów i mórz", "subject_id": 1575, "subject": "Strefa pelagiczna", "paragraphs": ["Osady strefy pelagicznej obejmują rozległe obszary den oceanów.", "Osady te składają się z kilku składników [1], [2], [3], [4], (Rys. 1):", "Generalnie wyróżniamy dwa typy osadów:", "Wapienne i krzemionkowe osady organogeniczne powiązane są ze szczątkami organicznymi planktonu występującego na powierzchni oceanów. Istotnym czynnikiem wpływającym na powstawanie tych osadów jest poziom kompensacji kalcytu.", "Najważniejszym osadem nieorganicznym tego środowiska są brunatne iły głębinowe, z którymi związane są konkrecje i naskorupienia manganowo-żelaziste.", "Naskorupienia i konkrecje manganowo-żelaziste pokrywają duże powierzchnie dna oceanicznego [1], [6].", "Poziom kompensacji kalcytu (ang. CCD) jest to głębokość, na której ilość dostarczonych do osadu substancji węglanowych jest równoważona przez stopień rozpuszczania kalcytu [1], [7].", "Głębokość kompensacji kalcytu zależy od wielu czynników:", "Czas przemieszczenia węglanu wapnia na dno jest o wiele krótszy od czasu przebywania na dnie. Zatem proces rozpuszczania zachodzi głównie na granicy osadu z wodą.", "Czynnikiem przyspieszającym rozpuszczanie jest zawartość \\(CO_2\\) i obniżenie temperatury wody. Duże znaczenie ma także tempo sedymentacji, ponieważ szybko narastające osady przechodzą poniżej strefy rozpuszczania. Głębokość poziomu kompensacji kalcytu jest zmienna, a średnia przekracza 4 km w oceanach.", "Generalnie, powyżej poziomu kompensacji kalcytu w osadach przeważają muły węglanowe: kokolitowe, otwornicowe, pteropodowe, zaś poniżej występują muły radiolariowe i okrzemkowe.", "Osady nieorganiczne reprezentowane są przez brunatny ił głębinowy oraz muły powstające przez opadanie ziaren z powierzchni oceanu.", "Skały reprezentujące kopalne osady pelagiczne rozpoznajemy w formacjach głębokomorskich.", "W środowisku pelagicznym brunatne iły głębinowe mogły przekształcić się w iłowce lub łupki ilaste o różnym zabarwieniu: czerwonym, żółtym i brunatnym.", "Natomiast kopalne muły radiolariowe utworzyły radiolaryty, a muły okrzemkowe diatomity; z kolei muły kokolitowe - kredę (Rys. 2).", "W środowisku pelagicznym, obok organizmów charakterystycznych dla tego środowiska, pojawiają się także składniki , których źródłem są np. erupcje wulkaniczne. Powstaje wówczas specyficzny \"przekładaniec\" warstw skał krzemionkowych i tufów wulkanicznych. Na równi basenowej głębokich mórz mogą występować nagromadzenia różnych surowców mineralnych i złóż rud [6]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1809, "subject": "Ablacja deszczowa", "paragraphs": ["Skala tej erozji, w porównaniu do erozji rzecznej, nie jest zbyt duża i ma charakter incydentalny związany z intensywnymi opadami.", "Wody opadowe mają także pewną zdolność erozyjną w skałach wapiennych, prowadząc do pobrużdżenia ich powierzchni. Taka powierzchnia nazywana jest lapiezem [1], [2], [3].", "Specyficznymi strukturami powstającymi w efekcie ablacji są piramidy ziemne. Piramidy ziemne to charakterystyczny twór, będący efektem ablacji deszczowej. W miękkich skałach, zawierających twarde fragmenty, ablacja deszczowa powoduje szybką erozję miękkich skał i słabszą tam, gdzie nad nimi znajdują się skały bardziej odporne. Tworzą one specyficzny \"parasol ochronny\" powodujący, że leżące nad i pod nimi skały słabiej odporne są szybciej niszczone. Efektem tego działania jest powstanie specyficznych form skalnych: ostro stożkowe piramidy zwieńczone \"czapką\" twardszych skał (Rys. 2)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1810, "subject": "Rzeki i ich rodzaje", "paragraphs": ["W zależności od ilości przenoszonej wody, długości i szerokości koryta wyróżniamy: strugi, strumyki, potoki, rzeki małe, średnio duże i wielkie [1], [2]. Rzeki zasilane są przez wody deszczowe, roztopowe - pochodzące z topnienia śniegu i lodowców, a także (w pewnym stopniu) przez wody podziemne (por. Procesy cyklu hydrologicznego).", "Rzeki dzielimy także ze względu na czas płynięcia wody, na rzeki stałe, kiedy korytem cały czas płynie woda i rzeki okresowe, kiedy woda płynie korytem tylko w okresach deszczowych. Rzeki mają źródła punktowe (wypływają z lodowców, jezior, bagien, mokradeł) i obszary źródłowiskowe, kiedy początek stanowi kilka małych strumyków z większego obszaru.", "Formą morfologiczną rzeki jest jej koryto. W obrębie koryta wyróżniamy dno i brzegi.", "Masa (m) i prędkość wody (V) wytwarzają energię kinetyczną (\\(E_k\\)):", "Masa wody w rzece zmienia się w czasie i z biegiem rzeki. W czasie opadów i roztopów rośnie, natomiast w czasie suszy maleje. Z biegiem rzeki rośnie ponieważ rzeka przyjmuje wodę z dopływów.", "Prędkość płynięcia zależy od masy wody, spadku koryta, a także przebiegu (prostolinijny czy kręty) i budowy koryta. Skały twarde i wygładzone podwyższają prędkość płynięcia rzeki.", "Jeśli masa wody wzrośnie dwukrotnie, to energia również wzrośnie dwukrotnie; natomiast, jeśli prędkość wzrośnie dwukrotnie, to energia rośnie czterokrotnie. Przy trzykrotnym wzroście prędkości energia kinetyczna wzrośnie aż dziewięciokrotnie!", "Ruch wody w rzece może być laminarny lub burzliwy [3], [2], [4]. W ruchu laminarnym warstewki wody przesuwają się równolegle do siebie. W rzekach jest to bardzo rzadki rodzaj ruchu. Dominuje ruch burzliwy (turbulentny), w którym cząstki wody poruszają się w różnych kierunkach, wykazują ruchy postępowe i wsteczne oraz wirowe, śrubowe, obrotowe itp.", "Ze względu na krętość koryta oraz ilość koryt wyróżniamy następujące rodzaje rzek (Rys. 1), [4], [5], [6], [7], [1]:", "Geologiczna działalność rzek polega na:"], "definitions": [{"name": " Definicja 1: Rzeka ", "content": " Rzeką nazywamy masę wody płynącą w naturalnym korycie pod wpływem siły\nciężkości. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1812, "subject": "Transport materiału w rzece", "paragraphs": ["Działalność transportowa rzek polega na przenoszeniu rozdrobnionego materiału, pochodzącego głównie z niszczenia dna i brzegów rzeki oraz znoszonego przez deszcze i wody roztopowe. Ten materiał znoszony jest do mórz, oceanów, jezior i większych rzek. Może także zostać osadzony w korycie rzeki, jeśli siła transportowa spada i nie pozwala na transport całego materiału. Efektem transportu materiału okruchowego jest jego kruszenie i sortowanie.", "Transport materiału w rzece opisuje kilka parametrów: obciążenie, nośność i wydolność. Obciążeniem nazywamy masę materiału przenoszoną przez cały przekrój rzeki w jednostce czasu (\\(\\frac {m^3}{s}\\)). Nośność jest to masa materiału przenoszona przez rzekę przy najwyższych stanach wody. Wydolność oznacza maksymalną wielkość materiału skalnego przenoszonego przez rzekę.", "Ze względu na rodzaj materiału transportowanego przez rzekę wyróżniamy (Rys. 1), [1], [2], [3], [4]:", "Ze względu na rodzaj transportu wyróżniamy:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1814, "subject": "Erozja rzeczna i jej rodzaje", "paragraphs": ["Prędkość i masa wody wytwarzają energię (por. Rzeki i ich rodzaje), która ma największy wpływ na erozję hydrauliczną, ale pozwala także przesuwać duże ilości grubego materiału okruchowego, który ma duże znaczenie dla erozji dna rzeki. Twarde, skaliste dno trudniej ulega erozji, a dno zbudowane ze starszych osadów rzeki jest łatwo rozmywane i usuwane.", "Erozja rzeczna to najważniejszy czynnik niszczący na kontynentach. Tylko lodowce w okresach glacjalnych i na obszarach, w których występują mogą być porównywalne co do siły niszczącej (por. Erozja lodowcowa).", "Do najważniejszych mechanizmów erozji należą:", "Abrazja polega na ścieraniu skał dna wskutek przesuwania się materiału okruchowego (szlifowanie, wygładzanie, wyrywanie fragmentów skał z dna).", "Eworsją nazywamy przegłębianie odcinków dna koryta rzeki spowodowane ruchem wirowym wody obciążonej grubym materiałem okruchowym. Powstają wówczas misy, rynny lub kotły (Rys. 1).", "Kawitacja jest to proces wyzwalania energii wskutek zanikania pęcherzyków próżniowych w efekcie nagłego spadku prędkości rzeki, np. w pobliżu wodospadów. Jej znaczenie jest słabo rozpoznane.", "Rozmywanie hydrauliczne starszych osadów rzecznych.", "Podcinanie brzegów (por. Erozja morska).", "Najczęściej wyróżnia się trzy rodzaje erozji [2], [3], [5]:", "Erozja denna polega na żłobieniu dna rzeki zbudowanego ze skał podłoża lub rozcinaniu i usuwaniu wcześniej złożonych aluwiów (osady rzeczne). Czynnikami erozji dennej są: abrazja, eworsja i kawitacja.", "Erozja boczna ma duże znaczenie wówczas, kiedy rzeka – osiągając krzywą równowagi – przestaje pogłębiać dno rzeki i eroduje brzegi (Rys. 2). W brzegach zbudowanych z twardych skał erozja ma charakter żłobienia mechanicznego, a w brzegach zbudowanych ze starszych aluwiów – rozmywania hydraulicznego. Szczególnie silna erozja występuje w rzekach o krętym przebiegu (Rys. 2, Rys. 3).", "Erozja wsteczna polega na cofaniu się wodospadów, progów i załomów skalnych, co prowadzi do wydłużania doliny w górę rzeki (Rys. 4, Rys. 5).", "Tempo erozji wstecznej jest różne, w zależności od energii rzeki i rodzaju skał budujących próg wodospadu. Wodospad Niagara cofa się około 0,8 m na rok. Wyliczenia pokazują, że za około 25 tys. lat całkiem zaniknie.", "W konsekwencji, działanie erozji wstecznej może prowadzić do przejęcia odcinka innej rzeki, czyli tzw. kaptażu (Rys. 6), [6].", "Jeśli dwie rzeki rozcinają wododział z dwóch różnych stron, ale jedna z nich szybciej i mocniej eroduje wstecznie podłoże, to wówczas może dojść do przejęcia dopływów słabiej erodującej rzeki, a nawet głównej rzeki. Kaptaż rzeczny może się zdarzyć także wtedy, kiedy w poprzek biegu jednej z rzek dojdzie do stopniowego wyniesienia fragmentu obszaru.", "Innym efektem erozji wstecznej jest cofanie się obszaru źródłowego rzeki i wydłużenia jej długości.", "Erozja rzeczna ma wielki wpływ na morfologię terenu i dostarcza olbrzymich ilości materiału okruchowego, składanego w korycie rzecznym i na równi zalewowej oraz znoszonego do jezior, mórz i oceanów. Z tego materiału tworzone są stożki napływowe, delty i gigantyczne stożki u ujścia wielkich rzek. Doliny rzeczne są poszerzane wskutek migracji bocznej koryta i pogłębiane.", "Erozja wsteczna, w koincydencji z budową geologiczną (deformacje tektoniczne, zróżnicowana odporność skał), wpływa na powstawanie i cofanie się wodospadów oraz obszarów źródliskowych. Erozja denna (wgłębna) wytwarza misy erozyjne i kotły wirowe."], "definitions": [{"name": " Definicja 1: Erozja rzeczna ", "content": " Erozja rzeczna jest to żłobienie powierzchni Ziemi przez\npłynącą wodę w efekcie działalności hydraulicznej, mechanicznej i chemicznej (por. Erozja morska).\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1816, "subject": "Baza erozji i profil równowagi", "paragraphs": ["Najniższym poziomem, do którego rzeka może obniżyć swoje dno jest poziom jej ujścia. Profil równowagi zmienia się wraz ze zmianą poziomu ujścia rzeki. Ten najniższy poziom nazywany jest bazą erozji.", "Bardzo często w rzekach (szczególnie dużych i wielkich) występują lokalne bazy erozyjne, wyznaczane przez jeziora powstałe na trasie biegu rzeki i przez progi skalne poprzeczne do biegu rzeki.", "Rzeki na ogół nie dochodzą do profilu równowagi, ale są odcinki wyrównanego profilu równowagi i takie, gdzie dominuje erozja, a na innych akumulacja.", "Ten układ dodatkowo komplikują dopływy, które niosą więcej materiału okruchowego niż rzeka główna może unieść [3]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1817, "subject": "Terasy rzeczne", "paragraphs": ["Baza erozyjna może ulec obniżeniu, ale może także podnosić się, co prowadzi do przewagi akumulacji nad erozją. System teras może być zatem bardzo skomplikowany.", "Generalnie wyróżniamy cztery podstawowe systemy teras:", "Układ teras komplikuje dodatkowo boczna migracja koryta rzeki powodująca niszczenie teras leżących, w kierunku migracji rzeki."], "definitions": [{"name": " Definicja 1: Terasa ", "content": " Terasą nazywamy stare dno rzeki rozcięte przez erozję po obniżeniu bazy\nerozyjnej. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1819, "subject": "Osady rzeczne", "paragraphs": ["Generalnie wyróżniamy dwa rodzaje aluwiów (Rys. 1):", "Aluwia korytowe powstają w obrębie koryta rzeki i wyróżniamy w nich [1], [2], [3], [4]:", "W korycie osadza się najgrubszy materiał tworząc bruk korytowy, złożony głównie z głazów i żwiru. Materiał drobniejszy zostaje wymyty i przeniesiony w miejsca spokojniejszej depozycji.", "Łachy śródkorytowe (łachy mieliznowe) tworzą się w nurcie rzeki, ale w miejscach, gdzie rzeka jest szeroka„ płytsza i nurt jest wolniejszy. Budują je głównie piaski i żwiry, mają one z reguły kształt wydłużonej w kierunku płynięcia rzeki elipsy lub innej figury. Rzadko się zdarza, że łacha stabilizuje się, zarasta roślinnością i przekształca się w wyspę.", "W rzekach meandrujących odcięcie meandru powoduje „zamrożenie” osadów rzeki w starorzeczu, między innymi osadów korytowych.", "Osady pozakorytowe powstają poza korytem rzeki, na równi zalewowej, podczas wysokich stanów wód. Złożone są z bardzo drobnego materiału okruchowego, głównie transportowanego w zawiesinie. Przyrastają one pionowo i dlatego nazywane są osadami przyrostu pionowego.", "Do osadów pozakorytowych zaliczamy obecnie, mimo że powstały wcześniej w korycie rzeki, także osady odciętych od rzeki meandrów, czyli fragmentów starych koryt stopniowo wypełnianych drobnoziarnistymi osadami. Są to tzw. starorzecza.", "Do osadów rzecznych należą także osady stożków napływowych i osady deltowe."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1820, "subject": "Stożki napływowe", "paragraphs": ["Stożki mają kształt wycinka płaskiego stożka, którego wierzchołek jest najwyżej położony i to w tym miejscu przecina się profil dna doliny jednej rzeki z drugą lub dna doliny z terenem, na który rozlewają się wody rzeki (punkt intersekcyjny) (Rys. 1).", "Powierzchnia stożka nachylona jest pod kątem kilku stopni i pokryta siecią mniejszych, płytkich koryt, w których spada prędkość płynięcia wody i następuje bardzo intensywna depozycja [1], [2], (Rys. 2).", "Osady stożków napływowych są niedojrzałe teksturalnie, a ich skład petrograficzny zależy od budowy masywu górskiego. Tworzą je frakcje żwirowe, piaszczyste i pelitowe, a od szczytu stożka do jego peryferii spada średnica ziarn.", "W warunkach klimatu suchego, w okresie rzadkich, ale gwałtownych i obfitych opadów, dochodzi do tzw. zalewu warstwowego, kiedy woda pokrywa całą powierzchnię stożka [3], [4]. Zalew warstwowy dość szybko przekształca się w system koryt.", "W stożkach powstających w klimacie suchym i półsuchym ważną rolę odgrywają grawitacyjne spływy osadu różnych frakcji. Często wyróżniamy także spływy, w których dominuje jedna, lepiej zdefiniowana frakcja. Są to spływy rumoszowe (ang. debris flow) i spływy mułowe (ang. mud flow).", "Spływy rumoszowe występują w proksymalnej (bliższej punktu szczytowego) części stożka i niekiedy spływają w dół stożka cieńszymi jęzorami.", "Spływy mułowe schodzą aż do peryferii stożka. W przekroju poprzecznym stożka osady gruboziarniste przekładają się z drobniejszymi [5]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1821, "subject": "Delty", "paragraphs": ["W delcie dominują osady deponowane poniżej poziomu zbiornika wodnego. Górna część delty zlokalizowana jest powyżej poziomu morza. Nazywamy ją równią deltową. Jej powierzchnię przecinają koryta rozprowadzające, przedzielone obszarami międzykorytowymi i zdominowane przez bagna i jeziora, [1], [2], [3], [4]. Równia deltowa przechodzi w skłon delty (czoło delty) i podnóże określone mianem prodelty. Skłon delty nachylony jest z reguły pod bardzo niewielkim kątem (do \\(3\\circ \\)).", "Budowa delt jest bardzo zróżnicowana i odstępstwa od modelu są znaczne. Klasyfikacja delt jest trudna. Głównym kryterium klasyfikacyjnym jest udział głównych procesów kształtujących deltę: rzeki, falowanie i pływy (Rys. 2), [1], [5].", "Delty kształtowane głównie przez falowanie posiadają niewiele koryt rozprowadzających i wyrównany zarys linii brzegowej [1] oraz bariery piaszczyste wydłużone równolegle do brzegu delty (Nil), (Rys. 2A).", "Delty kształtowane głównie przez pływy charakteryzują silnie rozszerzone końcowe odcinki koryt rozprowadzających oraz obecność wielu wysepek, a na przedłużeniu koryt rozprowadzających rozwijają się wydłużone grzbiety piaszczyste.", "Delty kształtowane przede wszystkim przez procesy rzeczne charakteryzuje silne wydłużenie oraz układ „palczasty” (Missisipi), (Rys. 2B).", "Pewnym specyficznym typem delty są delty stożkowe powstające wtedy, gdy stożek napływowy, powstający na przedpolu gór sąsiadujących ze zbiornikiem wodnym, wkracza do tego zbiornika. Ten typ delty stożkowej powstaje u krawędzi aktywnej kontynentów i łuków wysp.", "Osady delt stanowią przeważnie piaski, muły i iły oraz materiał fitogeniczny. W efekcie progradacji delty w profilu pionowym, osady prodelty przykryte są osadami skłonu delty, a te z kolei osadami równi deltowej."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1822, "subject": "Typy dolin rzecznych", "paragraphs": ["Ze względu na kształt przekroju wyróżniamy następujące doliny (Rys. 1), [1], [2], [3], [4]:", "Gardziele, jary i kaniony są formami ukształtowanymi niemal wyłącznie przez erozyjną działalność rzeki. Jeśli erozja denna jest bardzo silna, a skały podłoża są bardzo twarde (np. granity, bazalty), wówczas powstają gardziele. Brzegi gardzieli są prawie pionowe i urwiste. Szerokość dna i korony doliny są z reguły niewielkie (kilka do kilkunastu metrów). Jeśli natomiast erozja jest słabsza i rzeka migruje bocznie, wówczas powstają jary o nachylonych, stromych zboczach. Jeśli rzeka eroduje różne skały ułożone poziomo lub prawie poziomo i migruje bocznie, to powstają kaniony (kanion Kolorado) (Rys. 2, Rys. 3).", "Doliny wciosowe charakteryzuje wąskie dno i V-kształtny przekrój. Nachylenie zboczy dolin są różne i kształtowane przez erozję oraz powierzchniowe ruchy masowe (Rys. 4A).", "Doliny płaskodenne charakteryzuje szerokie, płaskie dno i stosunkowo strome brzegi. Powstają w efekcie koincydencji erozji dennej i bocznej, a niekiedy także w efekcie zasypania osadami dolin (Rys. 4B).", "Doliny wklęsłodenne są szerokie, bez wyraźnego zaznaczenia granicy między dnem, a zboczami doliny. Powierzchniowe ruchy masowe dominują nad procesami rzecznymi.", "W zależności od stosunku dolin rzecznych do strukturalnej budowy podłoża wyróżniamy (Rys. 5), [1]:", "Ze względu na poziom energii rzeki i ilość niesionego materiału okruchowego wyróżnia się:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1823, "subject": "Stadia rozwoju rzek i odmłodzenie erozji", "paragraphs": ["Podział na stadia dotyczy różnych odcinków rzek i zależy od lokalnych baz erozyjnych, chociaż najczęściej stadium młodociane występuje w górnym biegu rzeki, dojrzałe w środkowym, a starcze w dolnym.", "Odmłodzenie erozji jest to proces prowadzący do wzmożenia erozji, zwłaszcza erozji dennej. Związane jest z obniżeniem bazy erozyjnej w efekcie obniżenia poziomu zbiornika, do którego rzeka dociera.", "Zwiększenie przepływu wody związane ze zmianą klimatu, może także prowadzić do odmłodzenia erozji.", "Istotnym czynnikiem odmłodzenia erozji jest podniesienie się terenu, przez który płynie rzeka – zwykle w obszarze fragmentu biegu rzeki [1], [2].", "Procesy przebiegające odwrotnie do opisanych powyżej prowadzą do postarzenia (dojrzewania) erozji. Takie procesy są jednak rzadsze."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1825, "subject": "Przełomy rzeczne", "paragraphs": ["Wyróżniamy dwa podstawowe typy przełomów:", "Przełomy antecedentne powstają wówczas, kiedy w poprzek biegu rzeki teren się wypiętrza (Rys. 1), [1], [2].", "Jeśli tempo wypiętrzania jest równoważone przez tempo erozji, to pierwotny typ rzeki (np. meandrujący – Pieniny) zostaje zakonserwowany (Rys. 2).", "Przełomy epigenetyczne powstają wówczas, kiedy rzeka początkowo eroduje swoje starsze osady, a następnie napotyka na twarde skały podłoża (Rys. 3), [3].", "Jeśli tempo erozji równoważy twardość skał, to powstaje przełom niezależnie od rodzaju rzeki (meandrująca, prostolinijna) [4]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód płynących", "subject_id": 1826, "subject": "Skały akumulacji rzecznej", "paragraphs": ["Tego typu skały są często rozpoznawane w odsłonięciach.", "Dla określenia typu rzeki niezwykle przydatne są: udział materiału gruboziarnistego, występowanie struktur sedymentacyjnych oraz następstwo litofacji w profilu pionowym [1], [2], [3].", "Osady delt stanowią przeważnie piaski, muły i iły oraz materiał fitogeniczny. W efekcie progradacji delty w profilu pionowym, osady prodelty przykryte są osadami skłonu delty, a te z kolei osadami równi deltowej [4].", "Skały (osady kopalne) deltowe zbudowane są głównie z osadów klastycznych: piaskowców, mułowców, iłowców, czasami przekładanych pokładami węgla lub torfu."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód stojących", "subject_id": 1885, "subject": "Zbiorniki limniczne i warunki ich funkcjonowania", "paragraphs": ["Powstanie zbiornika jeziornego (limnicznego) związane jest z obecnością odpowiedniego miejsca, zwanego misą jeziorną oraz źródła zasilania, które zabezpieczy dostawę wody.", "Misy są zagłębieniami morfologicznymi, które tworzą się w wyniku procesów denudacyjnych. Najczęściej mają pochodzenie tektoniczne, wulkaniczne, osuwiskowe, impaktytowe, glacjalne, krasowe lub eoliczne [1], [2], [3]. Część z nich powstaje przez odcięcie od otwartych wód morskich zatok i lagun oraz izolację fragmentów rzek lub są to zanikające zbiorniki morskie. Zasilanie jezior odbywa się przez dopływ wód powierzchniowych i/lub podziemnych oraz przez wody pochodzące z opadów atmosferycznych. Jeziora, które powstały jako zbiorniki reliktowe, po morzach lub w starorzeczach, dziedziczą część lub całość wód po formie pierwotnej. Wielkość zasilania jezior jest zróżnicowana i zależy od zasobności w wodę sieci hydrologicznej otaczającego obszaru oraz od ilości opadów atmosferycznych. Zasilanie ma zasadnicze znaczenie w pierwszej fazie rozwoju jezior niereliktowych. Jest to etap wypełniania wodą mis i wówczas ogólny bilans, czyli różnica pomiędzy dostawą wody, a jej ubytkiem jest dodatni. Zmiana bilansu na przeciwny powoduje przejście zbiornika w stadium recesji i rozpoczyna proces jego zaniku.", "Jeziora są formami efemerycznymi i funkcjonują w czasie geologicznym dość krótko [4]. Zanikają wskutek utraty wody lub wypełnienia osadami. Czas ich trwania zależy od:", "W ogólnym ujęciu, zachodzące w jeziorach procesy akumulacyjne są efektywniejsze w niż procesy erozyjne, dlatego misy jeziorne zostają relatywnie szybko wypełnione osadami. Jeziora zostają:", "Przebieg procesów sedymentacyjnych jest kontrolowany przez czynniki wewnętrzne, czyli skład chemiczny wody, oraz przez czynniki zewnętrzne, czyli warunki klimatyczne oraz dostawę materiału allogenicznego.", "Jeziora funkcjonują we wszystkich strefach klimatycznych. Ich wody mają różne parametry temperaturowe i skład chemiczny. Ze względu na chemizm wód wyróżnia się [3], [5], [4], (Rys. 1):", "Wewnętrzna cyrkulacja wód w jeziorach jest niewielka [3]. Lepsza cyrkulacja występuje w jeziorach przepływowych (otwartych), które charakteryzuje dopływ i odpływ wód powierzchniowych. Prowadzi ona do wymiany wody. W zbiornikach bezodpływowych (zamkniętych) wymiana ta jest ograniczona. Może zachodzić tylko przez wody podziemne lub dopływ wód atmosferycznych. W większych zbiornikach mieszanie się wód związane jest z występowaniem prądów wewnątrz zbiornikowych, np. wzdłużbrzegowych, zawiesinowych lub innych generowanych wskutek różnic temperatur lub zasolenia."], "definitions": [{"name": " Definicja 1: Procesy limniczne ", "content": "\nOgół procesów zachodzących w zbiornikach jeziornych, czyli w śródlądowych zbiornikach, które gromadzą\nwody nazywany jest procesami limnicznymi.\n\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód stojących", "subject_id": 1886, "subject": "Erozja i transport w jeziorach", "paragraphs": ["Oprócz powyższych, w strefach dennych wielu zbiorników jeziornych zaznacza się wpływ organizmów żywych, które powodują bioerozję.", "Erozja stref brzegowych", "Głównym czynnikiem erozyjnym występującym w obrębie jezior jest falowanie. Z reguły strefa niszczenia falowego ma ograniczony zasięg, gdyż fale jeziorne są krótkie, a podstawa falowania jest położona stosunkowo płytko [1]. Modelowaniu podlega wąska strefa brzegowa misy jeziornej i na niej powstają formy erozyjne. Do tych form należą: [2], [3]:", "Klify jeziorne (urwiska brzegowe, brzegi wysokie) są obrzeżającymi strefę brzegową jeziora, pionowymi lub stromo nachylonymi ścianami (Rys. 1). Powstają przez powierzchniowe ruchy masowe wywołane podcięciem podstawy stoku przez falowanie. Miejsce podcięcia ma charakter zagłębienia, które zwane jest niszą abrazyjną (niszą jeziorną, podciosem jeziornym). Klify przylegają do jeziornej platformy abrazyjnej, czyli płaskiej, wyciętej w podłożu misy powierzchni. Powstaje ona podczas wyrównywania dna strefy brzegowej przez wprawiany w ruch materiał klastyczny. Brzegi wysokie występują głównie w fazach ekspansji zbiornika, podczas wczesnych faz jego funkcjonowania lub podczas okresów wzrostu poziomu wód w jeziorach.", "Terasy erozyjne to zespoły schodkowato podnoszących się, wyrównanych powierzchni abrazyjnych, o charakterze połogich wąskich platform (Rys. 1). Poszczególne terasy mają powierzchnie płaskie, nieznacznie nachylone w stronę zbiornika. Oddzielone są od siebie krótkimi, stromo nachylonymi i wciętymi w strefę brzegową stokami. Powstają w fazach recesji, przy sukcesywnie obniżającym się poziomie wód w jeziorze.", "Erozja wewnątrzzbiornikowa", "Działalność erozyjna wewnątrz zbiornika jest wywołana skoncentrowanym przepływem wód. Odbywa się w miejscach wypływu wód podziemnych i prowadzi do powstania, kielichowatych w przekroju zagłębień w dnie misy. Występuje również w miejscach schodzenia prądów przydennych. Szczególne znaczenie erozyjne mają prądy grawitacyjne, które zwykle obciążone są materiałem klastycznym i na trasie swojego przepływu powodują wytworzenie kanałów (rynien) erozyjnych. Do uformowania form erozyjnych o typie nisz, dochodzi również podczas subakwalnych ruchów grawitacyjnych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód stojących", "subject_id": 1887, "subject": "Akumulacja i osady limniczne", "paragraphs": ["W jeziorach deponowane są utwory [1], [2], [3], [4]:", "Sedymentacja klastyczna", "Większość materiału klastycznego jest donoszona do zbiorników jeziornych przez wody powierzchniowe, w tym, największą rolę ogrywa spływ rzeczny. Drugim istotnym źródłem są niszczone strefy brzegowe jezior (Rys. 1). Tempo sedymentacji klastycznej zależy od ilości dostarczanego materiału. W warunkach górskich lub proglacjalnych jest ono szczególnie obfite i zapełnienie mis odbywa się w relatywnie krótkim czasie [5]. W jeziorach następuje rozprowadzenie i depozycja materiału klastycznego. Wewnątrzjeziorna dystrybucja materiału grubo- i średniokruchowego zachodzi na niewielką skalę [2], [4]. Wraz ze wzrostem odległości od miejsca zasilania, spada ilość i frakcja materiału klastycznego (Rys. 1). Zwykle materiał grubookruchowy koncentruje się w otoczeniu miejsca dostawy, natomiast materiał drobnoklastyczny rozprowadzany jest w obrębie całego zbiornika limnicznego [6].", "Strefy sedymentacji grubo- i średnioklastycznej znajdują się w strefach zewnętrznych jeziora i obejmują:", "Ziarna frakcji psefitowej i psamitowej są deponowane głównie w strefie brzegowej [1], gdzie pod wpływem falowania podlegają przerabianiu i wielokrotnej redepozycji (Rys. 2). Proces ten prowadzi do selekcji materiału klastycznego oraz wytworzenia struktur depozycyjnych. W piaskach jeziornych powszechne są warstwowania przekątne, gradacje oraz ślady prądowe [2], [6]. Poza obszarem objętym falowaniem powstają utwory masywne lub ze słabo wykształconą stratyfikacją. Materiał grubo- i średnioziarnisty może podlegać rozprowadzeniu i ze strefy brzegowej jest donoszony do wewnętrznych części misy (Rys. 1). Ważną rolę w tym procesie odgrywają prądy wewnątrzzbiornikowe. Transportują one materiał na różnych poziomach zbiornika. Prądy rozprowadzające związane są z przypowierzchniową strefą wód i kolportują wody rzeczne niosące materiał klastyczny. Mają mniejszą gęstość od wód jeziornych i unoszą się przez pewien czas w górnej części wód (Rys. 3), [5], [7]. Osadzanie znajdującego się w nich materiału klastycznego następuje na obszarze deltowym i pozadeltowym. W głębszych jeziorach powstają prądy grawitacyjne, których przepływ odbywa się nad i po powierzchni dna. Doprowadzają one materiał średnio- i grubookruchowy do wnętrza zbiornika i deponują m.in. turbidyty [5], [8]. Inną formą dystrybucji materiału są stokowe ruchy masowe, głównie osuwiska subakwalne, dzięki którym powstają olistostromy i olistolity.", "Strefy wewnętrzne jezior objęte są głównie sedymentacją suspensyjną. Odbywa się ona przez opad znajdującego się w wodzie zawieszonego drobnego materiału (Rys. 1). W jej wyniku deponowane są, masywne lub wykazujące równoległą i ciągłą laminację/warstwowanie, iły i muły jeziorne (Rys. 4), [1], [4], [9].", "Warunki panujące w wewnętrznej części jezior, czyli brak lub niewielki wpływ czynników erozyjnych oraz nieprzerwana depozycja zdominowana przez suspensję, sprzyjają formowaniu się ciągłego zapisu sedymentacyjnego. Powstaje seria osadów drobnoziarnistych, która wykazuje zmienność sezonową. Wyraża się ona w naprzemiennym występowaniu zróżnicowanych teksturalnie lamin (Rys. 4), [2]. Osady ilaste i mułowe z ziarnem psamitowym są charakterystyczne dla pór mokrych i powstają podczas wzmożonej dostawy materiału do zbiornika. Natomiast warstewki iłów związane są okresami ograniczonego zasilania, np. w porach suchych lub zamarznięcia jezior podczas ochłodzeń. Ciemne warstewki osadów, zawierających materię organiczną deponowane są w sezonach wegetacyjnych, podczas rozwoju roślin i fitoplanktonu jeziornego (zob. Kaustobiolity), [1]. O ile na to pozwalają warunki środowiskowe, iły i muły jeziorne są zasiedlane przez organizmy zwierzęce, których działalność powoduje zaburzenie struktury osadu. Powszechnie występują w nich struktury biturbacyjne.", "Sedymentacja biogeniczna i chemiczna", "W obrębie jezior następuje wytworzenie materiału autigenicznego, który podlega depozycji i wchodzi w skład osadów jeziornych, a w przypadku masowej produkcji tworzy indywidulane jednostki skalne.", "Do podstawowych składników wytwarzanych w zbiorniku należą bioklasty (Rys. 2). Cechą wielu osadów limnicznych jest obecność biomineralnych szczątków fauny i flory jeziornej, w zależności od typu zbiornika - słodkowodnej, słonowodnej lub brakicznej [6]. Rozwój organizmów wapiennoskorupowych jest szczególnie obfity w jeziorach, których wody zawierają związki wapnia [4]. Oprócz składowania bioklastów zachodzi wytrącanie i depozycja mułu węglanowego. W jeziorach o ograniczonej sedymentacji klastycznej powstają wapienie, natomiast w zbiornikach znajdujących się pod wpływem sedymentacji mieszanej ilasto-węglanowej deponowane są margle łąkowe (kreda jeziorna) (Rys. 5), [3]. Produkcja w jeziorach węglanu wapnia zależy od składu chemicznego wody oraz od zawartości w nich ditlenku węgla. Jest często powiązana z rozwojem organizmów jeziornych, które prowadząc fotosyntezę lub procesy oddychania zaburzają równowagę gazową i wywołują strącanie kalcytu lub aragonitu. W jeziorach stref chłodnych, których wody zasobne są w krzemionkę oraz związki fosforu i azotu, dochodzi do zakwitów okrzemek, czyli jednoczesnego pojawienia się dużej ilości tych organizmów. Przez masową depozycję bioopalowych elementów szkieletowych okrzemek powstają utwory krzemionkowe [10], [11], [12], które nazywane są ziemią okrzemkową, a po diagenezie diatomitami [7].", "W zbiornikach limnicznych panują zróżnicowane warunki tlenowe. Stosunkowo dobre natlenienie występuje w strefach wód przypowierzchniowych, które objęte są falowaniem. Mała ruchliwość wód wewnątrz zbiornika powoduje, że strefy głębsze są słabo przewietrzane. Poziom tlenu w wodach zależy też od ilości znajdującej się w nich materii organicznej. Tlen jest włączany w proces rozkładu materii i przy znacznych jej nagromadzeniach następuje zaangażowanie całego zasobu tlenu. Wówczas materia organiczna nie jest już rozkładana, tylko w warunkach anoksycznych ulega uwęgleniu, któremu towarzyszy powstawanie siarczków żelaza (głównie pirytu). Siarczki są powszechnym komponentem iłów jeziornych i powodują ich ciemne zabarwienie. W warunkach beztlenowych materia organiczna, która pochodzi z autigenicznej flory wodnej i mikroorganizmów, jeziornych podlega gniciu. Z nagromadzenia produktów jej rozkładu powstaje koloidalna masa biogeniczna zwana szlamem gnilnym (mułem sapropelowym). Mieszanina szlamu z iłem tworzy gytię.", "Jeziora słonowodne objęte są głównie sedymentacją chemiczną. Z wód wytrącają się węglany i ewaporaty (głównie gips i anhydryt), a przy bardziej zaawansowanej ewaporacji również chlorki i inne skały solne (Rys. 6). Wody jeziorne mają zróżnicowane składy chemiczne, co przekłada się na różnorodność mineralną deponowanych w nich utworów. Zwykle sedymentacją ewaporatową objęte są zbiorniki bezodpływowe, w których okresowo dochodzi do wzrostu zasolenia i masowego strącania się osadów chemicznych. Sezonowe zmiany zapisują się w profilu osadowym. W okresach suchych i gorących następuje wzmożona sedymentacja chemiczna i dochodzi do krystalizacji siarczanów i chlorków. Natomiast w okresach dostawy wody i rozcieńczenia roztworu w jeziorze, powstawanie ewaporatów ulega ograniczeniu i zaznacza się większy wpływ drobnookruchowej sedymentacji klastycznej. W profilu osadów jezior słonych występują ewaporaty naprzemiennie z utworami zawierającymi iły i muły, których ilość ku górze profilu maleje, kosztem wzrostu ilości ewaporatów."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód stojących", "subject_id": 1888, "subject": "Eutrofizacja jezior", "paragraphs": ["Ze względu na trofikę wód wydzielane są jeziora (Rys. 1), [2], [3]:", "Eutrofizacja powiązana jest z ilością materii organicznej, jaka produkowana jest w zbiorniku limnicznym. W pierwszych jej etapach następuje stopniowy przyrost ilości oraz różnorodności taksonomicznej organizmów jeziornych, prowadzący do wzrostu żyzności zbiornika. Inicjuje to zwiększenie przyrostu organicznej produkcji pierwotnej, głównie fitoplanktonu, którego bujny rozwój prowadzi do okresowych zakwitów (np. glonów lub sinic). Zakwity ograniczają dostęp światła do wnętrza zbiornika i dostarczają do stref dennych znacznych ilości materii organicznej. Rozkład materii angażuje tlen, którego ilość w wodach sukcesywnie się zmniejsza. Efektem tego jest pogorszenie się warunków życia organizmów tlenowych i ich zubożenie ilościowe i taksonomiczne. W strefach przydennych zaczynają panować warunki anoksyczne, w takim środowisku część materii organicznej, która pochodzi z produkcji pierwotnej ulega przemianie w sapropele (Rys. 3). Obecność w wodzie materii powoduje spadek jej przezierności i zmianę jej zabarwienia na kolor zielonkawy.", "Sapropele mają formę szlamu gnilnego, czyli koloidalnej masy, która składa się z mułu oraz ze szczątków organicznych, głównie będącego w stanie rozkładu gnilnego fitoplanktonu jeziornego [4]. W wyniku uwęglenia sapropeli dochodzi do wzrostu koncentracji pierwiastka węgla i powstania kolejnych, bardziej kalorycznych odmian węgli sapropelowych. Skały mieszane sapropelowo-ilaste lub sapropelowo-mułowe podczas diagenezy przechodzą w łupki sapropelowe.", "Eutrofizacja jezior oraz sedymentacja biogeniczna w strefach brzegowych prowadzi do zaniku zbiorników limnicznych. Procesy te powodują zmniejszenie się pojemności zbiornika, co zaznacza się w wypłyceniu jeziora i w ograniczeniu powierzchni lustra wody. Następuje migracja środowisk płytkowodnych ku centrum jeziora. Zmienia się charakter osadów organicznych. Szlam gnilny oraz gytia, powstające z drobnych jeziornych organizmów planktonicznych, zostają zastąpione przez utwory torfowe [5], które tworzą się przez nagromadzenia roślin wzrastających w obszarach płytkowodnych lub zabagnionych (Rys. 4), [4]. W fazie końcowej, na miejscu wypełnionej osadami misy jeziornej zwykle rozwijają się torfowiska. W profilu osadów jeziornych, ku stropowi następuje wzrost ilości węgla organicznego oraz spadek ilości i frakcji materiału klastycznego. Osady zwieńczające fazę eutroficzną mają charakter lądowy i reprezentują osady fitogeniczne."], "definitions": [{"name": " Definicja 1: Eurofizacja ", "content": " Proces wzbogacania wód zbiorników limnicznych w składniki biogenne, który\nprowadzi do wzrostu ich żyzności nazywany jest eurofizacją. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód stojących", "subject_id": 1889, "subject": "Obszary bagienne i sedymentacja torfowiskowa", "paragraphs": ["Największy udział w osadach bagiennych ma materia organiczna pochodząca ze szczątków flory lądowej, pozostałe rodzaje składników stanowią komponent poboczny.", "Torfowiska", "Szczególnym typem zbiorników bagiennych są torfowiska, czyli obszary w których w warunkach słabego natlenienia akumulowana jest materia roślinna. Procesy jakie w nich zachodzą zależą od ilości i jakości wód. Ze względu na warunki hydrologiczne torfowiska dzielone są na [1], [2], [3], (Rys. 1):", "Torfowiska niskie (reofilne) są zasilane wodami atmosferycznymi, wodami gruntowymi i/lub wodami powierzchniowymi. Cechuje je słabo kwaśny lub lekko zasadowy odczyn. Należą do zbiorników eutroficznych (zob. Eutrofizacja jezior), których wody podlegają wzbogaceniu w różne substancje mineralne. Na torfowiskach niskich wykształcają się zróżnicowane zbiorowiska roślinne, np. mszyste, turzycowe, szuwarowe, łąkowe, krzewiaste i leśne. Torfowiska te występują zwykle w zagłębieniach terenu, towarzyszą strefom źródlisk, dolinom rzecznym i jeziornym. W ich obrębie następuje poziomy przepływ wód. Typowe jest dla nich stałe lub okresowe przemywanie przez wody (Rys. 1).", "Torfowiska wysokie(ombrofilne) są zasilane są przez opady atmosferyczne. Reprezentują zbiorniki oligotroficzne, o kwaśnym odczynie, które porastają ubogie taksonomicznie zbiorowiska roślinne. Z reguły wykształcają się na nich zbiorowiska mszyste z udziałem krzewinek [3], [4]. Torfowiska wysokie rozwijają się w miejscach bezodpływowych (Rys. 1).", "Torfowiska wysokie mają budowę warstwową i w ich przekroju wyróżnia się (Rys. 2):", "Narastanie kolejnych powłok akrotelmu powoduje przyrost pionowy formy. Zachodzi on intensywniej w części centralnej, dlatego powierzchnia torfowisk wysokich jest kopułowato wygięta ku górze, a w formach dojrzałych góruje nad otoczeniem. Stąd ten typ torfowisk jest nazywany wysokim.", "W wyniku gromadzenia się materii organicznej oraz jej bio- i geochemicznego rozkładu in situ powstają torfy (Rys. 3), (zob. Kaustobiolity), [3], [2]. Są one przede wszystkim produkowane w torfowiskach wysokich, gdyż w ich obrębie występują sprzyjające warunki dla procesów humifikacyjych, zwłaszcza dla torfienia (zob. Powstawanie węgli humusowych). Torfy tworzą miąższe pokłady i zawierają niewiele składników allogenicznych. W torfowiskach niskich tworzenie się torfów zachodzi na mniejsza skalę. Zwykle ich pokłady są cieńsze oraz mają większe domieszki związków mineralnych i materiałów klastycznych. Poza torfami, typowym osadem torfowisk niskich są muły bitumiczne, które obok materiału drobnoklastycznego zawierają sporą domieszkę humusu torfowego. W wyniku diagenezy zostają one przekształcone w mułowce/łupki węglowe."], "definitions": [{"name": " Definicja 1: Zbiorniki bagienne ", "content": " Zbiorniki bagienne to obszary permanentnie lub okresowo podmokłe,\no wysoko położonym zwierciadle wód gruntowych. Takie warunki występują zazwyczaj:\n\nw płytkich obniżeniach terenu,\n\nw będących w stadium zaniku zbiornikach limnicznych,\n\ntowarzyszą strefom okołozbiornikowym mórz, jezior lub źródlisk rzecznych.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód stojących", "subject_id": 1890, "subject": "Powstawanie węgli humusowych", "paragraphs": ["Procesy humifikacyjne obejmują również gnicie, które prowadzi do rozkładu roślinności wodnej oraz mikroorganizmów wodnych. Zachodzi w warunkach beztlenowych, w środowisku wodnym przy współudziale mikroorganizmów anaerobowych. Procesy redukcyjne prowadzą do wytworzenia szlamu gnilnego, czyli sapropelu oraz węglowodorów zasobnych w wodór (zob. Eutrofizacja jezior, Kaustobiolity).", "Dla powstania początkowych ogniw szeregu węglowego węgli humusowych, czyli torfów, największe znaczenie ma torfienie, natomiast dla sapropelitów gnicie.", "Procesy humifikacyjne zachodzą w fazie biochemicznej powstawania węgli, czyli podczas procesów rozkładu przebiegających przy współudziale mikroorganizmów tlenowych i beztlenowych. Po fazie biochemicznej następuje faza geochemiczna, w której odbywa się szereg reakcji chemicznych prowadzących do uwęglenia torfu, czyli do wzrostu ilości węgla i wytworzenia kolejnych odmian szeregu węglowego, czyli węgli brunatnych i węgli kamiennych [3], [1], [2].", "Torf jest wyjściową odmianą węgli humusowych, która poddana diagenezie ulega przekształceniu w węgle brunatne [1], [2]. Węgle kamienne, będące następnym ogniwem szeregu węglowego, tworzą się z węgli brunatnych w procesie metamorfizmu, czyli w określonych warunkach fizycznych, związanych z podwyższonym ciśnieniem i podwyższonymi temperaturami (Rys. 1). Takie warunki występują w otoczeniu intruzji magmowych, w strefach objętych ruchami tektonicznymi lub wewnątrz skorupy ziemskiej. Podczas procesów metamorfizmu dochodzi do kondensacji pierwiastka węgla oraz odprowadzenia wodoru i tlenu. Wiążą się one z wydzielaniem produktów gazowych w formie wody, metanu i ditlenku węgla."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1525, "subject": "Infiltracja", "paragraphs": ["Krótkotrwały deszcz o dużej intensywności spowoduje większy odpływ, niż ta sama ilość deszczu dostarczona w dłuższym okresie czasu. Jeśli ilość wody dostarczonej przez deszcz jest wyższa niż możliwości infiltracyjne obszaru zasilania powstanie odpływ powierzchniowy. Infiltracja jest kontrolowana przez temperaturę. W warunkach wysokich temperatur część wody opadowej, jeszcze przed infiltracją, odparuje, natomiast w warunkach niskich temperatur dojdzie do zamarznięcia podłoża, co zablokuje infiltrację.", "Infiltracja zależy od szeregu czynników, z których najistotniejsze znaczenie mają [2]:", "Przepuszczalność i stopień nasycenia odgrywają istotną rolę przy infiltracji z rzeki (Rys. 1). Stopień nasycenia może zmieniać się sezonowo i w okresach suchych następuje wzrost infiltracji, a w deszczowych jej spadek. Te zmiany wykorzystuje się przy budowie sztucznych zbiorników infiltracyjnych, które zbierają wodę w sezonie deszczowym, a w sezonie suchym zasilają wody podziemne."], "definitions": [{"name": " Definicja 1: Woda podziemna ", "content": " Woda, która znajduje się w skałach pod powierzchnią Ziemi [1], [2]\nnazywana jest wodą podziemną. Wypełnia wolne przestrzenie, które mają formę porów, szczelin lub pustek\n(zob. Porowatość i przepuszczalność). Wody podziemne pochodzą z roztworów związanych ze\nstopami magmowymi i nazywane są juwenilnymi albo z opadów atmosferycznych i nazywane są\nwodami meteorycznymi lub wadycznymi. Wody meteoryczne są wodami odnawialnymi [3], [4], [5].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1526, "subject": "Retencja gruntowa", "paragraphs": ["Woda może być zatrzymana pod powierzchnią Ziemi pod postacią:", "Woda przechodząc w stan stały podlega retencji. W klimacie umiarkowanym lód jest utrzymywany w okresie sezonu zimowego lub krócej i ta retencja jest krótkookresowa, natomiast w strefie wiecznej zmarzliny jest przetrzymywany przez długi okres czasu (zob. Wieczna zmarzlina). Retencja na obszarze wiecznej zmarzliny obejmuje znaczne ilości wody, miąższość zmrożonej warstwy może dochodzić do kilkuset metrów [2].", "Woda fizycznie związana jest zatrzymywana w strefie aeracji, a czas zatrzymywania jest różny i zależy od wielu czynników, w tym warunków klimatycznych. W klimacie umiarkowanym woda ta może być magazynowana przez stosunkowo długi okres czasu, natomiast w klimacie, gdzie występują dwie pory roku, sucha i deszczowa, spora ilość wody jest uwalniana w okresie suchym.", "Woda wolna znajduje się warstwach wodonośnych. Zatrzymywanie jej zależy od pozycji warstwy wodonośnej. W warstwach wodonośnych, w których występują wody głębinowe na ogół nie ma możliwości odpływu i woda magazynowana jest przez bardzo długi okres. Zatrzymywanie wód gruntowych i wgłębnych zachodzi w warstwach wodonośnych, które ograniczone są ze wszystkich stron utworami nieprzepuszczalnymi. lub takich, które tworzą basen, czyli strukturę (Rys. 1) otwartą od góry, a ograniczoną z boku warstwami nieprzepuszczalnymi. W takich warunkach woda, zwłaszcza w niższych częściach basenu może być zatrzymywana na bardzo długi okres.", "Obok retencji naturalnej, która wykorzystuje naturalne ograniczenia warstw wodonośnych, występuje retencja sztuczna, która polega na budowaniu tam. Istnieje też pojęcie małej retencji wodnej w lasach. Jej celem jest między innymi podniesienie poziomu wód gruntowych na terenach leśnych [4]."], "definitions": [{"name": " Definicja 1: Retencja wody podziemnej ", "content": " Jest to czasowe zatrzymanie wody pod powierzchnią Ziemi i\nwoda ta nie bierze udziału w odpływie podziemnym. Jej ilość na danym obszarze jest jednym z czynników\nbilansu wodnego tego obszaru [1]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1527, "subject": "Woda w skałach", "paragraphs": ["Wody przypowierzchniowe mają różne postaci i ich forma jest podstawą wyodrębnienia w nich (Rys. 1), [1], [2], [3]:", "Woda higroskopijna dociera pod powierzchnię Ziemi w wyniku absorpcji, czyli pochłaniania substancji gazowej lub ciekłej przez substancję stałą. Substancją stałą są ziarna minerałów absorbujących wodę, przeważnie bezpośrednio z pary wodnej. Absorpcja wykorzystuje siły molekularne przyciągania międzycząsteczkowego, między atomowego i elektrycznego. Woda higroskopijna tworzy warstewkę o grubości rzędu setnych lub tysięcznych części mikrometra na cząstce mineralnej. Zdolność absorpcji mają przede wszystkim minerały bardzo rozdrobnione. Zdolność tą wyraża wodochłonność higroskopijna, która jest różna dla poszczególnych rodzajów skał. Woda higroskopijna przyjmuje fizyczne cechy ziarna mineralnego, nie ma własności rozpuszczających, nie przekazuje ciśnienia hydrostatycznego i nie przemieszcza się. Zamarza w temperaturze około -78\\(^o\\)C [2], [3].", "Woda błonkowata (nabłonkowa) jest to woda związana przez adsorpcję, czyli proces, w którym dochodzi do gromadzenia się substancji na powierzchni granicznej dwóch faz: ciała stałego i cieczy adsorbowanej przez cząstki skały z wody w fazie ciekłej. Woda błonkowata tworzy zewnętrzną otoczkę wokół cząstek skalnych, bezpośrednio przylegającą do warstwy wody higroskopijnej. Grubość błonki nie przekracza dziesiątych części mikrometra. W części zewnętrznej błonki, własności wody błonkowatej zbliżają się do własności wody wolnej, a w części wewnętrznej do własności wody higroskopijnej. Woda błonkowata nie przemieszcza się pod wpływem siły grawitacji - jak woda wolna, ale może przemieszczać się z cząstki na cząstkę. Nie przekazuje ciśnienia hydrostatycznego i ma tylko niewielkie własności rozpuszczalnika. Wody błonkowata i higroskopijna wspólnie tworzą postać wody fizycznie związanej ze skałą [2], [3].", "Woda wolna (grawitacyjna, swobodna) jest to woda przemieszczająca się w ośrodku skalnym przez pory i szczeliny o wielkościach nadkapilarnych pod wpływem grawitacji lub różnicy ciśnień. Pochodzi przede wszystkim z infiltracji (zob. Infiltracja). Jest rozpuszczalnikiem, przekazuje ciśnienie hydrostatyczne, czyli ma własności zwykłej wody powierzchniowej [2], [3].", "Woda kapilarna (włoskowata) to woda w postaci przejściowej pomiędzy wodą słabo związaną, a wodą wolną. Znajduje się w cienkich (włoskowatych) porach i szczelinach w skale, do pewnej wysokości ponad zwierciadłem wody wolnej (zob. Strefy wód gruntowych i Zwierciadła wód gruntowych). Wysokość ta nazywana jest wzniosem kapilarnym [2], [3].", "Woda podziemna znajduje się w skałach również w fazie stałej i gazowej, czyli pod postacią pary wodnej i lodu. Lód występuje pod powierzchnią sezonowo w strefie umiarkowanej, natomiast stale w obszarach wiecznej zmarzliny (zob. Wieczna zmarzlina).", "Według genezy wyróżniane są wody meteoryczne i wody juwenilne [4], [5], [6] (zob. Infiltracja)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1528, "subject": "Strefy wód gruntowych", "paragraphs": ["Wody opadowe infiltrując pod powierzchnię Ziemi dostają się do strefy aeracji, zwanej również strefą nienasyconą [1], [2], [3]. Znajduje się ona między powierzchnią terenu, a zwierciadłem swobodnym wody lub stropem strefy wzniosu kapitalnego. W niektórych miejscach, np. pod jeziorami i bagnami, strefa aeracji nie występuje, a w niektórych obszarach ma ona setki metrów grubości, co jest powszechne w regionach suchych. Strefa aeracji nazywana jest również strefą napowietrzania, gdyż obok fazy ciekłej i stałej występują w niej gazy atmosferyczne. Woda fizycznie związana jest istotnym składnikiem fazy ciekłej. Woda wolna, która jest nazywana wodą wsiąkową, występuje okresowo w czasie przenikania wód opadowych. Woda ta przechodzi przez strefę aeracji dostając się do strefy saturacji. Jest więc podstawowym składnikiem uzupełniającym zasoby wód podziemnych [2], [3].", "Strefa aeracji nie jest źródłem łatwo dostępnej wody do spożycia przez ludzi. Ma natomiast ogromne znaczenie w dostarczaniu wody i składników odżywczych, niezbędnych w rolnictwie. Kontroluje też przedostawanie się zanieczyszczeń do zbiorników wód gruntowych.", "Poniżej strefy aeracji znajduje się strefa wzniosu kapilarnego. Występuje w niej woda kapilarna (zob. Woda w skałach). Miąższość tej strefy uwarunkowana jest wzniosem kapilarnym, a ten z kolei zależy od materiału, jaki tą strefę buduje. Wznios kapilarny wynosi około [1]:", "W strefie saturacji, która występuje poniżej swobodnego zwierciadła wód podziemnych, woda wypełnia wszystkie pustki i szczeliny w skałach. W strefie tej znajdują się wody [1] (zob. Woda w skałach):", "Wody przypowierzchniowe występują tam, gdzie strefa aeracji jest cienka. Wody gruntowe są oddzielone znacznie grubszą strefą aeracji. Wody wgłębne są oddzielone od powierzchni Ziemi warstwą utworów nieprzepuszczalnych. Wody głębinowe są oddzielone od powierzchni Ziemi wieloma warstwami nieprzepuszczalnym [1], [3].", "W warstwie całkowicie wypełnionej wodami wgłębnymi występuje tylko strefa saturacji, a nieprzepuszczalny nadkład spełnia rolę strefy aeracji. Natomiast, w warstwach wypełnionych częściowo wodą wyróżnia się wszystkie trzy strefy, czyli saturacji, wzniosu kapilarnego i aeracji."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1529, "subject": "Zwierciadła wód gruntowych", "paragraphs": ["Wahania zwierciadła swobodnego zależą od stopnia zasilania wodą i mogą być spowodowane przyczynami naturalnymi lub sztucznymi [1]. Do przyczyn naturalnych należą ilość opadów lub ich długotrwały brak, czyli susza. Główną przyczyną sztuczną jest pompowanie wody. Podczas poboru wody, które odbywa się punktowo, następuje zmiana położenia zwierciadła i nachylenie jego powierzchni w kierunku studni (Rys. 1). Po zaprzestaniu poboru wody, zwierciadło może wrócić do swojego stanu pierwotnego i wówczas będzie to tak zwane zwierciadło statyczne.", "Woda występująca w warstwie wodonośnej, która ograniczona jest od góry nadkładem utworów nieprzepuszczalnych i całkowicie wypełniona wodą, znajduje się pod ciśnieniem większym od ciśnienia atmosferycznego. Ciśnienie to nazywane jest ciśnieniem piezometrycznym. Na granicy warstwy wodonośnej i nadkładu znajduje się zwierciadło napięte przyjmujące kształt powierzchni stropowej warstwy wodonośnej [3], (Rys. 2).", "Ciśnienie piezometryczne wyznacza wirtualny, pozorny poziom zwany zwierciadłem piezometrycznym. W studniach, które przebijają zwierciadło napięte, następuje podniesienie poziomu wody do wysokości zwierciadła piezometrycznego. Wysokość na jaką podchodzi woda nazywa się wysokością piezometryczną. Pobór wody spowoduje wychylenie tego zwierciadła w kierunku studni, po zaprzestaniu pompowania, zwierciadło wody może powrócić do swojego stanu pierwotnego.", "W warstwie wodonośnej ograniczonej nadkładem nieprzepuszczalnym, która nie jest w całości wypełniona wodą, występuje zwierciadło swobodne ( Rys. 1 w rozdziale Warstwy wodonośne). W tego typu warstwach może też pojawiać się okresowo zwierciadło napięte, jeżeli warstwa zostanie całkowicie wypełniona wodą. Możliwe jest wystąpienie w różnych częściach jednej warstwy wodonośnej zwierciadła swobodnego oraz zwierciadła napiętego i piezometrycznego."], "definitions": [{"name": " Definicja 1: Zwierciadło wód podziemnych ", "content": " Powierzchnia, poniżej której pory w skale są\ncałkowicie nasycone wodą nazywana jest zwierciadłem wód gruntowych. Jest to powierzchnia\nograniczająca od góry strefę saturacji, czyli strefę występowania wód podziemnych [1], [2], [3].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1530, "subject": "Warstwy wodonośne", "paragraphs": ["Wyróżnia się też szereg odmian ośrodka wodonośnego [3], są to:"], "definitions": [{"name": " Definicja 1: Warstwa wodonośna ", "content": " Warstwa wodonośna to warstwa skalna, której własności\numożliwiają gromadzenie, przewodzenie i oddawanie wody. Może mieć formę pojedynczej warstwy skalnej\nlub składać się z kompleksu warstw wodonośnych, dlatego też używany jest zamiennie termin\npoziom wodonośny. Z praktycznego punktu widzenia, warstwa wodonośna zawiera możliwe do\nwydobycia wody podziemne [1], [2]. Ośrodek wodonośny to utwory skalne zawierające wodę wolną [3].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1531, "subject": "Porowatość i przepuszczalność", "paragraphs": ["Ze względu na formę wolnych przestrzeni w skale wyróżniana jest porowatość, szczelinowatość i krasowatość [4]. W tym ujęciu (1) szczelinowatość i krasowatość zalicza się do porowatości wtórnej. Dla określenia ilościowego porowatości nie ma znaczenia, w jakim procesie ona powstała.", "Rozmiar porów ma znaczenie dla sposobu przemieszczana się wody przez skały, w związku z tym wydziela się:", "Dla określenia ilości przestrzeni porowej używa się współczynnika porowatości objętościowej n, nazywanego też w skrócie porowatością [4]. Określa go wzór \\(n=\\frac {V_p}{V}\\), gdzie \\(V_p\\) to objętość porów w próbce skalnej, a V to całkowita objętość próbki. Względny udział porów w budowie skały określa wskaźnik porowatości \\(\\in =\\frac {V_p}{V_s}\\), gdzie \\(V_s\\) to objętość szkieletu skalnego próbki.", "Jednostką przepuszczalności jest darcy, który jest równoważny przepływowi jednego centymetra sześciennego cieczy na sekundę przez próbkę o powierzchni jednego centymetra kwadratowego w polu przekroju poprzecznego pod ciśnieniem jednej atmosfery na centymetr kwadratowy."], "definitions": [{"name": " Definicja 1: Porowatość ", "content": " Porowatość określa istnienie w skale wolnych przestrzeni zwanych porami\n(Rys. 1). Mianem tym także nazywana jest objętość wolnych przestrzeni [1], [2], [3]. Porowatość pierwotna\njest własnością skały istniejącą od czasu jej powstania, natomiast porowatość wtórna tworzy się\nw skale przez działalność później zachodzących procesów, np. rozpuszczania, rekrystalizacji [1].\n"}, {"name": " Definicja 2: Przepuszczalność ", "content": " Przepuszczalność to zdolność materiału porowatego do\nprzepuszczania cieczy. Wyraża się ona jako prędkość, z jaką ciecz o określonej lepkości, pod wpływem\nzadanego ciśnienia, przepływa przez próbkę o określonym przekroju i grubości. Przepuszczalność w dużej\nmierze zależy od wielkości i kształtu porów, od wielkości, kształtu i rozmieszczenia ziaren. Zależy nie tylko od\nwłasności skały, ale również od własności cieczy, która przez skałę przepływa (zob. Odpływ podziemny wód\ngruntowych). "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1532, "subject": "Odpływ podziemny wód gruntowych", "paragraphs": ["Przy poziomym zwierciadle swobodnym, woda podziemna znajduje się w stanie spoczynku. Przypadek ten jest dość rzadki, gdyż przeważnie powierzchnia zwierciadła jest nachylona. Wody pozostają w ruchu i pod wpływem siły ciężkości przepływają z miejsc wyżej położonych do niżej położonych.", "Podobnie jak woda wsiąkowa, woda podziemna wykorzystuje system kanałów utworzony przez przestrzenie porów, szczelin lub pustek krasowych. Dla uproszczenia przyjmuje się że woda przepływa całym przekrojem warstwy wodonośnej i w związku z tym modelowe parametry przepływu są uśrednione [2]. Rys. 1 przedstawia modelowy przepływ wody podziemnej. H i h to wysokość zwierciadła wód, znajdującego się na różnych poziomach względem spągu warstwy wodonośnej. Odległość pomiędzy punktami, w których mierzona jest wysokość H i h określa się jako drogę przepływu L.", "Stosunek \\(\\frac {\\Delta h}{L}\\) przedstawia gradient hydrauliczny [1], przy czym \\(\\Delta h\\) = H-h. Dla \\(\\Delta h\\) oznacza różnicę ciśnień, gdyż wysokości słupa wody H i h, oznaczają ciśnienie hydrauliczne [1], [2].", "W 1856 r. francuski inżynier Henry Darcy sformułował wzór, w którym została określona prędkość przepływu v:", "gdzie k to przewodność hydrauliczna, zależna od właściwości skał przez które woda podziemna przepływa.", "Gradient hydrauliczny zmienia się w zależności od zmian wysokości zwierciadła swobodnego, które zależy od wielkości zasilania i podłoża, przy czym, wskutek małej prędkości wsiąkania, reakcja zwierciadła wód gruntowych jest opóźniona w stosunku do przyczyny. Zmiany wysokości zwierciadła wód gruntowych są regularnie mierzone w sieci obserwacyjnej Instytutu Meteorologii i Gospodarki Wodnej.", "Gradient hydrauliczny ulega zmianie również w przypadku poboru wody ( Rys. 1 w rozdziale Zwierciadła wód gruntowych) i przepływu wody podziemnej w kierunku otworu studziennego. Różnica ciśnień kształtuje się w zależności od zwierciadła dynamicznego. Powstaje lej depresyjny wyznaczający obszar zasilania studni [2].", "Woda podziemna wydostaje się na powierzchnię w źródłach (zob. Odpływ powierzchniowy wód gruntowych i źródła), wpływa też do rzek, jezior i mórz. Przepływ wód podziemnych od czasu infiltracji do czasu wydostania się na powierzchnię nazywany jest odpływem wód gruntowych, można też używać terminu odpływ całkowity. Dla określenia ilości wody podziemnej odpływającej z określonego obszaru w danym czasie, np. dniu, miesiącu, roku [3], [4], [5] stosuje się termin odpływ podziemny."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1533, "subject": "Wody artezyjskie", "paragraphs": ["Położenie zwierciadła piezometrycznego ponad powierzchnią Ziemi, występuje gdy:", "Strefa ciśnień artezyjskich rozpoczyna się w miejscu, gdzie zwierciadło piezometryczne przecina powierzchnię utworów nieprzepuszczalnych (Rys. 2). Po przebiciu zwierciadła wód warstwy wodonośnej nastąpi samoczynny wypływ wód. W obszarze, gdzie zwierciadło piezometryczne znajduje się w obrębie utworów nieprzepuszczalnych, występuje strefa ciśnień subartezyjskich i woda nie podlega samowypływowi [3].", "Wody głębinowe mogą być również artezyjskimi, jeśli znajdują się pod wystarczającym ciśnieniem wywołanym przez naciski skał otaczających. Struktura geologiczna, w której występują wody artezyjskie ma najczęściej charakter niecki (synkliny), monokliny obciętej masywem skał nieprzepuszczalnych lub strefą uskokową wypełnioną utworami nieprzepuszczalnymi. Niecki nazywane są zwykle basenami artezyjskimi."], "definitions": [{"name": " Definicja 1: Wody artezyjskie ", "content": " Wody artezyjskie to wody podziemne wgłębne, których zwierciadła\npiezometryczne znajdują się powyżej powierzchni Ziemi, nad warstwą wodonośną, która je zawiera. Przebicie\nzwierciadła tych wód powoduje powstanie samoczynnego wypływu [1], [2], [3]. Woda artezyjska może\nwypływać również samoczynnie w źródłach artezyjskich, jeżeli warstwa wodonośna połączona jest z\npowierzchnią terenu wąskimi kanałami występującymi w obrębie utworów nieprzepuszczalnych.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1535, "subject": "Wody mineralne i termalne", "paragraphs": ["Ilościowym wyrazem stopnia mineralizacji wód jest określenie ciężaru osadu, jaki pozostaje po odparowaniu 1 litra wody w temp. 105 \\(^{\\circ }\\)C (Rys. 1). Na tej podstawie, umownie dzieli się wody podziemne na trzy grupy:", "Skład chemiczny i stopień mineralizacji wody jest zależny od składu mineralnego skał, w których te wody występowały, głębokości ich zalegania oraz czasu, w którym przebywały w ośrodku skalnym.", "W wodach podziemnych wykryto dotychczas 50 naturalnych pierwiastków z 88 występujących w przyrodzie [3]. Dzielą się one na:", "Gazy, takie jak dwutlenek węgla, siarkowodór czy radon, dostają się do wody wskutek procesów zachodzących w głębi Ziemi.", "Ze względu na skład chemiczny w obrębie wód mineralnych wyróżniane są [2], [3]:", "Do wód leczniczych, swoistych zaliczane są wody termalne.", "Powyższa definicja stosowana jest w Polsce, a oparta jest na tradycji lecznictwa uzdrowiskowego. Według innych podziałów, za wody termalne uważa się wody, które mają wyższe temperatury od średniej tempery rocznej w obszarze ich występowania [7] (np. we Francji). W niektórych krajach te temperatury są wskazywane, np. we Włoszech temperatura wód termalnych powinna przewyższać o 5\\(^{\\circ }\\)C średnie temperatury roczne.", "Wody termalne wypływają w źródłach lub są pobierane w odwiertach. Źródła termalne najczęściej związane są z wulkanizmem (zob. Zjawiska powulkaniczne). Mogą również występować na obszarze o podwyższonym gradiencie geotermicznym, np. plam gorąca (zob. Pióropusze płaszcza i plamy gorąca)."], "definitions": [{"name": " Definicja 1: Wody mineralne ", "content": " Wodami mineralnymi nazywamy wody zawierające w\nlitrze ponad 1000 mg rozpuszczonych związków mineralnych [1], [2]. Zawierają jony rozpuszczonych\nskładników stałych, jak również gazy, takie jak dwutlenek węgla, metan, siarkowodór czy radon.\n"}, {"name": " Definicja 2: Wody termalne ", "content": " Wody termalne to wody podziemnie, których temperatura wynosi co\nnajmniej 20\\(^{\\circ }\\)C na wypływie ze źródła lub z odwiertu [6]. "}, {"name": " Definicja 3: Gradient geotermiczny ", "content": " Współczynnik określający przyrost temperatury na jednostkę\nprzyrostu głębokości nazywany jest gradientem geotermicznym. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1534, "subject": "Odpływ powierzchniowy wód gruntowych i źródła", "paragraphs": ["Do źródeł nie zaliczają się źródliska, czyli nieskoncentrowane wypływy, które mają formę wielu sączeń (Rys. 1A). Źródliska obejmujące znaczne obszary i powodujące zabagnienia lub rozwój torfowisk nazywane są młakami, zaś małe źródliska nie tworzące bagien są określane jako wysięki lub wycieki. Termin źródlisko może stosowany również na określenie zespołu źródeł występujących blisko siebie [1].", "Źródła od dawna są ważne dla ludzi jako źródło słodkiej wody, zwłaszcza w suchych regionach, w których roczne opady są stosunkowo niewielkie (Rys. 2).", "Źródła klasyfikowane są w oparciu o różne kryteria. Powszechnie wykorzystywany jest podział bazujący na budowie geologicznej miejsca wypływu wód i zgodnie z nim wyróżnia się źródła [2], [3], [4]:", "Ze względu na lokalizację wydzielane są źródła [1]:", "Biorąc pod uwagę kierunek wypływu wody wydziela się się źródła [1], [2]:", "Według podziału uwzględniającego typ skały, z której wypływa woda wyróżnia się źródła [1]:"], "definitions": [{"name": " Definicja 1: Źródło ", "content": " Źródłem nazywa się naturalny i skoncentrowany wypływ wody podziemnej na\npowierzchni terenu, który rozpoczyna przepływ powierzchniowy. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1536, "subject": "Erozja, transport i akumulacja podziemna", "paragraphs": ["Erozja podziemna polega na usuwaniu fragmentów skały i tworzeniu pustych przestrzeni. Zachodzi przez:", "Istotne znaczenie erozyjne mają dwa procesy:", ".", "W procesie erozji podziemnej tworzone są pory oraz większe pustki o typie jaskiń (zob. Kras podziemny i jego formy).", "Roztwory powstałe w wyniku ługowania zawierają związki chemiczne, które mogą tworzyć wody zmineralizowane. Jeżeli cząstki są bardzo drobne, tworzą zawiesinę koloidalną.", "Wody podziemne przemieszczają usunięte fragmenty skały oraz zawiesinę koloidalną w procesie transportu podziemnego i wynoszą je na powierzchnię terenu lub odkładają we wnętrzu Ziemi. Akumulacja podziemna obejmuje przede wszystkim proces wytrącania związków z roztworów, w efekcie czego powstają krasowe formy naciekowe (Rys. 1A), (zob. Kras podziemny i jego formy) oraz kolmatację.", "Związki chemiczne z krążących wód podziemnych krystalizują w porach lub szczelinach. Najpowszechniej dochodzi do wytrącania węglanu wapnia, który tworzy spoiwa w skałach klastycznych lub występuje w skupieniach sekrecyjnych. Szczególnie pospolite są sekrecje lateralne mające postaci żył kalcytowych. Żyły zawierające związki mineralne często tworzą złoża kopalin użytecznych. Najczęściej tego typu złoża powstają z krystalizacji związków zawartych wodach juwenilnych (zob. Infiltracja i Woda w skałach).", "Do kolmatacji zaliczane jest również sztuczne osadzanie związków chemicznych [7]. Proces ten jest jedną z metod poprawy własności geotechnicznych podłoża budowlanego."], "definitions": [{"name": " Definicja 1: Kolmatacja ", "content": " Kolmatacja polega na osadzaniu cząstek ilastych i koloidalnych w porach\nszkieletu mineralnego skał. Proces ten następuje na skutek zmniejszania się spadku hydraulicznego lub\nzwiązanej z nim zmiany prędkości przepływu wody podziemnej i zmniejszenia się zdolności filtracyjnych [6].\nJest przeciwieństwem sufozji. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1539, "subject": "Wieczna zmarzlina", "paragraphs": ["Granica pomiędzy warstwą czynną, a wieczną zmarzliną właściwą stanowi zwierciadło (lustro) zmarzliny. W obrębie wiecznej zmarzliny wyróżnia się warstwę przejściową, tzw. pereletok oraz warstwę wewnątrz wiecznej marzłoci, która okresowo odmarza, zwaną talikiem [1], [2], [3].", "Liniowy i ciągły rozkład temperatur w gruncie powoduje nierównomierne tempo zamarzania warstwy czynnej jesienią (listopad, grudzień). Przy powierzchni terenu grunt zamarza w październiku, a na głębokości 1-2 metrów grunt zamarza dopiero w grudniu. Powoduje to uwięzienie niezamarzniętej warstwy między powierzchnią gruntu, a wieczną marzłocią [4]. W strefie tej znajduje się uwięziony lód (Rys. 2).", "Wskutek wzrostu objętości wody występującej w podłożu, podczas zamarzania następują deformacje powierzchni terenu związane z jej lokalnym podnoszeniem. Typową formą morfologiczną jest pingo, czyli pagór o lodowym jądrze. Powstaje on wskutek działania ciśnienia kriostatycznego [2], podobnie, jak się to dzieje przy tworzeniu bugrów. Wysokość pingo wnosi na ogół do 30 m (ale były opisywane formy o wysokości nawet do 70 m). Ma kształt wzgórza o wyrównanym wierzchołku, który może być rozerwany lub zapadnięty na kształt krateru odsłaniając lód jądrowy [4]."], "definitions": [{"name": " Definicja 1: Wieczna zmarzlina ", "content": " Terminem wieczna zmarzlina określa się przypowierzchniową\nwarstwę Ziemi, w której przez okres co najmniej 2 lat utrzymuje się stale temperatura poniżej\npunktu zamarzania. Wieczna zmarzlina może być sucha, gdy nie zawiera lodu jako materiału\ncementującego (np. w litej skale lub suchym piasku) lub wilgotna, gdy występuje w podłożu o\npewnej zawartości wody i wolne przestrzenie między cząstkami podłoża zajmuje lód [1], [2], [3].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1540, "subject": "Kras", "paragraphs": ["W zależności od miejsca oddziaływania krasu i występowania form krasowych, kras dzielony jest na:", "Kras, który już się nie rozwija, a którego formy zostały przykryte osadami młodszymi nazywamy krasem kopalnym [1].", "Najbardziej znanym procesem krasowym jest kras węglanowy. Węglan wapnia \\(CaCO_3\\) rozpuszcza się w wodzie zawierającej dwutlenek węgla. Proces rozpuszczania określają reakcje:"], "definitions": [{"name": " Definicja 1: Kras ", "content": " Kras (krasowienie) to zespół procesów, które związane są z ługowaniem skał\nłatwo rozpuszczalnych przez wody powierzchniowe i podziemne. Procesy te prowadzą do powstania\ncharakterystycznych podziemnych i powierzchniowych form z rozpuszczania, zwanych formami krasowymi. Na\nznacznie mniejszą skalę zachodzi akumulacja krasowa, polegająca przede wszystkim na wytrąceniu wcześniej\nrozpuszczonych związków.\nTerminem kras określa się też charakterystyczną rzeźbę i formy powstałe w wyniku tych procesów [1], [2].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1541, "subject": "Czynniki warunkujące rozwój krasu", "paragraphs": ["Czynnikami wpływającymi na tempo procesów krasowych w wapieniach są:", "Zjawiska krasowe rozwijają się najlepiej w klimacie wilgotnym, ciepłym, ale nie gorącym, są mocno ograniczone w klimacie suchym [2], [1], [3]. Korzystne dla procesów krasowienie jest występowanie niskiego lub zmiennego zwierciadła wód gruntowych.", "Zjawiska krasowe są wykorzystywane do magazynowania (sekwestracji) dwutlenku węgla, który zostaje związany przez wejście w reakcję chemiczną ze skałą krasowiejącą."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1542, "subject": "Kras powierzchniowy", "paragraphs": [], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wód podziemnych", "subject_id": 1543, "subject": "Kras podziemny i jego formy", "paragraphs": ["Do form krasu erozyjnego zaliczane są:", "Różnica między kominami, a studniami krasowymi nie jest całkiem jasna, na ogół przyjmuje się że kominy krasowe są to kanały eksplorowane od dołu, natomiast studnie krasowe od góry.", "Formy akumulacyjne powstają w wyniku osadzania się węglanu wapnia. Proces ten związany jest z utratą dwutlenku węgla z wód i parowaniem [1].", "Wyróżnia się kilka typów charakterystycznych form, które ze względu na charakter nazywa się naciekami. W ich obrębie występują:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1848, "subject": "Lodowce i warunki ich funkcjonowania", "paragraphs": ["Przykrycie powierzchni Ziemi przez lód nazywa się glacjacją, a odsłonięcie obszaru z pod lodu - deglacjacją. Podczas glacjacji i deglacjacji zachodzą różne procesy angażujące wodę, dlatego w ich obrębie wyróżnia się:", "Procesy te są ze sobą powiązane i funkcjonują wspólnie w obrębie sytemu glacjalnego [1]. Obecność lodu reguluje przebieg procesów. Wchodzi on w skład powierzchniowych struktur Ziemi lub tworzą się z niego formy nazywane lodowcami.", "Warunki funkcjonowania lodowców", "Do rozwoju i funkcjonowania lodowców potrzebne są określone warunki zewnętrzne. Umożliwiają one wytworzenie i utrzymanie na powierzchni Ziemi podstawowego budulca lodowca, czyli lodu lodowcowego. Warunki te są natury 1 [2], [3], [4]:", "Warunki klimatyczne zabezpieczają pozyskanie budulca dla lodowca, czyli odpowiednią ilość opadu śnieżnego oraz jego trwałość. Istotne znaczenie mają:", "Warunki klimatyczne sprzyjające tworzeniu się lodowców występują powyżej granicy wiecznego śniegu [2], [5], [6], [7], [4], [8]. Jest to wysokość, ponad którą bilans roczny opadów śnieżnych jest dodatni, czyli dostawa przewyższa ubytek śniegu. Granica ta zmienia swoje położenie wraz z szerokością geograficzną. Najwyższe wysokości bezwzględne, przekraczające 5 000 m n.p.m., osiąga w rejonach okołorównikowych i podzwrotnikowych. Kolejno ku północy i ku południowi jej poziom sukcesywnie się obniża i finalnie na biegunach dochodzi do poziomu morza (Rys. 1). Granica wiecznego śniegu jest dobrze widoczna w okresach letnich, gdy zanika śnieg nietrwały i zostaje tylko pokrywa stale zalegającego śniegu.", "Warunki morfologiczne zabezpieczają miejsce, w którym dochodzi do powstania lodowca. Nazywane jest ono polem firnowym [5], [4], [8].", "Lodowce mają różne wykształcenie i z uwagi na formę dzielone są na:"], "definitions": [{"name": " Definicja 1: Lodowiec ", "content": " Lodowiec to przemieszczająca się pod wpływem własnego ciężaru masa\nlodowa, która powstała z przekształcenia śniegu. Oprócz lodu, lodowiec zawiera materiał klastyczny oraz mogą\nw nim występować wody w stanie płynnym. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1849, "subject": "Akumulacja śniegu", "paragraphs": ["Istotne znaczenie dla gromadzenia się mas śnieżnych ma morfologia pola firnowego. Stanowi ono zbiornik o określonym kształcie i pojemności, który jest zdolny do zatrzymania znacznej objętości śniegu. Zwykle jest to jednostronnie otwarta forma. Znajduje się na zboczu lub pomiędzy zboczami i ma charakter misy. Jej dolna powierzchnia jest łukowato wygięta i słabo nachylona w kierunku stoku. Od zaplecza pole firnowe otoczone jest przez strome ściany. Jest to powierzchnia akumulacyjna, z której osad śnieżny doprowadzany jest do pola firnowego (Rys. 1). Pola firnowe powstają na miejscu niewielkich zagłębień lub zrównań, zwykle dziedziczą obniżenia lejów źródłowych lub krasowych, nisze osuwiskowe i niwacyjne czy spłaszczenia denudacyjne.", "Pole firnowe spełnia dwa zasadnicze zadania [3], [4], [5]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1850, "subject": "Diageneza śniegu", "paragraphs": ["Śnieg powstaje w obrębie atmosfery i tworzy się w procesie krystalizacji wody. Zbudowany jest z niewielkich kryształów lodowych, które łączą się większe struktury, nazywane płatkami. Kryształy śniegu są symetryczne i mają różną formę, zależną od temperatury, w której zachodzi ich krystalizacja. Powstają przez nadbudowanie kryształu heksagonalnego. Zwykle są dendrytyczne, płaskie i sześcioramienne lub przyjmują formy wydłużone. Ich wielkość wynosi od ułamków milimetra do kilku milimetrów. Pokrywa śnieżna ma gęstość około 0,05-0,1 g/cm\\(^3\\) i jest utworem porowatym, który zawiera średnio 90% powietrza. Pod wpływem ciśnienia nadkładu ulega kompakcji, co powoduje sukcesywny wzrost jej gęstości i spadek porowatości. Dochodzi też do rekrystalizacji, w wyniku której śnieg przekształcony zostaje w firn (szreń), czyli zbiór niewielkich ziaren lodu. Firn ma gęstość około 0,3 – 0,6 g/cm\\(^3\\), zawiera 50% powietrza i składa się z ziaren wielkości około 1 mm (Rys. 1). W wyniku obtapiana powierzchni ziaren firnowych i krystalizacji wody w przestrzeniach międzyziarnowych, ziarna firnu zostają spojone ze sobą cementem lodowym. W tym procesie tworzy się kolejna forma diagenetyczna nazywaną lodem firnowym. Lód firnowy może powstać też bez udziału wody i tworzy się przez rozrost kryształów i ich wzajemne połączenie [3]. Zmniejszenie przestrzeni porowej powoduje przyrost jego ciężaru. W lodzie firnowym znajduje się około 20-30% powietrza, a jego gęstość oscyluje pomiędzy 0,6-0,8 g/cm\\(^3\\). W wyniku rekrystalizacji lodu firnowego dochodzi do powstania lodu lodowcowego (Rys. 2). Jest on formą dojrzałą i finalną procesu diagenezy. Lód lodowcowy jest ciałem w pełni krystalicznym, o gęstości wynoszącej około 0,8 g/cm\\(^3\\). Ma strukturę zbitą i zawiera do 20% powierza (Rys. 1). Składa się z kryształów mających wielkości milimetrów, które pod wpływem ciśnienia ulegają rekrystalizacji i sukcesywnie zwiększają swoje rozmiary. Wraz ze wzrostem kryształów ubywa w lodzie powietrza i innych inkluzji, co prowadzi do wzrostu jego gęstości i przezierności. Duże, kilkucentymetrowej wielkości kryształy lodu lodowcowego występują w tzw. lodzie niebieskim. Jest to lód wieloletni, którego błękitna barwa jest efektem pochłaniania światła czerwonego [12], [13], [14], [9]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1851, "subject": "Lodowce górskie", "paragraphs": ["Typy lodowców górskich", "Lodowce górskie mają różne formy. Ze względu na nie wyróżnia się [5], [1], [2], [3]:", "Lodowiec dolinny (alpejski) jest lodowcem prostym (Rys. 1, Rys. 2). Składa się z jednego jęzora lodowego, który zasilany jest z pojedynczego pola firnowego (ewentualnie kilku blisko siebie położonych pól). Wielkość jęzora około dwukrotnie przewyższa wielkość pola firnowego.", "Lodowiec dendrytyczny (himalajski) jest typem lodowca złożonego (Rys. 1, Rys. 2). Powstaje przez połączenie co najmniej kilku jęzorów lodowych, które zasilane są z odrębnych pól firnowych. Zespolenie form jednostkowych prowadzi do utworzenia znacznej długości strumienia lodu.", "Lodowiec karowy (pirenejski) jest niewielkim lodowcem o zerowym lub prawie zerowym bilansie masy lodu (Rys. 1, Rys. 3). Jego głównym elementem jest pole firnowe, natomiast jęzor lodowy nie występuje lub jest mocno zredukowany i bardzo krótki. Pionowo spływający jęzor, który ma formę lodospadu nazywany jest lodowcem wiszącym. Powstaje przy polach firnowych graniczących z przewieszkami lub bardzo stromymi ścianami skalnymi. Zwykle taki jęzor podlega skracaniu przez obrywy. W sprzyjających warunkach z nagromadzenia koluwialnych bloków lodowych może wytworzyć się lodowiec, który nazywany jest regenerowanym.", "Lodowiec turkiestański jest specyficzną formą lodowca, który zasilany jest bezpośrednio przez lawiny i zsuwy śnieżne. Składa się z jęzora lodowego, natomiast rolę pola firnowego przejmuje, znajdujący się na szczycie jęzora stożek śnieżny.", "Lodowiec piedmontowy (podgórski) stanowi formę powłoki lodowej występującej na przedpolu wzniesień (Rys. 1, Rys. 3). Powstaje ona przez zespolenie kilku strumieni lodowych, które wychodzą z sąsiadujących dolin. Jęzory lodowcowe, które opuszczają dolinę tracą podparcie boczne i rozlewają się tworząc niegrubą, ale szeroką pokrywę. Z połączenia takich pokryw powstaje lodowiec piedmontowy."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1852, "subject": "Lodowce kontynentalne i kopuły lodowe", "paragraphs": ["Lodowce kontynentalne [1], [2], [3], [4], [5] są rozległymi, wielkoobszarowymi pokrywami lodowymi, które ze względu na zasięg regionalny zwane są lądolodami (Rys. 1, Rys. 2). Mają formę czasz, które pokrywają rozległe obszary lądowe. Najwyższe miąższości, które liczone są w pojedynczych kilometrach, osiągają w częściach centralnych. Prędkość płynięcia lodu w lądolodach jest zróżnicowana. Występują w nich strumienie szybko płynącego lodu, zwykle zakończone lobami. Są to szerokie i obłe wypustki, które wychodzą na przedpole ogólnej linii czaszy. Lądolody rozwijają się w obszarach o nisko położonej granicy wiecznego śniegu.", "Z lodowcami kontynentalnymi zwykle są związane lodowce szelfowe (pływające) [1], [2], [3]. Mają one formę tafli lodowej przykrywającej obszar zbiornika morskiego, która jest kontynuacją lodowca znajdującego się na lądzie (Rys. 1, Rys. 3). Ze względu na mniejszą gęstość w stosunku do wody lodowiec szelfowy unosi się na jej powierzchni. Czoła lodowców szelfowych są poddawane intensywnemu niszczeniu przez falowanie. Odspojone od nich bloki lodu martwego tworzą góry lodowe i dryfują w zbiorniku. Duże pływające bloki nazywane są górami lodowymi, mniejsze - glowlerami. Trwałość bloków lodowych jest niewielka i podlegają one szybkiej ablacji. Lodowce szelfowe powstają również przez wpływanie do akwenów wodnych lodowców piedmontowych.", "Kopuły lodowe są niedużymi powłokami lodowymi, które pokrywają szczytowe obszary gór. Nazywane są lodowcami fieldowymi (norweskimi) [1], [3], [4], [6]. Mają formę niewielkich czasz, od których we wszystkich kierunkach odchodzą jęzory lodowcowe. Lodowce te powstają w obszarach o nisko położonej granicy wiecznego śniegu."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1855, "subject": "Bilans masy i rozwój lodowców", "paragraphs": ["Czynnikiem ablacyjnym jest przede wszystkim ciepło, które dostarczane jest przez promieniowanie słoneczne, zwane insolacją. Działa ono bezpośrednio lub pośrednio przez ciepłe masy powietrza (w tym strumienie wiatru), nagrzane masy skalne (zbocza i materiał skalny na powierzchni lodu), oddawane jest przez wody przepływające po i wewnątrz lodowca lub opady deszczu. Ciepło dostarczane jest też z wnętrza Ziemi i powoduje ono zmniejszanie masy lodu od strony stopy lodowca. Na ubytek lodu ma również wypływ niszczenie mechanicznie. Zachodzi ono przez tarcie, w trakcie przemieszczania się lodowca po podłożu, przez powierzchniowe ruchy masowe lodu i materiału klastycznego oraz przez mechaniczne oddziaływanie wiatrów (korazja, deflacja) i wód (np. falowanie, erozja wgłębna i wsteczna, eworsja).", "Stadia rozwoju lodowca", "Wyprodukowany w polach firnowych lód lodowcowy jest odprowadzany do jęzorów lodowcowych. Ilość lodu w obrębie lodowca ulega zmianom, które zależą od ilości wytworzonego lodu oraz od stopnia ablacji. W zależności od ogólnego bilansu lodu wyróżnia się trzy fazy rozwoju lodowca [2], (Rys. 1):", "Określanie faz rozwoju lodowca odbywa się przez obserwacje zasięgu czoła jęzora lub lobu lodowego.", "Bilans masy lodowca", "Ablacja zachodzi podczas każdego etapu rozwoju lodowca i rozpoczyna się już wraz z akumulacją śniegu na polu firnowym. Ablacja jest mniejsza w części proksymalnej lodowca i większa w strefie dystalnej. W każdym lodowcu można wskazać strefy, w których występuje przeciwny bilans masy (Rys. 2), [4], [2], [3], [5], [6], [7], Są to:", "Pomiędzy tymi strefami występuje obszar o zerowym bilansie masy lodowca, przez który przebiega linia odcinająca strefę akumulacji od ablacji. Zwana jest ona linią równowagi bilansowej i dla lodowców górskich podawana jest jako wysokość bezwzględna, zwykle oscylująca wokół granicy wiecznego śniegu. Na jej położenie wpływa szereg czynników zewnętrznych i jest ona wyznaczana indywidualnie dla poszczególnych lodowców [8], [9]."], "definitions": [{"name": " Definicja 1: Ablacja ", "content": " Zespół procesów, które prowadzą do ubytku śnieżno-lodowej masy w lodowcach\nnazywa się ablacją lodowcową. Zachodzi ona przez [1], [2], [3]:\n\ntopnienie, czyli rozpuszczanie lodu i przejście wody ze stanu stałego w stan płynny,\n\nsublimację, czyli parowanie i przejście wody ze stanu stałego w stan gazowy.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1853, "subject": "Ruch lodowca", "paragraphs": ["Prędkość ruchu lodowca", "Prędkość z jaką przemieszczają się masy lodu w obrębie lodowca jest zróżnicowana. Uzależniona jest ona od ciśnienia, jakie wywierane jest na masy lodu, morfologii podłoża, w tym spadku terenu oraz hamującej siły tarcia o podłoże lodu i niesionego w lodzie materiału klastycznego. Najszybciej przemieszczany jest lód w części centralnej jęzorów i lobów. Prędkość jego płynięcia spada ku częściach brzegowym i dennym (Rys. 1), [1], [2], [3].", "Mechanizmy ruchu lodowca obejmują [4], [1], [5], [6], [7], [3]:", "Plastyczne płynięcie jest efektem deformacji wewnętrznych lodu, które zachodzą w warunkach ciśnienia wywołanego śnieżno-lodowym nadkładem. Pod wpływem nacisku krystaliczna masa lodowa ulega uplastycznieniu i odkształceniom. Rozkład naprężeń w lodzie zależny jest od konfiguracji podłoża i masy lodu [8], [3]. Rośnie wraz ze wzrostem kąta nachylenia podłoża oraz grubości lodu. Na podłożu o zróżnicowanej morfologii następują zmiany układów naprężeń. Na terenie o wzrastającym nachyleniu, lód poddawany jest rozciąganiu (tensji), co powoduje wzrost tempa deformacji i szybsze przemieszczanie się lodowca. Na terenie o malejącym spadku zachodzi ściskanie (kompresja), które powoduje zwolnienie tempa deformacji i spadek prędkości ruchu. Układy naprężeń wpływają na ukierunkowanie przepływu lodu. W reżimie rozciągającym przepływy są skierowane ku dołowi i następuje ruch aktywny, natomiast w ściskającym ku górze, co wywołuje ruch pasywny [9], [10], [8], [3].", "Zróżnicowany układ naprężeń w lodzie powoduje wytworzenie płaszczyzn ścinania, wzdłuż których następuje przesuwanie się całych pakietów lodowych (Rys. 2). Pod naporem lodu w reżimie tensyjnym (na obszarze o rosnącym nachyleniu) tworzą się płaszczyzny ścinania nachylone ku stopie lodowca, natomiast w reżimie kompresyjnym (na obszarze o malejącym nachyleniu) tworzą się płaszczyzny ścinania, które są nachylone ku górze. Wymiernym efektem rozciągania jest powstawanie szczelin w lodowcu (Rys. 2). Lód poddany naprężeniem rozciągającym najpierw ulega odkształcaniu plastycznemu, a po przekroczeniu granicy wytrzymałości na rozciąganie pęka. W powierzchniowej części jęzora ciśnienie jest niewielkie, więc lód jest kruchy i łatwo ulega deformacjom ciągłym [3], [11], [1].", "Ruch lodowca może być wspomagany przez ślizg denny. Odbywa się on przy współudziale wody występującej w stopie lodowca. Woda zmniejsza tarcie i ułatwia ruch. Tworzy cienką warstwę pomiędzy lodem a podłożem. Może też występować w stropowych częściach podłoża lub znajdować się w obrębie warstewki regelacyjnej. Proces, który odbywa się przez cykliczne topienie lodu i zamarzanie wody w stopie lodowca nazywa się regelacją (Rys. 3). Jest on wywołany przez niewielkie zmiany ciśnienia, które są wynikiem miejscowego zwiększenia nadkładu lodowo-śnieżnego lub powstają przy pokonywaniu nierówności podłoża. Przy zwiększonym ciśnieniu następuje wytapianie wody z lodu i jej odprowadzanie do stref objętych niższym ciśnieniem, gdzie następuje jej powtórne zamarznięcie. W stopie lodowców tworzy się cienka warstewka regelacyjna, po której, zwłaszcza na podłożu nachylonym, dochodzi do przemieszczeń lodu. Jest ona utworzona z wody, kryształów lodu oraz drobno- i średnioziarnistego materiału klastycznego [1], [12], [14]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1854, "subject": "Warunki termiczne lodowców", "paragraphs": ["Lodowce ciepłe", "Profil temperaturowy lodowców ciepłych ma trend wzrostowy. Najniższa temperatura występuje w stopie lodowca i sukcesywnie wzrasta ku górze w profilu lodu. Najwyższe temperatury, dochodzące prawie do 0\\(^{\\circ }\\)C, lód osiąga w części powierzchniowej (Rys. 1). Ciśnienie wpływa na obniżenie temperatury topnienia lodu. Wartości temperatur i układ ciśnień, jaki wywołują masy nadkładu powodują, że w całym profilu lodowca ciepłego lód znajduje się w warunkach bliskich topnienia i przy każdym nieznacznym spadku ciśnienia dochodzi do jego wytapiania. Taki reżim sprawia, że lodowce ciepłe są bogate w wody. Powstają one z lodu wewnętrznego przy lokalnych zmianach ciśnienia oraz w strefie zewnętrznej przez topienie powierzchni lodowca. W stopach lodowców powszechnie występują warstewki wodne lub warstwy regelacyjne (Rys. 2), które wpływają na zwiększenie ich tempa przemieszczania się. Wody supraglacjalne wpływają do wnętrza lodowców, gdzie wspomagają ablację przez ogrzanie lodu. Topnienie wewnętrznych i zewnętrznych mas lodu ma znaczenie dla kształtu strefy czołowej lodowców ciepłych. Powoduje ono stopniowy zanik części dystalnych. Strefy te ulegają stopniowemu obniżeniu i kończą się zaokrągloną powierzchnią czołową (Rys. 3).", "Lodowce zimne", "W porównaniu do lodowców ciepłych, średnia temperatura lodu w lodowcach zimnych jest znacznie niższa. Ich profil termiczny jest odwrotny i wartości temperatur ku częściom powierzchniowym lodu mają trend spadkowy (Rys. 1). Temperatura stopy lodowca jest najwyższą temperaturą w profilu i jest znacznie niższa od temperatury topnienia lodu w warunkach przyłożonego ciśnienia. Stąd wewnętrzna ablacja jest mocno ograniczona. Lodowce zimne przemieszczają się powoli (Rys. 2). Nie wykształca się w nich system ślizgu dennego i często są przymarznięte stopą do podłoża. Wody występują tylko w ich strefach powierzchniowych i pojawiają się okresach ociepleń. Zanik części czołowej lodowców zimnych odbywa się przez ablację z wyraźnym wpływem niszczenia mechanicznego. Strefy czołowe kończą ostro zarysowane, strome klify lodowe, które formowane są przez obrywy (Rys. 3).", "Gdy profile termiczne lodu są bardziej skomplikowane i lodowce składają się z mas (warstw) lodu o różnej temperaturze wyróżniane są lodowce politermlane [11], [9]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1856, "subject": "Erozja lodowcowa", "paragraphs": ["Bezpośrednia erozja lodowcowa odbywa się w strefach pokrytych lodem poprzez [2], [3], [4], [5]:", "Pośrednia erozja lodowców polega na inicjowaniu powierzchniowych ruchów masowych przez zaburzenie stabilności znajdujących się nad lodowcem stoków.", "Erozja bezpośrednia", "Aktywność morfotwórcza lądolodów prowadzi do ogólnego wyrównania powierzchni terenu, natomiast działalność lodowców górskich skutkuje modyfikacją kształtu form już istniejących. Do takich form przeobrażonych należą:", "Typy form erozyjnych", "Cyrki lodowcowe [1], [6], [4] (kary) są misami zawieszonymi na stoku lub znajdującymi się w górnych częściach dolin, które funkcjonowały jako pola firnowe (Rys. 2). Posiadają one szeroką, wygiętą łukowato ku dołowi i wychyloną w kierunku spadku stoku strefę denną. Od zaplecza otaczają je strome ściany skalne, a od strony doliny, w miejscu, w którym odpływał jęzor lodowcowy, są one otwarte. Strefa denna została uformowana głównie przez detersję. Ściany cyrków były modelowane przez destrukcyjną działalność zamrozu oraz niszczące działanie powierzchniowych ruchów masowych. Rozrost pola firnowego związany jest z erozją wgłębną i wsteczną, dlatego cyrki wcinają się w stoki górskie.", "Z pól firnowych lód odprowadzany jest wzdłuż istniejących dolin, co prowadzi do ich pogłębienia i rozszerzenia. Następuje złagodzenie i zaokrąglenie ich przekroju poprzecznego, wyrównanie ich profilu pionowego oraz ograniczenie ich krętości (Rys. 2, Rys. 3). Doliny lodowcowe (żłoby lodowcowe) mają charakter prostych lub lekko krętych rynien erozyjnych [1], [6], [2], [4], [5], [7], które w profilu poprzecznym są U-kształtne.", "Doliny polodowcowe charakteryzuje łukowato wygięta strefa denna, która przechodzi w strome stoki obrzeżające. Obszary, które były przykryte lodem są wygładzone i urzeźbione glifami lodowcowymi. Wyrównany zostaje spadek dolin. Stopień wyrównania zależy od zaawansowania erozji oraz od odporności podłoża. W miejscach mniej podatnych na niszczenie powstają rygle, które są elementami morfologicznie pozytywnymi i stanowią podniesienia w dnach dolin. Kształtowanie dolin polodowcowych zachodzi przy zaawansowanej detersji i detrakcji.", "Dolne odcinki dolin lodowcowych, które zostały zalane przez wody morskie nazywane są fiordami (Rys. 4). Zwykle występują w zespołach i tworzą niewyrównaną linię brzegową. Charakteryzuje ją występowanie długich i głęboko wciętych w ląd zatok.", "Lodowce górskie funkcjonują jako formy proste, zajmujące jedną dolinę lub tworzą złożone struktury, które powstają przez dołączanie, spływających z dolin bocznych, jęzorów lodowcowych. Dna dolin bocznych położone są na różnych wysokościach. Mogą znajdować się na poziomie dna doliny głównej lub powyżej niego, tworząc doliny wiszące (zawieszone). Wówczas ich ujścia znajdują się na stokach doliny głównej.", "Mutony [6], [4], [5], [2] (barańce) to jednostronnie ścięte wzniesienia, uformowane przez erozyjne oddziaływanie przemieszczającego się po nich lodowca (Rys. 5, Rys. 6). Są asymetryczne w przekroju podłużnym. Mają długi, łagodnie nachylony i mocno zabradowany stok doprądowy, który był niszczony przez zaawansowaną detersję wpływającego na niego lodowca. Jest on wygładzony i urzeźbiony glifami. Od strony przeciwnej znajduje się znacznie krótszy i stromy stok zaprądowy, po którym następował ześlizg lodowca. Jeśli ześlizgowi towarzyszyła detersja, powierzchnia stoku zaprądowego jest nierówna i poszarpana, a u jego podnóża znajduje się nagromadzenie luźnego materiału klastycznego, pochodzącego z niszczenia abradowanego wzniesienia. Mutony powstają się przez modyfikację wyniosłości terenu zbudowanych ze skał twardych i kruchych.", "Cechy powierzchni erozyjnych", "W wyniku detersji na formach glacjalnych powstają struktury erozyjne [1], [6], [3], [8], [5], [9]. Powierzchnie wyrównane, gładkie i wypolerowane nazywane są wygładami lodowcowymi (Rys. 8). Powstają przez oszlifowanie skał podłoża, niesionym w masie lodu przydennego, drobnoziarnistym materiałem klastycznym. Powierzchnie te mogą być dodatkowo urzeźbione glifami lodowcowymi. Powszechnie występują rysy, które mają formę cienkich i płytkich rowków (Rys. 9). Są to nacięcia powierzchni skalnej wyryte przez ostre krawędzie przemieszczanego w stopie lodowca gruzu. Głębsze i wyrównane nacięcia, których głębokość liczona jest w centymetrach, nazywane są bruzdami. Rysy i bruzdy są formami prostolinijnymi, o przebiegu zgodnym z kursem przemieszczenia się lodu. Na wygładach lodowcowych mogą występować też zadziory, czyli blizny po odpryskach skalnych. Są to asymetryczne wgłębienia, zorientowane zgodnie z kierunkiem przemieszczania się lodowca. Od strony doprądowej są głębsze, nierówne i poszarpane, ku stronie zaprądowej ulegają wypłyceniu i zanikowi. Detersja szczególnie intensywnie zachodzi w lodowcach ciepłych, które aktywnie przemieszczają się po podłożu i mają w stopie dużą ilość materiału klastycznego.", "Erozja pośrednia", "Rozrost glacjalnych form erozyjnych, czyli ich poszerzanie boczne, wgłębne i wsteczne na poziomie dolin oraz pól firnowych powoduje podcinanie stoków górskich [10]. Zaburzenia stateczności na stokach znajdujących się powyżej lodowca wywołują ruchy masowe, głównie obrywy i osuwiska, co prowadzi do modyfikacji morfologii i wykształcenia coraz to stromszych i cofających się ścian skalnych. Erozja zachodząca z różnych stron jednego wzniesienia (np. rozwój kilku pól firnowych na tym samym szczycie) skutkuje powstaniem szczytów piramidowych, czyli ostrych kulminacji. W wyniku cofania się stoków rozdzielających dwa sąsiednie pola firnowe lub dwie doliny lodowcowe dochodzi do utworzenia się ostrych grani (ostrobrzegich grzbietów)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1857, "subject": "Osady pochodzenia lodowcowego", "paragraphs": ["Materiał ziarnisty zasila lodowiec w każdej fazie jego rozwoju i dostarczany jest do wszystkich jego części, zarówno dystalnych, jak i proksymalnych Rys. 1. Podlega on przemieszczaniu przez strumienie lodu oraz przez płynące wody lodowcowe i jest sukcesywnie odprowadzany w kierunku czoła i lobów lodowcowych. Finalnie zostaje on zdeponowany przed lodowcem tworząc skały okruchowe luźne. Duże nagromadzenia materiału klastycznego powstają również w okresach deglacjacji, podczas wytapiania masy lodowej i zaniku lodowców. Osadzany zostaje wówczas materiał zgromadzony w lodowcu. Zdeponowane skały mają różną formę oraz różne cechy strukturalne i teksturalne. Cechy te są kształtowane podczas transportu i depozycji, która zachodzi przez składowanie z lodu lub z wód lodowcowych. Ze względu na genezę, wśród osadów pochodzenia lodowcowego wyróżnia się:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1867, "subject": "Moreny lodowców górskich", "paragraphs": ["Typy moren", "Rozmieszczenie materiału skalnego w obrębie lodowca jest nierównomiernie (Rys. 2). Pewne obszary lodu zawierają jego większe ilości. Obfite nagromadzenia występują w strefach lodu kontaktującego z podłożem (Rys. 1). Zasobne w materiał klastyczny są również obszary lodu objęte ablacją, w których koncentracja materiału ziarnistego jest związana z ubytkiem lodu.", "Ze względu na położenie materiału w obrębie lodowca wydziela się różne typy moren, są to (Rys. 1), [3], [4], [5], [2], [6], [7], [8], [9]:", "Morena denna [1], [10], [6] to materiał skalny znajdujący się w stopie lodowca (Rys. 2, Rys. 5). Materiał ten pobierany jest z podłoża oraz pochodzi z wtapiana klastów, z nadległych partii lodu. Transport w stopie lodowca, który odbywa się pod ciśnieniem i w kontakcie z podłożem skalnym, powoduje rozdrabnianie materiału, głównie rozcieranie i kruszenie. Po depozycji moreny dennej powstaje utwór gliniasty, w którym znajdują się ziarna większych frakcji, w części wykazujące bardzo dobre obtoczenie (zob. Glina lodowcowa). Zawiera on znaczną ilość drobnookruchowego materiału, zwanego mączką skalną. Po recesji lodowca górskiego morena denna formuje powłokę, która wyściela dno doliny polodowcowej (Rys. 3). Po deglacjacji lądolodów powstaje rozległa pokrywa klastyczna o nierównej i pagórkowatej powierzchni.", "Morena boczna [5], [1], [10] jest nagromadzeniem materiału występującym wzdłuż krawędzi jęzora lodowcowego (Rys. 2). Zasilana ona jest okruchami skalnymi dostarczanymi przez powierzchniowe ruchy grawitacyjne, głównie obrywy, zsuwy oraz lawiny (zob. Erozja lodowcowa). Komponentem uzupełniającym jest materiał pochodzący z detrakcji i detersji przykrytych lodowcem, bocznych części doliny. Po ustąpieniu lodowca morena boczna formuje gruzowate wały, które zlokalizowane są obustronnie wzdłuż dna doliny. Typowy jest dla nich spory udział materiału grubokruchowego, w tym duża ilość gruzu. Moreny boczne są przemywane przez wody ablacyjne, które odprowadzają z ich powierzchni część materiału drobnookruchowego. Uwodnienie moreny bocznej powoduje powstanie spływów morenowych.", "Morena środkowa [1], [10], [6] jest liniowym nagromadzeniem materiału klastycznego, które przebiega wzdłuż centralnej części jęzora lodowcowego (Rys. 2, Rys. 4). Powstaje przez integrację moren bocznych, wskutek połączenia się dwóch jęzorów lodowcowych. Położenie moreny środkowej z dala od źródeł zasilania materiałem powoduje, że przestaje ona aktywnie przyrastać. Podczas transportu następuje obróbka materiału klastycznego odziedziczonego po morenach bocznych. Ziarna podlegają abrazji, kruszeniu, zyskują obtoczenie i zmniejszają się ich rozmiary, przez co morena ta ulega wzbogaceniu we frakcje drobnookruchowe. Po deglacjacji morena środkowa ma formę wału, który zalega wzdłuż dna doliny.", "Morenę wewnętrzną [5], [1], [10] stanowi materiał skalny, który znajduje się w masie lodu wewnętrznego (Rys. 2). Jest typem moreny rozproszonej, którą charakteryzuje nierównomierne rozłożenie budulca. Materiał ziarnisty zostaje dostarczony z nadległych partii lodu przez wtapianie lub przez szczeliny lodowe. Ponadto, pochodzi z pola firnowego lub z dolnej części lodowca (donoszony jest przy udziale wznoszących strumieni lodu). Po deglacjacji morena wewnętrzna tworzy pokrywę klastyczną nadkładającą morenę denną.", "Morena powierzchniowa [5], [1], [10], [6], [11] zbudowana jest z materiału drobno-, średnio- i grubookruchowego znajdującego się na powierzchni lodowca (Rys. 2, Rys. 5). Zasilana jest materiałem pochodzącym z ruchów grawitacyjnych (np. obrywów połączonych ze staczaniem oraz lawin, których zasięg przekraczał zasięg moreny bocznej) lub z transportu wiatrowego. Wytapianie moreny powierzchniowej powoduje przyrastanie ilości materiału klastycznego na powierzchni lodowca i uformowanie moreny ablacyjnej (zob. Glina lodowcowa). W okresach nasilonej ablacji ulega ona uwodnieniu i podlega spływom. Po deglacjacji morena powierzchniowa tworzy pokrywę klastyczną nadkładającą moreny denną i wewnętrzną. Najgrubsza jest w strefie dystalnej lodowca.", "Morena czołowa [7], [1], [6] składa się z materiału ziarnistego znajdującego się w najbardziej proksymalnej części lodowca (Rys. 2, Rys. 6). Znajduje się w zewnętrznej części czoła lub bezpośrednio przed nim. Zwykle ma formę łukowato wygiętego wału, którego kształt odpowiada zarysowi czoła. Buduje ją materiał klastyczny dostarczany przez lodowiec i wyciskany lub zdzierany przez czoło z podłoża. W jej obrębie występują bloki lodu martwego. Wał moreny czołowej, który jest najdalej odsunięty od pola firnowego nazywany jest moreną końcową i wyznacza maksymalny zasięg lodowca.", "Morena czołowa jest formowana przez różne procesy. Ze względu na jej genezę Wyróżniane są:", "Specyficzna forma moreny powstaje w środowisku wodnym. Wytapiany z lodowca materiał talasoglacjalny jest deponowany wspólnie z materiałem właściwym dla środowiska sedymentacyjnego. Takie osady nazywane są morenami subakwalnymi (podwodnymi) [2], [9]. Powstają na dnie zbiorników, do których wpływają lodowce szelfowe lub jęzory lodowcowe.", "Moreny, rozumiane jako formy osadowe, tworzą się w różnych fazach rozwoju lodowca. Moreny spiętrzone powstają podczas transgresji, moreny akumulacyjne podczas stagnacji lub oscylacji, natomiast pozostałe formy deponowane są podczas recesji."], "definitions": [{"name": " Definicja 1: Morena ", "content": " Morena jest [1], [2], (Rys. 1):\n\nmateriałem klastycznym występującym w lodowcu,\n\nstrefą lodowca, w której występuje koncentracja materiału klastycznego,\n\nskałą detrytyczną luźną pochodzenia glacjalnego, czyli materiałem ziarnistym który został\nzdeponowany przez lodowiec,\n\nformą sedymentacyjną, utworzoną z osadu glacjalnego.\n\n\n\n\n Rysunek 1: Morena (Islandia). \n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1858, "subject": "Moreny lądolodów i typy deglacjacji", "paragraphs": ["Szczególną formę morfologiczną tworzą drumliny [4], [5], [6], [7], [1], [8], [9]. Są to wydłużone i asymetryczne wzniesienia, mierzące po kilka lub kilkunaście metrów wysokości. Mają krótkie stoki doprądowe, które są szersze i stromiej nachylone w stosunku do zaprądowych, które są długie i połogie. Drumliny zbudowane są głównie z osadów morenowych, w których znajdują się wkładki piasków i żwirów fluwioglacjalnych (Rys. 2). Powstają w stopie lądolodu, przez deformację powierzchniowej części osadów glacjalnych. Występują zwykle w uporządkowanych liniowo zespołach, liczących po kilkadziesiąt lub kilkaset form, które nazywane są polami drumlinowymi.", "Typy deglacjacji", "Morfologia moreny lądolodów zależy od przebiegu deglacjacji. Ze względu na zasięg strefy rozpadu lodowca wydziela się deglacjację [8]:", "W trakcie deglacjacji frontalnej (Rys. 3) strefa zaniku lodowca ograniczona jest tylko do wąskiej, obejmującej czoło strefy. Systematyczny zanik lodu i depozycja materiału klastycznego prowadzi do powstania pokrywy osadowej, której miąższość ma podobne wartości. Zdeponowana morena ma powierzchnię falistą, urzeźbioną płytkimi i łagodnymi deniwelacjami. Inny typ morfologii, powstaje podczas deglacjacji arealnej. Charakteryzuje ją występowanie szerokiej strefy zaniku lodowca, która obejmuje strefę czołową i jej zaplecze. W strefie zaniku pokrywa lodowa podlega rozpadowi na bloki lodowe, z których część zostaje przysypana moreną. Wytopienie pogrzebanych bloków‘z pokrywy osadowej następuje po deglacjacji. Jest związane z ruchami grawitacyjnymi, które kompensują ubytek lodu przez przemieszczenie materiału klastycznego w jego miejsce. W efekcie czego na powierzchni moreny, bezpośrednio nad miejscem po wytopionym bloku, powstaje kielichowate zagłębienie. W wielu takich obniżeniach rozwijają się jeziora oczkowe."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1859, "subject": "Glina lodowcowa", "paragraphs": ["Typy glin polodowcowych", "Gliny z odłożenia (gliny zwałowe) powstają przez depozycję materiału niesionego przez lodowiec. Głównie jest to materiał moren dennych, które są bogate we frakcje drobnookruchowe i przez to są spoiste. W ich obrębie występują ziarna różnych frakcji, z których część wykazuje dobre obtoczenie i urzeźbienie rysami.", "Gliny ablacyjne powstają w strefach powierzchniowych lodowców. Są to osady, w mniejszym lub większym stopniu, przemyte przez wody ablacyjne i zubożone w materiał drobnookruchowy (Rys. 2). Mają strukturę masywną. W strefach intensywniejszego przemywania mogą występować słabo zaznaczone stratyfikacje oraz zgodne ukierunkowania ziaren. W takich glinach, zwykle spory udział ma materiał średnio- i grubookruchowy, w tym ostrokrawędziste ziarna.", "Gliny spływowe (Rys. 2) powstają przez upłynnienie i przemieszczenie grawitacyjne występującego na lodowcu materiału. Są efektem spływów gruzowo-błotnych, które formują pokrywy lub potoki morenowe. Gliny spływowe powstają z fluidyzacji moren powierzchniowych lub moren bocznych. Przesączony wodą osad morenowy jest nazywany błotem morenowym [3]. Struktura takich glin jest masywna lub fluidalna. Struktury kierunkowe, o ile występują, są słabo czytelne. Zwykle zaznacza się w nich orientacja kierunkowa, polegająca na zgodnym rozmieszczeniu większych ziaren. W obrębie glin spływowych częste są przeławicenia piaszczysto-żwirowe.", "Zdeponowana glina zwałowa podlega spłukiwaniu przez opady atmosferyczne lub omywaniu przez wody ablacyjne. Wielokrotne przemywanie powoduje odprowadzenie materiału drobnoklastycznego z zewnętrznych części gliny i wykształcenie moreny przemytej. Intensywne przemywanie prowadzi do powstania bruku morenowego. Jest to pokrywa klastyczna, nadkładająca glinę zwałową, która zbudowana jest głównie z ziaren frakcji żwirowej.", "Glina zwałowa, która przeszła proces diagenezy, w tym lityfikacji, nazywana jest tilitem [7], [4].", "Wielkogabarytowy materiał", "Cechą charakterystyczną gliny zwałowej jest występowanie w niej materiału grubookruchowego. Większa część tego materiału znajdowała się w transporcie lodowcowym i wykazuje różny stopień obróbki mechanicznej, w tym obtoczenia. Materiał klastyczny dostarczany jest do lodowca na całej jego długości. Rozmiar materiału grubookruchowego jest zróżnicowany i w jego obrębie występuje bardzo duży rozrzut wielkości ziarna. Dla charakterystyki materiału grubookruchowego, który został przetransportowany w lodowcu na znaczne odległości i został złożony na obszarze o innej budowie geologicznej, używa się nazwy głazy narzutowe (eratyki) (Rys. 3), [3], [5]. Formowane są one zwykle ze skał masywnych i odpornych na niszczenie mechaniczne. Zaawansowana obróbka [8], [5], która odbywa się podczas długiego transportu eratyków sprawia, że są one dobrze i bardzo dobrze obtoczone, a na ich powierzchniach występują wygłady powierzchniowe oraz urzeźbienie rysami i zadziorami lodowcowymi. Głazy narzutowe są związane głównie z lodowcami kontynentalnymi, rzadziej występują w lodowcach górskich.", "W lodowcach kontynentalnych, oprócz dużych eratyków mogą występować kry glacjalne (porwaki lodowcowe) (Rys. 4, Rys. 5). Są to rozległe kompleksy słaboskonsolidowanych skał osadowych (sypkich i spoistych), które podczas transgresji zostały wyrwane z podłoża i w masie lodu zostały przeniesione na znacznie odległości. Przemieszczone zostały w formie jednego pakietu, w którym nie doszło istotnego naruszenia struktur wewnętrznych. Ich transport odbywał się w pozycji horyzontalnej. Kry glacjalne mają formę wielkich płyt zbudowanych ze skał osadowych, których powierzchnia obejmuje kilkanaście lub kilkadziesiąt km\\(^2\\). Podczas deglacjacji pakiety te zostały złożone w obrębie moreny i mają mniej więcej poziome zaleganie. Są typem materiału egzotycznego, gdyż ich litologia nie nawiązuje do budowy podłoża podmorenowego."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1860, "subject": "Wody glacjalne", "paragraphs": ["W lodowcach funkcjonują systemy fluwialne, na które składają się:", "Typy wód fluwioglacjalnych", "Nadrzędną rolą systemu fluwialnego jest odprowadzenie wód z lodowca. System ten ma strukturę warstwową. Poszczególne jego elementy znajdują się na różnych poziomach lodowca i pozostają we wzajemnej komunikacji [1], [2], [4]. Ze względu na położenie w obrębie lodowca wody fluwioglacjalne dzielone są na :", "Wody supraglacjalne (powierzchniowe, nalodowcowe) występują na powierzchni lodowca (Rys. 1, Rys. 2). Spływają one grawitacyjnie w obrębie koryt, mających charakter rynien lodowych. Koryta te cechuje słaba krętość oraz nieduża, liczona w decymetrach lub metrach, szerokość. Mają one różne położenie. Zwykle występują w obniżeniach znajdujących się wzdłuż brzegu jęzorów lodowcowych, przy kontakcie lodowca z doliną. Przepływające nimi wody przemywają moreny boczne. Koryta supraglacjalne zlokalizowane są również w położeniach bardziej centralnych. Zwykle charakteryzuje je brak lub niewielka ilość aluwiów. Wody supraglacjalne płyną z dużą prędkością, gdyż podłoże lodowe stawia niewielki opór. Podczas zaawansowanej ablacji może dochodzić do zmywu powierzchniowego, który obejmuje znaczne powierzchnie jęzora.", "Wody inglacjalne (wewnątrzlodowcowe) znajdują się wewnątrz lodowca i przemieszczają się wzdłuż kanałów inglacjalnych (Rys. 2, Rys. 3). Kanały te są prostolinijnymi lub słabokrętymi, a w przekroju poprzecznym okrągłymi lub owalnymi, tunelami przebiegającymi wzdłuż jęzorów i lobów lodowcowych. Występują na jednym lub na kilku poziomach w lodowcu.", "Wody subglacjalne (podlodowcowe) są wodami strefy stopy lodowca (Rys. 2, Rys. 3). Tworzą one cienką warstwę przepływającą pod lodowcem lub formują zwarty strumień, który przemieszcza się kanałami subglacjalnymi. Kanały te są podobne w wykształceniu do kanałów inglacjalnych, różni je występowanie niewyrównanego profilu podłużnego. Kanały subglacjalne znajdują się zwykle na granicy lodu i podłoża, ale mogą ulegać migracji ku górze i przebiegać w dolnej części lodowca lub ku dołowi i drążyć w podłożu.", "Wody lodowcowe spływają głównie pod działaniem grawitacji. W systemie fluwioglacjalnym lodowca wody poziomów wyżejległych zasilają wody poziomów niżejległych. Poziomy te połączone są krótkimi i stromo nachylonymi kanałami, które zwykle powstają wzdłuż spękań szczelinowych [2], [5]. Pionowe kanały, którymi odbywa się zrzut wody, noszą nazwę studni lodowych (młynów lodowcowych) (Rys. 3). U ich podstawy wykształcają się misy eworsyjne. Wody wypełniające kanały in- i subglacjalne mogą znaleźć się w warunkach ciśnień hydrostatycznych i ich ruch będzie zależał od układu tych ciśnień. W takim reżimie może dochodzić do przepływów wód ku górze i zasilania wyżej ległych elementów systemu fluwialnego.", "Wody fluwioglacjalne są odprowadzane do strefy czoła lodowca i odpływają na jego przedpole. Wody mogą odpływać z różnych poziomów lodowca, ale z reguły spora ich część odprowadzana jest kanałem subglacjalnym, którego wylot nazywa się bramą lodową (Rys. 3, Rys. 4), [5], [4]. Na przedpolu następuje przekształcenie wód w wody proglacjlane (przedlodowcowe).", "Wody proglacjalne gromadzą się w zagłębieniach przed czołem lodowca, tworząc jeziora proglacjalne (zob. Zbiorniki i osady limnoglacjalne) lub odpływają rzekami proglacjalnymi (Rys. 5). Górne części rzek proglacjalnych mają rozwój roztokowy (zob. Osady fluwioglacjalne). Po przekroczeniu bramy lodowej zmienia się reżim ich przepływu i spływ jednokorytowy zostaje przekształcony na wielokorytowy. Ostatecznie wody odprowadzane z różnych części dużego lodowca lub sąsiednich lodowców łączą się w jeden duży ciek, który dalej transportuje wody jako rzeka proglacjalna.", "Wody systemu glacjalnego lodowca obejmują też wody stojące, które zostały czasowo zatrzymane w zagłębieniach występujących na lub w obrębie lodowca. W zależności od położenia zwane są jeziorami supra- , in- lub subglacjalnymi. Zbiorniki supraglacjalne są efemeryczne i pojawiają się w okresach intensywnego topienia lodu."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1861, "subject": "Erozja fluwioglacjalna", "paragraphs": ["Efektem działalności erozyjnej jest uformowanie i ustabilizowanie strefy spływu. Formy erozyjne, które powstają w lodzie są efemeryczne, ale mają istotne znaczenie dla funkcjonowania lodowca. Powodują osłabienie jego zwartej struktury, a odbywający się w nich burzliwy przepływ, generuje, kumulujące się w lodzie, naprężenia. Nadmierny rozrost form wewnątrzlodowych prowadzi do destabilizacji i inicjuje ich kolapsy. Przepływ wód supraglacjalnych wiąże się z powstaniem koryt o charakterze rynien, a przepływ inglacjalny z wykształceniem kanałów. Zasadniczą rolę w kształtowaniu stref przepływu odgrywa erozja wgłębna oraz erozja wsteczna, która najlepiej jest widoczna w strefach krawędziowych studni lodowych. Morfotwórcze znaczenie ma erozja fluwioglacjalna, która odbywa się w podłożu lodowca i prowadzi do wytworzenia kanałów subglacjalnych. Kanały te charakteryzuje prostolinijny lub słabo kręty przebieg oraz obecność niewyrównanej, migrującej w pionie strefy dennej. Zachowaniu podlegają tylko wypreparowane w podłożu części kanałów o charakterze rynien subglacjalnych (rynien podlodowcowych) [7], [8], [3], [4]. Po deglacjacji, w dużych rynnach (np. lodowców kontynentalnych), powstają ciągi długich jezior. Mniejszymi formami erozyjnymi są garnce podlodowcowe (marmity). Powstają podczas eworsji (zob. Erozja rzeczna i jej rodzaje) [9], [10]. Mają formę cylindrów lub lejów, o wygładzonych, pionowych lub prawie pionowych ścianach (Rys. 1). Garnce powstałe w skałach spoistych są szersze i głębsze oraz mają łagodniej nachylone brzegi. Garnce tworzą się powszechnie u podnóża młynów lodowcowych (nazwa młyn nawiązuje do rotacyjnego ruchu wody w misie eworsyjnej) lub w zagłębieniach rynien.", "Działalność niszcząca wód proglacjalnych zaznacza się dopiero poza obszarem stożka sandrowego. Wypływające spod lodowca wody subglacjalne, najpierw prowadzą sedymentację, więc akumulują i wytwarzają sandry. Dopiero po zrzuceniu większości materiału, wzmacnia się ich przepływ i zaznacza się ich wyraźny wpływ erozyjny. Powstają doliny proglacjalne, które są efektem skoncentrowanego odpływu wód. Przecinają one wały moren czołowych, w miejscach nazywanych bramami morenowymi.", "Szczególną formą erozji proglacjalnej są pradoliny [9], [7], [3]. Są to szerokie i głębokie formy, które zostały wypreparowane w podłożu przez skoncentrowany i burzliwy spływ ogromnych rzek proglacjalnych. Na terenie Europy pradoliny tworzyły się w plejstocenie i miały szerokości od kilku do kilkudziesięciu kilometrów. Powstawały w okresie deglacjacji lądolodu przez działalność erozyjną rozległych rzek, które zbierały i odprowadzały wody roztopowe z regionu. W wyniku masowego przepływu wyerodowane zostały głębokie doliny o typie słabo meandrujących koryt erozyjnych. Typową cechą pradolin jest występowanie nieurzeźbionych terasami, stromo nachylonych zboczy. Obecnie w dużej części pradoliny wypełnione są przez osady fluwioglacjalne."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1862, "subject": "Osady fluwioglacjalne", "paragraphs": ["Większość osadzanego materiału pochodzi z wytapiania lodowca. W wyniku sedymentacyjnej działalności wód fluwioglacjalnych powstają formy osadowe. Tworzą się one w różnych strefach lodowca i ze względu na ich położenie wyróżnia się (Rys. 2):", "W trakcie transportu fluwialnego zachodzi selekcja materiału klastycznego. Osady fluwioglacjalne zbudowane są głównie z piasków i żwirów. Niewiele jest w nich materiału frakcji pelitowej i aleurytowej, gdyż zostaje on odprowadzany. Skały te cechuje zmienność teksturalna. Wynika ona z prędkości i ciśnienia przepływu, które w warunkach glacjalnych szybko się zmieniają. Zależna jest też od bieżącej dostawy nowego materiału do systemu fluwialnego.", "Przepływ fluwialny odbywa się po powierzchni oraz wewnątrz lodowca. Rynny supraglacjalne, kanały inglacjalne i szczeliny są formami, które określają geometrię gromadzących się w nich osadów. Powstają one w lodzie i są nietrwałymi zbiornikami osadowymi. Ulegają zanikowi podczas topnienia lodu, a zgromadzone w nich osady zostają powtórnie złożone na powierzchni terenu, tworząc formy dostosowane do morfologii podłoża. Ostateczny kształt formy osadowej jest wynikiem działalności ruchów grawitacyjnych, które prowadzą do stabilizacji jej stoków. Odwadnianie, powoduje zaburzenia strukturalne i powstanie struktur deformacyjnych.", "Przegląd form fluwioglacjalnych", "Kemy tworzy materiał, który został naniesiony przez wody supraglacjalne do szczelin lodowych (Rys. 1, Rys. 2), [1], [2], [3], [4], [5], [6]. Zbudowane są one z przemytych piaszczysto-żwirowych utworów. Jako przeławicenia występują w nich również gliny oraz osady wzbogacone w muł. Po deglacjacji kemy tworzą mniej lub bardziej regularne stożkowate wzniesienia, które znajdują się w otoczeniu moreny powierzchniowej. Mają wysokości liczone w centymetrach lub metrach [7].", "W rynnach supraglacjalnych, występujących wzdłużnie przy krawędziach jęzorów lodowcowych, powstają nagromadzenia materiału fluwioglacjalnego zwane terasami kemowymi [8], [5], [9]. Po ustąpieniu lodowca tworzą one długie, niewysokie wały, które zalegają wzdłuż den dolin. Nadkładają one osady moreny bocznej lub się z nią przewarstwiają. Od innych osadów fluwioglacjalnych różni je domieszka gruzu, który pochodzi z rozmywania moreny bocznej.", "Ozy (eskery) [3], [4], [8], [2], [9], [1], [10] składają się z materiału klastycznego, który wypełniał kanały in- oraz subglacjalne (Rys. 2, Rys. 3). Zbudowane są z przemytych piasków i żwirów fluwioglacjalnych. W ich profilu występują skokowe zmiany uziarnienia oraz poziome i przekątne warstwowania. Zestawy lamin są nachylone pod różnymi kątami, w tym również pojawiają się stromo nachylone warstwowania, które formowane były w warunkach przepływu hydrostatycznego. W piaskach i żwirach fluwioglacjalnych znajdują się wkładki utworów ilasto-mułowych lub gliniastych, jak też duże bloki skalne. Bloki te są materiałem wytopionym ze ścian kanału.", "Po zaniku lodowca materiał kanałów inlacjalnych ulega depozycji na morenie dennej. Tworzy symetryczne w przekroju poprzecznym, długie i lekko kręte wały. Są one charakterystycznym elementem morfologicznym rzeźby postglacjalnej. Wypełnienia kanałów subglacjalnych zaznaczają się w profilu osadowym występowaniem przemytych utworów fluwioglacjalnych [7], [11], które znajdują się w spągu moreny dennej lub wypełniają wcięcie erozyjne w podłożu. W morfologii terenu nie zawsze są widoczne. Powstanie form geomorfologicznych zależy od pozycji rynny w lodowcu, jej gabarytów, stopnia jej wypełnienia przez osad oraz od ilości moreny nakrywającej. Klasyczne ozy subglacjalne, które są ciągami, długich wałów o zmiennej wysokości, tworzą się w kanałach, które są w znacznym stopniu wypełnione materiałem klastycznym. Aby ozy subglacjalne mogły zaznaczyć się w morfologii, ilość zgromadzonego w nich materiału powinna przewyższać wcięcie erozyjne w podłożu. Przy wypełnieniu tylko dolnych części wcięcia erozyjnego nad kanałami powstanie długa forma dolinna, w której po deglacjacji rozwijają się zbiorniki limniczne (Rys. 2). Natomiast w rynnach, które wypełnione zostały materiałem fluwioglacjalnym tylko do poziomu wypreparowanego w podłożu wcięcia, oz może nie zaznaczyć się w morfologii. Utwory subglacjalne są nadłożone morenami denną, środkową i powierzchniową. Ich czytelność na powierzchni terenu zależna jest też od grubości i rozkładu materiału w nadległych morenach.", "Sandry [12], [4], [3], [8], [9], [13] są zbudowane z utworów klastycznych, które deponowane są przez wody proglacjalne na przedpolu lodowca. Mają formę rozległych i niskich stożków napływowych. Formują połogie pokrywy, które nazywane są polami lub równinami sandrowymi. Sandry osadzane są bezpośrednio przed czołem lodowca przez wody, które wypływają z kanałów subglacjalnych. Po opuszczeniu lodowca zwarty ciek jednokorytowy, o dużej sile transportowej, ulega przekształceniu w rzekę roztokową, składającą się z szeregu drobnych strug. Rzeka ta głównie akumuluje. Rozprowadza ona materiał wyniesiony z kanału subglacjalnego i deponuje go na przedpolu lodowca w formie wielkopowierzchniowego fartucha sandrowego.", "Sandry mają strukturę typową dla stożków napływowych. Większość grubszego materiału deponowana jest w obszarze proksymalnym sandru, czyli w pobliżu bramy lodowej, natomiast ku peryferiom sukcesywnie spada frakcja materiału klastycznego, a wraz z tym poprawia się jego wysortowanie. W osadach sandrowych powszechnie występują struktury przekątnych warstwowań o typie rynnowym [7], [6]. Powstają one przez wypełnianie niewielkich wcięć erozyjnych materiałem, który jest niesiony przez strumienie o słabnącym przepływie. W okresach większego dopływu wód, w warunkach zalewów warstwowych (czyli powierzchniowego przemywania stożka przez warstwę wody), powstają warstwy o znacznie większym zasięgu lateralnym, obejmującym całą lub cześć powierzchni stożka. W ich obrębie zwykle wykształcają się warstwowania tabularne.", "Dalsza część sedymentacji fluwioglacjalnej, już poza obszarem pól sandrowych, prowadzona jest w rzekach proglacjalnych. Koryta tych rzek są głębokie oraz mają stromo nachylone, pozbawione teras brzegi. Podczas słabnącego przepływu osadzona jest w nich duża ilość materiału klastycznego. Powoduje to wypełnianie wcięcia przez osady i powstanie charakterystycznej płytkiej formy dolinnej o płaskim dnie. Taką morfologię mają pradoliny formowane w okresie plejstocenu. Mają one krótkie, płaskie i stromo nachylone stoki (są to struktury erozyjne) oraz szerokie i płaskie strefy denne. Dna pradolin są stropami grubych serii osadzonych w nich fluwialnych żwirów i piasków. W osadach rzek proglacjalnych powszechne są powierzchnie erozyjne oraz wszystkie inne struktury typowe dla przepływu fluwialnego, włącznie z imbrykacją i frakcjonalnym uziarnieniem normalnym. Generalnie zachowany jest ogólny trend spadku frakcji i wzrostu wysortowania materiału klastycznego ku górze profilu osadów."], "definitions": [{"name": " Definicja 1: Osady fluwioglacjalne ", "content": " Materiał klastyczny zdeponowany przez płynące wody lodowcowe\nnazywany jest fluwioglacjalnym. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1863, "subject": "Zbiorniki i osady limnoglacjalne", "paragraphs": ["Ze względu na genezę mis wydzielane są trzy typy zbiorników limnoglacjalnych:", "Przegląd zbiorników limnoglacjlanych", "Jeziora zastoiskowe (morenowe) to zbiorniki, które funkcjonują w płytkich zagłębieniach moreny. Wypełniane są wodami pochodzącymi z ablacji lodowcowej oraz z opadów atmosferycznych. Jeziora te mają dużą powierzchnię lustra wody i niewielką głębokość. Ze względu na zasilanie reprezentują dwa typy zbiorników proglacjalnych:", "Jeziora zatrzymujące wody fluwioglacjalne tworzą się pomiędzy czołem lodowca a wałem morenowym (Rys. 1), [2], [3]. Wypełniają je wody i materiał klastyczny, który wynoszony jest z lodowca, a po ich powierzchni dryfują bloki lodowe, które pochodzą z rozpadu czoła. Jeziora te funkcjonują w zmiennym reżimie. W pierwszej fazie rozwoju i podczas okresów słabszego zasilania są zbiornikami bezodpływowymi. Natomiast w okresach obfitego napływu wód roztopowych oraz w stadium dojrzałym, gdy zbiorniki wypełniane są osadami, zmienia się ich reżim na przepływowy i tracą charakter zastoiska. W jeziorach proglacjalnych następuje sedymentacja materiału naniesionego przez strumienie. W miejscu ujścia strumieni glacjalnych tworzy się delta jeziorna, która zbudowana jest z piasku i żwiru, natomiast w strefach dystalnych ma miejsce sedymentacja ilasto-mułowa [6], [7], [8]. W niektórych dużych jeziorach powstają prądy gęstościowe o charakterze turbidytów. Uczestniczą one w rozprowadzaniu materiału w misie jeziornej i przenoszą grubszy materiał klastyczny do stref wewnętrznych zbiorników. Sukcesywne nadbudowywanie delty oraz dystrybucja i depozycja materiału w zbiorniku limnicznym prowadzi do jego zaniku i rozwoju na jego miejscu sandrów.", "Drugi typ jezior to zbiorniki namorenowe (Rys. 2). Powstają one w bezodpływowych zagłębieniach moreny i nie posiadają stałego zasilania fluwialnego. Deponowane są w nich drobnoklastyczne utwory o typie mułów i iłów (iły zastoiskowe) [6], które w częściach zewnętrznych jezior zawierają domieszkę piasków i żwirów. Materiał do takich zbiorników jest donoszony przez wody przemywające moreny.", "Typowym osadem jezior zastoiskowych, który powstaje w warunkach peryglacjalnych, są iły warwowe (iły wstęgowane) (Rys. 3), [9], [4], [10], [11], [12], [13]. Składają się one z kilkumilimetrowych naprzemiennych warstewek/lamin mułowych o zabarwieniu jasnym i iłowych zabarwionych na ciemnoszaro. Warwa to para takich lamin i jednocześnie osad, który został zgromadzony w misie jeziornej w przeciągu jednego roku. Lamina jasna odpowiada sedymentacji w okresie ocieplenia. Zawiera grubszy materiał, którego dostawa do zbiornika wiąże się ze zwiększonym dopływem wód roztopowych. Lamina ciemna jest osadem okresu ochłodzenia, podczas którego dostawa materiału jest ograniczona i dominuje sedymentacja zawiesiny. Powstaje ona przy ograniczonym zasilaniu materiałem, wynikającym z mniejszej ilości wody roztopowej i/lub z przykrycia zbiornika przez taflę lodu. W iłach warwowych granice pomiędzy laminą ciemną, a wyżej ległą jasną są wyraźne i ostre, natomiast granice pomiędzy laminą jasną, a wyżej ległą ciemną są gradacyjne. Stosunek miąższości lamin w warwie jest zmienny i odzwierciedla warunki klimatyczne. Wraz z postępującym ociepleniem grubość warstewek letnich wzrasta kosztem zimowych, a przy ochłodzeniach obserwowany jest trend odwrotny.", "Jeziora zastoiskowe są formami krótkotrwałymi. Tworzą pierwszą generację zbiorników limnicznych, które funkcjonują na przedpolu lodowca. Występują one podczas oscylacji i recesji lodowca, a po deglacjacji relatywnie szybko zanikają.", "Jeziora rynnowe [10], [11], [3], [14], [15], [16], [17] są elementem rzeźby postglacjalnej, powstałym po lodowcach z rozwiniętym systemem podlodowcowego odprowadzania wód (Rys. 4). Misy jeziorne mają założenia subglacjalne (zob. Erozja fluwioglacjalna). Duże i głęboko wcięte rynny, pomimo przykrycia moreną tworzą zagłębienia, które funkcjonują jako misy limniczne. Są one długie i wąskie. Cechuje je łagodnie kręty przebieg, strome brzegi oraz niewyrównana strefa denna. Deniwelacje dna wynikają z migracji pionowej rynny oraz nierównomiernego rozkładu w niej moreny. Jeziora te oprócz charakterystycznego podłużnego kształtu (długość wielokrotnie przewyższa szerokość) i wężowatego przebiegu, charakteryzuje kręta linia brzegowa, zmienna szerokość, obecność przegłębiań i płycizn, w tym występowanie wysp w różnych częściach zbiorników. Jeziora rynnowe zwykle są zbiornikami przepływowymi. Duże rynny subglacjalne zajmowane są przez ciągi jezior rynnowych, które oddzielone są od siebie groblami. W jeziorach rynnowych dominuje sedymentacja klastyczna. Prowadzi ona do spłycenia zbiornika oraz wyrównania strefy dennej i linii brzegowej. Rozkład osadów średnio- i drobnoziarnistych zależy od wewnętrznego systemu rozprowadzania wód. Jeśli na to pozwalają warunki klimatyczne, w obszarach płycizn odbywa się sedymentacja biogeniczna.", "Jeziora wytopiskowe [2], [11], [3], [14], [17], [16] tworzą się przez wypełnienie wodą, występujących na powierzchni osadów glacjalnych, kielichowatych zagłębień (zob. Obszary bagienne i sedymentacja torfowiskowa). Misy formowane są podczas wytapiania bloków lodu martwego, które zostały zdeponowane w osadach polodowcowych (zob. Moreny lądolodów i typy degladacji). Ubytek masy lodu wewnątrz osadów jest rekompensowany wytworzeniem obniżenia na powierzchni terenu. Zagłębienia te formowane są sukcesywnie przez ruchy grawitacyjne, głównie powolne osiadanie, spływy upłynnionego materiału lub osuwanie. Misy wytopiskowe są symetryczne, posiadają w części centralnej przegłębienia. Ich powierzchnia denna jest płaska i łagodnie nachylona ku centrum. Po wypełnieniu wodami tworzą niewielkie zbiorniki, które mają wyrównaną linię brzegową i okrągły lub owalny kształt. Nazywa się je jeziorami oczkowymi lub oczkami polodowcowymi.", "W jeziorach wytopiskowych zachodzi sedymentacja klastyczna i deponowane są w nich osady średnio- i drobnoziarniste. Ku górze profilu zaznacza się ogólny trend spadkowy frakcji i wzrost dojrzałości teksturalnej materiału. W warunkach korzystnych dla rozwoju roślinności, faza zaniku oczka wytopiskowego związana jest z sedymentacją fitogeniczną. Osady klastyczne zwieńczone są osadami torfowiskowymi. Żywotność oczka polodowcowego zależy do jego wielkości, tempa akumulacji, ale też od zasilania wodami. Formy wykształcone na podłożu nieprzepuszczalnym zanikają szybciej niż formy z dopływem wód podziemnych.", "Zbiorniki wód stojących rozwijają się również w innych zagłębieniach erozyjnych, które powstały przez działalność lodowcową. Najczęściej występują w obrębie cyrków (jeziora karowe) lub kotłów (jeziora fiordowe)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1868, "subject": "Osady talasoglacjlane", "paragraphs": ["Mniejsza ilość materiału klastycznego pochodzi z pływających bloków lodowych. W wyniku depozycji materiału z gór lodowych powstają rozproszone osady talasoglacjalne. Materiał glacjalny jest zwykle komponentem pobocznym lub akcesorycznym osadów morskich. Osady talasoglacjalne występują w zbiornikach wodnych, które sąsiadują z obszarami pokrytymi lodowcami. Grubszy materiał talasoglacjalny, frakcji grubego psamitu lub psefitu, deponowany w obrębie osadów o nie lodowcowym charakterze nazywany jest zrzutkiem (dropstonem) [1]. Jest to typ egzotyku, który różni się od osadów otaczających składem, ale często i cechami teksturalnymi, tj. obtoczenie, czy wielkość. Tym terminem bywa określany również materiał wytapiany z lodu dryfującego po jeziorach glacjalnych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność lodu", "subject_id": 1864, "subject": "Erozja na obszarach wiecznej zmarzliny", "paragraphs": ["Procesami wspomagającymi są erozja, deflacja, korazja i suffozja.", "Cykliczne oddziaływanie zamrozu, czyli multigelifrakcja ma istotne znaczenie dla procesów erozyjnych. Prowadzi do mechanicznego rozpadu skał. Zmiany objętości zamarzającej i odmarzającej wody w szczelinach i porach skalnych, powodują powstawanie czasowo działających naprężeń rozciągających, które prowadzą do dezintegracji skały.", "W wyniku zamrozu szczeliny skalne ulegają poszerzaniu i pogłębianiu, co w konsekwencji prowadzi do rozpadu skały na bloki oraz podziału bloków skalnych na drobniejsze elementy. Proces ten zwany jest kongelifrakcją (multigelifrakcją blokową) [3], [4], [2], [5]. W jego wyniku powstają nagromadzenia gruzów. Formują one, charakterystyczne dla klimatu peryglacjalnego, regolitowe pokrywy grubookruchowych zwietrzelin zwane gołoborzami. Multigelifrakcja granularna to rozpad skały na ziarna, który spowodowany jest działaniem zamrozu w przestrzeniach porowych. Szczególnie podatne na ten typ erozji są skały klastyczne.", "Procesy gelifrakcyjne prowadzą do rozpadu skał i powstania drobnego materiału klastycznego. Materiał ten jest sukcesywnie przemieszczany i odprowadzany do stref niżej położonych przez ruchy grawitacyjnie lub wody płynące. Zamróz prowadzi do ogólnego obniżania się powierzchni terenu, co nazywane jest komplanacją [3].", "Obok transportu fluwialnego, staczania i obrywów, istotną rolę transportową w warunkach wiecznej zmarzliny pełni soliflukcja (ślizg soliflukcyjny) [3], [4], [6], [2], która jest typowym dla obszarów peryglacjalnych stokowym ruchem grawitacyjnym (zob. Spełzywanie). Koluwium tworzy odmarznięta i przepojona wodą warstwa osadu, która przemieszcza się grawitacyjnie po stropie zmrożonego gruntu. Kształt koluwium zależny jest od morfologii terenu. Ma formę pełzających, wypełniających zagłębienia dolinne strumieni, zwanych jęzorami soliflukcyjnymi lub pokryw soliflukcyjnych, czyli ruchomych warstw, które ześlizgują się z powierzchni stokowych. Ruch soliflukcyjny jest dość wolny, roczne przesunięcia liczone są w centymetrach lub metrach. Poszczególne pakiety osadu w obrębie koluwium przemieszczają się z różną prędkością. Powoduje to wyodrębnienie się w nich krótkich jęzorów lub pasów ślizgowych. Formy te mogą na siebie dachówkowato zachodzić i tworzyć girlandowe tarasy soliflukcyjne. Osad soliflukcyjny jest typem gliny, która jest zasobna we frakcje drobnookruchowe. Ma strukturę bezładną, grubszy materiał może wykazywać ułożenie zorientowane zgodnie z kierunkiem przemieszczania.", "Szczególną strukturą, powstającą w warunkach wiecznej marzłoci jest gleba poligonalna (grunt strukturalny) (zob. Wietrzenie peryglacjalne), [3], [4], [1], [2]. Tworzą ją zespoły kolistych lub wielobocznych w planie, form zbudowanych z drobnego materiału, które otoczone są niewielkimi wałami gruzowymi, tzw. wieńcami kamienistymi. Powstanie tych struktur jest wynikiem segregacji materiału, jaka zachodzi podczas pęcznienia mrozowego. W wyniku zwiększenia objętości zamarzającej warstwy czynnej, na powierzchni terenu tworzą się niewielkie kopce. W fazie spęcznienia następuje przemieszczanie grubszego materiału, który ze stref szczytowych transportowany jest grawitacyjnie do obniżeń, gdzie gromadzi się w zagłębieniach międzykopcowych [7], [3]. Pod odmarznięciu warstwy czynnej kopce zanikają, a na powierzchni terenu pozostają niskie wały gruzowe.", "Formy erozyjne tworzą się również w wyniku niwacji (erozji śnieżnej), czyli geologicznej działalności pokryw śniegu trwałego (wiecznego) [5]. Powstają one nie tylko na obszarach wiecznej zmarzliny, ale wszędzie tam gdzie takie pokrywy występują. Pod płatami śniegu trwałego następuje sukcesywne niszczenie powierzchni skalnej i obniżanie się terenu. Powszechną formą są nisze niwacyjne (niwalne, wyleżyska), czyli półkoliste zagłębienia które mają charakter mis. Jednostronnie otwarte nisze są dodatkowo modelowane przez zsuwy lawinowe lub odpływające z nich wody. Lawiny to masowy transport grawitacyjny mas śnieżnych, który jest wzbudzany przez zaburzenie stateczności, znajdujących się na stoku pokryw śnieżnych. Niesiony przez nie materiał może powodować erozję, gdy zsuw lawinowy ‘obejmuje cały przekrój zalegającej masy śnieżnej i dosięga podłoża."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Atmosfera i prądy powietrzne", "subject_id": 1549, "subject": "Skład atmosfery", "paragraphs": ["Na poziomie morza gęstość powietrza wynosi około 1,2 \\(kg/m^3\\) i maleje wraz ze wzrostem wysokości, średnie ciśnienie atmosferyczne wynosi 1 atmosferę (jednostka ciśnienia atm), czyli 101 325 Pa (1013,25 hPa). Ciśnienie maleje wraz z wysokością, zmienia się również w czasie i w poziomie.", "Powietrze zawiera 78,08% azotu, 20,95% tlenu, 0,93% argonu, 0,04% dwutlenku węgla i niewielkie ilości innych gazów [1], [2]. Jego skład zmienia się na skutek emisji gazów i wiązania gazów w wyniku działalności organicznej. Zmianom podlegają zwłaszcza ilość dwutlenku węgla, pary wodnej, oraz innych składników, takich jak metan, wodór, tlenek i podtlenek azotu, ozon, tlenki siarki, czy amoniak. W powietrzu występuje również pewna ilość pyłów. Skład atmosfery zmienia się również w poziomie, lokalnie odnotowuje się inne niż standardowe stężenia poszczególnych składników [4], [5], [1], [2].", "W atmosferze ziemskiej zachodzą charakterystyczne zjawiska optyczne i elektryczne. Do nich między innymi należy tęcza, halo, zorza polarna czy wyładowania elektryczne.", "Tęcza i halo [7], [8] to zjawiska optyczne, które wywołane są załamaniem, rozszczepieniem i odbiciem promieni świetlnych przez krople wody lub kryształki lodu. Zorza polarna (Rys. 1A) powstaje podczas bombardowania atmosfery przez cząstki wiatru słonecznego [9], co powoduje rozbłyski, najlepiej widoczne w obszarach polarnych. Atmosferyczne wyładowania elektryczne (Rys. 1B) związane są z przenoszeniem ładunków elektrycznych. Najczęściej obserwowane są wyładowania doziemne, potocznie zwane piorunami, polegające na przekazaniu dodatnich lub ujemnych ładunków elektrycznych z chmur burzowych na powierzchnię Ziemi [10]."], "definitions": [{"name": " Definicja 1: Atmosfera Ziemi ", "content": " Atmosfera Ziemi to warstwa gazów otaczająca Ziemię, która jest\nzatrzymywana przez grawitację i przechodzi stopniowo w przestrzeń kosmiczną [1], [2]. Gazy atmosferyczne we\nwspółczesnej atmosferze zwane są powietrzem [3], [4], [5], [6]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Atmosfera i prądy powietrzne", "subject_id": 1548, "subject": "Strefowość atmosfery", "paragraphs": ["Na skutek ruchu powietrza trudno jest ustalić wyraźne liniowe granice pomiędzy sferami. Wskazuje się natomiast cienkie warstwy rozgraniczające sfery zwane pauzami, których nazwy nawiązują do nazw sfer leżących bezpośrednio poniżej. Są to tropopauza, stratopauza i mezopauza.", "Na wysokości od 80 do 1000 km w atmosferze ziemskiej wyróżniana jest jonosfera. Jest to warstwa, która obejmuje termosferę i egzosferę [6]. Jej nazwa pochodzi od występujących tu zjonizowanych cząstek gazów atmosferycznych. które powstają pod wpływem promieniowania kosmicznego, a także promieniowania słonecznego (nadfioletowego i rentgenowskiego). Jonosfera pochłaniania to promieniowanie stwarzając warunki do występowania życia na Ziemi."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Atmosfera i prądy powietrzne", "subject_id": 1547, "subject": "Gazy cieplarniane i ich wpływ na klimat", "paragraphs": ["Najważniejsze gazy cieplarniane to:"], "definitions": [{"name": " Definicja 1: Gazy cieplarniane ", "content": " Gazy cieplarniane [1], [2], [3] to substancje w atmosferze Ziemi, które\nwywołują efekt cieplarniany [4], [5], są przezroczyste dla przychodzącego (krótkofalowego) promieniowania\nsłonecznego, ale blokują promieniowanie podczerwone (długofalowe) przed opuszczeniem atmosfery ziemskiej\n(Rys. 1, Rys. 2). W efekcie zostaje zatrzymane promieniowanie słoneczne, które ogrzewa powierzchnię Ziemi [6].\n"}, {"name": " Definicja 2: Potencjał tworzenia efektu cieplarnianego ", "content": " Potencjał globalnego ocieplenia (eng. Global\nWarming potential, GPW [7], [8]) jest to wielkość określająca stężenia gazów w atmosferze i ich potencjalny\nwpływ na efekt cieplarniany. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Atmosfera i prądy powietrzne", "subject_id": 1546, "subject": "Prądy powietrzne i ich wpływ na klimat", "paragraphs": ["W kierunku od równika ku biegunom wyróżniane są: strefa zbieżności równikowej, strefa pasatów oraz okołozwrotnikowa strefa podwyższonego ciśnienia („Końskie Szerokości”). Te trzy strefy tworzą razem pierwszą komórkę cyrkulacyjną, tzw. komórkę Hadleya (Rys. 1). Wilgotne powietrze ogrzane w strefie równikowej zbieżności unosi się w górę do tropopauzy [1]. W efekcie powstaje pas zachmurzenia konwekcyjnego otaczający cały glob. Dalej powietrze wędruje w górnych warstwach troposfery (zob. Strefowość atmosfery) w kierunku biegunów i opada w niższe warstwy atmosfery w okołozwrotnikowej strefie podwyższonego ciśnienia. Opadające powietrze przemieszcza się następnie w kierunku równika wzdłuż powierzchni Ziemi, zastępując powietrze, które wznosiło się ze strefy równikowej, zamykając pętlę komórki Hadleya [1]. Wiejące na poziomie gruntu wiatry w komórce Hadleya nazywane są pasatami [4]. Pasaty nie wieją wzdłuż południków, ale odchylają się pod wpływem ruchu obrotowego Ziemi (siła Coriolisa). Pasat na półkuli północnej nazywa się pasatem północno–wschodnim, a na półkuli południowej pasatem południowo–wschodnim (Rys. 1). Kierunki przemieszczania się prądów powietrznych wpływają na nazewnictwo wiatru. Tak więc wiatr wiejący ze wschodu nazywa się wschodnim, a z zachodu - zachodnim. Efektem cyrkulacji w komórce Hadleya jest transport ciepła z okolicy równika w okolice zwrotników. Chociaż komórka Hadleya jest opisana, jako położona na równiku, przesuwa się na północ w czerwcu i lipcu oraz na południe w grudniu i styczniu [1], [2], [3].", "Komórka Ferrela znajduje się między wyżami zwrotnikowymi, a niżami strefy umiarkowanej. W komórce tej powietrze przemieszcza się przy powierzchni Ziemi w kierunku biegunów. Wieją tu wiatry zachodnie. Nad biegunami, występują polarne obszary podwyższonego ciśnienia. Na 60 równoleżniku powietrze wznosi się do tropopauzy i przesuwa się w kierunku bieguna, gdzie ochładza się i opada, tworząc obszar podwyższonego ciśnienia. Zimne powietrze przesuwa się na powierzchni w kierunku 60 równoleżnika, odchylając się na zachód pod wpływem siły Coriolisa. Ten obieg powietrza tworzy komórkę polarną (Rys. 1). Komórka Hadleya wraz z komórką Ferrela i komórką polarną uczestniczą w procesie transportu ciepłego powietrza w kierunku biegunów i zimnego w kierunku równika [1], [2], [3]. Poza globalnymi strefami wysokiego i niskiego ciśnienia powstają lokalne wyże i niże. Tropikalne niże mogą tworzyć cyklony (Rys. 2B), huraganowe wiatry przesuwające się na Atlantyku od Afryki w kierunku Ameryki Północnej [5]. Nad równoleżnikowymi frontami atmosferycznymi pojawiają się prądy strumieniowe o dużej dynamice, związane z ruchem obrotowym Ziemi (siła Coriolisa) [6], [7]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Atmosfera i prądy powietrzne", "subject_id": 1545, "subject": "Zmiany atmosfery w historii Ziemi", "paragraphs": ["Około 3 miliardy lat temu w atmosferze Ziemi pojawił się tlen. Jego produkcja związana była z fotosyntezą (zob. Cykl węglowy), prowadzoną głównie przez sinice [4] oraz z działanością bakterii, które uwalniały azot z amoniaku (zob. Cykl azotowy). Rozpoczął się proces zmniejszania ilości dwutlenku węgla i wzrostu ilości tlenu oraz azotu. Początkowo tlen był zużywany na procesy utleniania. Większa ilość tlenu pojawia się około 2,4 miliarda lat temu, kiedy tempo jego produkcji zaczęło przekraczać utlenianie pierwiastków redukujących, zwłaszcza żelaza podczas Wielkiego Wydarzenia Oksydacyjnego [5]. Wiąże się z tym stopniowy zanik wstęgowych formacji żelaza (BIF) (zob. Skały żelaziste). Atmosfera redukująca stopniowo przekształciła się w atmosferę utleniającą. Zawartość tlenu w atmosferze wykazywała znaczne wahania, stan ustalony poziomy tlenu, wynoszący powyżej 15\\(\\%\\) nastąpił pod koniec prekambru, a najwyższa ilość tlenu, wynosząca ponad 30\\(\\%\\) miała miejsce około 280 milionów lat temu.", "Zawartość dwutlenku węgla w atmosferze również zmieniała się znacząco w fanerozoiku. Miała na to wpływ ewolucja organizmów, jak również wulkanizm i wycofywanie węgla z obiegu (zob. Cykl węglowy). Największa ilość dwutlenku węgla była w kambrze [5], (Rys. 2), po czym w sposób nieregularny zmniejszała się w paleozoiku, osiągając minimum w karbonie i permie. Redukcja zawartości dwutlenku węgla w atmosferze wiązała się z rozwojem roślinności lądowej (Rys. 1), intensywną fotosyntezą i wycofaniem węgla z obiegu przez powstanie złóż węgla kamiennego [4]. W mezozoiku ilość dwutlenku węgla zwiększała się, osiągając kolejne maksimum w jurze i kredzie, w kenozoiku ilość ta zmniejszała się, osiągając minimum w neogenie.", "Dwutlenek węgla jest gazem cieplarnianym (zob. Gazy cieplarniane i ich wpływ na klimat), więc jego zawartość w atmosferze ma związek z globalnymi ociepleniami i ochłodzeniami. Istnieje korelacja pomiędzy zmianami temperatury, a ilością dwutlenku węgla w późnym paleozoiku, mezozoiku i kenozoiku. Zlodowacenia późnopaleozoiczne i plejstoceńskie miały miejsce w okresach, kiedy zawartość dwutlenku węgla w atmosferze była niska [6]. Z kolei mezozoiczne ocieplenie miało miejsce czasie, kiedy zawartość tego gazu w atmosferze była stosunkowo wysoka. Korelacja ta nie jest tak oczywista we wczesnym paleozoiku.", "W okresie historycznym nastąpiła pewna zmiana naturalnych tendencji w składzie atmosfery. Rozwój hodowli zwierząt prowadził do wzrostu ilości dwutlenku węgla i metanu w atmosferze. Z początkiem rewolucji przemysłowej proces ten przyśpieszał, od XIX wieku zawartość dwutlenku węgla w atmosferze wzrasta w związku ze spalaniem kopalin zawierających węgiel (zob. Cykl węglowy). Prowadzone pomiary wyraźnie wzrost ten odnotowują."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wiatru", "subject_id": 1879, "subject": "Uwarunkowania działalności eolicznej", "paragraphs": ["W bezpośrednim zasięgu procesów eolicznych znajdują się obszary lądowe oraz powierzchniowe części zbiorników wodnych. Wpływ działalności eolicznej na lądach jest zróżnicowany i jego stopień jest ściśle uzależniony od [1], [2], [3], [4], [5], [6]:", "Geologiczna działalność prądów powietrznych odbywa się przez erozję, transport i akumulację. Erozja prowadzi do destrukcji powierzchni Ziemi. Wśród eolicznych procesów niszczących wydziela się dwie grupy. Są to [1], [2], [3], [4]:", "Materiał transportowany za pomocą wiatrów podlega selekcji i depozycji tworząc różne formy akumulacyjne (zob. Akumulacja eoliczna). Działalność eoliczna wydatnie zaznacza się na pustyniach, przede wszystkim na pustyniach piaszczystych, ale odgrywa ważną rolę również na pustyniach kamienistych, żwirowych i solnych. Obszarami objętymi wpływem procesów wiatrowych są też nieosłonięte strefy brzegowe zbiorników wodnych, obszary wulkaniczne z pokrywami piroklastycznymi oraz obszary strefy peryglacjalnej, które są wolne od pokryw lodowych i śnieżnych.", "Działalność eoliczna na obszarach wodnych koncentruje się na strefie powierzchniowej zbiorników. Bezpośredni jej wpływ jest ograniczony i buforowany przez pokrywę wodną, dlatego zaznacza się tam pośredni wpływ procesów wiatrowych. Polega on na donoszeniu materiału ziarnistego, który w środowisku wodnym jest transportowany do stref dennych zbiornika. Wiatry są odpowiedzialne za wywoływanie falowania, czyli ruchu przypowierzchniowych wód. Falowanie jest jednym z najważniejszych czynników erozyjnych w strefach brzegowych zbiorników (zob. Erozja morska)."], "definitions": [{"name": " Definicja 1: Procesy eoliczne ", "content": " Procesy geologiczne, które są generowane przez prądy powietrzne\nnazywane są procesami eolicznymi. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wiatru", "subject_id": 1880, "subject": "Transport eoliczny", "paragraphs": ["Materiał klastyczny jest transportowany zgodnie z ukierunkowaniem prądów powietrznych. Podlega przemieszczeniom o wergencji mniej więcej poziomej, ale też i pionowej, związanej z konwekcją powietrza. Z pionowymi prądami związane są burze piaskowe i piaskowo-pyłowe.", "Ziarna zostają wprawione w ruch po przekroczeniu tzw. progu ruchliwości ziarna, czyli prędkości jego poruszenia. Zależy on od ciężaru ziarna oraz od siły wiejącego wiatru, czyli minimalnej prędkości wiatru, która wprawia w ruch dane ziarno klastyczne [1], [2], [3], [7], (Rys. 1). Aby ziarno zostało przemieszczone, siła prądu powietrznego musi być większa od siły oporu ziarna, czyli grawitacji, tarcia międzycząsteczkowego i kohezji.", "Wprawione w ruch ziarna klastyczne poruszają się saltacyjnie, suspensyjnie i trakcyjnie [3], [8], [9], [6]. Strefa transportu obejmuje powierzchnię terenu oraz przyległą do niej warstwę nadpowierzchniową. Przemieszczający się po podłożu strumień powietrza, który transportuje znaczną ilość materiału nazywany jest przesłoną trakcyjną (potokiem rumowiska) (Rys. 2). W dolnej części strumienia dominuje trakcja oraz saltacja i przenoszony jest materiał najgrubszy, w wyższej jego części odbywa się transport suspensyjny materiału drobnego [10], [1], [8], [6]. Podczas transportu w przesłonie trakcyjnej następuje rozsortowanie materiału. Taki proces doprowadza do segregacji ziarna, czyli jego rozselekcjonowania ze względu na masę. Wraz ze wzrostem siły wiatru, wzrasta efektywność transportowa, gdyż przemieszczeniu podlega większa ilość materiału, w tym ziarna o różnych masach i większych rozmiarach. W zależności od masy, materiał jest przenoszony na różne odległości. Ziarna w transporcie suspensyjnym odprowadzane są dalej niż ziarna przenoszone trakcyjnie (zob. Akumulacja eoliczna).", "W trakcie transportu eolicznego dochodzi do zmniejszenia się rozmiarów materiału klastycznego przez abrazję [10], [1], [4]. Zachodzi ona podczas kolizji ziaren z podłożem lub innymi ziarnami. W stosunkowo krótkim czasie następuje wyeliminowanie ziarna o niskiej twardości. Powoduje to, że podstawowym materiałem budującym osady eoliczne jest kwarc (zob. Materiały allogeniczne), który jest odporny, zarówno na niszczenie fizyczne, jak i rozkład chemiczny."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wiatru", "subject_id": 1881, "subject": "Korazja i formy korazyjne", "paragraphs": ["Efektem działalności korazyjnej jest powstanie wielograńców [1], [2] (graniaków) (Rys. 1). Tworzą się one przez modyfikację morfologii dużych ziaren, które stabilnie zalegają na podłożu i nie podlegają przemieszczaniu. Powstają w klastach zbudowanych ze skał twardych, które znajdują się w strefie miecenia materiałem klastycznym. Korazja prowadzi do wytworzenia płaskiego ścięcia po stronie dowietrznej o charakterze wygładu eolicznego. W warunkach dominacji wiatrów wiejących z jednego kierunku ziarna posiadają jednostronne wygłady, natomiast gdy korazja jest prowadzona przez zmienne, wiejące z kilku kierunków wiatry, tworzą się wielograńce z dwoma, trzema lub czterema ściętymi powierzchniami. W graniakach wielościennych stopień starcia poszczególnych powierzchni jest zróżnicowany. Największe powierzchnie korazyjne powstają przez zaawansowaną erozję i są wykształcane pod wpływem silnych i długo wiejących wiatrów. Poszczególne wygłady oddzielone są od siebie ostrymi, wyraźnie zaznaczonymi krawędziami. Wielograńce są powszechnie spotykaną formą na hamadach (zob. Deflacja i formy deflacyjne).", "Przez działalność korazyjną stałych, jednokierunkowych wiatrów, która odbywa się na podłożu zbudowanym ze skał słabozwięzłych (np. margli, mułowców i iłowców, glin, niektórych piaskowców), powstają bruzdy korazyjne (Rys. 2). Mają one formy długich, równoległych rynien deflacyjnych, wzdłuż których przemieszczają się skanalizowane prądy powietrzne. Głębokość i szerokość bruzd jest różna, cechuje je występowanie liniowego, zgodnego z kierunkiem wiania wiatru, urzeźbienia. Bruzdy rozdzielone są przez wzniesienia, które nazywane są jardangami [2], [3]. Są to długie, wąskie, sukcesywnie cieniejące ku górze grzbiety, które u podstawy mogą być korazyjne podcięte.", "Tempo korazji zależy od siły wiatru, twardości narzędzi erozji, czyli transportowanego materiału oraz od podatności na niszczenie skał, które jej podlegają. W kompleksach skał o zmiennych cechach litologicznych, korazja powoduje wytworzenie powierzchni o urozmaiconej rzeźbie. Relief pozytywny związany jest z wystąpieniami skał odporniejszych na korazję, natomiast w skałach mniej odpornych wykształca się relief negatywny.", "Zróżnicowanie morfologiczne form kształtowanych przez erozję wiatrową wynika też z intensywności korazji [3], [4]. Korazja jest skoncentrowana w strefie działalności przesłony trakcyjnej, czyli w przestrzeni znajdującej się bezpośrednio nad powierzchnią terenu. Długotrwałe i intensywne niszczenie prowadzone na jednym poziomie, prowadzi do powstania nisz osłoniętych od góry okapami i przewieszkami skalnymi. Rozrost podciosów korazyjnych powoduje zaburzenie stabilności i inicjuje ruchy grawitacyjne (głównie obrywy), które prowadzą do modyfikacji ogólnego kształtu form. W wyniku wielostronnego podcinania podnóży w izolowanych stoliwach skalnych dochodzi do wytworzenia różnych typów form skałkowych, wśród których szczególne są grzyby skalne."], "definitions": [{"name": " Definicja 1: Korazja ", "content": " Mechaniczne oddziaływanie na powierzchnie skalne strumienia powietrza\nniosącego narzędzia erozji, czyli materiał klastyczny, nazywane jest korazją (abrazją wiatrową).\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wiatru", "subject_id": 1891, "subject": "Deflacja i formy deflacyjne", "paragraphs": ["Wywiewanie obejmuje tylko luźny i lekki materiał klastyczny. Ziarna, które mają większą masę pozostają na miejscu lub dzięki silnym wiatrom zostają przemieszczane na niewielkie odległości [4], [5], [3]. Sukcesywne usuwanie materiału drobnokruchowego z powierzchni deflacyjnej prowadzi do koncentracji materiału grubookruchowego nazywanych brukami deflacyjnymi (płaszczami kamienistymi, residuum deflacyjnym) (Rys. 4).", "Długotrwała i permanentna deflacja, która odbywa się na podłożu zbudowanym z materiału o dużym rozrzucie wielkości ziarna prowadzi do powstania hamadów (Rys. 2, Rys. 3). Tworzą je gubookruchowe pokrywy, z których został usunięty drobny materiał. Warstwa grubookruchowa stanowi naturalną barierę i zabezpiecza niżejległy materiał przed erozyjną działalnością prądów powietrznych [6], [7], [4], [8], [9], [5]. Po wykształceniu hamadów, deflacja ogranicza się do odprowadzania ziarn drobnych, które są na bieżąco produkowane przez wietrzenie. Zalegający na powierzchni terenu materiał grubookruchowy podlega korazji i jego zewnętrzne powierzchnie są oszlifowane przez klasty transportowane w przesłonach trakcyjnych.", "Deflacja to proces, któremu poddaje się głównie niezwiązany i drobny materiał klastyczny. Na powierzchniach objętych wywiewaniem występują formy opierające się deflacji, zwane (ostańcami deflacyjnymi (Rys. 4). Są to odporniejsze na rozwiewanie elementy podłoża stanowiące relikty po usuniętej przez wiatr, luźnej pokrywie skalnej. Odporność deflacyjną wykazuje materiał klastyczny, który został połączony, np. przez systemy korzeniowe roślin lub cementacyjnie. Ostańce są formami asymetrycznymi. Od strony dowietrznej i są strome, natomiast od strony zawietrznej erozja jest mniej zaawansowana i są one bardziej połogie. Wokół nich tworzą się struktury erozyjne z odwiewania (Rys. 2). Deflacja prowadzi również do odsłonięcia twardych elementów, które znajdują się w obrębie lub pod utworami sypkimi (np. wychodni skał spoistych i litych, dużych ziaren skalnych, drewna)."], "definitions": [{"name": " Definicja 1: Deflacja ", "content": " Procesy geologiczne polegające na wywiewaniu materiału nazywane są deflacją.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wiatru", "subject_id": 1883, "subject": "Akumulacja eoliczna", "paragraphs": ["Mikroformy", "Riplemarki (zmarszczki prądowe) [2], [3], [4], [5], [6], [7] są niewielkimi wałeczkami, które zbudowane są z piasku, znacznie rzadziej z drobnokalibrowego żwirku (Rys. 1). Mają wysokości liczone w milimetrach lub pojedynczych centymetrach. Zorientowane są prostopadle do kierunku wiejącego wiatru i mają prostolinijny lub lekko kręty przebieg. Cechą riplemarków wiatrowych jest asymetryczny przekrój poprzeczny. Ich stok dowietrzny jest długi i połogi. Nachylony jest pod kątem kilku lub kilkunastu stopni. Stok zawietrzny, jest znacznie krótszy i stromszy. Kąt jego wychylenia odpowiada kątowi naturalnego zsypu materiału psamitowego, czyli wynosi około 30\\(^0\\). W obrębie riplemarków zaznacza się rozsortowanie materiału i w strefach grzbietów występuje grubiej ziarnisty piasek. Formowanie riplemarków odbywa się przy istotnym udziale saltacji eolicznej i nadbudowy od strony dowietrznej [4], [5], [8]. Stok zawietrzny jest formowany przez procesy grawitacyjne i na nim zachodzi staczanie materiału klastycznego. Riplemarki występują w zespołach tworząc pola riplemarkowe. Są one podstawową formą akumulacji eolicznej.", "Zaspy piaszczyste są eolicznymi formami akumulacyjnymi, które towarzyszą niewielkim przedmiotom lub stabilnym elementom podłoża (Rys. 2). Tworzone są przez depozycję materiału w cieniu wiatrowym przeszkód (np. kęp traw, krzewów, fragmentów drewna, niewielkich ostańców deflacyjnych lub większych ziaren skalnych), które znajdują się w strefie miecenia [8], [3], [5], [6]. Depozycja materiału za przeszkodą jest spowodowana obniżeniem zdolności transportowych uderzającego o przeszkodę strumienia powietrza. Zaspa piaszczysta to forma pagórkowata, wydłużona w kierunku zgodnym z kursem wiejących wiatrów. Ma asymetryczny profil podłużny. Jej stok dowietrzny jest stromy i szeroki, natomiast zawietrzny jest długi, połogi i ulega sukcesywnemu zwężeniu. Zaspy są formami niewielkimi, ich wysokości mierzone są w centymetrach i decymetrach.", "Mezoformy", "Wydmy to duże formy akumulacyjne, mające wysokości od kilku do kilkudziesięciu metrów. Są nasypami piaszczystymi, które rozwijają się przez nadbudowywanie zasp piaszczystych lub innych wyniosłości morfologicznych. Ich stok doprądowy jest modelowany przez wiatr [9], [10], [11], [8], [3], [5], (zob. Osady eoliczne). Jest on połogi i jego nachylenie zależy od siły wiatru. Odbywa się na nim akumulacja lub erozja. W warunkach słabych wiatrów jest nadbudowywany przez pola riplemarkowe, natomiast przy wystąpieniu wiatrów silniejszych podlega ścięciu deflacyjnemu, czyli wyrównaniu (zob. Osady eoliczne). Stok zaprądowy jest znacznie krótszy i mocniej nachylony. Formowany jest przez ruchy grawitacyjne. Zachodzi na nim ruch ziarnowy i swobodne staczanie materiału lub odbywa się tam transport masowy, czyli przemieszczenie się lawin piaszczystych. Lawiny mają formę ruchomego fartucha (kurtyny) piaszczystej lub jęzorów (Rys. 3). Rzadziej następują zsuwy zwartych pokryw piaszczystych. Występują, gdy materiał psamitowy powierzchniowej części stoku zaprądowego zostaje czasowo powiązany kohezyjnie (np. przy wzroście jego wilgotności). Na stok zaprądowy materiał jest dostarczany również suspensyjnie, poprzez opad piasku, który jest zwiewany z wydmy [5], [6]. Opadający obłok materiału klastycznego, tworzący się podczas takiego zrzutu, nazywany jest kurzeniem wydmy lub deszczem piaszczystym.", "Ze względu na warunki morfologiczne kształtujące rozwój mezoform eolicznych wydmy dzieli się na [11], [4], [5], [6]:", "Wydmy swobodne", "Wydmy swobodne zwykle są prostymi lub łukowato wygiętymi nasypami, rzadziej tworzą się jako kopce piaszczyste. Ze względu na ukształtowanie oraz położenie względem dominujących kierunków wiatrów dzielone są na (Rys. 3):", "Poprzeczne wydmy są wydmami wałowymi o prostolinijnym, falistym lub łukowym przebiegu (Rys. 3). W ich obrębie wyróżnia się struktury proste (pojedyncze), które złożone są z jednostkowej formy wydmowej lub złożone, które powstają przez połączenie form prostych.", "Prostą formą jest barchan (wydma sierpowata) [11], [8], [3], [4], [5], (Rys. 3, Rys. 5). To wydma łukowa, która powstaje w obszarach znajdujących się pod wpływem stałych i jednokierunkowych wiatrów. Kierunek wygięcia wydmy oraz układ jej ramion jest zgodny z kursem kształtujących ją wiatrów. Takie wykształcenie wynika z nierównomiernej prędkości przemieszczania się poszczególnych części wydmy. Tempo ruchu zależy od siły wiatru oraz od ilości materiału, który jest przemieszczany. Ramiona barchanów, które zawierają mniej materiału przemieszczają się szybciej w stosunku do miąższej części czołowej wydmy, która pozostaje w tyle. Przez połączenie obocznie barchanów tworzą się złożone wydmy wałowe.", "Do wydm poprzecznych zaliczane są wydmy kopulaste (odwracalne) [4], (Rys. 3). Mają one formę niewielkich owalnych pagórów. Sypane są przez okresowo zmienne, przeciwnie wiejące wiatry. Taki reżim powoduje, że stoki tej wydmy są aktywnie nadbudowywane przez wiatr i nie dochodzi do wykształcenia wyraźnych form, typowych dla powierzchni kształtowanych przez ruchy grawitacyjne.", "Wydmy podłużne (sejfy) [4], [5], [6] to bardzo długie, mniej więcej symetryczne w przekroju i prostolinijne wały piaszczyste. Tworzą się w warunkach występowania silnych wiatrów, o zbieżnych i wzajemnie skośnych kursach. Wydmy gwieździste są typem wydm punktowych (Rys. 3). To wydmy wieloramienne, które powstają w warunkach okresowo zmiennych, wiejących z różnych kierunków wiatrów. Ich ramiona schodzą się w centralnym punkcie, który jednocześnie jest kulminacją wydmy. Stoki między ramionami wydm gwieździstych są łukowato wygięte.", "Wydmy wymuszone", "Przy zmianie warunków środowiskowych barchany lub inne typy poprzecznych wydm wałowych mogą zostać przekształcone w wydmy paraboliczne [8], [4], [5], [6], (Rys. 3, Rys. 6). Transformacja ta związana jest z istotnym wyhamowaniem tempa przemieszczania się ramion. Częściowa lub całkowita stabilizacją ramion, zachodzi przez pokrycie ich wegetacją roślinną. Modyfikacja formy następuje, gdy prędkość przemieszczania ramion jest wolniejsze od tempa przemieszczania się części czołowej. W pierwszym etapie dochodzi do zmniejszenia się krzywizny barchanu, kolejno do wyrównania formy, w której ramiona i czoło wydmy znajdą się w układzie linijnym, a w dalszych etapach do uformowania formy łukowej, która powstaje przez wysunięcie części czołowej ku przedpolu. Ramiona wydm parabolicznych skierowane są w kierunku przeciwnym niż dominujące w obszarze wiatry. Oddalanie się czoła wydmy od jej ramion powoduje jej rozciągnięcie.", "Różne typy wydm wymuszonych tworzą się pomiędzy stabilnymi formami morfologicznymi. Osady eoliczne deponowane są na stokach dowietrznych i zawietrznych oraz w przestrzeniach między elementami rzeźby terenu. Tworzą niewielkie struktury o typie pokryw lub wypełnień gniazdowych, które są dopasowane do kształtu podłoża.", "MAKROFORMY", "Draasy to megawydmy, które w ogólnym zarysie mają formy wysokich, długich (liczących wiele kilometrów), równoległych wałów. Są typem wydm złożonych. Poszczególne wały, zwane draas, składają się z połączonych ze sobą swobodnych form poprzecznych. Powoduje to, że draasy wykazują duże urozmaicenie morfologiczne. Ich powstanie jest wynikiem wielowiekowej działalności eolicznej."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Geologiczna działalność wiatru", "subject_id": 1884, "subject": "Osady eoliczne", "paragraphs": ["Piaski eoliczne", "Piaski tworzą warstwy (pokrywy piaszczyste) oraz formy wydmowe i riplemarkowe (zob. Akumulacja eoliczna). Cechuje je obecność struktur depozycyjnych, które wynikają ze sposobu składowania materiału. Powszechnie występuje w nich warstwowanie przekątne, najczęściej o typie klinowym (zob. Struktury depozycyjne), (Rys. 1) lub tabularnym [4], [5]. Zwykle zestawy warstwowania są nachylone pod niewielkimi kątami. Typową cechą riplemarków jest występowanie laminacji przekątnej [4], [3], [5], [6], [7], [8], [9]. Powstaje ona przez odkładanie się lamin na nachylonym w stosunku do podłoża stoku zaprądowym. Riplemarki charakteryzuje odwrotna gradacja ziarna i w częściach górnych riplemarków występuje ziarno nieco większe niż w dolnych.", "Piaski środowisk eolicznych (np. pustyń i pasów wydmowych) są utworami lądowymi o wysokiej dojrzałości mineralnej i reprezentują skały monomiktyczne (zob. Tekstury skał okruchowych), które zbudowane są z kwarcu, lub prawie monomiktyczne zawierające domieszki innych stabilnych minerałów. Koncentracja kwarcu jest wynikiem, zachodzącej podczas transportu, eliminacji minerałów nietrwałych (zob. Materiały allogeniczne). Piaski eoliczne zbudowane są z dobrze lub bardzo dobrze obtoczonych i wysorowanych ziaren frakcji psamitowej. Rozrzut wielkości ziarna w nich jest niewielki. Najczęściej spotykane są piaski drobnoziarniste. Powierzchnie ziaren piaskowych mają charakterystyczne cechy. Są one matowe, urzeźbione płytkimi rysami lub zagłębieniami. Do ich powstania dochodzi wskutek abrazji podczas kolizji z innymi ziarnami [5], [10], [1].", "Lessy", "Podczas transportu eolicznego następuje segregacja materiału, w wyniku której ziarna aleurytowe i pelitowe są oddzielane od psamitowych. Każda z frakcji jest przenoszona w innej części prądu powietrznego i deponowana na innym obszarze. Najdalej od obszarów źródłowych składowane są ziarna frakcji najdrobniejszych [1], [6], [2], [11], [12], [8], [3]. Część ich opada na powierzchnię zbiorników wodnych i włączana jest tam we właściwe dla środowiska procesy sedymentacyjne. Reszta składowana jest na powierzchni lądów, co prowadzi do powstawania rozległych drobnookruchowych pokryw, zwanych lessowymi. Less to skała masywna, składająca się z występujących w różnych proporcjach ziaren frakcji pyłowej i iłowej (zob. Pelity aleuryty), (Rys. 3). Jest typem mułowca, w którym spory udział ma pelit kwarcowy. Poza nim, w jego skład zwykle wchodzą węglany i minerały ilaste. Lessy tworzą pokrywy na przedpolach obszarów pustynnych, wulkanicznych lub peryglacjalnych.", "Migracja form eolicznych", "Wiatrowe formy osadowe pozostają w ruchu i przemieszczają się zgodnie z kierunkiem dominujących wiatrów [5], [10], [1], [12], [6], [2]. Wędrówka riplemarków i wydm jest wynikiem wzajemnego współdziałania erozyjnych i akrecyjnych procesów eolicznych, które jednocześnie niszczą formy od strony dowietrznej, a nadbudowują je od strony zawietrznej (Rys. 4). Tempo przemieszczania się form eolicznych jest zróżnicowane i zależne jest od siły wiatru oraz wielkości formy. Większe ciała piaszczyste przemieszczają się wolniej, gdyż ich ruch związany jest z przesypaniem większej ilości materiał klastycznego. Riplemarki są formami efemerycznymi i krótkotrwałymi. Przy silnych i średnich wiatrach ich przemieszczanie liczone jest w milimetrach na minutę, natomiast prędkość wędrówki wydm jest znaczniej wolniejsze i wynosi zwykle od kilku do kilkunastu metrów na rok."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1550, "subject": "Czynniki i typy powierzchniowych ruchów masowych", "paragraphs": ["Podstawowym uwarunkowaniem ruchów stokowych jest występowanie stoku, który może powstać w wyniku różnych procesów morfotwórczych, np. tektoniki, erozji, sedymentacji, również jako efekt masowych ruchów niestokowych, np. formowania niecki z osiadania lub zapadania.", "Wiele procesów naturalnych wywołuje powierzchniowe ruchy masowe. W grupie procesów endogenicznych istotne znaczenie mają:", "a w grupie procesów egzogenicznych:", "Ruchy masowe wywoływane są również przez działalność antropogeniczną, w szczególności przez: budowę dróg, rurociągów, architektury lądowej i hydrotechnicznej, tworzenie nasypów, górnictwo podziemne i odkrywkowe, pobieranie wody, nawadnianie, niszczenie roślinności, ruch pojazdów, działania wojenne."], "definitions": [{"name": " Definicja 1: Powierzchniowe ruchy masowe ", "content": " Przemieszczanie materiału skalnego i glebowego pod\nwpływem grawitacji nazywane jest powierzchniowymi ruchami masowymi. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1551, "subject": "Niestokowe ruchy masowe i ich przyczyny", "paragraphs": ["Pierwotna porowatość, czyli obecność wolnych przestrzeni w skale jest cechą niektórych skał osadowych oraz wulkanicznych i jest ona formowana na etapie powstawania skały. Porowatość wtórna jest efektem zmian zachodzących w skałach i powstaje na etapie diagenezy lub ich wietrzenia. Szczególne znaczenie ma ługowanie oraz sufozja (Rys. 1A), (Rys. 1B). Wolne przestrzenie mogą też powstawać w skonsolidowanym podłożu na skutek ubytku lub przemieszczenia gazów lub wody podziemnej, jak również przez stopnienie lodu znajdującego się pod powierzchnią Ziemi.", "Do przyczyn sztucznych wywołujących powstawanie wolnych przestrzeni należą górnictwo i pompowanie wody. Eksploatacja kopalin użytecznych, jak również innego rodzaju działalność antropogeniczna, tj. budowa tuneli czy podziemnych kanałów, wiąże się z wybraniem materiału i prowadzi do powstania podpowierzchniowych pustek w podłożu, co zaburza jego równowagę. Pustki powstają również przez uwolnienie, uprzednio zapełnionych, wolnych przestrzeni porowych przez wypompowanie wody, ropy naftowej i gazu ziemnego.", "Zapełnianie wolnych przestrzeni w skałach zachodzi przez:", "Przyczynami osiadania jest deglacjacja wiecznej zmarzliny powiązana ze spadkiem objętości lodu przekształcającego się w wodę. Osiadanie na obszarach wulkanicznych jest związane z postwulkanicznymi zjawiskami hydrotermalnymi (Rys. 3A)."], "definitions": [{"name": " Definicja 1: Niestokowe ruchy masowe ", "content": " Niestokowe ruchy masowe polegają na obniżaniu\npowierzchni terenu. Należy do nich osiadanie i zapadanie, czyli wystąpienie pionowych ruchów, które w\nporównaniu do epejrogenicznych ruchów litosfery obejmują stosunkowo nieduży obszar i dotyczą tylko\nprzypowierzchniowych części skorupy ziemskiej (zob. Ruchy epejrogeniczne i ich przyczyny). Osiadanie\njest najczęściej powolnym procesem, jeżeli zachodzi gwałtownie, wyróżnia się zapadanie [1],\n[2], [3]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1552, "subject": "Efekty niestokowych ruchów masowych", "paragraphs": ["Efekty niestokowych ruchów masowych pojawiają się też na terenach, gdzie prowadzona jest eksploatacja kopalin użytecznych. Ogólnie określa się je jako szkody górnicze [3]. Zawały stropów płytko położonych wyrobisk powodują powstanie zapadlisk, natomiast na powierzchni terenu, nad głębiej zalegającymi zawaliskami powstają niecki osiadania [4]."], "definitions": [{"name": " Definicja 1: Niecka osiadania ", "content": " Jest to zagłębienie terenu powstałe na skutek osiadania warstw\n \n \nskalnych, powstałych nad obszarem podziemnych zapadlisk. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1554, "subject": "Stokowe ruchy masowe i ich przyczyny", "paragraphs": ["Stokowe przemieszczanie masowe przebiega z różną prędkością, co jest jednym z głównych kryteriów klasyfikacyjnych powierzchniowych ruchów masowych. Najwolniej zachodzi spełzywanie, do szybkich ruchów zaliczane są obrywy i spływy.", "Powierzchnia przemieszczania jest wyraźnie określona w przypadku osuwisk i obrywów, gdyż zostaje ona podczas tych procesów wytworzona. Przy spełzywaniu i spływach ruch materiału odbywa się po powierzchni terenu, na zastanej morfologii podłoża. Kąt nachylenia powierzchni przemieszczania jest zróżnicowany. Jest on najwyższy w obrywach, najniższy kąt odnotowano podczas przemieszczeń utworów upłynnionych w wyniku trzęsienia ziemi.", "Jednym z efektów ruchów masowych jest powstanie koluwium, które może mieć różną formę, np. blokową, osypiskową lub potoków spływowych.", "Ruchy stokowe są generowane przez różne czynniki naturalne, wśród których istotne znaczenie mają:", "Czynniki te, w szczególności orogeneza, magmatyzm i wulkanizm prowadzą do powstania stoków, czyli powierzchni warunkującej istnienie stokowych ruchów masowych oraz do zaburzenia równowagi na tych powierzchniach. Wietrzenie i erozja zmienia strukturę skały przez jej rozluźnienie, w wyniku czego powstaje zwietrzelina podatna na ruchy stokowe. Erozja ponadto prowadzi do zaburzeń stateczności stoku, w czym ważną rolę pełnią procesy podcinania ich podstaw przez rzeki i morza (Rys. 1). Przy upłynnieniu następuje zmiana struktury skały związana z wprowadzeniem do niej płynu. Woda wpływa na zmniejszenie tarcia, co powoduje uruchamianie spływów lub osuwisk [1], [3]. Nasiąkanie i wysychanie oraz zamarzanie i odmarzanie odgrywają istotną rolę w spełzywaniu (zob. Spełzywanie). Zjawiska generujące fale sejsmiczne, np. uderzenia huraganowych wiatrów, przepływ fluwialny, falowanie i inne są zwykle mechanizmem spustowym i przyczyniają się do bezpośredniego uruchomienia ruchów masowych na powierzchniach niestabilnych.", "Wiele ruchów stokowych powstaje przez aktywność ludzką, powodują je: budowa dróg, posadowienie budynków, górnictwo podziemne i odkrywkowe, szczelinowanie, nawadnianie, niszczenie roślinności, tworzenie nasypów, ruch pojazdów, działania wojenne."], "definitions": [{"name": " Definicja 1: Stokowe ruchy masowe ", "content": " Stokowe ruchy masowe to przemieszczanie się materiału skalnego\ni glebowego w dół stoku, odbywające się pod wpływem siły ciążenia. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1555, "subject": "Równowaga zbocza", "paragraphs": ["Stabilność (równowaga) stoku zależy ostatecznie od dwóch głównych czynników [1], [2]:", "Blok skalny znajdujący się na zboczu jest przyciągany w kierunku środka Ziemi przez siłę grawitacji (Fg) (Rys. 1), którą można podzielić na dwie składowe:", "Kiedy siła trzymająca, tj. tarcie, jest większa niż siła zsuwająca, blok pozostaje stabilnie na stoku. Największy kąt, pod którym blok nie przesuwa się w dół, nazywany jest kątem spoczynku i jest on mierzony jest względem poziomu. Stok znajduje się pod kątem spoczynku, jeśli siła zsuwająca jest w równowadze z siłą trzymającą. Na zboczach o większym wychyleniu, siła zsuwająca przewyższa siłę trzymającą i blok zaczyna przesuwać się w dół [3], [4].", "Fa zwaną siłą zsuwającą = Fgsin\\(\\alpha \\), Fb czyli siła nacisku = Fgcos\\(\\alpha \\),", "\\(\\alpha \\) - kąt nachylenia stoku,", "siła trzymająca Ft = k * Fb, jeśli Ft < Fa to blok zaczyna się zsuwać.", "Wytrzymałość podłoża [1], [2] zależy od następujących czynników:", "W przypadku skał sypkich (niekohezyjnych), określany jest kąt naturalnego zsypu [6], czyli kąt spoczynku swobodnie usypywanej od góry pryzmy materiału klastycznego (Rys. 3B). Kąt ten zależy między innymi od wielkości ziarna i innych cech teksturalnych ziaren. Im drobniejszy jest materiał, tym kąt naturalnego zsypu jest wyższy. Jest najmniejszy w przypadku drobnoziarnistego piasku, największy w przypadku gruzu."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1557, "subject": "Osuwiska", "paragraphs": ["Osuwiska charakteryzuje specyficzna morfologia, w której wyróżnia się (Rys. 2): półkoliste, nieckowate obniżenie, zwane niszą osuwiskową. Poniżej od niszy ciągnie się rynna osuwiskowa, czyli struktura wzdłuż której nastąpiło przemieszczenie mas skalnych w dół. Najwyższa część niszy nosi nazwę korony osuwiska. Skarpa osuwiska (Rys. 3A) oddziela osuwisko od występującego powyżej niezdeformowanego stoku. W rynnie osuwiskowej znajduje się materiał przemieszczony, który formuje jęzor (strumień) lub pokrywę wychodzącą na przedpole rynny (Rys. 3B). Zewnętrzna krawędź jęzora/pokrywy nazywa się czołem osuwiska [2], [3].", "Przemieszczenie mas poprzedza powstanie szczelin mających formię łuku otwartego w stronę zbocza (Rys. 1B). W kolejnych etapach dochodzi do odspojenia i ruchu mas wzdłuż rynny osuwiskowej. Głębokość, rynien zwykle wynosi od kilku do kilkunastu metrów. Powstanie osuwiska i wytworzenie niszy prowadzi do zaniku podparcia i zaburzeń stateczności mas skalnych znajdujących się w bezpośrednim sąsiedztwie formy, co inicjuje kolejne ruchy zsuwu prowadzące do poszerzenia osuwiska [2], [4], [5]."], "definitions": [{"name": " Definicja 1: Osuwisko ", "content": " Osuwanie to stosunkowo szybkie grawitacyjne przemieszczenie się mas\nskalnych po stoku. Mianem osuwiska określa się powstałą w wyniku osuwania morfologię wraz z formami na\nniej występującymi (Rys. 1A)."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1558, "subject": "Rodzaje osuwisk", "paragraphs": ["Osuwiska klasyfikuje się ze względu na kształt powierzchni poślizgu, względem niej wyróżnia się:", "Ze względu na stopień rozdrobnienia osuniętego materiału osuwiska dzielone są na:", "Ze względu na warunki morfologiczne i umiejscowienie, osuwiska klasyfikowane są na:", "Z punktu widzenia czasu trwania ruchów osuwiskowych wyróżniamy:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1559, "subject": "Osypywanie", "paragraphs": ["Osypywanie jest częstym ruchem towarzyszącym obrywom, gdy dochodzi do trakcji lub poślizgów bloków obrywowych po powierzchni terenu."], "definitions": [{"name": " Definicja 1: Osypywanie ", "content": " Osypywanie to proces grawitacyjnego przemieszczania się pojedynczych\nklastów, które ulegają depozycji u podnóża stoku tworząc osypisko, czyli nagromadzenie luźnego materiału\nziarnistego, na ogół gruzów, żwirów lub piasków [1], [2]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1560, "subject": "Obrywy", "paragraphs": ["Drugim czynnikiem jest podcięcie stoku. Stok może być podcięty przez rzekę lub przez drogę. Rys. 1A pokazuje drogę podcinającą stok w Himalajach. Stok był już znacząco podcięty przez płynącą 500 m poniżej rzekę Ganges. Proces został znacząco przyśpieszony przez drogę. Droga istnieje już setki lat. Co jakiś czas spadają na nią obrywające się głazy. Mogą one spowodować zwężenie drogi, aby ją poszerzyć trzeba wciąć się w stok, zwiększając ryzyko obrywów.", "W przypadku wybrzeży morskich istotną rolę odgrywa erozja morska. Morze podcina stromy brzeg, powodując przewieszenie a następnie obryw (Rys. 1B). Powstaje pionowy klif. Klif ten nie musi być litą skałą, w przypadku wybrzeża Bałtyku erodowana jest glina zwałowa. Oderwany materiał skalny to stosunkowo niewielkie bloki. Jeżeli skała jest lita, a klif wysoki, bloki mogą osiągać rozmiary kilkunastu, kilkudziesięciu, a nawet kilkuset metrów (zob. Czynniki i typy powierzchniowych ruchów masowych, Rys. 1B).", "Obrywy mogą być uruchomione przez trzęsienia ziemi. Jeden z największych katastrofalnych obrywów został jednak spowodowany przez górniczą działalność człowieka. Obryw Elm w Szwajcarii był spowodowany wydobyciem łupków, które zdestabilizowało ścianę skalną aż do ostatecznej katastrofy. Oberwało się 10 milionów metrów sześciennych łupków, zginęło 115 osób, zniszczone zostały 83 budynki [3], [5]."], "definitions": [{"name": " Definicja 1: Obryw ", "content": " jest to oderwanie się fragmentów skalnych i przemieszczenie się\nich pionowo lub pod bardzo dużym kątem [1], [2]. Przemieszczenie to odbywa się gwałtownie,\nwedług [3] obrywy odróżnia się od osuwisk na podstawie prędkości ruchu. W przypadku obrywów\nprędkość ta dochodzi do 150 m/s. Obrywem nazywa się też nagromadzony materiał skalny [4].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1561, "subject": "Spełzywanie", "paragraphs": ["Ważną rolę w ruchu soliflukcyjnym odgrywa powstawanie lodu włóknistego oraz częste zmiany temperatury, powodujące wielokrotnie naprzemienne odmarzanie przypowierzchniowej warstwy gruntu.", "Na spełzywanie wskazuje powolne, ale uporczywe przechylanie się drzew lub obiektów sztywnych, które osadzone są na ruchomych zboczach [1], [2], [4], [5]. Cechą charakterystyczną drzew wzrastających na niestabilnym, pełznącym stoku są wygięte w dół stoku pnie drzew. Deformacje pni są są efektem pionizacji przechylanych przez spełzywanie drzew (Rys. 1)."], "definitions": [{"name": " Definicja 1: Spełzywanie ", "content": " Spełzywanie to powolne przemieszczanie się osadu, zwietrzeliny lub gleby w\ndół stoku, pod wpływem siły ciężkości [1], [2], [3], [4]. "}, {"name": " Definicja 2: Soliflukcja ", "content": " Soliflukcja polega na wolnym (do kilku centymetrów rocznie) spełzywaniu\nwierzchniej, sezonowo rozmarzniętej i przepojonej wodą powierzchniowej warstwy warstwy gruntu, która\nześlizguje się po powierzchni zamarzniętej [1], [2], [3], [4], [6]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1562, "subject": "Spływ", "paragraphs": ["Spływaniu podlegają materiały, które uległy fluidyzacji. Dla spływów charakterystyczny jest brak określonej powierzchni przemieszczania i nierównomierna prędkość ruchu poszczególnych ziarn. Spływ nie narusza sposób istotny pierwotnej morfologii. Prędkość przemieszczeń jest zróżnicowana i wynosi od kilku cm/s do kilku m/s. Ścieżka przemieszczenia spływu jest zależna od morfologii terenu. Koluwium spływowe ma formę potoku (jęzora), jeśli ruch odbywa się wzdłuż doliny, lub pokrywy (fartucha), gdy spływ obejmuje powierzchnię stokową.", "W zależności od dominującego materiału podlegającego przemieszczeniu, wyróżnia się różne typy litologiczne spływów, najczęściej występują:", "Spływ powstaje na powierzchni nachylonej w wyniku uwodnienia materiału klastycznego przez opady atmosferyczne, powodzie albo roztopy. W rejonach nadmorskich powszechne są spływy wywołane aktywnością falowania sztormowego lub tsunami. Szczególnym przypadkiem upłynnienia i wywołania spływu jest jökulhlaup [5], fluidyzacja wodą z lodowca stopionego ciepłem wulkanicznym."], "definitions": [{"name": " Definicja 1: Spływ błotny ", "content": " Spływ to stosunkowo szybkie grawitacyjne przemieszczanie w dół stoku,\nnasyconego wodą, luźnego, ziarnistego materiału [1], [2], [3], [4]. "}, {"name": " Definicja 2: Spływ popiołowy (lahar) ", "content": " Jest to spływ błotny zawierający materiał piroklastyczny,\ngłównie popiół wulkaniczny z domieszką innych typów ziaren. Fluidyzacja piroklastyków zachodzi przez wodę\nzgromadzoną w kalderze wulkanu, pochodzącą z pokrywy śnieżnej czy lodowcowej, a także z opadów\npowstających z kondensacji pary wodnej wydobywającej się z wulkanu. Lahary zwykle przemieszczają się ze\nznaczną prędkością, wynoszącą średnio 50 km/h. Mają różne temperatury. Spływy powstałe\nkrótko po erupcji przemieszczają gorący materiał piroklastyczny, wówczas nazywa się je gorącymi.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1563, "subject": "Osuwiska i spływy podwodne", "paragraphs": ["Subakwalny ruch osuwiskowy jest wywoływany przez różne zjawiska. Uważa się, że trzęsienia ziemi są najważniejszym czynnikiem inicjującym większość dużych osuwisk podmorskich, a w obszarach płytkomorskich i jeziornych istotne znaczenie mają również fale sztormowe i huragany. Coraz większą rolę w inicjacji powierzchniowych ruchów masowych przypisuje się hydratom gazu, które znajdują się pod wieloma podwodnymi stokami. Są to zamknięte w lodzie inkluzje gazu ziemnego, które stają się niestabilne przy wzroście temperatury lub ciśnienia. Dysocjacja hydratów i uwolnienie gazu prowadzi do zmniejszenia stabilności zbocza. Przesiąkanie wód gruntowych i podwyższone ciśnienie wody, wpływające na zmniejszenie tarcia w porach może inicjować ruch osuwający.", "Spływy mułowe są powszechnym składnikiem kompleksów fliszowych i występują między innymi w polskich Karpatach Zewnętrznych. W ich obrębie mogą występować utwory osuwisk podwodnych, nazywane olistostromami oraz duże przemieszczone bloki, zwane olistolitami (Rys. 1)."], "definitions": [{"name": " Definicja 1: Osuwiska podwodne ", "content": " Osuwiska podwodne powstają przez przemieszczenie osadów w\nwarunkach subakwalnych, w dół stoków pod wpływem siły ciążenia [1], [2], [3]. Zachodzą w zbiornikach\nwodnych (morzach, jeziorach, również w niektórych rzekach). "}, {"name": " Definicja 2: Podwodny spływ mułowy ", "content": " Jest to mieszanina iłu, pyłu i piasku z domieszką większych\nklastów, która przemieszcza się w dół stoku morskiego lub jeziornego [4], [1]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Powierzchniowe ruchy masowe", "subject_id": 1566, "subject": "Erozja i akumulacja spowodowane ruchami masowymi", "paragraphs": ["Procesy wietrzenia, erozji i ruchów masowych działają równolegle i wzajemnie się uzupełniają. Wietrzenie wspomaga i ułatwia działanie ruchów masowych. Erozyjna aktywność ruchów masowych obejmuje przede wszystkim rozdrobnienie materiału. Obrywy i osypywanie to procesy kształtujące stoki w wysokich górach, natomiast w obszarach niżej położonych zaznacza się znaczący wpływ osuwisk, które mają znaczenie morfotwórcze przede wszystkim w górach średnich i niskich. Spływy i spełzywanie nie zmieniają istotnie rzeźby i ich wpływ na kształtowanie stoków jest ograniczony [1].", "Drugim obszarem, w którym denudacja jest kształtowana, m.in. przy istotnym zaangażowaniu powierzchniowych ruchów masowych, są strefy brzegowe i stoki podwodne zbiorników wodnych. W strefach nabrzeżnych powszechnie dochodzi do obrywów, osuwania i osypywania (zob. Stokowe ruchy masowe i ich przyczyny), w strefach subakwalnych występują osuwiska i spływy. Znacznie mniejsze jest znaczenie niestokowych ruchów masowych, które prowadzą do obniżania powierzchni.", "Zwyczajowo termin koluwium odnosi się przede wszystkim do materiału przemieszczonego w osuwisku, w szerszym ujęciu stosuje się go do określenia zakumulowanego materiału, także w wyniku innych ruchów masowych, rozróżniając koluwia osuwiskowe, osypiskowe, spływowe i blokowe.", "Materiał budujący koluwia może mieć różne wykształcenie teksturalne. Zależy ono od budowy obszaru źródłowego oraz od typu przemieszczenia i długości drogi transportu. Z reguły koluwium osuwiskowe buduje materiał różnych frakcji od wielkogabarytowego psefitu do materiału frakcji aleurytowej i pelitowej. Podczas osuwania może dochodzić do rozdrobnienia materiału. Koluwia wykształcone w skałach litych będą miały charakter blokowy. Są typowe dla obrywów. Charakteryzuje je obecność różnogabarytowego gruzu, który wykazuje duży rozrzut frakcji (zob. Stokowe ruchy masowe i ich przyczyny). Podobny typ koluwium, zwanego kolapsyjnym, powstaje podczas zapadania. Spływy formują koluwia o niewielkiej miąższości, które tworzy osad zdominowany przez materiał drobnoziarnisty frakcji aleurytowej, pelitowej i psamitowej, z występującym w rozproszeniu materiałem grubszym (czyli glina). Koluwia osypiskowe na ogół gromadzą ziarna różnej frakcji. W stożkach piargowych, będących ich odmianą, występuje gruz o wielkości kilku do kilkudziesięciu cm, lub większy. Koluwia osypiskowe wykazują rozsortowanie materiału, polegające na tym, że ziarna lżejsze (mniejszych frakcji) budują ich górne partie, a materiał grubszy znajduje się w dolnych, dystalnych częściach.", "Koluwia mają różne formy. Osady przemieszczane w osuwiskach i spływach (czyli utworach kohezyjnych) wzdłuż obniżeń dolinnych tworzą wydłużone jęzory, lub pokrywy o typie fartuchowym, jeśli przemieszczają się po powierzaniach stoku. Pokrywy wykształcają się też przy spełzywaniu. Ruch ziarnowy sprzyja powstawaniu stożków osypiskowych o wachlarzowatym kształcie, których stoki mają spadek odpowiadający kątowi naturalnego zsypu materiału. Tworzą się przy punktowym zasilaniu (np. u wylotu żlebu), natomiast przy zasilaniu liniowym formują się fartuchy osypiskowe. W wyniku połączenia obocznego stożków osypiskowych u podnóża zbocza górskiego powstaje liniowa struktura przystokowa zwana stożkiem piedmontowym."], "definitions": [{"name": " Definicja 1: Denudacja ", "content": " Denudacja jest sumarycznym procesem wietrzenia, erozji i ruchów masowych,\nktóre wiążą się z transportem grawitacyjnym produktów niszczenia skał [1]. "}, {"name": " Definicja 2: Koluwium ", "content": " Koluwium to materiał skalny nagromadzony w wyniku przemieszczania\ngrawitacyjnego, który ma różne formy, np. jęzorów, fartuchów osuwiskowych lub spływowych, stożków\nosypiskowych, wałów itd... "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1827, "subject": "Rola wietrzenia w przyrodzie", "paragraphs": ["Wietrzenie zachodzi na powierzchni skorupy ziemskiej i w strefie przypowierzchniowej, a produkty zwietrzenia noszą nazwę zwietrzeliny (Rys. 1), [1], [2], [3].", "Tempo wietrzenia zależy od bardzo wielu czynników:", "Wietrzenie to jeden z kilku najważniejszych procesów umożliwiających życie na Ziemi. Jego końcowym efektem są bowiem gleby, które razem z atmosferą i hydrosferą stanowią warunek funkcjonowania fauny i flory na naszej planecie.", "Wietrzenie jest jednym z procesów cyklu skalnego (por. Cykliczność procesów geologicznych i cykl skalny). Dostarcza do mórz i oceanów olbrzymie ilości materiału okruchowego i roztworów, z których - w procesach sedymentacji i diagenezy - powstają nowe skały wynoszone w wyniku orogenezy i ponownie poddane wietrzeniu.", "Wietrzeniu podlegają także obiekty cywilizacji materialnej człowieka, szczególnie budowane z surowców mineralnych (budowle kamienne, ceglane, konstrukcje metalowe i wiele innych)."], "definitions": [{"name": " Definicja 1: Wietrzenie ", "content": " Wietrzenie jest to niszcząca działalność powietrza, wody i Słońca na skały\nznajdujące się na powierzchni Ziemi. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1828, "subject": "Wietrzenie mechaniczne", "paragraphs": ["Insolacja i zmiany temperatury", "Skały nagrzewają się w dzień w wyniku działania promieni słonecznych, natomiast w nocy oziębiają się na skutek obniżania się temperatury.", "Minerały budujące skały rozszerzają się w różnym stopniu: ciemne – bardziej, zaś jasne – słabiej. W efekcie długotrwałego procesu rozszerzania się i kurczenia minerałów, skały rozpadają się. Proces ten zachodzi szczególnie intensywnie w obszarach, gdzie dobowe różnice temperatur są bardzo duże. Są to przede wszystkim wysokie góry lub pustynie [1], [2], [3].", "W klimacie umiarkowanym wietrzenie to ma zdecydowanie mniejsze znaczenie [4].", "Skały wieloziarniste rozpadają się na poszczególne ziarna – jest to tzw. rozpad ziarnisty (Rys. 1). Skały monomineralne i twarde wieloziarniste (np. granit), wskutek silniejszego nagrzewania się części przypowierzchniowej, ulegają eksfoliacji (łuszczeniu się, ang. exfoliation) polegającej na odspojeniu się warstw (o grubości od kilku mm do kilkudziesięciu cm) od calizny. Odpowiedzialny jest za to proces odciążania - wierzchnia, rozgrzana warstwa, nie przykryta nadległymi skałami, jest lżejsza i odspaja się od calizny [5]. Jeśli skała rozpada się na duże fragmenty wzdłuż szczelin spękań, to dochodzi wówczas do rozpadu blokowego.", "W kolejnych etapach dezintegracji blokowej duże fragmenty skalne rozpadają się na coraz mniejsze (Rys. 2A), a sumaryczna, odsłonięta, powierzchnia skał znacznie się zwiększa. Sprzyja to sile oddziaływania wietrzenia chemicznego.", "Ostre krawędzie bloków skalnych stosunkowo łatwo ulegają zniszczeniu, co w efekcie prowadzi do zaokrąglenia bloków (wietrzenie kuliste) (Rys. 2B).", "Działanie mrozu", "Skały są z reguły porowate (osadowe bardziej, a magmowe mniej) i spękane. Chłoną zatem wodę, która zamarzając zwiększa objętość (o ok. 10%) i wywołuje duże ciśnienie wewnętrzne (rozprężające). Rozsadzające działanie zamarzającej wody nosi nazwę zamrozu (Rys. 3).", "Woda zamarzająca w szczelinach skalnych rozsadza skały na ostrokrawędziste okruchy i bloki. Natomiast woda zamarzająca w pionowych szczelinach w gruncie tworzy kliny lodowe (ang. ice wedging) i powoduje rozluźnienie gruntu.", "Działanie mrozu koncentruje się w strefie polarnej i umiarkowanej, a wpływ mrozu sięga do 8 m, w Polsce do 1,5 m. Szczególnie intensywne efekty zamrozu występują na przedpolach lodowców (wietrzenie peryglacjalne) lub w wysokich górach. Efektem działania mrozu może być rozpad blokowy i ziarnisty [1], [6], [5], [7], [8].", "Krystalizacja minerałów i zmiana objętości minerałów ilastych", "W obszarach klimatu suchego i półsuchego, jeśli w porach i szczelinach skał znajduje się solanka, dochodzi do wzrostu kryształów soli. Proces ten powoduje powstanie naprężeń i rozdrabnianie skał (wietrzenie solne).", "Pewne lokalne znaczenie dla wietrzenia mechanicznego może mieć także pęcznienie i kurczenie się minerałów ilastych (zob. Minerały ilaste). Procesy te wywołują naprężenia rozsadzające skałę."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1830, "subject": "Wietrzenie chemiczne", "paragraphs": ["Przeobrażenia chemiczne, jakie wywołuje agresywna woda polegają na [1], [2], [3], [4], [5], [6]:", "Rozpuszczanie w wodzie to cecha minerałów określona przez stałą rozpuszczalności, która zależy od pH i temperatury roztworu. Minerały mają różną zdolność do rozpuszczania się w wodzie: kwarc niezwykle słabo rozpuszcza się w roztworze o pH powyżej 10; kalcyt – tym łatwiej, im roztwór jest bardziej kwaśny. Do minerałów szczególnie łatwo rozpuszczających się w wodzie należą np.: halit, minerały soli potasowo-magnezowych i minerały grupy ałunu.", "Utlenianie i redukcja. Oba te procesy polegają na łączeniu się związków chemicznych z tlenem lub na przechodzeniu związków tlenowych niektórych pierwiastków z niższych wartości w wyższe [4], [2], [7]. Spośród wszystkich pierwiastków najbardziej podatnym na wietrzenie chemiczne jest żelazo. Przykładem utleniania jest przejście magnetytu w hematyt.", "Przykładem redukcji jest przejście limonitu w syderyt lub anhydrytu w kalcyt.", "Uwodnienie polega na przechodzeniu związków bezwodnych w uwodnione. Minerały wchłaniają wodę, a ich sieć krystaliczna rozluźnia się i jest bardziej podatna na wietrzenie. Typowymi przykładami procesu uwodnienia są np. przejścia anhydrytu w gips i ortoklazu w kaolinit.", "Uwęglanowienie polega na wypieraniu ze związków mineralnych różnych kwasów przez kwas węglowy, czyli na powstaniu węglanów w miejsce innych soli. Proces ten występuje najczęściej w skałach magmowych i dotyczy głównie krzemianów. I tak np. ortoklaz przechodzi w kaolinit, węglan potasu i krzemionkę; anortyt przechodzi w kaolinit i kalcyt; biotyt ulega rozkładowi na minerałów ilastych, dwuwęglan potasu i magnezu, limonit i krzemionkę, zaś diopsyd przechodzi w dolomit i krzemionkę.", "Chelatacja jest to proces połączenia kationów metali z materią organiczną lub bakteriami próchnicy w glebie. Chelatacja uruchamia kationy metali \\(Fe^{3+}\\) i \\(Al^{3+}\\), które w normalnych warunkach są nierozpuszczalne, ale chelatacja prowadzi do wzrostu zawartości metali w nalotach na powierzchni skał (tzw. lakier pustyni) [4].", "Jednym z najważniejszych procesów wietrzenia chemicznego jest przechodzenie skaleni w minerały ilaste (wietrzenie ilaste). Polega ono na zastępowaniu jonów \\(K^{+}\\), \\(Na^{+}\\) i \\(Ca^{2+}\\) przez jony wodorowe występujące w wodach opadowych zakwaszonych przez \\(CO_2\\). Proces ten przebiega efektywniej, gdy wykorzystuje powierzchnie łupliwości skaleni.", "Skały krystaliczne zbudowane prawie wyłącznie z krzemianów (głównie skaleni), wietrzejąc chemicznie przechodzą w minerały ilaste. Produkty wietrzenia tych skał są bardzo podobne do siebie. Są złożone z wolnej krzemionki, wodorotlenków Fe oraz minerałów ilastych (kaolinit, illit).", "W efekcie wietrzenia z ortoklazu powstają różne minerały ilaste. Jeśli woda jest zakwaszona (pH od 5 do 7), wówczas tworzy się montmorillonit.", "Jeśli zwietrzelina jest wyługowana z kationów, to powstaje kaolinit (reakcja poniżej).", "Do powstania illitu wartość pH jest nieistotna, natomiast ważne jest, aby w roztworze występował jon \\(K^+\\) .", "W klimacie umiarkowanym ze skaleni powstaje illit, zaś w klimacie subtropikalnym kaolinit, a w klimacie suchym montmorillonit.", "Znaczenie ma także rodzaj skał podlegających wietrzeniu. Z bazaltów powstaje głównie montmorillonit, a z granitów tworzy się illit lub kaolinit [2]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1832, "subject": "Odporność minerałów na wietrzenie", "paragraphs": ["Kwarc, muskowit, apatyt, magnetyt, granaty, cyrkon, rutyl i korund są bardzo trwałe i praktycznie nie ulegają wietrzeniu, natomiast pozostałe ulegają zupełnemu rozkładowi i stąd ich brak w zwietrzelinie.", "Kwarc jest minerałem powszechnie występującym w wielu skałach wieloziarnistych i po ich zwietrzeniu dominuje w residuum. Stąd powszechne występowanie osadów piasków, w przewadze kwarcowych, a wśród skał klastycznych jest wyraźna dominacja piaskowców.", "Węglany, zwłaszcza kalcyt, bardzo szybko ulegają rozkładowi i z reguły są wynoszone przez wody płynące w formie roztworów - często daleko poza miejsce występowania. Tylko te wapienie, które ulegają wietrzeniu mechanicznemu w górach mogą tworzyć nagromadzenia różnej wielkości ostrokrawędzistych okruchów; jeśli dostaną się one do rzek, to łatwo ulegają obtoczeniu."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1833, "subject": "Wietrzenie biologiczne", "paragraphs": ["Korzenie roślin, grzyby i porosty wytwarzają kwasy sprzyjające rozkładowi niektórych minerałów i ułatwiają roślinom pobieranie pierwiastków fosforu i potasu (Rys. 1), [1], [2], [3].", "Mechaniczne działanie organizmów", "Korzenie roślin, wnikające w szczeliny i pory skał, rosnąc grubieją i wytwarzają silny nacisk na kontaktującą z nimi skałę (Rys. 2).", "Prowadzi to do rozsadzania skał i w efekcie ich rozpad (blokowy lub ziarnisty). Pewne znaczenie, głównie dla silniejszego rozdrabniania skał luźnych, mają organizmy żyjące w gruncie (krety, nornice, dżdżownice, termity itp.) [4], [2], [5], [6]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1834, "subject": "Produkty wietrzenia", "paragraphs": ["Produkty wietrzenia mechanicznego i chemicznego tworzą pokrywy zwietrzelinowe pozostające na miejscu (eluwium) albo przenoszone grawitacyjnie po stokach oraz hydraulicznie, płynącymi ciekami wodnymi lub wywiewane przez wiatry. Rozpuszczone w wyniku wietrzenia chemicznego składniki skał, usunięte poza zwietrzelinę, noszą nazwę deluwium.", "Wietrzenia mechaniczne i chemiczne oddziaływują na siebie nawzajem (interakcja), zwłaszcza wietrzenie fizyczne rozdrabniające skały, co ułatwia penetrację czynników wietrzenia chemicznego. Generalnie jednak, w konkretnych miejscach, produkty jednego typu wietrzenia przeważają nad pozostałymi (zob. Osypywanie).", "Pokrywy zwietrzelinowe, głównie z wietrzenia mechanicznego, noszą nazwę regolitu. Jeśli są to nagromadzenia różnej wielkości fragmentów skalnych bezładnie wymieszanych, to nazywamy je rumoszem (rumowiskiem) (Rys. 1).", "Pola blokowe są to z kolei nagromadzenia dużych, ostrokrawędzistych fragmentów skał masywnych jako produkt dezintegracji blokowej. Najczęściej powstają one w efekcie wietrzenia mrozowego w klimacie peryglacjalnym. Pola blokowe usytuowane na stokach gór noszą nazwę gołoborzy (Rys. 2).", "Jeśli natomiast produkty wietrzenia fizycznego różnych frakcji staczają się po zboczach, usypują wówczas charakterystyczne stożki osypiskowe [4], [5], [6] nazywane piargami. Cechą stożków osypiskowych jest rozmieszczenie materiału okruchowego – najgrubszy gromadzi się na obrzeżach stożka, zaś najdrobniejszy w szczycie stożka (Rys. 1).", "Taki rozkład jest efektem działania grawitacji – najcięższe fragmenty staczają się najniżej. Dokładnie odwrotnie rozkłada się materiał okruchowy w stożkach napływowych deponowanych przez wody płynące (zob. Stożki napływowe).", "Najpospolitszym produktem wietrzenia, w przewadze chemicznego, są gliny zwietrzelinowe złożone z utworów resztkowych (rezydualnych), pozostałych na miejscu, podczas gdy roztwory zostają przemieszczone.", "Wyróżnia się dwa typy wietrzenia chemicznego [5], [3], [2], [7]:", "Pewną szczególną odmianą gliny zwietrzelinowej jest terra rossa. Jest to skała barwy czerwonej lub brunatno-czerwonej, powstająca w efekcie wietrzenia wapieni i dolomitów. Składa się ona z minerałów iłowych oraz tlenków i wodorotlenków glinu i żelaza."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1835, "subject": "Formy wietrzenia selektywnego", "paragraphs": ["Powstaje tutaj wiele różnych obiektów, które możemy zakwalifikować do tzw. ostańców [1], [2], [3].", "Ostańce są to skalne wzniesienia występujące jako izolowane formy geomorfologiczne o stromych zboczach. Ostańce są pozostałością twardego masywu skalnego zniszczonego w wyniku erozji, wietrzenia i powierzchniowych ruchów masowych (np. skałki jurajskie w okolicach Krakowa, liczne obiekty piaskowców kredowych w Górach Stołowych i piaskowców fliszowych w Karpatach) (Rys. 1, Rys. 2).", "W obrębie ostańców wyróżniamy specyficzne formy, takie jak:", "Głowy cukru są to kopulaste pagórki i wzgórza typowe dla obszarów tropikalnych. Zbudowane są głównie ze skał magmowych, głębinowych i powstają na skutek wietrzenia, przede wszystkim chemicznego. Czynnikiem sprzyjającym są kopulasto zakrzywione spękania ciosowe, będące efektem ciosu termicznego [4].", "Grzyby skalne to formy skałkowe o szerokiej części szczytowej i znacznie węższej podstawie. Swoim kształtem przypominają grzyby (Rys. 3).", "Twardziele to specyficzny typ ostańców; są to skałki powstałe z twardych skał występujących w otoczeniu skał mniej odpornych, które zostały usunięte wskutek wietrzenia i erozji. Odróżnienie twardzieli od ostańców jest możliwe po rozpoznaniu pierwotnej budowy geologicznej skał, w szczególności ich zróżnicowanej odporności na procesy wietrzenia i erozji."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1838, "subject": "Wietrzenie a klimat", "paragraphs": [], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1836, "subject": "Gleby", "paragraphs": ["Generalnie, w każdym profilu gleby możemy wyróżnić trzy podstawowe poziomy (Rys. 1):", "Na rodzaj gleby decydujący wpływ mają: klimat (opady i temperatura) oraz budowa geologiczna podłoża (Rys. 2), [1], [2], [3], [4].", "W klimacie tropikalnym, ze względu na wysokie temperatury i wilgotność, materia roślinna ulega bardzo szybkiemu rozkładowi i gleby są ubogie w substancje humusowe, a ługowanie komponentów rozpuszczalnych przebiega bardzo intensywnie.", "Gleby w tym klimacie składają się głównie z tlenków i wodorotlenków żelaza i glinu. Gleby te mają charakterystyczne – czerwone, brunatne i żółte barwy (Rys. 3).", "W klimacie pustynnym, charakteryzującym się wysoką temperaturą i niską wilgotnością, gleby także wykazują brak humusu, głównie z powodu braku szaty roślinnej. Proces ługowania nie ma tu dużego znaczenia. Gleby są wzbogacone w węglany i siarczany.", "W klimacie umiarkowanym materia roślinna i substancje humusowe dominują i sprzyjają ługowaniu \\(Al_2O_3\\), \\(Fe_2O_3\\) i \\(SiO_2\\), a ługi zostają strącone w głębi, w efekcie oddziaływania z solami pochodzącymi z wód gruntowych w podłożu. W tym procesie powstają gleby bielicowe (Rys. 4).", "Czarnoziemy powstają w tych rejonach, w których wegetacja roślin ma wystarczającą wilgotność, a substancje humusowe nie przekształcają się w roztwory koloidalne. Jeśli w podłożu występują skały ilaste i margliste lub lessy, wówczas tworzą się czarnoziemy (Rys. 4)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "Wietrzenie", "subject_id": 1837, "subject": "Wietrzenie peryglacjalne", "paragraphs": ["Proces ten powoduje powstanie gleb charakterystycznych dla obszarów wiecznej marzłoci [1], [2]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy egzogeniczne", "chapter": "", "subject_id": 2100, "subject": "Tabela geochronologiczna", "paragraphs": [], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "", "subject_id": 1393, "subject": "Informacja o e-podręczniku \"Geologia. Ziemia i procesy endogeniczne\"", "paragraphs": ["E-podręcznik opracowano w ramach Zintegrowanego Programu Rozwoju Akademii Górniczo-Hutniczej w Krakowie.", "Projekt współfinansowany ze środków Europejskiego Funduszu Społecznego w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014-2020.", "Oś III Szkolnictwo wyższe dla gospodarki i rozwoju,", "Działanie 3.5 Kompleksowe programy szkół wyższych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "", "subject_id": 1388, "subject": "Wstęp", "paragraphs": ["Geologia jest nauką, która wyrosła i rozwijała się z potrzeby i ciekawości ludzi. Z potrzeby, ponieważ funkcjonowanie i rozwój ludzkości wymagał coraz większej ilości surowców: skał, minerałów, metali, surowców chemicznych. Z ciekawości, znacznie później, kiedy człowiek zaczynał kojarzyć, że niektóre procesy skorelowane są z efektami: wybuch wulkanu prowadził do powstawania skał, erozja zmieniała bieg rzek i przebieg linii brzegowej mórz, itp.", "Im bliżej czasów współczesnych, tym znaczenie geologii rosło, chociaż w dobie globalizacji, cyfryzacji, gospodarki 4.0 często o tym zapominamy. Nie sposób wyobrazić sobie funkcjonowania dzisiejszego świata bez wielu surowców: żelaza, miedzi, cynku, ołowiu, ropy naftowej i gazu, surowców chemicznych, minerałów i skał, pierwiastków krytycznych oraz (przede wszystkim) wody, która staje się surowcem strategicznym. W dającej się przewidzieć przyszłości rola geologii nie będzie malała, ale rosła.", "Różnorodność podejmowanych tematów i metod stosowanych w badaniach geologicznych oraz proces rozwoju tej dyscypliny doprowadził do wyodrębnienia w nowoczesnej geologii poszczególnych jej działów. Są to:", "Wszystkie te dyscypliny koncentrują się głównie na badaniach skalnej powłoki Ziemi (litosfery). Formowana jest ona przez procesy geologiczne, które dzielone są na dwie grupy:", "Podręcznik GEOLOGIA. ZIEMIA I PROCESY ENDOGENICZNE poświęcony jest pierwszej grupie procesów. Przedstawia ich przyczyny, przebieg oraz efekty. Charakteryzuje grupy skał, które są bezpośrednią konsekwencją tych procesów, skupiając się na ich cechach makroskopowych. Podręcznik kierujemy przede wszystkim do studentów wszystkich kierunków nauk o Ziemi (geologii, geografii, geoturystyki, ochrony środowiska, itp.). Mamy jednak nadzieję, że zainteresuje ona także wszystkich, których fascynuje nasza planeta Ziemia. Jesteśmy lokatorami Ziemi i poznanie jej funkcjonowania jest niesłychanie istotne, wręcz konieczne, dla naszej przyszłości.", "Założyliśmy, że podręcznik musi być napisany prostym językiem i musi mieć jasną konstrukcję. To nie jest podręcznik dla naukowców, ale dla młodych adeptów nauk o Ziemi. Zawiera on podstawowe informacje, bez nadmiaru szczegółów, z dużą ilością modeli i zdjęć. Chcemy zachęcić, szczególnie młodych ludzi, do zrozumienia, że Ziemia to wspaniała, fascynująca planeta. Podlega ona nie tylko ciągłym zmianom biologicznym, gdzie jedne gatunki flory i fauny wymierają, a inne się pojawiają, ale podlega również zmianom w strukturze skalistego globu. Jego współczesny obraz jest wynikiem długiej i skomplikowanej ewolucji, podczas której następowały połączenia lub podziały kontynentów, osady mórz i oceanów przekształcały się w góry, które były potem niszczone, a zmiany klimatu powodowały podniesienie lub obniżenie poziomu wody w oceanach i rozrost lub kurczenie pokrywy lodowej.", "Zapraszamy do poznania tajemnic Ziemi, która jest naszym domem.", "Niniejszy podręcznik powstał przy wsparciu naszych przyjaciół, którym pragniemy złożyć podziękowania za zaangażowanie oraz użyczenie prywatnych materiałów.", "Jesteśmy wdzięczni Krzysztofowi Szopie za cenne uwagi do części mineralogiczno-petrograficznej. Materiał fotograficzny został udostępniony przez Sławomira Bębenka, Andrzeja Gałasia, Felixa M. Gradsteina, Marka Łodzińskiego, Piotra Strzebońskiego, Krzysztofa Szopę, Ewę Waśkowską oraz Jerzego Żabę, którym składamy podziękowania. Za pomoc w pracach edytorskich dziękujemy Paniom: Karolinie Słomce-Polonis oraz Elżbiecie Słomce.", "Jan Golonka i Tadeusz Słomka dziękują Annie Waśkowskiej za największy wkład pracy w powstanie podręcznika.", "Część dokumentacji fotograficznej, służąca do zobrazowania skał i minerałów, pochodzi z kolekcji dydaktycznej zgromadzonej przez pracowników Katedry Geologii Ogólnej i Geoturystyki Wydziału Geologii, Geofizyki i Ochrony Środowiska Akademii Górniczo-Hutniczej."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Cechy Ziemi", "subject_id": 1286, "subject": "Atrybuty Ziemi", "paragraphs": ["Ziemia to trzecia licząc od centrum planeta Układu Słonecznego ( Rys. 1 ), znajdująca się na orbicie w odległości 147-153 mln km od gwiazdy. Powstała 4,55 mld lat temu z mgławicy gwiezdnej wraz z innymi obiektami Układu [the-age-of-the-earth], [earth2013]. Należy do planet skalistych, które charakteryzuje występowanie jądra metalicznego otoczonego skalistą powłoką.", "Ziemię cechuje szereg cech swoistych i unikalnych, które nie są znane z innych ciał w Układzie Słonecznym. Należą do nich:", "Wśród planet skalistych Ziemię cechuje:", "Ziemia, posiada jednego satelitę, którym jest Księżyc.", "Głównymi pierwiastkami, które budują Ziemię jest żelazo, tlen, krzem i magnez ( Nie znaleziono skrótu dla otoczenia2 oprac. na podstawie [chemical-composition-of-earth-venus-and-mercury]).", "Rozkład pierwiastków w obrębie Ziemi jest nierównomierny. Wraz z głębokością zwiększa się ilość pierwiastków o większej gęstości, tj. żelazo, magnez i wapń, a zmniejsza pierwiastków o mniejszej gęstości, tj. krzem, sód czy potas. W powierzchniowych strukturach dominującym pierwiastkiem jest tlen w ilości \\(44,6\\%\\) i krzem, którego ilość wynosi \\(27,72\\%\\), natomiast zawartość żelaza jest ponad 6 x mniejsza (zob. Skorupa ziemska ). W centrum Ziemi znajduje się stop metaliczny zdominowany przez żelazo (zob. Jądro ).", "Ziemia, czyli skalisty glob, funkcjonuje na orbicie słonecznej w otoczeniu hydrosfery, atmosfery i biosfery. Tworzą one zewnętrzną otoczkę dla planety, ale też przenikają przez jej najbardziej powierzchniowe struktury. Sfery te są zintegrowane z Ziemią i tworzą współzależny układ, tworzący wraz z Ziemią system ziemski.", "Na atmosferę ziemską składa się powłoka gazowa, która utrzymywana jest grawitacyjnie przez planetę. Ma grubość około 2000 km, przy czym zewnętrzne 1500 km to wybitnie rozrzedzony gaz. Głównymi jej składnikami jest azot (\\(78\\%\\)) oraz tlen (\\(21\\%\\)). Atmosfera stanowi:", "Hydrosfera to wody występujące w sferach ziemskich, na które składają się niezależnie od stanu skupienia: wody podziemne i powierzchniowe występujące w: rzekach, jeziorach, morzach i oceanach, lodowcach i lądolodach, a także woda zawarta w atmosferze i biosferze. Ponad \\(71\\%\\) powierzchni globu jest przykryte przez wody oceanów i mórz, dlatego Ziemia nazywana jest „niebieską planetą” ( Rys. 4 ). Wody ziemskie zmieniają swoje położenie i migrują pomiędzy poszczególnymi sferami tworząc obieg wody. Napędzany on jest przez grawitację ziemską oraz energię słoneczną. Wody są ważnym elementem, który podtrzymuje życie, stanowią istotny czynnik morfotwórczy, modelujący powierzchnię Ziemi oraz ośrodek, w którym zachodzą procesy geologiczne.", "Ziemia ma budowę sferyczną, czyli składa się ze stref rozmieszczonych koncentrycznie względem jej środka, zwanych geosferami(zob. Geosfery )."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Cechy Ziemi", "subject_id": 1287, "subject": "Pole magnetyczne Ziemi", "paragraphs": ["Ziemia posiada i utrzymuje własne pole magnetyczne. Indukowane jest ono przez prądy elektryczne generowane przepływem materii w jądrze zewnętrznym. Pole magnetyczne jest polem dipolowym, czyli dwubiegunowym, którego model przedstawiony został na Rys. 1 [1], [2], [3]. Bieguny pola magnetycznego zlokalizowane są w pobliżu biegunów geograficznych i desygnowane są tymi samymi nazwami. Co pewien czas dochodzi do przebiegunowania, czyli rewersji biegunów i powstania odwrotnego pola magnetycznego (zob. Przesłanki i dowody aktualne teorii tektoniki płyt ), [4].", "Pole magnetyczne wyodrębnia magnetosferę, czyli przestrzeń wokół Ziemi, w której ono determinuje ruch naładowanych cząstek [1]. Magnetosfera to zona, która stanowi barierę ochraniającą Ziemię przed cząstkami plazmy słonecznej, zwanej wiatrem [5]. Jej granicę wyznacza magnetopauza. Strumień wiatru słonecznego odkształca magnetosferę, skutkiem czego od strony Słońca jest ona zacieśniona, natomiast po stronie przeciwnej jest rozciągnięta w warkocz magnetosferyczny, którego długość jest około 10 x większa od strefy odsłonecznej ( Rys. 3 ).", "Najcieńsza magnetosfera występuje w obszarach okołobiegunowych ( Rys. 3 ). Jest to miejsce, gdzie wiatr słoneczny dostaje się w warstwy atmosferyczne, czego objawem są rozbłyski, zwane świeceniem zorzowym ( Rys. 4 ), [1], [6]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Cechy Ziemi", "subject_id": 1288, "subject": "Ciepło Ziemi", "paragraphs": ["Rozkład temperatur w obrębie Ziemi jest nierównomierny. Zewnętrzne warstwy Ziemi są chłodne i sztywne, ich temperatura wynosi kilka stopni Celsjusza, ku centrum sukcesywnie rośnie osiągając wartości 5400 \\( ^oC \\) ( Rys. 1 ). Wzrost temperatury wraz z głębokością wyrażany jest stopniem geotermicznym.", "Ciepło Ziemi pochodzi z dwóch źródeł:", "Ciepło słoneczne ogrzewa zewnętrzne części Ziemi i jest jednym z głównych czynników generujących procesy egzogeniczne. Stała słoneczna, czyli dostarczana przez Słońce energia padająca prostopadle na 1 \\( m^2 \\) powierzchni Ziemi, wnosi około 1360 \\( W/m^2 \\). Ciepło wewnętrzne generuje procesy endogeniczne, w tym odpowiada za tektonikę płyt litosferycznych [6]. Jego ilość jest kilka tysięcy razy mniejsza w stosunku do ciepła, które pochodzi od Słońca [7]. Najważniejszym jego źródłem są pierwiastki promieniotwórcze, emitujące energię cieplną podczas rozpadu radioaktywnego. Podstawowymi izotopami są \\( K^{40} \\), \\( U^{238} \\) oraz \\( Th^{232} \\)[8]. Najwięcej izotopów promieniotwórczych znajduje się w płaszczu ziemskim [2], [9]. Drugim, wspomagającym źródłem jest ciepło jądra ziemskiego. Jest to ciepło resztkowe, będące pozostałością po pierwotnym cieple z czasów tworzenia się globu.", "Podstawowym mechanizmem, który rozprowadza ciepło we wnętrzu Ziemi są prądy konwekcyjne [10]. Utrata ciepła następuje przez skorupę ziemską.", "Średnia wartość tego parametru dla Ziemi wynosi 70 \\( mW/m^2 \\) [1], [7]. Największy wypływ obserwowany jest na grzbietach oceanicznych (w strefach rozrostu) ( Rys. 2 ), gdzie osiąga on ponad 300 \\( mW/m^2 \\). Najmniejsza ilość ciepła jest tracona przez Ziemię w obszarach tarcz i równi abysalnych. Ważną rolę w termice powierzchni Ziemi odgrywa atmosfera, która ochrania glob przed utratą nadmiernej ilości ciepła."], "definitions": [{"name": "Definicja 1: Stopień i gradient geotermiczny", "content": "Stopień geotermiczny wskazuje, co ile metrów temperatura Ziemi rośnie o 1 \\( ^oC \\) [1].\nGradient geotermiczny określa wzrost temperatury przypadający na określoną jednostkę głębokości.\n\n\nWartość stopnia geotermicznego jest zróżnicowana i zmienia się lokalnie i regionalnie. Aktualnie jego wartość oscyluje pomiędzy 180 m a 1.5 m, przy średniej globalnej wynoszącej 33 m [2], [3]. Generalnie jest wyższy pod lądami, niższy pod ocenami. Przyrost temperatury zgodny ze stopniem geotermicznym obserwowany jest do 100 km, głębiej tempo przyrostu ciepłoty jest znacznie mniejsze ( Rys. 1 ), [4]."}, {"name": "Definicja 2: Strumień cieplny", "content": "ilość ciepła wypromieniowana w jednostce czasu z jednostki powierzchni Ziemi."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Cechy Ziemi", "subject_id": 1289, "subject": "Kształt Ziemi", "paragraphs": ["Ziemia jest planetą, czyli ciałem niebieskim znajdującym się na orbicie wokół Słońca, które posiada oczyszczoną okolicę swojej orbity. Ma na tyle dużą masę, iż wytwarzana przez niego siła grawitacyjna przewyższa siły ciała sztywnego, przez co osiąga kształt równowagi hydrostatycznej i jest prawie okrągła. W definicji planety podkreślony jest jej kształt, dlatego schematy obrazujące Ziemię lub zjawiska na niej zachodzące zwykle przedstawiają ją przy wykorzystaniu figury geometrycznej o kształcie kuli. W zależności od miejsca pomiaru, długość promienia ziemskiego jest zróżnicowana. Promień równikowy jest najdłuższy i wynosi 6378,137 km, natomiast promień biegunowy krótszy i mierzy 6356,752 km [1]. Różnica w długości, nazywana spłaszczeniem Ziemi, wynosi 21,385 km ( Rys. 1 ). Spłaszczenie to wynika z działania siły odśrodkowej powstającej podczas ruchu obrotowego globu wokół własnej osi. Bryłą, która nawiązuje morfologią do kształtu Ziemi jest elipsoida obrotowa [2], [3], [4].", "Aby odwzorować bardziej precyzyjnie powierzchnię Ziemi została skonstruowana geoida ( Rys. 2 ), [4], [5]. Jest to bryła o nieregularnym kształcie.", "Powierzchnia geoidy odpowiada teoretycznej powierzchni Ziemi przy założeniu, że powierzchnia ta jest prostopadła do kierunku siły ciężkości, czyli lokalnego pionu. W obszarze lądowym powierzchnia geoidy znajduje się ponad powierzchnią elipsoidy obrotowej i poniżej powierzchni topograficznej, a w obszarze oceanicznym powierzchnia geoidy znajduje się powyżej powierzchni topograficznej i powierzchni elipsoidy ( Rys. 3 ), [3]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Budowa wewnętrzna Ziemi", "subject_id": 1296, "subject": "Źródła danych", "paragraphs": ["Wiedza o budowie wgłębnej Ziemi jest oparta o obserwacje bezpośrednie oraz pośrednie.", "Obserwacje bezpośrednie polegają na analizie budulca oraz na ustaleniu jego rozmieszczenia w strukturach ziemskich. Prowadzone są one na naturalnych i antropogenicznych rozcięciach, dających wgląd w struktury podpowierzchniowe. Zasięg obserwacji jest ograniczony do rozmiaru tych form. Głębokie wcięcia erozyjne tworzone są przez intensywne niszczenie punktowe lub liniowe, np. wzdłuż dolin rzecznych, wzdłuż form tektonicznych i jaskiniowych. Procesem o istotnym znaczeniu jest erozja fluwialna denna, w wyniku której powstają zaawansowane rozcięcia erozyjne przekraczające nawet 2 km. Dane o budowie wgłębnej Ziemi pozyskiwane są również podczas eksploracji jaskiń, zwłaszcza tych które mają rozwój pionowy. Najgłębiej położone korytarze, przekraczające 2 km, znajdują się w gruzińskich jaskiniach krasowych.", "Wcięcia w powierzchniowych strukturach ziemskich tworzone są również sztucznie, przez człowieka podczas eksploatacji surowców. Najgłębsze kopalnie powstały przy pozyskiwaniu złota. Rekord został osiągnięty w afrykańskim wyrobisku Mponeng, gdzie surowiec pobierany jest z głębokości ponad 4 km. Nieco głębiej w strukturę ziemską docierają wiercenia. Najgłębsze odwierty, jakie zostały wykonane na półwyspie Kolskim, w Katarze i na Sachalinie, przekroczyły głębokości 12 km. Sachaliński otwór sięga do głębokości 12 345 m.", "Cennym materiałem badawczym, dostępnym dla badań bezpośrednich i dającym pogląd o budowie wewnętrznej Ziemi, są skały pochodzące z jej wnętrza, które w powierzchniowych strukturach znalazły się dzięki naturalnym procesom geologicznym. Analizom geologicznym podlegają szczególnie:", "Dane z obserwacji bezpośrednich mają niewielki zasięg pionowy i pozwalają dość precyzyjnie ustalić obraz dla budowy geologicznej najbardziej powierzchniowej warstwy globu. Najgłębiej sięgające wiercenia nie przebiły skorupy ziemskiej, a próbki skał pochodzące z najgłębszych struktur ziemskich pochodzą z płaszcza. Przy zastosowaniu tych metod otrzymana informacja daje pogląd jedynie na budowę najbardziej zewnętrznych stref Ziemi. Budowa wnętrza globu, którą dziś dysponujemy, została oszacowana dzięki obserwacjom pośrednim. Podstawowymi analizami są badania geofizyczne, które analizują przebieg fal sejsmicznych w ośrodkach ziemskich [1]. Pozwalają one na ustalenie rozkładu mas we wnętrzu Ziemi i jej wewnętrznej struktury (zob. Geosfery ).", "Obok ziemskiego materiału, analizowany jest skalny materiał kosmiczny Układu Słonecznego. Sięga się po niego, w założeniu, iż obiekty Układu powstały w podobnym czasie i z tej samej materii. Materia ta pochodziła z jednego, wspólnego źródła, jakim była gwiazda wcześniejszej generacji, która zapadła się w supernową. Zatem obiekty Układu Słonecznego składają się z tej materii, z której została uformowana Ziemia i pogląd na budowę Ziemi jest budowany również w oparciu o dane pochodzące z analiz meteorytów oraz próbek skał pobranych z innych obiektów kosmicznych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Budowa wewnętrzna Ziemi", "subject_id": 1292, "subject": "Geosfery", "paragraphs": ["Kompleksowy schemat budowy wnętrza Ziemi powstał głównie w oparciu o badania geofizyczne [1], [2]. Zakłada on, że Ziemia ma budowę warstwową i składa się z koncentrycznie rozmieszczonych powłok skalnych, występujących jedna nad drugą, zwanych geosferami. Wyróżniane są 3 geosfery główne. Od zewnątrz Ziemi są to:", "Fizyka wnętrza Ziemi opiera się o analizy fal sejsmicznych objętościowych (zob. Fale sejsmiczne ), których przebieg analizowany jest wewnątrz globu. Prędkość przemieszczania się fal objętościowych korelowana jest z własnościami fizycznymi ośrodka, w którym się rozchodzą, w szczególności z jego gęstością i własnościami sprężystymi. Wykorzystywana jest zależność wzrostu prędkości tych fal (zarówno poprzecznych, jak i podłużnych) wraz ze wzrostem gęstości ośrodka. Zatem, analiza tej prędkości pozwala na interpretacje gęstości oraz składu chemicznego ośrodków wewnątrzziemskich [6], [2], [7].", "Sposób rozchodzenia się fal objętościowych w Ziemi nie jest jednorodny. Na pewnych głębokościach ulegają one załamaniu, odbiciu lub zmienia się skokowo ich prędkość ( Rys. 1 ).", "Miejsca te zostały wydzielone jako nieciągłości. Nieciągłości główne wyznaczają granice geosfer. Kolejno od zewnątrz Ziemi są to:", "Geosfery posiadają swoiste dla siebie cechy i każda z nich ma inny skład oraz parametry fizyczne [9], [6]. W obrębie poszczególnych geosfer występują nieciągłości dzielące je na jednostki niższego rządu i są to:", "Fale objętościowe poprzeczne nie rozchodzą się w cieczach, a ich zanik w obrębie nieciągłości Lehmann sugeruje obecność płynnej materii w zewnętrznym jądrze ziemskim ( Rys. 1, Rys. 2 ), [10].", "Masy w Ziemi są rozmieszczone nierównomiernie. Prędkość rozchodzenia się fal objętościowych przyjmuje generalnie trend rosnący, co związane jest ze wzrostem gęstości materii ku centrum. Zakłada się, że w strefach wewnątrzjądrowych Ziemi materia wykazuje 4,5 x większą gęstość w stosunku do budulca jej powierzchniowych części. Gwałtowane spadki prędkości rozchodzenia się fal sejsmicznych, jakie się zaznaczają w obrębie Ziemi, są wynikiem obniżenia gęstości wskutek upłynnienia lub uplastycznienia ośrodka [6]. Największe takie spadki obserwowane są w nieciągłościach na granicach geosfer (Moho i Gutenberga) oraz w sferach bezpośrednio im podległych ( Rys. 2 ), [2]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Budowa wewnętrzna Ziemi", "subject_id": 1293, "subject": "Skorupa ziemska", "paragraphs": ["Skorupa to zewnętrzna oraz najbardziej zróżnicowana sfera Ziemi. W porównaniu z pozostałymi sferami jest najchłodniejsza, najcieńsza i najlżejsza. Stanowi jedynie \\(1,4\\%\\) objętości Ziemi i zaledwie \\(0,3\\%\\) jej masy [1]. Jej grubość waha się od kilku kilometrów do ponad 70 km, a gęstość szacowana na jest na 2,7 – 3,1 \\(g/cm^3 \\)[2], [3]. Powierzchniowe części skorupy ziemskiej mają temperatury dodatnie lub ujemne, rzędu kilku lub kilkunastu, rzadziej kilkudziesięciu stopni Celsjusza. Wyższe temperatury są notowane tylko lokalnie, w obszarach objętych wulkanizmem. Wraz z głębokością temperatura skorupy wzrasta i w zależności od warunków w dolnej części wynosi od 150\\(^oC\\) do ponad 500\\(^oC\\)(zob. Ciepło Ziemi ). Skorupa ziemska, jest zewnętrzną sferą, która jest sztywna i stosunkowo chłodna. Bardzo niewielka jej część jest upłynniona. Materia upłynniona, czyli stop magmowy, występuje lokalnie. Znajduje się w zbiornikach wewnątrzskorupowych. W dolnej części skorupy występują miejsca, zwane ogniskami magmowymi, gdzie dochodzi do powstania magmy (zob. Rodzaje magmy ).", "Skorupę ziemską cechuje duża różnorodność strukturalna, petrograficzna oraz chemiczna. W jej skład wchodzą rozmaite typy skał magmowych, metamorficznych oraz osadowych, które występują w różnych konfiguracjach. W zasadzie obecność skał osadowych, generowanych głównie przez czynniki egzogeniczne, jest cechą swoistą skorupy ziemskiej. Występują one w jej powierzchniowej części. Skład chemiczny skał skorupy jest niejednolity i zmienia się zarówno horyzontalnie, jak i wertykalnie, a rozkład poszczególnych pierwiastków nie jest równomierny. Wynika to z mnogości procesów geologicznych, które formują skały. Podstawowymi pierwiastkami chemicznymi, wchodzącymi w skład skorupy ziemskiej, są tlen, krzem, glin i żelazo ( Nie znaleziono skrótu dla otoczenia (1) oprac. na podstawie [4]).", "Skorupa ziemska, od strony zewnętrznej, kontaktuje z atmosferą lub hydrosferą ziemską, a jej powierzchniowe partie znajdują się pod wpływem tych sfer oraz biosfery. Od wewnątrz skorupa graniczy z płaszczem ziemskim. Strefę graniczną stanowi nieciągłość Mohorovičicia, popularnie nazywana nieciągłością Moho (zob. Geosfery ), [5], [6], [1]. Ma ona grubość kilkuset metrów. W jej obrębie następuje skokowy wzrost prędkości fal sejsmicznych od ok. 7 km/s do powyżej 8 km/s. Położenie Moho uzależnione jest od grubości nadkładu, zatem pod skorupą kontynentalną znajduje się głębiej, a pod skorupą oceaniczną płycej. Skały ze strefy Moho, podścielające skorupę oceaniczną, są składnikami niektórych sekwencji ofiolitowych i dostępne są bezpośrednim analizom ( Rys. 1 ), (zob. Ofiolity i obdukcja ).", "Ze względu na odrębność strukturalną skorupa ziemska dzielona jest na dwa typy ( Rys. 1 ). Jest to:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Budowa wewnętrzna Ziemi", "subject_id": 1291, "subject": "Skorupa oceaniczna", "paragraphs": ["Skorupa oceaniczna buduje głównie dna oceaniczne, a jej powierzchniowe strefy graniczą z wodami mórz lub oceanów. Może występować na obszarach lądowych, w strefach młodych ryftów. Jest stosunkowo cienka, jej przeciętna miąższość oscyluje pomiędzy 5 km a 8 km [1], [2], ciężar właściwy wynosi 3,0 \\( g/cm^3 \\)-3,1 \\( g/cm^3 \\).", "Skorupa oceaniczna generowana jest głównie przez procesy magmatyczne w strefach granicznych płyt litosferycznych, kolejno nadbudowywana jest przez procesy sedymentacyjne. Ma strukturę piętrową [3], [4], dolna część składa się z kompleksu skał magmowych, które nadścielone są kompleksem skał osadowych (zob. Skorupa ziemska ):", "Skorupę oceaniczną jednostkowej płyty litosferycznej cechuje gradacyjny przyrost grubości, wieku budujących ją skał oraz pokrywy osadowej. Najmniejsze wartości tych parametrów występują w strefach ryftów oceanicznych. Strefy okołoryftowe zbudowane są ze skorupy oceanicznej cienkiej i młodej, liczącej do kilku tysięcy lat. Kompleks osadowy tutaj nie występuje lub tworzy cienką pokrywę, zbudowaną ze skał luźnych o grubości pojedynczych metrów. Najstarsze skorupy oceaniczne występują w obszarach najbardziej oddalonych od stref ryftowych. Są to skorupy dojrzałe, grubości do około 10 km -12 km, z kompleksami skał osadowych miąższości do ponad 2 km. Kompleksy osadowe składają się ze skał zwięzłych w dolnej części, ku górze przechodzących w skały luźne [5]. Aktualnie najstarsza czynna skorupa oceaniczna na powierzchni Ziemi (pomijając zachowane resztki skorup w sekwencjach ofiolitowych) jest wieku jurajskiego i liczy około 180 mln lat (zob. Przesłanki i dowody aktualne teorii tektoniki płyt ), [6].", "Temperatury powierzchniowej części skorupy oceanicznej są dodatnie, najwyższe są w strefach ryftowych oraz w innych strefach objętych wulkanizmem, poza nimi wynoszą zwykle kilka stopni Celsjusza. Wewnątrz skorupy następuje gradacyjny wzrost ciepłoty i w dolnej, przypłaszczowej części skorupy oceanicznej temperatury przekraczają wartości 150 \\( ^oC \\)-200 \\( ^oC \\) (zob. Ciepło Ziemi )."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Budowa wewnętrzna Ziemi", "subject_id": 1290, "subject": "Skorupa kontynentalna", "paragraphs": ["Skorupa kontynentalna buduje kontynenty oraz stanowi podłoże zewnętrznych części zbiorników oceanicznych, zwane szelfem (zob. Skorupa ziemska ), [1]. Od strony zewnętrznej graniczy z atmosferą lub hydrosferą ziemską. Jest wynikową współdziałania złożonych procesów magmowych, osadowych i metamorficznych oraz tektonicznych. W porównaniu do skorupy oceanicznej, charakteryzuje ją mniejszy ciężar właściwy wynoszący 2,7 \\( g/cm^3 \\) - 2,8 \\( g/cm^3 \\) oraz w składzie chemicznym większa zawartość krzemionki, a mniejsza zawartość żelaza, magnezu i wapnia [2], jak również wyraźnie zwiększona grubość, przeciętnie wynosząca 35 km - 40 km [3]. Miąższość skorupy kontynentalnej jest zróżnicowana. Maksymalna jej wartość występuje w strefach młodych orogenów [4], [5] (np. Himalajów), gdzie przekracza 70 km.", "Skorupa kontynentalna składa się z kompleksu skał magmowych oraz naścielającego go kompleksu skał o różnorodnej genezie [3], [6]. Kompleks magmowy jest dwudzielny. W dolnej części występują skały magmowe ubogie w krzemionkę (obojętne), a w górnej skały ze znaczną ilością krzemionki (kwaśne). Granica pomiędzy nimi jest mniej lub bardziej wyraźna. Nadległy im kompleks wykazuje bardzo wysoką różnorodność litologiczną. Budują go skały osadowe, zwięzłe i luźne, generowane w rozmaitych środowiskach od lądowych, przez płytko- do głębokomorskich; skały metamorficzne, powstałe w wyniku metamorfizmu regionalnego, kontaktowego, szokowego i dynamometamorfizmu oraz skały magmowe głębinowe, żyłowe i wylewne. Grubość tego kompleksu jest zmienna i wynosi do 20 km. Na niektórych obszarach, np. na tarczach (zob. Orogeneza i epejrogeneza - definicje podstawowe ), kompleks osadowy nie występuje lub jest mocno zredukowany. Skały dolnej i środkowej części skorupy kontynentalnej są zmetamorfizowane. W skali lokalnej i regionalnej architektura górnej części skorupy kontynentalnej jest niejednorodna. Składa się z indywidulanych elementów strukturalnych zalegających zgodnie poziomo lub wykazujących różne zaawansowanie form tektoniki ciągłej i nieciągłej. Spektrum wiekowe skał skorupy kontynentalnej obejmuje skały od współczesnych do skał wieku archaicznego, sporadycznie hadeickiego [7], [8].", "Temperatura powierzchniowych części skorupy kontynentalnej jest zmienna. W zależności od położenia geograficznego waha się od ujemnej do dodatniej, w wielu rejonach podlega regularnym zmianom sezonowym w cyklu rocznym. W dolnej części skorupa osiąga temperatury 400 \\( ^oC \\) - 600 \\( ^oC \\) (zob. Ciepło Ziemi ), które w grubych skorupach wzrastają nawet do około 800 \\( ^oC \\)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Budowa wewnętrzna Ziemi", "subject_id": 1295, "subject": "Płaszcz Ziemi", "paragraphs": ["Płaszcz ziemski występuje pomiędzy skorupą ziemską a jądrem ziemskim (zob. Geosfery ). W porównaniu do skorupy jest to sfera bardziej ujednolicona. W obrębie płaszcza zachodzi ruch materii w prądach konwekcyjnych, będących podstawowym mechanizmem napędowym dla tektoniki płyt litosferycznych i górotwórczości (zob. Procesy strefy subdukcji ), [1], w nim generowanych jest wiele naprężeń uwalnianych podczas trzęsień ziemi (zob. Rozmieszczenie trzęsień ziemi ). Selektywne wytapianie skał jego górnej części dostarcza stopów, które migrują w części skorupowe Ziemi (zob. Rodzaje magmy ).", "Płaszcz ziemski stanowi \\(68\\%\\) masy oraz \\(84\\%\\) objętości Ziemi. Jego ciężar właściwy zmienia się od 3,3 \\( g/cm^3\\) w częściach podskorupowych do 5,5\\( g/cm^3\\) w częściach nadjądrowych [2], [3]. Temperatura przy górnej granicy wynosi kilkaset stopni Celsjusza, a przy dolnej osiąga około 4000\\(^oC\\)(zob. Ciepło Ziemi ), [4]. Ciśnienie w płaszczu ziemskim wzrasta od kilku kilobarów do około 1400. Wzrost ciśnienia przy jednoczesnym wzroście temperatury zapobiega upłynnieniu materii płaszcza, która znajduje się w stałym stanie skupienia. Wykazuje ona cechy lepkosprężyste, wiec możliwe jest wolne przemieszanie się tej materii. Płaszcz ziemski zbudowany jest z krzemianu magnezu ( Nie znaleziono skrótu dla otoczenia (1) ), który w kierunku jądra przyjmuje fazy wysokociśnieniowe [5]. Zawiera niewielkie ilości izotopów promieniotwórczych, które są ważnym źródłem energii wewnętrznej Ziemi [1]. W dolnych częściach płaszcza, w podstawowym budulcu, występują domieszki chromu, niklu, metalicznego żelaza [6].", "Dolną granicę płaszcza ziemskiego wyznacza nieciągłość Gutenberga, która znajduje się na głębokości około 2900 km (zob. Geosfery ), [7].", "Płaszcz ziemski jest dwudzielny, w jego obrębie wyróżnia się dwie strefy:", "Pomiędzy nimi występuje warstwa przejściowa o grubości 200 km, której dolna granica wyznacza nieciągłość Golicyna (znaną również jako nieciągłość Repettiego)( Rys. 1 ), [8].", "Najbardziej zewnętrzną częścią płaszcza ziemskiego jest warstwa perydotytowa( Rys. 1 ), ( Rys. 2 ). Jest to sfera sztywna, stosunkowo chłodna, o temperaturach do około 1200\\(^oC\\) - 1300\\(^oC\\). Zbudowana jest z ultrazasadowych skał magmowych, częściowo zmetamorfizowanych, o typie perydotytu (zob. Skały zasadowe, ultrazasadowe i ultramaficzne ). Pod oceanami warstwa perydotytowa ma grubość około 100 km. Pod skorupą kontynentalną jest grubsza i jej przeciętna miąższość wynosi do 200 km, a w jej skład, obok perydotytu, wchodzą również skały o typie eklogitu (zob. ). Od dołu warstwa perydotytowa graniczy z astenosferą.", "Nie znaleziono skrótu dla otoczenia (1) oprac. na podstawie [5].", "Astenosfera( Rys. 1 ) jest kluczową strefą dla procesów geodynamicznych Ziemi. Odpowiada za korektę izostatyczną oraz ma zasadniczy wpływ na ruch płyt litosferycznych, które poruszają się po jej powierzchni. Warunki ciśnieniowo-temperaturowe panujące w jej obrębie powodują, że ma właściwości lepkosprężyste i jest podatna na odkształcenia (nazwa sfery pochodzi od słowa \"uginam się\")[10], [7]. Ma zmienną grubość od około 150 km pod oceanami do ponad 250 km pod kontynentami [9]. Jej dolna granica jest w miarę stała, znajduje się na głębokości 350 km - 400 km. Wyznacza ją nieciągłość Golicyna. Na niej następuje wzrost prędkości rozchodzenia się fal sejsmicznych od około 8 \\(km/s\\) do 9 \\(km/s\\), co wskazuje, że podległy obszar zbudowany jest z materii o większej gęstości (zob. Geosfery ).", "Płaszcz dolny to sfera stanowiąca ponad \\(50\\%\\) objętości Ziemi, w której ze względu na wysokie ciśnienia, materia utrzymywana jest w stanie stałym. Jest to w miarę jednorodna sfera, gdzie zmiany parametrów fizykochemicznych postępują gradacyjne, za wyjątkiem jej przyjądrowej części, gdzie wydzielana jest warstwa D”( Rys. 1 ), (zob. Geosfery ), [5], [1], [11], [12]. Jest to relatywnie cienka warstwa, o zmiennej grubości, od kilkudziesięciu kilometrów do 250 km. Ma złożoną strukturę. W jej obrębie następuje rozszczepienie fal poprzecznych oraz, wewnątrz cienkich stref, istotne obniżanie prędkości fal. Zakłada się, że jest to warstwa zbudowana z wysokociśnieniowego krzemianu magnezu, miejscowo wzbogaconego w żelazo [13], [14].", "Granicę pomiędzy płaszczem a jądrem ziemskim stanowi nieciągłość Gutenberga. Na niej obserwowane są zaburzenia w przebiegu fal sejsmicznych. Następuje zanik fal poprzecznych, które nie rozchodzą się w cieczach, oraz skokowy spadek prędkości fal podłużnych, świadczący o wzroście na krótkim dystansie gęstości materii [6], [12]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Budowa wewnętrzna Ziemi", "subject_id": 1294, "subject": "Jądro Ziemi", "paragraphs": ["Jądro ziemskie, zwane barysferą, stanowi najbardziej wewnętrzną część globu. Ma średnicę około 3480 km. Cechują go najwyższe temperatury, ciśnienia i gęstości w globie [1]. Na granicy z płaszczem notowany jest skokowy wzrost gęstości materii, która w górnej części jądra wynosi około 10 \\(g/cm^3\\). Głównym składnikiem jądra jest stop żelazowo-niklowy ( Nie znaleziono skrótu dla otoczenia (1) oprac. na podstawie [2]), [3], [4].", "W jądrze ziemskim wyodrębniają się 2 sfery:", "Sfery te oddziela nieciągłość Lehmann, która bywa wydzielana jako osobna sfera jądrowa (zob. Geosfery ), [5], [6].", "Jądro zewnętrzne sięga do głębokości 5150 km, w jego obrębie temperatura rośnie od 2730 \\(^oC\\) do 4230 \\(^oC\\)(zob. Ciepło Ziemi ), a gęstość od 10 \\(g/cm^3\\) do 12,1 \\(g/cm^3\\)[1]. Prądy konwekcyjne jądra zewnętrznego indukują prądy elektryczne wytwarzające pole magnetyczne (zob. Pole magnetyczne Ziemi ), które w jądrze jest około 50 x silniejsze niż na powierzchni Ziemi [7].", "Jądro wewnętrzne to sfera o promieniu około 1220 km [6]. Posiada w miarę jednorodną gęstość, która nieznacznie wzrasta od 12,8 \\(g/cm^3\\) do ponad 13 \\(g/cm^3\\) w części centralnej; temperaturę, która szacowana jest na ponad 5100 \\(^oC\\) - 5400 \\(^oC\\)(zob. Ciepło Ziemi ), [4], [5], oraz warunki ciśnieniowe szacowane na 330 GPa - 360 GPa. Wydzielana jest w nim strefa najbardziej wewnętrzna, będąca rdzeniem jądra wewnętrznego."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały i minerały", "subject_id": 1351, "subject": "Skały", "paragraphs": ["Przedmiotem badań geologicznych są skały. Są to produkty procesów geologicznych, które stanowią budulec Ziemi i innych ciał skalistych Wszechświata.", "Środowiska, w których tworzą się skały są bardzo zróżnicowane. Skały powstają w:", "Skały powstają przez:", "Skały tworzą indywidualne ciała o różnej objętości oraz formie przestrzennej. Do skał zalicza się utwory zwięzłe (lite) oraz luźne, wyłączając gleby. Skały są masywne, gdy zajmowana przez nie przestrzeń jest całkowicie wypełniona przez składniki lub porowate, gdy pomiędzy ich składnikami występują wolne przestrzenie. Zmiany wtórne, które zachodzą po procesie generacji skał, doprowadzają do modyfikacji ich cech, w tym transformacji składu chemicznego oraz zmian wewnętrznej budowy.", "Ze względu na genezę skały dzielone są na trzy główne grupy [3], [4], [5]:", "Spektrum zmienności procesów generatywnych i środowiskowych powoduje, że skały cechuje bardzo duża zmienność, zarówno pod względem chemicznym, jak i budowy wewnętrznej. Aktualnie wyróżnia się około 3000 rodzajów skał. Pomimo tak dużej rozmaitości, tylko około \\(3-5\\%\\) z nich jest powszechnym składnikiem litosfery.", "Działem nauk o Ziemi, który zajmuje się genezą, opisem, klasyfikacją oraz charakterystyką skał jest petrologia[3]."], "definitions": [{"name": " Definicja 1: Skały ", "content": " obiekty zbudowane z minerałów lub/i substancji mineralnych, które powstały w\nwyniku naturalnych procesów geologicznych."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały i minerały", "subject_id": 1352, "subject": "Minerały", "paragraphs": ["Minerały są podstawowymi składnikami skał. Mniejszą rolę odgrywają substancje mineralne.", "Minerał ( Rys. 1 A) jest wytworem procesów geologicznych, więc wyklucza się zaliczanie do nich substancji syntetycznych, które tworzone są w laboratoriach (np. sztuczne: diamenty, cyrkonie, kwarce), czy w procesach związanych z działalnością człowieka (np. samozapłon na składowiskach odpadów pogórniczych). Do minerałów jednak zaliczane są substancje krystaliczne, których powstanie związane jest z niezamierzoną działalnością antropogeniczną (np. wykwity w wyrobiskach górniczych)[3]. Minerały są rezultatem procesów naturalnych, powstają jako efekt magmowych, osadowych oraz metamorficznych procesów geologicznych [4]. Minerał powstaje przez krystalizację, która przebiega w określonym środowisku (np. przy określonym pH i Eh) i w określonych warunkach fizyko-chemicznych (temperatura i ciśnienie). Aktualnie szacowana ilość znanych i opisanych minerałów wynosi ok. 4000, a każdego roku opisuje się około 100 nowych minerałów.", "Substancja, która jest bliska minerałowi, ale nie spełnia wszystkich kryteriów zakreślonych w definicji, nazywana jest substancją mineralną( Rys. 1 B, C). Specyficzną grupą należącą do substancji mineralnych są tak zwane biominerały, czyli analogi minerałów występujące w skałach, lecz powstałe w organizmach żywych, tj. elementy twarde, głównie szkieletowe i zęby (np. kalcyt w muszlach małży, apatyt w kościach kręgowców). Inną grupą są mineraloidy, czyli formy, które od minerałów różni brak wykształcenia struktury krystalicznej. Do mineraloidiów zaliczane są np. opal, szkliwo wulkaniczne lub szokowe, bursztyn, ozokeryt, asfalt, które są amorficzne (niekrystaliczne).", "Skały mają zróżnicowany skład mineralny. Mogą być zbudowane z kryształów tylko jednego minerału, wówczas wyróżniane są skały monomineralne ( Rys. 2 B) - np. składające się z kalcytu wapienie lub marmury. Jednak większość odmian skalnych to skały polimineralne( Rys. 2 A), które składają się z większej ilości minerałów [5], [6].", "Pomimo tak wielkiej różnorodności minerałów, tylko niewielka część z nich ma istotne znaczenie i występuje jako powszechny budulec Ziemi. Z ogólnej liczby minerałów ok. 100 jest podstawowym składnikiem skał i nazywane są one minerałami skałotwórczymi. W większości, w ich składzie występują najpowszechniejsze pierwiastki skorupy ziemskiej, do których zaliczane są: tlen, krzem, glin, żelazo, wapń, sód, potas i magnez.", "Klasyfikacje minerałów bazują na składzie chemicznym oraz na typie budowy wewnętrznej. Według powszechnie stosowanej klasyfikacji Nickela-Strunza ( Nie znaleziono skrótu dla otoczenia (1) ) minerały zostały podzielone na 9 głównych klas:", "Skład chemiczny oraz wewnętrzna budowa kryształów wpływa na indywidulane parametry minerałów. Zbiór tych cech jest charakterystyczny i swoisty dla większości minerałów skałotwórczych. Identyfikacja tych cech, która w większości przypadków jest możliwa metodami makroskopowymi, pozwala na oznaczanie poszczególnych gatunków minerałów.", "Do charakterystycznych cech zaliczane są:"], "definitions": [{"name": " Definicja 1: Minerał ", "content": " to substancja, która [1], [2]:\n\njest związkiem chemicznym zbudowanym z jednego lub wielu pierwiastków,\n\nposiada uporządkowaną strukturę wewnętrzną, czyli jest kryształem (zob. Budowa wewnętrzna\ni postać minerałów ),\n\nw normalnych warunkach ziemskich występuje w stałym stanie skupienia,\n\npowstała wyłącznie w wyniku procesów naturalnych.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały i minerały", "subject_id": 1353, "subject": "Budowa wewnętrzna i postać minerałów", "paragraphs": ["Minerały występują w formie kryształów, co jest odzwierciedleniem regularności i ładu w ich budowie wewnętrznej na poziomie molekularnym [1].", "Kryształ jest formą geometryczną występowania danego minerału, a podstawową jego jednostką jest komórka elementarna( Rys. 1 , Rys. 2 A). Jest to najmniejsza, powtarzalna część sieci krystalicznej. Ma kształt równoległościanu, w którym rozmieszczone są cząsteczki, atomy i jony. Każda komórka elementarna ma konkretną strukturę i stałą wielkość.", "Zwielokrotnienie jednakowych komórek elementarnych, w 3 prostopadłych osiach przestrzennych, tworzy strukturę nazywaną siecią krystaliczną( Rys. 2 B), która dzięki takiemu układowi jest strukturą symetryczną [2], [3].", "Elementami charakteryzującymi pojedynczą komórkę elementarną są długości jej boków (a, b, c) wpisane w układ 3 osi oraz kąty α, β, γ pomiędzy tymi osiami. Jednakowe komórki elementarne wypełniają przestrzeń ciała krystalicznego. W przyrodzie występuje 7 różnych typów takich komórek, które definiują układy krystalograficzne( Rys. 3 ), [4], [1], [3], [5], [6].", "Wyrazem budowy krystalicznej minerału jest jego postać zewnętrzna, czyli wytworzenie form wielościanów, ograniczonych płaskimi powierzchniami, które liczą odpowiednią ilość ścian, krawędzi i naroży ( Rys. 2 C). Forma ta jest powtarzalna i charakterystyczna dla danego minerału. Osiągana jest przy swobodnym wzroście kryształu. Wyznaczenie elementów zewnętrznych kryształu, czyli ścian, naroży i krawędzi oraz określenie osi symetrii pozwala na przyporządkowanie danego kryształu do właściwego układu krystalograficznego.", "Odmiany polimorficzne(odmiany wielopostaciowe) to takie substancje, które mają identyczny skład chemiczny, ale różną strukturę. Każdy minerał będący odmianą polimorficzną ma inną postać krystalograficzną [4], [7], [8]. Przykładem takiej substancji jest związek o wzorze \\(Al _2SiO_5\\), który tworzy 3 odmiany: kyanit (układ trójskośny), andaluzyt (układ rombowy) i sillimanit (układ rombowy)(zob. Andaluzyt, kyanit, sillimanit ) oraz zoisyt i klinozoisyt, będące krzemianami glinowo-wapniowymi (zob. Minerały z grupy epidotu ). Każdy z tych minerałów ma inną strukturę, a więc i komórkę elementarną. Zmiany na poziomie struktury, powodują, że te minerały cechuje inny pokrój, kształt kryształów oraz barwa.", "Wykształcenie określonej odmiany polimorficznej związane jest z warunkami temperaturowo-ciśnieniowymi panującymi podczas krystalizacji minerału. Odmiany polimorficzne zwykle wyróżniane są jako odrębne minerały np. minerały węglanu wapnia: trygonalny kalcyt i rombowy aragonit lub siarczku żelaza: regularny piryt i rombowy markasyt. Rzadziej traktowane są jako odmiany jednego minerału np. minerały krzemionki \\(SiO_2\\) występują jako heksagonalny kwarc α i trygonalny kwarc β (zob. Kwarc ). Choć w przypadku minerałów z grupy krzemionki występują także inne polimorfozy (np. krystalobalit, trydymit, stiszowit, koezyt).", "W obrębie minerałów zachodzą przemiany wiążące się ze zmianą ich struktury, jak i składu chemicznego.", "Paramorfoza zachodzi w przypadku przekształcenia tylko struktury wewnętrznej kryształu, przy zachowaniu wyjściowego składu chemicznego oraz postaci zewnętrznej. Termin paramorfoza definiuje zarówno proces, jak i formę, czyli wypełnienie postaci jednego minerału przez inną zastępującą go odmianę polimorficzną. Powszechnie w przyrodzie zachodzą paramorfozy aragonitu w kalcyt oraz kwarcu α w kwarc β (zob. Kwarc ).", "Pseudomorfoza to zastąpienie jednego minerału przez inny, o odmiennym składzie chemicznym (minerał wtórny) przy zachowaniu postaci zewnętrznej pierwotnego minerału ( Rys. 4 ). Nowy minerał posiada inną strukturę wewnętrzną i skład chemiczny, ale formę zewnętrzną dziedziczy po minerale pierwotnym [7]. Generalnie jest to zastąpienie substancji (jej składu chemicznego) z pozostawieniem formy. Powszechnymi pseudomorfozami są zastąpienia biominerałów w skamieniałościach, ponadto popularne są pseudomorfozy pirytu (\\(FeS_2\\)) po goethycie \\((FeOOH)\\), gipsu (\\(CaSO_4×2H_2O\\)) po kalcycie (\\(CaCO_3\\)) czy kalcytu (\\(CaCO_3\\)) po dolomicie \\(CaMg(CO_3)_2\\).", "Izomorfizm(równopostaciowość) to występowanie takich samych form krystalograficznych oraz postaci zewnętrznej u minerałów o zbliżonym składzie chemicznym [7], [5]. Minerały te mogą tworzyć ze sobą ciągi mieszane (szeregi izomorficzne będące tzw. roztworami stałymi) składające się z form pośrednich, powstających przez sukcesywne podstawianie w sieci krystalicznej określonych składników innymi [4]. Przykładem ciągu minerałów izomorficznych są plagioklazy o skrajnych odmianach: albit (sodowy) i anortyt (wapniowy)(zob. Skalenie ), oliwiny o skrajnych odmianach forsteryt (magnezowy oliwin) - fajanit (żelazowy oliwin)(zob. Oliwiny ) oraz epidoty i klinozoisyt (zob. Minerały z grupy epidotu )."], "definitions": [{"name": " Definicja 1: Kryształ ", "content": " ciało stałe, o uporządkowanej strukturze, w którym cząsteczki, atomy oraz jony\nwystępują w ściśle określonym i powtarzalnym położeniu tworząc sieć krystaliczną( Rys. 2 ), [2].\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały i minerały", "subject_id": 1354, "subject": "Pokrój minerałów i forma skupień", "paragraphs": ["Definiowany jest przez przyporządkowanie do 4 podstawowych typów geometrycznych ( Rys. 1 ), które uwzględniają wymiary kryształów w 3 wzajemnie prostopadłych kierunkach: wysokości, szerokości i głębokości [1], [2], [3].", "Ze względu na istotne zróżnicowanie wymiarów, w obrębie niektórych podstawowych typów pokrojów wydzielane są odmiany. Wraz z rosnącą proporcją parametru wysokości kryształu do pozostałych parametrów, w pokroju słupowym wyróżnia się odmiany: pręcikową, igiełkową i włóknistą. Gdy w pokroju płytkowym parametr wysokości kryształu jest istotnie niższy w stosunku do szerokości i głębokości wydziela się pokroje blaszkowy oraz łuseczkowy. Odmianą pokroju tabliczkowego jest pokrój listewkowy, gdy jeden z wymiarów kryształu istotnie odbiega od pozostałych. Aby sprecyzować i uszczegółowić opis minerałów przy charakterystyce pokrojów stosuje się określenia długo-, krótko- (słupowy), cienko-, grubo- (tabliczkowy).", "W skałach krystalicznych tylko część minerałów wykształcona jest w formie prawidłowych kryształów, których morfologia odpowiada wzorcowej ich postaci. Inne minerały w różnym stopniu nawiązują do prawidłowych form, dlatego przy opisach uwzględnia się stopień własnokształtności, czyli stopień automorfizmu (zob. Struktury skał magmowych ).", "Minerały dążą do wykształcenia samodzielnych i charakterystycznych kryształów dla danego gatunku. W wielu skałach pojedyncze kryształy (osobniki) łączą się ze sobą podczas wzrostu tworząc przerosty lub zbliźniaczenia ( Rys. 2 ), [4]. Zbliźniaczenia występują wówczas, gdy połączenie wzajemne kryształów jest prawidłowe, czyli zgodne z kierunkami krystalograficznymi, w ułożeniu symetrycznym względem płaszczyzny lub prostej [1], [2]. Tworzone są przez osobniki tego samego minerału lub roztworu stałego (izomorfizm); mogą powstawać również w minerałach o podobnej sieci krystalicznej i składzie chemicznym (np. albit z ortoklazem). Zbliźniaczenie może dotyczyć dwóch kryształów (bliźniaki podwójne) lub wielu (bliźniaki wielokrotne)( Rys. 2 ). Powinowactwo do tworzenia zbliźniaczeń jest cechą charakterystyczną części minerałów. Typ zbliźniaczeń u poszczególnych rodzajów minerałów jest włączany w cechy charakterystyczne dla formy i ma znaczenie diagnostyczne.", "Jeśli połączenie pomiędzy kryształami powstało wzdłuż przypadkowych powierzchni, nie odpowiadającym kierunkom krystalograficznym, powstają zrosty. Zrosty dotyczą połączeń różnych minerałów.", "W przyrodzie minerały występują głównie w nagromadzeniach mineralnych, które nazywane są skupieniami minerałów. Pojedyncze, swobodnie wzrosłe kryształy mineralne występują znacznie rzadziej. Skupienia mineralne tworzą się z wielu kryształów jednego rodzaju minerału (skupienia jednorodne) lub różnych minerałów (skupienia niejednorodne). Skupienia te przyjmują rozmaite formy, dla niektórych minerałów są one charakterystyczne i stanowią ważną cechę identyfikacyjną [2].", "Bazując na kryterium wielkości, pokroju i ułożenia kryształów wydzielane są różne typy skupień mineralnych. Powszechnie stosowana klasyfikacja oparta jest o formę morfologiczną skupień. Do najczęściej występujących należą [5], [1], [3], [6]:"], "definitions": [{"name": " Definicja 1: Pokrój ", "content": " ogólny zarys przestrzenny formy (kryształu) minerału."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały i minerały", "subject_id": 1355, "subject": "Cechy optyczne minerałów", "paragraphs": ["Minerały występują w różnym zabarwieniu, które wynika ze stopnia absorpcji lub odbicia przez kryształ minerału widma światła białego. Ze względu na barwę wyróżniane są [1], [2]:", "Niektóre z minerałów cechuje anizotropia barwy, czyli zmienność barwy w zależności od kierunku obserwacji, nazywana pleochroizmem, czyli wielobarwnością ( Rys. 3 ), [3], [4], [5], [6]. Zjawisko to występuje u berylu, który wykazuje zabarwienie niebieskie lub zielone w tym samym krysztale lub tanzanitu, który może być purpurowy, niebieski, a nawet fioletowy. Gdy gama wielobarwności nawiązuje kolorystyką do barw tęczowych, wyróżniana jest odmiana pleochroizmu, nazwana iryzacją.", "W minerałach silnie pleochroicznych zmiana barwy jest widoczna nawet przy niewielkiej zmianie kąta oświetlenia.", "Minerały barwne od zabarwionych można odróżnić za pomocą rysy, czyli barwy sproszkowanego minerału [3]. Rysa biała lub szara jest charakterystyczna dla wszystkich białych oraz achromatycznych, w tym allochromatycznych minerałów [7]. W minerałach chromatycznych rysa może być barwna, jej kolor z reguły pokrywa się z barwą minerału (np. siarka posiada rysę żółtą, azuryt - rysę niebieską, malachit - rysę zieloną), ale znane są również minerały, których rysa ma inne zabarwienie niż barwa makroskopowo widocznego minerału. Takie zjawisko dotyczy pirytu, który jest barwy mosiężnej, a rysa jego jest czarna, czy czarno-szarego hematytu posiadającego rysę bordową.", "Cechą niektórych minerałów jest przeźroczystość(transparentność, przezierność), czyli przepuszczanie promieni światła przez kryształ [2]. Zwykle, w minerałach allochromatycznych lub w minerałach achromatycznych, których kryształy posiadają defekty strukturalne lub inkluzje, przepuszczalność ulega ograniczaniu. Dla celów opisowych stosowane są następujące stopnie transparentności: przeźroczysty, półprzezroczysty, przeświecający i nieprzeźroczysty.", "Kolejną cechą typową dla minerałów jest połysk, czyli rodzaj odbijania światła od powierzchni kryształu minerału ( Rys. 4 ). Wynika on ze współczynnika obicia światła minerału oraz od jego absorpcji [2]. Przy opisach minerałów określa się siłę połysku stosując 3 klasy (mocny, średni i słaby) oraz jego jakość wyróżniając następujące typy ( Nie znaleziono skrótu dla otoczenia (1) ), [3], [7]:", "Minerały mogą wykazywać różne typy połysku na zewnętrznych powierzchniach kryształów oraz na wewnętrznych powierzchniach przełamu lub łupliwości. Popularnie występujący w przyrodzie kwarc charakteryzuje połysk szklisty na ścianach kryształu, natomiast tłusty na powierzchniach wewnętrznych. Poszczególne formy tego samego minerału mogą mieć różne połyski. Przykładem takim jest malachit, który w skupieniach zbitych, groniastych jest matowy lub jedwabisty, kiedy jednak występuje w postaci własnokształtnych kryształów wykazuje połysk szklisty."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały i minerały", "subject_id": 1356, "subject": "Właściwości fizyczne minerałów", "paragraphs": ["Jedną z cech diagnostycznych minerałów jest ich twardość, czyli odporność na zarysowanie wywołane przyłożeniem siły zewnętrznej do powierzchni kryształu [1], [2], [3], [4]. Parametr ten określony jest w oparciu przyrównanie do wzorcowych minerałów wskazanych w skali Mohsa( Nie znaleziono skrótu dla otoczenia (1) ). Jest to 10-stopniowa skala, składająca się z sekwencji minerałów o rosnącej twardości.", "Identyfikacja twardości odbywa się przez tzw. zarysowanie powierzchni badanego minerału, czyli przeciągnięcie pod naciskiem narożem minerału wzorcowego. Minerały o wyższej twardości będą zarysowywały, czyli nacinały, powierzchnię minerału o niższej twardości, a minerały o niższej twardości będą ulegały sproszkowaniu na powierzchni minerału o wyższej twardości. Minerały o takiej samej twardości będą wzajemnie zarysowywały swoje powierzchnie i uzyskanie takiego efektu jest podstawą do oszacowania twardości. Podaje się ją z dokładnością do pół stopnia. Minerały wzorcowe mogą być zastępowane przez ekwiwalenty [1]. W warunkach terenowych, gdzie wykonanie powyższych czynności z wykorzystaniem standardowej skali Mohsa jest kłopotliwe, twardość minerałów jest szacowana stosując założenie, że minerały twardości 1 i 2 zostaną zarysowane paznokciem, minerały twardości 3 drutem miedzianym (lub monetą miedzianą), minerały o twardości 4 i 5 ulegną zarysowaniu stalą (np. scyzorykiem) oraz szkłem, a minerały o wyższych wartościach będą rysowały szkło.", "Ważną cechą diagnostyczną minerałów jest sposób jego podziału na mniejsze części pod wpływem uderzenia.", "Liczba kierunków spękań oraz ich przestrzenny układ jest cechą stałą i indywidualną minerałów i nie zależy od kierunku uderzenia. Przy opisie łupliwości uwzględniana jest liczba kierunków spękań, kąt pomiędzy nimi oraz stopień wyrazistości łupliwości, który zwykle określany jest jako doskonały, dobry, wyraźny oraz niewyraźny. W sytuacjach, gdy pod wpływem nacisku następuje niewyraźny podział wzdłuż mniej więcej płaskich powierzchni przebiegający tylko przez część minerału wyróżnia się oddzielność.", "Łupliwości nie wykazują mineraloidy oraz niektóre minerały, wówczas taka cecha nazywana jest przełamem.", "Ze względu na charakter powierzchni wyróżniane są przełamy: równy, gdy powierzchnie są zbliżone do płaskich oraz nierówny, który może mieć zróżnicowaną fakturę i występuje w odmianach:", "Kolejną indywidulaną cechą minerałów jest gęstość[2], czyli stosunek masy do objętości. W minerałach parametr ten jest zróżnicowany i wynosi od 0,9 \\(g/cm^3\\) dla lodu do 22,5 \\(g/cm^3\\) dla osmu rodzimego. Za minerały ciężkie uważane są minerały o gęstości równej lub powyżej 2,9 \\(g/cm^3\\), czyli takie, których gęstość jest wyższa od popularnych minerałów skałotwórczych, tj. kwarc (2,65 \\(g/cm^3\\)), skalenie (2,56-2,76 \\(g/cm^3\\)), a za minerały o gęstości niższej lub równej 2,76 \\(g/cm^3\\) za bardzo lekkie.", "Przy opisach cech fizycznych minerałów, poza standardowymi, uwzględnia się również cechy specyficzne. Są to cechy, które występują tylko u niektórych minerałów, najczęściej są to: zapach, smak, kowalność, plastyczność, sprężystość, promieniotwórczość, magnetyzm, przewodnictwo, rozpuszczalność [1], [2], [5]."], "definitions": [{"name": " Definicja 1: Łupliwość ", "content": " zjawisko pękania minerału pod wpływem uderzenia wzdłuż tych samych\nkierunków na części ograniczone płaskimi powierzchniami ( Rys. 1 A), zwane płaszczyznami\nłupliwości[1], [2], [3], [4], [5]. Minerały mogą wykazywać łupliwość w jednym kierunku lub w wielu\nkierunkach."}, {"name": " Definicja 2: Przełam ", "content": " zjawisko podziału minerału pod wpływem uderzenia wzdłuż przypadkowych i\nnierównych powierzchni ( Rys. 1 B), [1], [2], [3]."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1337, "subject": "Założenia teorii tektoniki płyt", "paragraphs": ["Teoria tektoniki płyt opiera się na koncepcji dryfu kontynentalnego, idei przedstawionej przez Alfreda Wegenera na początku XX wieku (zob. Przesłanki i dowody historyczne teorii tektoniki płyt ). Społeczność geologów przyjęła tą teorię kilkadziesiąt lat później, dopiero po rozpoznaniu budowy i genezy dna oceanów, a praca Wegenera została wydana w języku angielskim [1].", "Litosfera (zob. Geosfery ), która jest sztywną zewnętrzną powłoką Ziemi, obejmującą skorupę i część górnego płaszcza, jest podzielona na płyty tektoniczne. Pyty te zwane są płytami litosfery ; używa się też nazwy kry litosfery [2], [3]. Ich grubości wynoszą około 120 km, osiągając maksymalnie 200 km [4], [5], [6].", "Wyróżnia się siedem głównych płyt [7], [8], [9], są to płyty ( Rys. 1 ):", "oraz szereg mniejszych, z których najbardziej znane są:", "W skład głównych płyt Ziemi wchodzi zarówno skorupa kontynentalna (zob. Skorupa kontynentalna ), jak i skorupa oceaniczna (zob. Skorupa oceaniczna ). Przykładowo, w skład płyty eurazjatyckiej wchodzi większa część kontynentu eurazjatyckiego, jak też przyległe fragmenty oceanów, w tym Oceanu Atlantyckiego pomiędzy Europą a grzbietem śródatlantyckim; płyta afrykańska obejmuje kontynent i części dna Oceanu Atlantyckiego i Indyjskiego. Często spotykanym błędem jest używanie terminu płyta oceaniczna dla oceanu Atlantyckiego, Indyjskiego, czy większości Pacyfiku (w skład płyty pacyficznej wchodzi skorupa oceaniczna Pacyfiku, ale również fragment skorupy kontynentalnej Ameryki Północnej). Nie należy również używać terminu płyta kontynentalna w odniesieniu do Eurazji, Afryki, czy obu Ameryk. Płyty litosfery poruszają się, ponieważ litosfera Ziemi ma większą wytrzymałość mechaniczną niż znajdująca się pod nią astenosfera (zob. Geosfery ). Prędkość tego ruchu waha się do ponad 170 mm rocznie. Granice płyt litosfery charakteryzują się występowaniem trzęsień ziemi, aktywnością wulkaniczną, górotwórczą oraz występowaniem ryftów i rowów oceanicznych [4], [10]. Względny ruch płyt określa typ granicy i wyróżnia się:", "Na Rys. 2 zaznaczono następujące elementy tektoniczne: 1-Astenosfera; 2-Litosfera; 3-Plama gorąca; 4-Skorupa oceaniczna; 5-Subdukująca płyta; 6-Skorupa kontynentalna; 7-Dolina ryftowa (młoda granica płyt); 8-Zbieżna granica płyt; 9-Rozbieżna granica płyt; 10-Uskok transformujący; 11-Wulkan tarczowy; 12-Grzbiet śródoceaniczny; 13-Zbieżna granica płyt; 14-Stratowulkan; 15-Łuk wyspowy; 16-Płyta litosfery; 17-Astenosfera; 18-Rów oceaniczny (element zbieżnej granicy płyt)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1325, "subject": "Przesłanki i dowody historyczne teorii tektoniki płyt", "paragraphs": ["Teoria tektoniki płyt opiera się na idei dryfu kontynentalnego, zaproponowanej ponad 100 lat temu przez wybitnego uczonego niemieckiego Alfreda Wegenera. Model Wegenera [1] zakładał ruch kontynentów i istnienie 300 mln lat temu (w karbonie) superkontynentu Pangea. Superkontynent ten rozpadł się, w wyniku czego powstawały nowe kontynenty prowadząc do współczesnej konfiguracji litosfery Ziemi. Rys. 1 przedstawia Pangeę wg współczesnych poglądów [2]. Południowa część Pangei to Gondwana, zaś północna to Laurazja. Na tle zasięgu superkontynentu kolorem niebieskim zaznaczono zarysy współczesnych kontynentów. Krzyżyki na mapie to przecięcia linii współczesnej długości i szerokości geograficznej rozmieszczone co 5\\(^o\\). Umożliwia to czytelnikowi zlokalizowanie obiektu przedstawionego na mapie (zob. Modele ruchu płyt litosferycznych ).", "Najważniejszymi dowodami Wegenera na dryft kontynentów były:", "Podobieństwo w przebiegu pewnych odcinków linii brzegowych we współczesnych kontynentach było jednym z koronnych dowodów Wegenera. Zbieżność przebiegu linii brzegowych (zwana przystawaniem) szczególnie widoczna jest wzdłuż wschodniej granicy Ameryki Południowej i zachodniej Afryki ( Rys. 2 A). Podobieństwo zaznacza się tylko w ogólnym zarysie linii brzegowej. Nie jest ono całkiem dokładne, gdyż zmiany, które nastąpiły po rozpadzie superkontynentu przemodelowały strefy brzegowe [3]. Przykładem struktur geologicznych, pierwotnie jednolitych a rozerwanych w wyniku procesów geotektonicznych, są kaledonidy ( Rys. 2 B). Znajdują się obecnie po przeciwnych stronach oceanu w strefach brzegowych różnych kontynentów. Część ich znajduje się w Norwegii, w płycie eurazjatyckiej, a część na Grenlandii, w płycie północnoamerykańskiej. Góry te powstały w paleozoiku w wyniku orogenezy kaledońskiej [4].", "Badania paleontologiczne wskazują na występowanie tych samych taksonów zwierząt i roślin lądowych na różnych kontynentach. Obszary tego występowania są obecnie znacznie oddalone od siebie i rozdzielone przez obszary oceaniczne. Najczęściej przytaczanymi przykładami są zasięgi gadów z rodzajów Cygognathus, Listrosaurus i Mesosurus oraz drzewiastej paproci Glossopteris ( Rys. 3 A). Skamieniałości te są dowodem na obecność organizmów na obszarach należących współcześnie do Ameryki Południowej, Afryki, Antarktydy i Australii, a więc na kontynentach wchodzących niegdyś w skład Gondwany [5].", "Badania paleoklimatyczne zajmują się odtworzeniem warunków i zmian klimatycznych w przeszłych epokach geologicznych. Przy badaniach paleozlodowaceń, a zwłaszcza przy ustaleniach granic lądolodów, wykorzystuje się kopalne moreny zwane tillitami. Tillity posłużyły do określenia zasięgu lądolodu Gondwany, który w późnym paleozoiku pokrył obszary południowej części superkontynentu ( Rys. 3 B). Współcześnie tyllity gondwańskie znajdują się na odrębnych kontynentach, między innymi występują na znacznych obszarach w Ameryce Południowej i Afryce, w rejonach które występują w tropikalnej strefie klimatycznej. W późnym paleozoiku obszary te położone były blisko bieguna południowego [6], [2]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1326, "subject": "Przesłanki i dowody aktualne teorii tektoniki płyt", "paragraphs": ["Model dryfu kontynentalnego, zaproponowany przez Alfreda Wegenera (zob. Przesłanki i dowody historyczne teorii tektoniki płyt ) [1], spotkał się z krytyką ze strony konserwatywnych geologów [2], którzy zakładali, że kontynenty nie zmieniają swego położenia. Nowe dowody potwierdzające słuszność modelu Wegenera pojawiły się w połowie XX wieku. Były to:", "Jedne z pierwszych dowodów, które wykorzystano dla wsparcia teorii ruchu płyt litosferycznych, pochodziły z badań paleomagnetyzmu i określenia wieku skał skorupy oceanicznej. Skorupa oceaniczna sukcesywnie tworzy się w strefach grzbietów śródoceanicznych, znajdujących się w centralnych częściach oceanów. Następuje to na skutek dopływu lawy bazaltowej z wnętrza Ziemi. Skorupa oceaniczna zbudowana jest z sukcesji skał od współczesnych do jurajskich, przy czym skały najmłodsze budują dna oceaniczne stref grzbietowych (zwykle centralną część dna oceanicznego), natomiast najstarsze skały tworzą strefy peryferyczne ( Rys. 1 ). Sekwencja skał wulkanicznych układa się w formie pasów w uporządkowaniu mniej więcej równoległym wzdłuż grzbietów oceanicznych, a jej obraz symetrycznie przystaje po obu stronach grzbietu. Dna współczesnych oceanów formowały się przez mezozoik (od około 200 mln lat w przypadku Pacyfiku i 170 mln lat w przypadku Atlantyku) i kenozoik [3], [4].", "Bieguny magnetyczne co pewien czas zmieniają swoje położenie na odwrotne (zob. Pole magnetyczne Ziemi ). Układ odwrotny nazywany jest magnetyczną rewersją biegunową. Odwrócenia te widoczne są w skałach różnego wieku, zostały zaobserwowane zarówno w skałach wulkanicznych lądowych, w intruzjach magmowych, jak i w bazaltowych skałach wulkanicznych, które budują dna oceanów [5], [6]. W Polsce można odwrócenie to zaobserwować w intruzji andezytowej na Górze Wżar w Gorcach [7]. Lawa podczas krystalizacji zapisuje aktualny zapis pola magnetycznego ( Rys. 2 ), [8], [9], [10]. Symetryczne pasy bazaltowe oceanów rejestrują normalne i odwrócone pole magnetyczne, układając się symetrycznie wzdłuż grzbietów oraz wykazując bezpośrednią korelację z rozkładem wiekowym skał den oceanicznych ( Rys. 1 ), [4].", "Pod koniec lat 50. i na początku lat 60. ubiegłego wieku rozrost oceanów był dobrze udokumentowany, natomiast dowody wskazujące na ich konsumpcję wydawały się trochę słabsze. Skłaniało to niektórych badaczy do stworzenia modelu, zwanego modelem ekspansji Ziemi, zakładającego nieustanny rozrost oceanów, przy braku ich zamykania. Hipoteza ta zakłada sukcesywne zwiększanie się promienia Ziemi przez rozrost oceanów [11], [12] . Została ona podważona przez interpretację obserwacji bezpośredniego ruchu płyt litosfery. Dane dostarczone przez sieć radioteleskopów, a przetwarzane z użyciem międzykontynentalnej interferometrii VLBI (ang. Very Long Baseline Interferometry), umożliwiły między innymi zmierzenie zbieżnego ruchu Azji i Ameryki względem siebie [13], [14]. Ruch tych kontynentów powoduje zamykanie się Oceanu Spokojnego. Utworzenie sieci satelitów obiegających Ziemię i powstanie systemu GPS (NAVISTAR Global Positioning System) dało możliwość precyzyjnego pomiaru ruchu płyt litosfery. Stacjonarne odbiorniki GPS poruszając się wraz z płytą zmieniały swoje położenie określane przez długość i szerokość geograficzną, a zarejestrowane w ciągu szeregu lat dane pozwoliły na określenie trasy i prędkości poruszania się płyt tektonicznych [15]. Powstanie sieci nowoczesnych instrumentów sejsmicznych, takich jak sejsmografy, pozwoliły na geofizyczne odwzorowanie stref subdukcji, czyli obszarów, gdzie następuje zamykanie się oceanów. Strefy trzęsień ziemi, nachylone 40-60 \\( ^o \\) w stosunku do poziomu, sięgają do około 700 km w głąb Ziemi (zob. Związek trzęsień ziemi z tektoniką płyt ). Znane są one jako strefy Wadatiego-Benioffa lub strefy Benioffa [16]. Opowiadają one strefom subdukcji (zob. Procesy strefy subdukcji ), gdzie odbywa się zanurzanie się skorupy oceanicznej w płaszczu ziemskim ( Rys. 3 ).", "Tomografia sejsmiczna, czyli prześwietlanie wnętrz Ziemi za pomocą pomiarów anomalii prędkości fal sejsmicznych (zob. Fale sejsmiczne ) obrazuje głębokie zanurzanie się płyt litosfery w płaszczu Ziemi, między innymi przypuszczalną subdukcję pacyficznej płyty Farallon pod kontynentem amerykańskim ( Rys. 4 ), [17].", "Warto tu wspomnieć, że naukowe podstawy tomografii sejsmicznej zostały stworzone przez Adama Mariana Dziewońskiego, który obronił pracę doktorską w Akademii Górniczo-Hutniczej. Teoria tektoniki płyt lepiej tłumaczyła powstawanie orogenów kolizyjnych (zob. Orogeny kolizyjne ) niż poprzednio obowiązująca teoria geosynklin [18], [19], która zakładała istnienie podłużnych zagłębień w skorupie Ziemi. Geosynkliny gromadziły osady, które następnie były zgniatane i podnoszone tworząc góry. Elementy teorii geosynklin zostały włączone do teorii tektoniki płyt [20]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1327, "subject": "Granice dywergentne", "paragraphs": ["Na lądzie podstawowym elementem na dywergentnych granicach płyt litosferycznych (zob. Założenia teorii tektoniki płyt ) jest dolina ryftowa. Jest to obniżony, ułożony linearnie obszar pomiędzy wyżynami lub pasmami górskimi, który powstaje w wyniku ekstensyjnego rozerwania kontynentalnej płyty litosfery (zob. Geneza ryftu ), [1], [2].", "W oceanach, granice dywergentne wyznaczają grzbiety śródoceaniczne oceanów Atlantyckiego, Indyjskiego i Spokojnego (zob. Architektura i procesy strefy rozrostu oceanicznego ). Granica dywergentna znajduje się również w centralnej części Morza Czerwonego i Zatoki Adeńskiej ( Rys. 3 ), [8]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1328, "subject": "Geneza ryftu", "paragraphs": ["Powstanie ryftu jest zapoczątkowane termicznym wznoszeniem się materii płaszcza Ziemi (zob. Płaszcz Ziemi ) pod kontynentem [1], [2], [3], które powoduje podnoszenie skorupy kontynentalnej, jej osłabienie i pękanie w centrum podniesienia. W kolejnym etapie tworzy się system normalnych uskoków, a w wyniku rozciągania tej strefy powstaje rów tektoniczny, czyli ryft kontynentalny. Oś tego ryftu, do której rozpoczyna się napływ law bazaltowych, ulega obniżeniu i znajduje się poniżej ramion ryftu ( Rys. 1 ).", "Wulkanizm często występuje na ramionach ryftu. Obecnie na obrzeżach wielkiego ryftu afrykańskiego występują liczne wulkany (zob. Rozmieszczenie wulkanów ), do których zalicza się najwyższy szczyt Afryki - Kilimandżaro (5895 m n.p.m.)( Rys. 2 ), [4].", "Jeżeli inicjacja ryftu związana jest z pióropuszem płaszcza (zob. Pióropusze płaszcza i plamy gorąca ), mogą utworzyć się rozległe wylewy bazaltowe (zob. Skały obojętne ). Wylewy tego rodzaju, związane z wielkim ryftem afrykańskim (zob. Granice dywergentne ), tworzą góry i wyżyny Etiopii [5], między innymi góry Semien.", "Efektem rozwoju ryftu jest również trójzłącze Afar [6], w którym spotykają się 3 płyty tektoniczne: afrykańska (nubijska), arabska i somalijska. Od trójzłącza odchodzą 3 ramiona: Morze Czerwone, wielki ryft afrykański i Zatoka Adeńska ( Rys. 3 ).", "Ryft może przekształcić się w młody ocean, a następnie w ocean dojrzały. Przez pęknięcie skorupy kontynentalnej w centrum ryftu przedostaje się magma, tworząc nową skorupę oceaniczną (zob. Architektura i procesy strefy rozrostu oceanicznego ). Ocean rozrasta się, a w czasie jego rozwoju powstają pasy charakteryzujące się normalną i odwróconą anomalią magnetyczną ( Rys. 4 ), (zob. Przesłanki i dowody aktualne teorii tektoniki płyt ), [7].", "Jeżeli ryft przestaje być aktywny, zamienia się w aulakogen[8], [7]. Uskoki w obrębie aulakogenu zostają przykryte nowymi osadami."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1329, "subject": "Architektura i procesy strefy rozrostu oceanicznego", "paragraphs": ["Nowa skorupa oceaniczna powstaje na dywergentnej (rozbieżnej) granicy płyt litosfery (zob. Założenia teorii tektoniki płyt ), w miejscu gdzie znajduje się grzbiet śródoceaniczny oznaczany skrótem MOR (ang. Mid Oceanic Ridge) [1], [2], [3], [4]. Grzbiet ten wznosi się około dwóch kilometrów nad względnie płaskim dnem oceanicznym, zwanym równią abysalną [5]. Głębokość najwyższej części grzbietu śródoceanicznego jest różna, od kilkuset metrów do ponad 2 km. Pewnym przybliżeniem jest to, że głębokość ta jest proporcjonalna do pierwiastka kwadratowego wieku dna morskiego. Centralną część grzbietu śródoceanicznego stanowi dolina ryftowa, podstawowy element dywergentnych granic płyt litosferycznych. Pod nią wznosi się strumień magmy, który jest pochodną i kontynuacją procesu wznoszenia materii płaszczowej z czasów oddzielania się płyt litosfery ( Rys. 1 ). Stop bazaltowy wylewa się na powierzchnię dna tworząc nową skorupę oceaniczną [6], [7].", "Skrystalizowana lawa tworzy nową skorupę oznaczaną skrótem MORB (ang. Mid Oceanic Ridge Bazalt) [8], która składa się z bazaltu toleitycznego. Jest to skała charakterystyczna o określonych cechach i składzie chemicznym. Doświadczony petrolog potrafi odróżnić bazalt MORB od bazaltów powstałych w innych warunkach, np. w czasie wylewów law wulkanicznych na kontynentach (zob. Skały obojętne ). Charakterystyczna jest też forma skał bazaltowych, gdyż krzepnięcie w warunkach podwodnych powoduje wykształcenie law poduszkowych ( Rys. 2, Rys. 3A), (zob. Lawa ). Skorupa oceaniczna jest nadbudowywana dodatkowo przez intruzje magmowe. Powstają one przez iniekcje magmy w szczeliny wcześniej powstałych skał bazaltowych, przez co tworzy się charakterystyczny system dajek pakietowych (ang. sheeted dikes) ( Rys. 2, Rys. 3B), [5].", "Systemy hydrotermalne związane z ciepłem magmowym i wulkanicznym są powszechną cechą grzbietów śródoceanicznych [9], [10]. Obejmują one:", "W obu przypadkach zimna, gęsta woda przenika skały magmowe dna morskiego, zostaje podgrzewana w strefach o podwyższonej temperaturze, a następnie wydobywa się na zewnątrz. W miejscach wypływu wód hydrotermalnych tworzą się kominy hydrotermalne (ang. smokers), które powstają przez strącenie pewnych związków chemicznych z gorących roztworów w kontakcie z chłodną wodą oceaniczną. W zależności od składu chemicznego wypływających wód wyróżnia się kominy czarne (ang. black smokers), którymi wypływają ciemno zabarwione siarczkami wody oraz kominy białe (ang. white smokers), które wyrzucają jasne i chłodniejsze wody. Kominy czarne położone są wzdłuż strefy wulkanicznej, natomiast białe, w pewnym oddaleniu od niej, tuż za pasem kominów czarnych. Źródłem ciepła dla aktywnych kominów jest nowo utworzony, stygnący bazalt, a dla kominów o najwyższej temperaturze komora magmowa. Ciepło dla kominów pasywnych pobierane jest ze schładzania starszych bazaltów. Całkowite ochłodzenie bazaltów w skorupie oceanicznej zajmuje miliony lat. Woda hydrotermalna zawiera rozpuszczone składniki mineralne, dlatego też w okolicach kominów tworzą się złoża mineralne, zwłaszcza siarczkowe ( Rys. 4 ), [11]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1330, "subject": "Typy granic konwergentnych", "paragraphs": ["Granice konwergentne (zbieżne) płyt litosfery występują tam, gdzie płyty przesuwają się w przeciwnych kierunkach i wzajemnie na siebie oddziałują [1], [2], [3]. Kierunek ruchu płyt został przedstawiony w postaci strzałek na Rys. 1 . Granice te charakteryzują się aktywnością tektoniczną, wulkaniczną i trzęsieniami ziemi (zob. Założenia teorii tektoniki płyt ).", "Wyróżnia się następujące typy granic konwergentnych [4]:", "Granice ocean-ocean[5], [6], [7] i ocean-kontynent[8], [9], charakteryzują się występowaniem stref subdukcji, co znaczy że jedna płyta jest subdukowana, czyli zanurza się pod drugą (zob. Procesy strefy subdukcji ).", "Obecnie, większość stref subdukcji rozmieszczona jest wokół Pacyfiku tworząc tak zwany pacyficzny pierścień ognia [10]. Subdukcje występują również na południowy-zachód i południe od Azji Południowowschodniej, w rejonie Morza Śródziemnego, Morza Scotia i Małych Antyli na Atlantyku [11].", "Granica kontynent-kontynent[12], [13], [14], powstaje w wyniku kolizji kontynentalnej [15]. Ma miejsce, gdy graniczą ze sobą 2 elementy zbudowane z litosfery kontynentalnej. Kolizja ta jest kontynuacją procesu subdukcji litosfery oceanicznej pod litosferę kontynentalną. Zachodzi gdy w peryferycznych częściach płyty subdukującej następuje przejście litosfery oceanicznej w litosferę kontynentalną. Wówczas po konsumpcji litosfery oceanicznej tej płyty następuje kolizja 2 elementów tektonicznych zbudowanych z litosfery kontynentalnej, a jeden z tych elementów podsuwa się pod drugi. Rys. 1 przedstawia najważniejsze granice konwergentne. Strzałkami zaznaczono ruch niektórych płyt, które oddziałują na siebie przesuwając się w przeciwnych kierunkach. Zaznaczona jest konwergencja płyty filipińskiej i płyty pacyficznej, płyty południowoamerykańskiej i płyty Nazca, płyty kokosowej i płyty północnoamerykańskiej oraz płyty antarktycznej i płyty euroazjatyckiej."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1331, "subject": "Procesy strefy subdukcji", "paragraphs": ["Subdukcja, która zachodzi na granicach konwergentnych (zob. Założenia teorii tektoniki płyt oraz Typy granic konwergentnych ), jest procesem w którym litosfera oceaniczna zanurza się w płaszczu Ziemi (zob. Płaszcz Ziemi ), [1], [2], [3]. Rys. 1 przedstawia schematycznie mechanizm subdukcji i przyczyny jej powstawania.", "Litosfera oceaniczna powstaje w strefie akrecji (zob. Skorupa oceaniczna ). W momencie powstania jest gorąca. W miarę tworzenia się nowej skorupy, starsza oddala się od strefy akrecji i ochładza się. Jej ruch jest spowodowany przez nacisk mas skalnych grzbietu oceanicznego, który jest wyniesiony znacznie ponad dno oceaniczne równi abysalnej (zob. Architektura i procesy strefy rozrostu oceanicznego ), [4], [5] oraz przez wleczenie przez konwekcję w płaszczu Ziemi. W płaszczu występuje ruch materii, który generowany jest przez gradient temperaturowy (zob. Ciepło Ziemi ). W strefach przyjądrowych materia jest podgrzewana, przez co unosi się ku górze do stref podskorupowych. Kolejno ulega ochłodzeniu, co powoduje jej opadanie. Taki ruch odbywa się strumieniowo, w obiegu zamkniętym. W jego wyniku tworzą się komórki konwekcyjne [6]. Istnienie komórek, obejmujących cały płaszcz Ziemi, zostało potwierdzone przez tomografię sejsmiczną (zob. Mechanizm kolizji ), [7], [8]. Ochłodzona, gęsta litosfera oceaniczna zanurza się pod płytę górną w strefie subdukcji, ciągnąc za sobą całą płytę dolną [9].", "Rys. 2 przedstawia rozwój subdukcji. Tego rodzaju ewolucja ma miejsce na zachodnim Oceanie Spokojnym [10], [11]. Subdukcja rozpoczyna się pęknięciem skorupy oceanicznej ( Rys. 2 B), [12], [13]. Następuje zróżnicowanie na płytę dolną i górną ( Rys. 2 B) i płyta dolna zaczyna podchodzić pod płytę górną. W miejscu zanurzania płyty tworzy się morfologiczne zagłębienie, zwane rowem oceanicznym. Rozpoczynają się procesy topnienia materii płaszcza ponad pogrążaną płytą dolną. Duże znaczenie dla przebiegu tego procesu ma woda, która w strefie pogrążania płyty dostaje się do stref płaszczowych i wpływa na obniżenie temperatury topnienia materiału. Powstała magma unosi się tworząc łuk wulkaniczny ( Rys. 2 C), który wyodrębnia obszar załukowy (zob. Architektura strefy subdukcji ). Na tym obszarze może powstać nowa strefa akrecji ( Rys. 2 (2) D)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1332, "subject": "Architektura strefy subdukcji", "paragraphs": ["Rys. 1, Rys. 2, Rys. 3 przedstawiają schematycznie architekturę strefy subdukcji [1]. Podstawowe jej elementy to:", "Część przysubdukcyjna płyty górnej ma charakter orogeniczny (tzw. orogen bezkolizyjny), gdzie skały są silnie zdeformowane. Strefa ta jest silnie wypiętrzona. W przypadku Andów wysokość przekracza znacznie 6 km. Strefa oddalona od subdukcji jest znacznie niższa (zob. Orogeny bezkolizyjne ).", "W subdukcji typu japońskiego ( Rys. 2 ), [7], [8], w skład płyty górnej wchodzi zarówno litosfera kontynentalna, jak i litosfera oceaniczna. Strefa bliżej subdukcji w przypadku Japonii jest reprezentowana przez oderwany fragment kontynentu ze znaczną ilością skał wulkanicznych. Strefa oddalona od subdukcji zbudowana jest wyłącznie z litosfery oceanicznej. W subdukcji typu mariańskiego ( Rys. 3 ), [9] mamy do czynienia z konwergencją ocean-ocean. W skład płyty górnej wchodzi litosfera oceaniczna oraz skały wulkaniczne morskiego łuku wyspowego.", "Obszar przedłukowy (ang. forearc) znajduje się u czoła płyty górnej [10]. W jego skład wchodzą:", "Rowy oceaniczne to najgłębsze, wąskie i długie topograficzne zagłębienia dna oceanu, współcześnie osiągające maksymalną głębokość 11 034 m p.p.m. w Rowie Mariańskim (mariański typ subdukcji). Na ogół rowy oceaniczne są 3-6 km głębsze od równi abysalnych, od których są oddzielone niewielkim podniesieniem zewnętrznym [11]. Pryzma akrecyjna jest strukturą zawierającą bogaty inwentarz utworów pochodzących zarówno ze zdarcia z płyty dolnej, jak i z płyty górnej [12]. Z płyty dolnej pochodzą głębokomorskie osady, rzadziej fragmenty skorupy oceanicznej ( Rys. 4A). Z płyty górnej pochodzą osady z jej erozji, przenoszone do rowu osuwiskami podmorskimi, spływami i prądami zawiesinowymi. Miąższość utworów pryzmy jest różna, od nieznacznej (mówimy wtedy o braku pryzmy) w subdukcji typu mariańskiego do kilkukilometrowej w subdukcji typu andyjskiego. Pryzmę budują ponasuwane na siebie łuski. Oddzielona jest od płyty dolnej nasunięciem, zwanym głównym odkłuciem [13]. W Karpatach pojęciem pryzmy określa się cały materiał nasunięty na płytę europejską, w tym miąższe kompleksy fliszowe ( Rys. 4B), [14].", "Basen przedłukowy znajduje się pomiędzy pryzmą akrecyjną, a łukiem wulkanicznym (zob. Baseny sedymentacyjne a tektonika płyt ). Gromadzi osady z erodowanego łuku, czyli materiał wulkanoklastyczny, a w przypadku subdukcji typu andyjskiego i japońskiego, materiał pochodzący z erodowanej skorupy kontynentalnej, przenoszony, podobnie jak w przypadku pryzmy akrecyjnej osuwiskami podmorskimi, spływami i prądami zawiesinowymi. Znajdują się w nim również osady hemipelagiczne. W odróżnieniu od pryzmy akrecyjnej, osady te są słabo zdeformowane [15]. Łuk wulkaniczny [3], [1], [16] to morfologiczne wyniesienie płyty górnej. W większości wypadków jest on, co podkreśla nazwa, związany z występowaniem wulkanizmu. W subdukcji typu mariańskiego, jest to łuk wysp zbudowanych w całości z materiału wulkanicznego pochodzącego z przetopionej litosfery oceanicznej i płaszcza. W przypadku subdukcji typu japońskiego, łuk wysp zbudowany jest z mieszaniny skorupy kontynentalnej i materiału wulkanicznego. Materiał ten pochodzi z przetopionej litosfery oceanicznej i płaszcza, epizodycznie wznosząca się magma jest zmieszana również z materiałem pochodzącym ze skorupy kontynentalnej. W subdukcji typu andyjskiego, część łuku może być pozbawiona wulkanów. Jeżeli wulkany występują, zbudowane są z materiału pochodzącego z przetopionej litosfery, zmieszanego z materiałem pochodzącym ze skorupy kontynentalnej. Obszar załukowy (marginalny) tworzy się na płycie górnej za łukiem wulkanicznym [17], [18]. W subdukcji typu andyjskiego jest to obniżenie kontynentalnej płyty górnej. W przypadku subdukcji typu mariańskiego tworzy się basen załukowy, którego podłożem jest skorupa oceaniczna. W subdukcji typu japońskiego tworzy się basen załukowy (zob. Baseny sedymentacyjne a tektonika płyt ) z nową strefą akrecji ( Rys. 2 ). Basen tego typu często rozwija się w pełen ocean, na przykład mezozoiczny ocean Tetydy [19]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1333, "subject": "Granice transformujące", "paragraphs": ["Granica transformująca jest granicą płyt litosfery i występuje tam, gdzie płyty przesuwają się względem siebie w poziomie, wzdłuż uskoku transformującego (zob. Założenia teorii tektoniki płyt ), [1], [2], [3]. Uskok transformujący jest rodzajem uskoku przesuwczego, aczkolwiek nie każdy uskok przesuwczy jest uskokiem transformującym. Uskoki transformujące najczęściej występują na dnach oceanicznych, przecinają i przesuwają osie grzbietów śródoceanicznych. Są one sprzężone z pęknięciami skorupy oceanicznej [4]. Pęknięcia te reprezentują poprzednio aktywne uskoki transformujące. Można je śledzić przez setki kilometrów jako wzniesione grzbiety na dnie oceanu ( Rys. 1 ).", "Rys. 2 przedstawia fragment środkowego Atlantyku w strefie granicy pomiędzy płytą afrykańską a płytą południowoamerykańską. Granicę płyt wyznacza tu Grzbiet Śródatlantycki (granica dywergentna, czyli rozbieżna), (zob. Granice dywergentne ), jak również uskoki transformujące (granica transformująca). Uskoki przesuwają fragmenty Grzbietu Śródatlantyckiego, a na ich przedłużeniu występują rozległe pęknięcia skorupy oceanicznej.", "Uskoki transformujące mogą być również sprzężone z granicami konwergentnymi (zob. Typy granic konwergentnych ). Przykładem takiego sprzężenia jest płyta karaibska [5]. Płyta ta graniczy od północy i wschodu z płytą północnoamerykańską, od południa z płytą południowoamerykańską. Północna granica tej płyty to lewoskrętny uskok transformujący. Uskok ten kończy się dochodząc do strefy subdukcji płyty północnoamerykańskiej pod wulkaniczny łuk wyspowy Małych Antyli. Podobnie kończy się prawoskrętny uskok transformujący stanowiący południową granicę płyty karaibskiej ( Rys. 3 ).", "Uskoki transformujące występują również na lądzie. Nie ma ich zbyt wiele, lecz są dobrze zbadane ze względu na aktywność sejsmiczną. Najbardziej popularnymi uskokami transformującymi na lądzie są: uskok San Andreas w Kalifornii oraz uskok północnoanatolijski w Turcji [4], [6]. Rys. 4A oraz Rys. 5 przedstawiają uskok San Andreas, wzdłuż którego przesuwa się ku północy część Kalifornii należąca do Płyty Pacyficznej. Z uskokiem tym związane są liczne trzęsienia ziemi; najbardziej znane w roku 1906 zniszczyło miasto San Francisco. Rys. 4B przedstawia uskok północnoanatolijski, wzdłuż którego przesuwa się ku zachodowi płyta anatolijska [7]. Z uskokiem tym również związane są liczne trzęsienia ziemi (zob. Związek trzęsień ziemi z tektoniką płyt ).", "Z uskokami transformującymi na lądzie związane są często baseny z rozciągania (ang. pull apart) ( Rys. 6 ), (zob. Baseny sedymentacyjne a tektonika płyt ), [8]. Przykładami takich basenów są Morze Marmara związane z uskokiem Północnoanatolijskim i Jezioro Salton związane z uskokiem San Andreas [9], [10]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1334, "subject": "Modele ruchu płyt litosferycznych", "paragraphs": ["Płyty litosfery są w ciągłym ruchu względem siebie. Modele używane do rekonstrukcji ruchu i położenia płyt litosfery wykorzystują analizę geometryczną ruchów obiektów na powierzchni kulistej [1], [2]. Analiza ta jest opisana w geometrycznym twierdzeniu Eulera[3], które mówi, że ruch ciała sztywnego na sferze można opisać jako obrót wokół stałej osi przecinającej środek globu ( Rys. 1 ). Przecięcie osi i kuli nazywa się biegunem Eulera.", "Do opisania ruchu płyty litosfery w danym przedziale czasu potrzebne są współrzędne bieguna Eulera i kąt obrotu. Ruchy płyt nazywane są rotacjami i organizowane są w prostym pliku tekstowym, gdzie każdy wpis (wiersz) zawiera informację o pozycji płyty litosfery w określonym czasie. Dzięki takim informacjom komputerowy program modelujący może interpolować wartości i animować ruch płyt tektonicznych. Plik rotacji może zawierać również krótkie notki bibliograficzne lub ogólne komentarze dla każdej indywidualnej rotacji. W wyniku modelowania ruchu płyt litosfery powstają mapy paleogeograficzne ilustrujące położenie kontynentów w przeszłości. Rys. 2 pokazuje mapę świata współczesną i mapę paleogeograficzną Ziemi w okresie jurajskim, czyli 155 mln lat temu [4].", "Na tych dwóch obrazach zaznaczają się wyraźne różnice w położeniu poszczególnych kontynentów. W ciągu ostatnich 155 mln lat kontynenty oderwały się od siebie i przesunęły. Powstały nowe oceany, a poprzednio istniejące zostały zamknięte. Widać zmiany położenia linii równika na kontynentach i krzyżyków ilustrujących przecięcia południków i równoleżników co 5\\(^o\\). Można zauważyć też szereg niewielkich płyt. Na rysunku Rys. 2 A są one częścią Eurazji, natomiast na Rys. 2 B znajdują się w obrębie Tetydy."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1335, "subject": "Pióropusze płaszcza i plamy gorąca", "paragraphs": ["Część wulkanów znajduje się poza strefami granicznymi płyt, występują w różnych obszarach, zarówno skorupy kontynentalnej, jak i skorupy oceanicznej (zob. Rozmieszczenie wulkanów ). Zasilane są one magmą z płaszcza Ziemi. Obszary te wykazują zwiększoną ciepłotę w stosunku do otoczenia (zob. Ciepło Ziemi ). Miejsca gdzie istnieje taka działalność nazywane są plamami gorąca[1], [2], [3].", "Plama gorąca wiąże się ze strukturą we wnętrzu Ziemi zwaną pióropuszem płaszcza[4]. Mianem tym określa się pionowy strumień gorącej materii płaszcza zakończony elementem przypominającym pióropusz na hełmie rycerza czy też na głowie konia ciągnącego karawan. Początek tego pionowego strumienia znajduje się na granicy zewnętrznego jądra i płaszcza ( Rys. 1 ), na co wskazuje między innymi tomografia sejsmiczna [5], [6], [7].", "Skorupa Ziemi ponad pióropuszem jest wybrzuszona wskutek termicznego podnoszenia. Na lądzie z plamami gorąca związane są masywy górskie osiągające wysokość kilku kilometrów nad poziom morza, jak wspomniane wyżej Hoggar i Tibesti na Saharze [8]. Pióropusze płaszcza mogą zapoczątkować powstanie ryftu i rozłam kontynentu. Przykładowo plama gorąca Afar przyczyniła się do powstania wielkiego ryftu afrykańskiego, Morza Czerwonego i Zatoki Adeńskiej (zob. Granice dywergentne ). W przeszłości plamy gorąca były związane z rozpadem Pangei (zob. Przesłanki i dowody historyczne teorii tektoniki płyt ) i powstaniem Atlantyku [1], [9].", "Pióropusze płaszcza są nieruchome, skorupa ziemi przesuwa się ponad nimi. Na oceanie pióropusz tworzy łańcuch wysp wulkanicznych, znaczących ślad plamy gorąca."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Tektonika płyt litosferycznych", "subject_id": 1336, "subject": "Baseny sedymentacyjne a tektonika płyt", "paragraphs": ["Tektonika i jej procesy mają istotny wpływ na powstanie i rozwój basenów sedymentacyjnych [1]. Określenie genezy basenów jest ważne w geologii stosowanej, w szczególności w geologii naftowej [2], [3].", "Geomorfologiczny basen jest to zagłębienie w skorupie kontynentalnej lub oceanicznej Ziemi. Często używa się pojęcia basen oceaniczny, np. basen Oceanu Arktycznego. Dla geologa ważne jest to, czy basen jest wypełniony osadami. Przykładowo w Oceanie Atlantyckim wypełnienie osadami występuje jedynie blisko brzegu oceanicznego, czyli krawędzi pasywnej i w tej strefie geologia naftowa wyróżnia szereg basenów, np. Santos, czy Campos u wybrzeży Brazylii i Kwanza u wybrzeży Angoli [4], [5].", "Klasyfikacja basenów związanych z granicami dywergentnymi, konwergentnymi i transformującymi przedstawiona jest na Rys. 1 . Baseny uszeregowane są w kolumnach w zależności od związku z granicami i procesami dywergentnymi, konwergentnymi i transformującymi.", "W pierwszej kolumnie Rys. 1 znajdują się baseny dywergentne, a więc związane z ekstensją, czyli rozciąganiem litosfery. Proces formowania się tych basenów rozpoczyna się podnoszeniem termicznym skorupy kontynentalnej nad rozgrzanym płaszczem. Jeżeli temperatura obniża się następuje kontrakcja i podniesiona skorupa zapada się tworząc basen intrakratoniczny. Jeżeli natomiast temperatura utrzymuje się, następuje pękanie skorupy i tworzy się basen ryftowy, który wypełnia się następnie osadami (zob. Geneza ryftu ). Dalsza ewolucja może postępować w kierunku tworzenia się basenu oceanicznego z krawędziami pasywnymi, na których mogą się osadzać znacznej miąższości osady. Jeżeli basen oceaniczny nie utworzy się, ryft przekształca się w aulakogen. Wszystkie te baseny dywergentne tworzą jedną powiązaną genetycznie sekwencję [1].", "Również genetycznie powiązane są baseny powstałe w wyniku kolizji kontynent-kontynent ( Rys. 1 druga kolumna). Tworzą się one na przedgórzu albo zagórzu pasma orogenicznego lub też wewnątrz tego pasma. Przykłady tych basenów możemy odnaleźć w górotworze karpackim [11]. Zapadlisko przedkarpackie jest basenem przedgórskim, Kotlina Żywiecka – basenem śródgórskim, a Kotlina Panońska – basenem zagórskim. Baseny niesione tworzyły się na fliszu Karpat zewnętrznych w późnym etapie jego rozwoju. Nizina Hindustańska w Indiach jest basenem przedgórskim na przedpolu Himalajów (zob. Orogeny kolizyjne ).", "W trzeciej kolumnie Rys. 1 znajdują się baseny powstałe w wyniku subdukcji ocean-kontynent. Subdukcja tego typu jest charakterystyczna dla wschodniego obrzeżenia Oceanu Spokojnego. Osady gromadziły się zarówno na przedgórzu, zagórzu, jak i wewnątrz pasma orogenicznego Andów w Ameryce Południowej, jak również w Górach Skalistych w Ameryce Północnej (zob. Orogeny bezkolizyjne ).", "W czwartej kolumnie Rys. 1 znajdują się baseny powstałe w wyniku subdukcji ocean-ocean. Subdukcja tego rodzaju jest charakterystyczna dla zachodniego obrzeżenia Oceanu Spokojnego (zob. Architektura strefy subdukcji ). Związana jest z nią orogeneza bezkolizyjna. Basenem załukowym (marginalnym) jest Morze Japońskie [12]. Baseny przedłukowe w strefach subdukcji obszaru wokółpacyficznego związane są z pryzmami akrecyjnymi [13]. Baseny śródłukowe tworzą się wewnątrz łuku wyspowego. Na obszarze wokółpacyficznym znane są między innymi z Japonii, Filipin i Wysp Aleuckich [14], [15], [16].", "W piątej kolumnie Rys. 1 znajdują się baseny związane z granicami i uskokami transformującymi. Pary sił powodują rozciąganie i zapadanie się skorupy, stąd baseny tego typu nazywane są basenami z rozciągania (ang. pull apart), (zob. Granice transformujące ). Do klasycznych przykładów tego typu basenów powstałych w warunkach intrakontynentalnych należy basen wiedeński, a w Karpatach polskich zapadlisko orawsko-nowotarskie [1], [11], [17]. Baseny z rozciągania mogły tworzyć się również na granicy kontynent-ocean [18], [19]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Orogeneza i epejrogeneza", "subject_id": 1377, "subject": "Orogeneza i epejrogeneza - definicje podstawowe", "paragraphs": [], "definitions": [{"name": " Definicja 1: Orogeneza ", "content": " inaczej górotwórczość, to termin oznaczający powstawanie gór w sensie\ngeologicznym, jako pasm fałdowych, niekiedy jest używany w odniesieniu do tworzenia się gór\nw sensie topograficznym, tj. do wypiętrzenia pewnych obszarów względem otoczenia [1], [2], [3],\n[4].\nOrogen to obszar, na który oddziałuje orogeneza [1], [2], [3], [4].\nKolizja jest to wzajemne mechaniczne oddziaływanie płyt litosferycznych. Często używany jest termin kolizja\nkontynentalna, oznaczający zderzenie dwóch płyt litosfery kontynentalnej (zob. Orogeny kolizyjne ), [5],\n[6]."}, {"name": " Definicja 2: Epejrogeneza ", "content": " inaczej ruchy epejrogeniczne, lądotwórczość lub ruchy lądotwórcze, to\npowolne, pionowe ruchy skorupy ziemskiej powodujące podnoszenie się lub obniżanie znacznych jej obszarów,\nbez zmiany ich struktury (zob. Ruchy epejrogeniczne i ich przyczyny ). Według przeważających poglądów\nruchy epejrogeniczne są wywołane zaburzeniami izostazji, bądź zmianami gęstości i objętości\nmateriału skalnego w wyniku zmian termodynamicznych (temperatury, ciśnienia), zachodzących\nw dolnej części skorupy ziemskiej i w górnym płaszczu Ziemi [1], [2], [3], [4]. Jednym z efektów\ntych ruchów jest wywołanie transgresji i regresji morskich (zob. Procesy związane z epejrogenezą\n)."}, {"name": " Definicja 3: Akrecja ", "content": " to proces przyrostu lub wzrostu, zazwyczaj przez stopniowe nagromadzenie\ndodatkowego materiału (zob. Akrecja skorupy kontynentalnej ). W teorii tektoniki płyt, termin akrecja\nkontynentalna jest najczęściej używany jako proces, w którym materiał jest dodawany do kontynentalnej płyty\nlitosfery w strefie subdukcji [6], [7]. "}, {"name": " Definicja 4: Kraton ", "content": " rozległy fragment skorupy ziemskiej, zwłaszcza kontynentalnej, nie podlegający\nznacznemu fałdowaniu, w przeciwieństwie do obszarów otaczających [1], [2], [3], [4]. Kraton może występować\nw formie platformy lub tarczy ( Rys. 1 ).\nPlatforma to znacznych rozmiarów obszar kontynentalnej skorupy ziemskiej zbudowany z dwóch pięter\nstrukturalnych: \n\nfundamentu (podłoża) platformy,\n\npokrywy platformowej,\nróżniących się stylem architektonicznym ( Rys. 1 ).\nFundament platformy tworzą skały magmowe i metamorficzne, sfałdowane i wypiętrzone wskutek ruchów\ngórotwórczych w archaiku i proterozoiku (platformy stare - prekambryjskie) lub w paleozoiku (platformy\nmłode), a następnie zrównane (zdenudowane)( Rys. 1 ).\nPokrywa platformowa jest zbudowana głównie ze słabo zdeformowanych tektonicznie skał osadowych ( Rys.\n1 ), [1], [2], [3], [4].\n\n\n\n\n\n Rysunek 1: Wzajemny stosunek platformy i tarczy w obrębie kratonu. \nTarcza jest to wypukła, nie przykryta osadami część fundamentu krystalicznego platformy, pozbawiona\npokrywy platformowej, np. tarcza bałtycka, tarcza kanadyjska ( Rys. 2 ), [1], [2], [3], [4].\n\n\n\n\n\n Rysunek 2: Kraton wschodnioeuropejski, w skład którego wchodzą: tarcza bałtycka (fennoskandynawska), tarcza\nukraińska i platforma wschodnioeuropejska. \n"}, {"name": " Definicja 5: Krawędź pasywna ", "content": " obszar graniczny pomiędzy skorupą kontynentalną i oceaniczną\nzawarty w całości w jednej płycie litosfery. Pasywność oznacza, że aktywność tektoniczna jest tu minimalna\n[8], [6]."}, {"name": " Definicja 6: Sedymentosfera ", "content": " całkowita ilość osadów na Ziemi, jak również środowisko, w którym\nznajdują się i tworzą osady [9]."}, {"name": " Definicja 7: Basen ", "content": " zagłębienie w powierzchni Ziemi; termin ten w geologii używany jest najczęściej w\nodniesieniu do basenów osadowych, czyli regionów Ziemi, w których następuje gromadzenie się\n(akumulacja) osadów ( Rys. 3 ), (zob. Baseny sedymentacyjne a tektonika płyt ), [1], [2], [3], [4],\n[10].\n \n\n\n\n Rysunek 3: Basen intrakratoniczny. \n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Orogeneza i epejrogeneza", "subject_id": 1378, "subject": "Akrecja skorupy kontynentalnej", "paragraphs": ["Akrecja skorupy kontynentalnej następuje w wyniku:", "Pryzma akrecyjna tworzy się z materiału narastającego w strefie subdukcji (zob. Architektura strefy subdukcji ), [1], [2], [3], [4], [5], [6], [7] na zbieżnej granicy płyt litosfery. W skład tego materiału wchodzą:", "Nasunięcie utworów morskich na płyty kontynentalne ma miejsce w orogenach kolizyjnych (zob. Orogeny kolizyjne ), [8], [9]. Przykładem jest nasunięcie morskich utworów Karpat Zewnętrznych dla płytę północnoeuropejską ( Rys. 2 ).", "Przyrost na granicach pasywnych( Rys. 3 ), [2], [10], [11]. Przyrost ten ma miejsce na krawędziach oceanów Atlantyckiego, Arktycznego i Indyjskiego. Może przekraczać 10 km w przypadku delt i stożków podmorskich dużych rzek ( Rys. 4 ), [12], [13].", "Podklejanie magmowe od spodu płyt litosfery[4], [14], [15] ma miejsce wówczas, gdy wznoszące się magmy obojętne i zasadowe ( Rys. 5 ) są uwięzione w skorupie. Magmy te stygnąc powodują pogrubienie skorupy (zob. Środowiska powstania skał magmowych ). Może to być związane z:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Orogeneza i epejrogeneza", "subject_id": 1383, "subject": "Orogeny bezkolizyjne", "paragraphs": ["Podział na orogeny bezkolizyjne i kolizyjne wywodzi się od J. F. Dewey’a i J. M. Birda [1]. W pracy \"Mountain belts and the new global tectonics\" wyróżniono dwa rodzaje pasm orogenicznych:", "Inwentarz litologiczny orogenów bezkolizyjnych i kolizyjnych obejmuje skały:", "W skład skał magmowych (zob. Środowiska powstania skał magmowych ) wchodzą:", "Rys. 1 pokazuje granity (zob. Skały skrajnie kwaśne i kwaśne ) reprezentujące paleozoiczne intruzje (batolity). Na Rys. 1 A widać karboński granit masywu Žulovej, wieku ok. 300 mln lat (kamieniołom Vycpálek, Sudety, Republika Czeska), zaś na Rys. 1 B dolnopaleozoiczny granit rumburski z przełomu Nysy na północ od Bogatyni (Sudety, Polska). Rys. 2 pokazuje gabro z inkorporowanej skorupy oceanicznej (ofiolit) w orogenie Gór Chingaj (okręg Bayankhongor, Mongolia). Rys. 3 A przedstawia skały wulkaniczne w Dolinie Wulkanów, Kordyliery Zachodniej (Andy, Peru), a Rys. 3 B dolnokredowy - wieku ok. 140 mln lat - bazalt, olistolit w górnokredowo-paleogeńskim, osadzonym ok. 70 do 20 mln lat temu, fliszu pryzmy akrecyjnej pienińskiego pasa skałkowego (Biała Woda, Małe Pieniny).", "W skład skał osadowych wchodzą:", "Skały osadowe mogą być niesfałdowane ( Rys. 4 A), jak w przypadku permskich, osadzonych około 260 do 250 mln lat temu płytkowodnych wapieni wypiętrzonych na wysokość 2667 m w górotworze bezkolizyjnym Gór Skalistych albo sfałdowane ( Rys. 4 B), jak w przypadku gruboławicowych piaskowców i łupków fliszu pryzmy akrecyjnej Karpat Zewnętrznych.", "W skład skał metamorficznych ( Rys. 5 ), (zob. Skały metamorficzne - wprowadzenie ) wchodzą:", "Rys. 6 przedstawia najważniejsze orogeny bezkolizyjne Ziemi.", "Orogeny te mają przebieg równoległy do stref subdukcji. Większość z nich rozmieszczona jest wokół pacyficznego pierścienia ognia. Najbardziej znanym orogenem bezkolizyjnym są Andy, dlatego też często orogenezę bezkolizyjną nazywamy orogenezą typu andyjskiego [1]. Andy są pasmem górskim rozciągającym się na długości około 8000 km, od Morza Karaibskiego po Ziemię Ognistą. Ich historia sięga prekambru i charakteryzuje się skomplikowanymi procesami tektonicznymi, które obejmują akrecję, kolizję i subdukcję [2]. W zachodniej części Andów mniejsze elementy tektoniczne zderzały się z Ameryką Południową, która była w paleozoiku i wczesnym mezozoiku częścią Gondwany, a następnie Pangei. Subdukcje były czynne od prekambru, w szczególności aktywne były po utworzeniu Pangei w późnym paleozoiku, kiedy powstał tak zwany pangejski pierścień ognia [3].", "W skład współczesnych Andów wchodzą różne regiony charakteryzując się występowaniem lub brakiem wulkanów, obdukcji i ofiolitów, a także różnym stopniem aktywności sejsmicznej. Obszarem, reprezentującym klasyczną orogenezę typu andyjskiego jest centralna strefa wulkaniczna w Peru, Boliwii, w północnym Chile i przyległej części Argentyny [4]. Rejon ten jest przedmiotem badań polskich geologów z Akademii Górniczo-Hutniczej [5]. Rys. 7 sporządzony na podstawie [6], [2] przedstawia schematyczny przekrój przez Andy.", "Litosfera oceaniczna płyty Nazca jest subdukowa pod kontynent południowoamerykański. Na granicy płyt znajduje się rów oceaniczny i pryzma akrecyjna. Z subdukcją związane jest przetapianie materiału płaszcza i wznoszenie się płynnej magmy, która tworzy łuk wulkaniczny Kordyliery Zachodniej ( Rys. 8 ). Magma ma charakter andezytowy, wulkan wyrzuca duże ilości materiału piroklastycznego.", "Nasuwanie się na siebie elementów krystalicznego podłoża, jak również podklejanie magmowe powoduje pogrubiania skorupy kontynentalnej w rejonie Andów i podniesienie górotworu wywołane izostazją. W formowaniu się pasma fałdowo-nasuwczego biorą udział skały osadowe, które są silnie zdeformowane. Brak jest jednak wpływu metamorfizmu albo jest on bardzo słaby. Morfologia Andów jest uwypuklona przez działalność erozyjną rzek, które wcinają się, tworząc głębokie kaniony ( Rys. 9 ).", "W obszarze załukowym znajduje się obniżony obszar rozległego płaskowyżu Altiplano."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Orogeneza i epejrogeneza", "subject_id": 1384, "subject": "Orogeny kolizyjne", "paragraphs": ["Rys. 1 przedstawia najważniejsze współczesne orogeny kolizyjne Ziemi. Jako orogeny kolizyjne uznano pasy orogeniczne będące wynikiem kolizji kontynent-kontynent [1].", "W przeszłości duże znaczenie miały również kolizje kontynent-łuk wyspowy. W gruncie rzeczy pasma orogeniczne przedstawione na Rys. 1 można uznać za jeden system orogeniczny, zwany alpejsko-himalajskim systemem górskim, od najbardziej znanych gór – Alp w Europie i Himalajów w Azji [2]. System ten powstał w orogenezie alpejsko-himalajskiej, która rozpoczęła się w kredzie, ok. 140 mln lat temu i trwa po dzień dzisiejszy. Pasma górskie rozciągają się od Afryki północnozachodniej na zachodzie po Chiny i Azję południowo-wschodnią na wschodzie. Związane są z oceanem Tetyda [3], [4], który powstał na przełomie paleozoiku i mezozoiku, a którego pozostałością jest Morze Śródziemne (zob. Modele ruchu płyt litosferycznych ). Osady oceaniczne Tetydy znane są z wielu pasm górskich, między innymi z Karpat w Polsce. Najwyższym pasmem górskim na tym obszarze są Himalaje, w których najwyższy szczyt Mont Everest ma wysokość 8826 m n.p.m. ( Rys. 2 ). O ile Andy są najbardziej reprezentatywnym orogenem bezkolizyjnym, to Himalaje są najbardziej reprezentatywnym orogenem kolizyjnym. To pasmo górskie rozciąga się na 2400 km przy średniej szerokości około 200-300 km w Pakistanie, Indiach, Chinach, Nepalu i Butanie [5].", "Himalaje powstały w wyniku zderzenia płyty litosferycznej Indii z płytą euroazjatycką, a więc kolizji 2 kontynentów [6], [7], [8]. Zamknięcie Tetydy nastąpiło około 50 mln lat temu i w tym czasie płyta indyjska zaczęła podsuwać się po płytę eurazjatycką [9]. Podsuwanie to trwa do dzisiaj. W wyniku tego procesu nastąpiło podwojenie skorupy kontynentalnej w rejonie Himalajów. Skorupa ta ma grubość około 40 km na przedpolu Himalajów i około 70 km pod najwyższymi szczytami gór. Działanie izostazji (zob. Ruchy epejrogeniczne i ich przyczyny ) spowodowało podniesienie Himalajów na obecną wysokość. Rys. 2 przedstawia schematycznie budowę Himalajów. Widać tu szereg elementów ponasuwanych na siebie i nasuniętych na płytę indyjską. Na przedpolu gór znajduje się Nizina Hindustańska, płaskie przedgórze, wypełnione głównie osadami czwartorzędowymi, naniesionymi przez rzekę Ganges i jej dopływy. Na przedgórze nasunięty jest element tektoniczny Sziwalik. Granicę pomiędzy przedgórzem, a Sziwalikiem wyznacza główne nasunięcie brzeżne. Z kolei główne nasunięcie graniczne wyznacza granicę pomiędzy Sziwalikiem i Małymi Himalajami, a główne nasunięcie centralne granicę pomiędzy Małymi Himalajami a Wysokimi Himalajami. Sziwalik składa się z osadów rzecznych pochodzących z wypiętrzających się Himalajów. Miąższość ich osiąga kilka tysięcy metrów (do 6 km). Tego rodzaju osady nazywamy molasą przez analogię do osadów zapadliska przedgórskiego Alp [10], [11]. Małe Himalaje i Wysokie Himalaje zbudowane są ze skał prekambryjskich, to znaczy starszych, niż 550 mln lat. Są one przeważnie silnie zmetamorfizowane (zob. Orogeny bezkolizyjne ). Reprezentują odkłute fragmenty płyty indyjskiej. Odkłucie to i nasunięcia są wynikiem kolizji płyt tektonicznych. Rys. 3 przedstawia model powstawania Himalajów. Kolorami zaznaczono główne jednostki tektoniczne. Kolor szary to litosfera oceaniczna, kolor niebieski – Małe Himalaje, fioletowy – Wysokie Himalaje, a zielony – Himalaje Tetydzkie. Skrótami zaznaczono nasunięcia. MBT to główne nasunięcie graniczne, MCT główne nasunięcie centralne, a STD to odkłucie południowotybetańskie.", "Wzdłuż odkłucia południowotybetańskiego na Wysokie Himalaje nasunięte są Himalaje Tetydzkie. Zbudowane są one ze skał o miąższości ok. 12 000 m wieku kambr – eocen, osadzonych na pasywnej krawędzi oceanu. Zawierają również ofiolity (zob. Ofiolity i obdukcja ) reprezentujące fragmenty skorupy oceanicznej. Wysokie Himalaje i Himalaje Tetydzkie zawierają intruzje kenozoicznych, młodszych niż 50 mln lat granitów (zob. Skały skrajnie kwaśne i kwaśne ), [12]. Najwyższe szczyty górotworu znajdują się w Wysokich i Tetydzkich Himalajach ( Rys. 4 ).", "Nasunięcia w Himalajach skierowane są w jedną stronę, na południe i w związku z tym Himalaje są orogenem niesymetrycznym. Jeżeli nasunięcia są skierowane w dwie przeciwne strony to mamy do czynienia orogenem symetrycznym. Podział ten stosowany jest zarówno do orogenów kolizyjnych, jak i bezkolizyjnych. Przykładem orogenu symetrycznego są Andy (zob. Orogeny bezkolizyjne ). Karpaty Zachodnie są również orogenem kolizyjnym, powstały w wyniku kolizji płyty ALCAPA z Płytą Europejską [13], [14]. ALCAPA (skrót od Alps-Carpathians-Pannonian; Alpy, Karpaty, Pannonia) była mikropłytą znacznie mniejszą od Indii, w związku z czym kolizja nie miała charakteru kontynentalnego. Pogrubienie skorupy jest mniejsze, a Karpaty są znacznie niższe od Himalajów. Można tu wyróżnić internidy, reprezentowane przez zdeformowaną płytę ALCAPA i eksternidy, reprezentowane przez skały osadzone w basenach usytuowanych pomiędzy płytami przed ich kolizją ( Rys. 5 ). Podział na internidy i eksternidy można zaobserwować w wielu orogenach kolizyjnych, nie da go się natomiast zastosować w Himalajach."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Orogeneza i epejrogeneza", "subject_id": 1379, "subject": "Mechanizm kolizji", "paragraphs": ["Kolizja i jej fazy są częścią geotektonicznego cyklu, zwanego cyklem Wilsona[1], [2]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Orogeneza i epejrogeneza", "subject_id": 1380, "subject": "Ofiolity i obdukcja", "paragraphs": ["Na sekwencję ofiolitową składają się następujące człony:", "Wiele z sekwencji ofiolitowych pochodzi ze stref grzbietów śródoceanicznych. Niektóre ofiolity zawierają pełną sekwencję wymienioną powyżej, inne jedynie niektóre jej elementy. Ultrazasadowe skały ofiolitów (zob. Skały zasadowe, ultrazasadowe i ultramaficzne ) są często przeobrażone w serpentynit ( Rys. 3 B). Zmieniają wówczas barwę z czarnej, czy ciemnoszarej na zieloną. Mogą również zostać zmienione w amfibolity (zob. ).", "Proces umieszczenia ofiolitu na kontynencie nazywa się obdukcją[12]. Istnieje wiele modeli obdukcji. W zasadzie można je umieścić w dwóch grupach:", "W przypadku obdukcji związanej orogenezą kolizyjną mamy do czynienia ze zgniataniem litosfery oceanicznej w trakcie kolizji dwóch kontynentów. Obdukcja tego rodzaju przyczyniła się do powstania ofiolitów alpejskich.", "Ofiolit sudecki przypuszczalnie jest efektem kolizji kontynentalnej [13]. Rys. 4 przedstawia obdukcję tego ofiolitu. Litosfera oceaniczna powstała na początku dewonu (wiek ofiolitu to 400 mln lat) w basenie załukowym, zwanym Oceanem Renohercyńskim, pomiędzy kontynentem Laurosji, a teranem Gór Sowich. Teran ten był oddzielony Oceanem Rei od elementów tektonicznych związanych z kontynentem Gondwany, takich jak Saksoturungia. Późnopaleozoiczna orogeneza waryscyjska zamknęła kolejno Ocean Rei i Ocean Renohercyński. Fragmenty litosfery Oceanu Renohercyńskiego zostały nasunięte na teran Gór Sowich tworząc ofiolit sudecki. Ofiolit ten zawiera elementy górnego płaszcza w postaci kumulatów perydotytowych (zob. Skały zasadowe, ultrazasadowe i ultramaficzne ), jak i skorupy oceanicznej w postaci gabr i bazaltów (zob. Skały obojętne ), [11].", "W orogenezie bezkolizyjnej mogą występować ofiolity będące częścią pryzmy akrecyjnej, jak w przypadku ofiolitów Cypru, lub z obdukcją grzbietu śródoceanicznego na kontynent, jak w przypadku ofiolitu Omanu."], "definitions": [{"name": " Definicja 1: Ofiolit ", "content": " to sekwencja skalna reprezentująca część litosfery oceanicznej, podniesiona i\numieszczona na kontynencie ( Rys. 1 ), [1], [2], [3], [4], [5], [6], [7], [8].\nOfiolit – dosłownie z greckiego „kamień wężowy”."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Orogeneza i epejrogeneza", "subject_id": 1381, "subject": "Ruchy epejrogeniczne i ich przyczyny", "paragraphs": ["Pionowe ruchy litosfery Ziemi mają miejsce na wielu jej obszarach [1], [2], [3], [4], [5]. W zasadzie ruchom tym nie towarzyszy zmiana struktury geologicznej, to znaczy intensywne fałdowanie i deformacja, aczkolwiek występują one również na obszarach uprzednio sfałdowanych i zdeformowanych. Ruchy pionowe nazywane są ruchami epejrogenicznymi, w odróżnieniu od ruchów orogenicznych, chociaż podział ten, z punktu widzenia teorii tektoniki płyt wydaje się przestarzały, gdyż zachodzą one również w aktywnych orogenach. Niektóre z tych ruchów możemy śledzić i mierzyć współcześnie, inne widoczne są w zapisie geologicznym. Przykładem ruchów wznoszących są Himalaje, Góry Skaliste i Skandynawia. Przykładem ruchów obniżających Holandia, rejon Gdańska, czy wyspy na Pacyfiku.", "Ruchy epejrogeniczne czyli pionowe ruchy litosfery wywołane są przez:", "Oba rodzaje kompensacji mogą współistnieć i wzajemnie się uzupełniać.", "Litosfera zachowuje się jak ciało stałe, zaś astenosfera jak ciecz, czyli litosfera „unosi się” na astenosferze (zob. Geosfery ). Zgodnie z prawem Archimedesa ciało zanurzone w cieczy jest unoszone z siłą równą ciężarowi wypartej cieczy. Natura zawsze dąży do równowagi, w związku z tym w przypadku zaburzenia równowagi następują pionowe ruchy izostatyczne litosfery. Poszczególne fragmenty litosfery mają różną grubość, jak również różną gęstość. Według Airy’ego litosfera zbudowana jest z bloków o różnej grubości, ale zbliżonej gęstości. Bloki o większej grubości są głębiej zanurzone w astenosferze, mając jednocześnie większą wysokość nad poziomem morza. Według Pratta bloki mają różną gęstość, a bloki o mniejszej gęstości są wyższe ( Rys. 1 ).", "Obie teorie mają swoje uzasadnienie. Litosfera oceaniczna ma większą gęstość niż litosfera kontynentalna i dlatego dno oceanów znajduje się znacznie niżej niż powierzchnia kontynentów, co potwierdza teorię Pratta. Natomiast w obrębie kontynentów gęstość odgrywa mniejszą rolę, a wysokie góry są tam, gdzie litosfera kontynentalna jest grubsza, na przykład w Himalajach, co potwierdza teorię Airy’ego.", "Czynniki obciążeniowe i odciążeniowe związane są ze zmianami klimatycznymi, zwłaszcza z pojawieniem się lub zanikiem pokryw lądolodów. Rys. 3 pokazuje schematycznie kolejność ruchów pionowych związanych z działalnością lądolodu. Pojawienie się czapy lodowej wywiera nacisk na litosferę kontynentalną (B), która ugina się pod jego ciężarem (C). Z kolei po ustąpieniu zlodowacenia litosfera kontynentalna podnosi się do góry (D) i wraca do stanu równowagi (A, E).", "Obniżanie litosfery kontynentalnej może być związane z obciążeniem osadami wypełniającymi aulakogen (zob. Geneza ryftu ). Obniżanie takie ma miejsce na Morzu Północnym i w przyległym obszarze Holandii. Obniżanie spowodowane obciążeniem osadami może mieć miejsce na pasywnych krawędziach kontynentów, jak również w aktywnych basenach sedymentacyjnych, takich jak Morze Kaspijskie.", "Kompensacja termiczna (zob. Ciepło Ziemi ) obejmuje zarówno ruchy pionowe podnoszące, jak i obniżające na kontynentach i na oceanach. Na kontynentach mamy głównie do czynienia z podnoszeniem termicznym, związanym z obniżeniem gęstości ciał pod wpływem wzrostu ich temperatury. Podnoszenie to często prowadzi do powstania ryftów (zob. Granice dywergentne ). Podnoszenie związane z ogniskami magmowymi nad strefami subdukcji występuje w orogenach bezkolizyjnych, takich jak Andy czy Góry Skaliste (zob. Orogeny bezkolizyjne ). Podnoszenie termiczne może być również związane z pióropuszami płaszcza i plamkami gorąca (zob. Pióropusze płaszcza i plamy gorąca ). Przykładem takiego podnoszenia są ramiona wielkiego ryftu afrykańskiego, Masyw Tibesti w Afryce czy też Masyw Czeski (Sudety) w Europie Środkowej. Podnoszenie termiczne w ocenach prowadzi między innymi do wypiętrzenia grzbietów śródoceanicznych (zob. Architektura i procesy strefy rozrostu oceanicznego ), czy też powstania wysp wulkanicznych nad plamkami gorąca. Obniżanie termiczne w oceanach związane jest ze zwiększeniem gęstości stygnącej litosfery oceanicznej."], "definitions": [{"name": "Definicja 1: Izostazja", "content": "zwana, równowagą izostatyczną to stan równowagi grawitacyjnej między litosferą a astenosferą, termin wprowadzony w 1882 roku przez amerykańskiego geologa Clarence'a Duttona."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Orogeneza i epejrogeneza", "subject_id": 1382, "subject": "Procesy związane z epejrogenezą", "paragraphs": ["Ruchy pionowe (zob. Ruchy epejrogeniczne i ich przyczyny ) powodują zmiany stosunku powierzchni morza do kontynentu, co skutkuje zmianami w położeniu linii brzegowej [1], [2], [3], [4], [5], [6]. Wkraczanie morza na ląd nazywa się transgresją morską, używa się również terminu onlap; wycofywanie się morza nazywa się regresją morską, używa się również terminu offlap [7].", "Transgresje i regresje występują lokalnie i powodowane są przez ruchy pionowe litosfery na ograniczonym obszarze. Mogą mieć zasięg znacznie większy, wówczas związane są ze zjawiskiem globalnego podnoszenia się poziomu oceanów na Ziemi. Podnoszenie się poziomu oceanu jest wynikiem zmian klimatycznych, np. uwolnienia wody zgromadzonej w lądolodach lub zmian tektonicznych, np. zmiany konfiguracji oceanów. Przykładowo, w kredzie, ok. 145 do 66 mln lat temu utworzył się stosunkowo płytki basen Oceanu Atlantyckiego, a zmniejszył głębszy basen Protopacyfiku. Zmniejszenie pojemności światowych basenów oceanicznych spowodowało wzrost poziomu mórz na całym świecie. W wyniku wielkiej transgresji morze pokrywało między innymi znaczną część Europy, w tym Polski pozakarpackiej ( Rys. 1 ), [8].", "Rys. 2 ilustruje przesuwanie się facji osadowych podczas transgresji. Podczas wkraczania morza na ląd zwiększają swój zasięg osady klastyczne stref płytkich i pokrywają nowo zalewane obszary. Równocześnie następuje migracja w kierunku lądu facji głębszych mułowych, a za nimi węglanowych, które deponowane są bezpośrednio na facjach płytszych. W wyniku tego procesu po lityfikacji powstaje profil transgresywny, który składa się z sekwencji skał (od dołu):", "Podczas regresji( Rys. 3 ) sekwencja skał profilu jest odwrotna i na osadach głębiej deponowanych będą zalegać utwory powstałe w płytszych środowiskach wg schematu (od dołu):", "O występowaniu transgresji, jak i regresji świadczą również niezgodności. W zależności od wykształcenia, wyróżniane jest kilka typów niezgodności. Są to:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Trzęsienia Ziemi", "subject_id": 1338, "subject": "Trzęsienia ziemi - definicje podstawowe", "paragraphs": ["Trzęsieniami i zjawiskami związanymi z wstrząsami w litosferze (zob. Geosfery ) zajmuje się sejsmologia [1], gałąź nauk o Ziemi.", "Pojęcie makrosejsmiczności jest używane w Unii Europejskiej przy określaniu skali odczuwalności i zniszczeń powodowanych przez trzęsienie ziemi. Dwunastostopniowa skala, zwana Europejską Skalą Makrosejsmiczną EMS-98, jest oparta na wcześniej używanych skalach makrosejsmicznych, poczynając od skali Mercallego, przez skalę Miedwiediewa-Sponheuera-Karnika (MSK)[5]. Nie znaleziono skrótu dla otoczenia (1) przedstawia charakterystykę odczuwalności i efektów dla każdego z dwunastu stopni skali.", "Biurokracja Unii Europejskiej stosuje bardziej dokładną, prawie stustronicową instrukcję opisującą stopnie zniszczenia i wszelkie aspekty z tym związane [6].", "Używana jest również skala, mierząca za pomocą przyrządów intensywność procesów sejsmicznych. Wielkość, czyli tzw. magnituda trzęsienia ziemi, jest miarą intensywności procesów w samym epicentrum. Nazywana jest ona potocznie skalą Richtera od nazwiska Charlsa F. Richtera, który użył ją po raz pierwszy w 1935 roku dla mierzenia intensywności trzęsień w Kalifornii. Była ona potem wielokrotnie modyfikowana, stad mamy do czynienia z różnymi skalami magnitudy. Łączy je klasyfikacja na podstawie logarytmu dziesiętnego maksymalnej amplitudy fal sejsmicznych (zob. Fale sejsmiczne ). I tak, trzęsienie o magnitudzie 6 jest 10 razy silniejsze niż trzęsienie o magnitudzie 5. Skala ta nie ma górnej granicy, choć potocznie przyjmuje się wartość10 za graniczną, wzorując się na obserwacjach najsilniejszych zarejestrowanych współcześnie trzęsień, których magnitudy nie przekraczały wielkości 9,6.", "Przelicznie wartości skali EMS na skalę magnitud (za Michigan Technological University [7]) zawiera Nie znaleziono skrótu dla otoczenia (2) ."], "definitions": [{"name": " Definicja 1: Trzęsienie ziemi ", "content": " jest to drżenie powierzchni ziemi w wyniku nagłego uwolnienia\nnaprężenia w litosferze. Najczęściej mamy do czynienia z trzęsieniami spowodowanymi zjawiskami naturalnymi\ntektonicznymi [2], [3], [4]."}, {"name": " Definicja 2: Hipocentrum i epicentrum ", "content": " Hipocentrum jest to miejsce, gdzie następuje nagłe\nuwolnienie naprężenia w litosferze ( Rys. 1 ), w odniesieniu do tego miejsca używa się też nazwy ognisko\ntrzęsienia ziemi.\nEpicentrum jest to punkt na powierzchni Ziemi, znajdujący się bezpośrednio nad hipocentrum ( Rys. 1 ).\nUwolniona energia przemieszcza się falami przez skałę, powodując wstrząsy, które odczuwamy podczas\ntrzęsienia ziemi. Fale (zob. Fale sejsmiczne ) wywołane przez trzęsienie ziemi najszybciej dochodzą na\npowierzchnię w epicentrum. Wstrząsy są tu najsilniej odczuwalne."}, {"name": " Definicja 3: Obszary sejsmiczne ", "content": " Obszar epicentralny jest to obszar wokół epicentrum, gdzie\nwstrząsy są bardzo silne ( Rys. 2 ).\n \n \nObszar makrosejsmiczny jest to obszar związany z silnym trzęsieniem ziemi, gdzie wstrząsy dają się odczuć\nbez pomocy przyrządów ( Rys. 2 ).\nObszar mikrosejsmiczny jest to obszar, gdzie wstrząsy nie są odczuwalne przez człowieka, natomiast są\nodnotowywane przy użyciu pomocy przyrządów ( Rys. 2 )."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Trzęsienia Ziemi", "subject_id": 1339, "subject": "Geneza trzęsień ziemi", "paragraphs": ["Trzęsienia ziemi (zob. Trzęsienia ziemi - definicje podstawowe ) dzielone są na:", "Ze względu na genezę, w obrębie naturalnych trzęsień ziemi wyróżnia się [2], [3]:", "Trzęsienia tektoniczne są najważniejsze z punktu widzenia częstości występowania, magnitudy (zob. Trzęsienia ziemi - definicje podstawowe ), jak również zagrożenia jakie stanowią. 90 \\( \\% \\) trzęsień ziemi należy do tej kategorii. Są one spowodowane raptownym uwolnieniem energii poprzez sprężyste odprężenie [2], [3], [4]. Naprężenie w masach skalnych narasta aż do momentu, gdy przekracza wytrzymałość skał i powoduje nagłe pęknięcie w skorupie Ziemi. Przesunięcie mas skalnych wzdłuż tego pęknięcia nazywane jest uskokiem ( Rys. 1 ).", "W zależności od kierunku tego przesuwania wyróżniamy ( Rys. 2 ):", "Na mapach często przedstawia się uskoki związane z trzęsieniami ziemi w postaci graficznych symboli [4], tzw. „piłek plażowych” ( Rys. 3 ).", "Przesunięcia mas skalnych mogą być związane z nowo utworzonym uskokiem lub też z uskokiem już istniejącym, w którym występuje zjawisko narastania naprężenia spowodowanego oporem tarcia na płaszczyźnie uskoku, a następnie gwałtownego uwolnienia. Można to porównać z przesuwaniem mebli, na przykład ciężkiego kredensu wypełnionego szkłem i porcelaną. Jeżeli mamy do czynienia z siłą oporu tarcia większą niż siła, którą przykładamy, kredens jest nieruchomy. Jeżeli zwiększamy przyłożoną siłę poprzez poproszenie o pomoc sąsiadów, w pewnym momencie kredens dość gwałtownie zacznie się przesuwać. Ruchowi towarzyszyć będzie drżenie i brzęczenie szkła i porcelany. Podobne drżenie występuje w przypadku uskoku. Jeżeli opór tarcia jest znaczny, naprężenia rosną, aż do ich nagłego uwolnienia. Taki uskok nazywamy uskokiem zakleszczonym. Wielkie trzęsienia ziemi mogą być związane z uskokami zakleszczonymi. Jeżeli opór tarcia jest stosunkowo niewielki masy skalne przesuwają się w sposób ciągły, a trzęsienia ziemi nie występują, albo są niewielkie. Takie uskoki nazywamy pełzającymi [5]. Wulkaniczne trzęsienia ziemi są związane z aktywnością wulkaniczną, najczęściej z gwałtownymi eksplozywnymi erupcjami (zob. Przebieg i mechanizmy erupcji ) lub naprężeniami wywołanymi przemieszczaniem się stopu wewnątrz Ziemi. Istotne znaczenie ma gromadzenie się gazu pod ciśnieniem. Pomiary aktywności sejsmicznej uśpionych wulkanów ma znaczenie dla przewidywania erupcji. Erupcje są często związane z przesuwaniem mas skalnych i towarzyszących im odprężeń sprężystych. Około 7 \\( \\% \\) trzęsień ziemi związanych jest ze zjawiskami wulkanicznymi. Zapadowe (zapadliskowe, kolapsyjne, kolapsacyjne) trzęsienia, stanowiące około 2 \\( \\% \\) trzęsień, wywołane są zawalaniem stropów jaskiń i występują lokalnie, na obszarach krasowych. Do innych należą trzęsienia ziemi impaktowe, czyli wywołane przez uderzenia meteorytów o powierzchnię Ziemi, zwłaszcza skorupy kontynentalnej [6], [7]. Trzęsienia te występują rzadko, natomiast mogą być bardzo silne i spowodować ogromne zniszczenia. Uderzenia meteorytów pozostawiały po sobie kratery, świadczące o sile uderzenia ( Rys. 4 ).", "Do antropogenicznych trzęsień ziemi należą tąpnięcia, spowodowane zawalaniem stropów wyrobisk górniczych [8], wstrząsy wywołane podziemnymi eksplozjami nuklearnymi, a także napełnianiem dużych zbiorników wodnych [4]. Badania naruszenia równowagi w skałach spowodowanych napełnianiem Jeziora Czorsztyńskiego w Pieninach ( Rys. 5 ) były przedmiotem badań sejsmologicznych [9]. Odnotowano szereg wstrząsów, z których najsilniejszy w rejonie Frydmana osiągnął magnitudę 3,1 ( Rys. 6 )."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Trzęsienia Ziemi", "subject_id": 1340, "subject": "Fale sejsmiczne", "paragraphs": ["Fale sejsmiczne są to sprężyste fale przenoszące energię uwolnioną w hipocentrum (zob. Trzęsienia ziemi - definicje podstawowe ), [1], [2], [3], [4].", "Rozróżniamy następujące rodzaje fal sejsmicznych:", "Fale przestrzenne rozchodzące się wewnątrz ziemi, które dzielą się na:", "Fale powierzchniowe rozchodzące się na powierzchni Ziemi, w których wyróżnia się:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Trzęsienia Ziemi", "subject_id": 1391, "subject": "Pomiar fal sejsmicznych", "paragraphs": ["Pola fal sejsmicznych (zob. Fale sejsmiczne ) są rejestrowane przez sejsmometry( Rys. 1 ), geofony( Rys. 2 ) lub hydrofony( Rys. 3 ), [1], [2], [3], [4].", "Sejsmometry są przyrządami pracującymi na zasadzie wahadła fizycznego. Środek masy tego wahadła, który ma dostatecznie długi okres drgań własnych i zachowuje się jak punkt względnie stały, jest przymocowany na nici do ramy związanej sztywno z podstawą. Podstawa porusza się w czasie drgania gruntu.", "Na Rys. 2 pokazane jest przesunięcie podstawy w lewo podczas trzęsienia ziemi. Środek masy wahadła jest przesunięty w prawo względem podstawy. W rzeczywistości jest on nieruchomy. W sejsmometrach analogowych do podstawy przymocowany jest bęben z nawiniętym papierem. Do wahadła przymocowany jest rysik, który rejestruje na bębnie przesunięcia podstawy. We współczesnych sejsmometrach lub geofonach( Rys. 2 ) środek masy wahadła z uzwojeniem elektrycznym zmienia położenie względem stałego magnesu. Rejestrowane są impulsy elektryczne, wzmacniane i przetwarzane następnie w komputerze.", "Hydrofony mierzą fale dźwiękowe rozchodzące się w wodzie, a wywołane przez wstrząsy na dnie morza lub innego zbiornika wodnego ( Rys. 3 ). Membrana drga pod wpływem fal dźwiękowych. Drgania te rejestrowane są przez system elektromagnetyczny, wzmacniane i przetwarzane następnie w komputerze.", "Rezultatem pracy sejsmometru jest sejsmogram( Rys. 4 ).", "Na Rys. 4 przedstawiony jest sejsmogram będący rezultatem pracy sejsmometru znajdującego się w sporej odległości od epicentrum (zob. Trzęsienia ziemi - definicje podstawowe ). Różne rodzaje fal o różnych prędkościach docierają do obserwatoriów sejsmicznych w różnym czasie. Ilustruje to wykres zwany hodografem( Rys. 5 ), przedstawiający prędkości fal sejsmicznych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Trzęsienia Ziemi", "subject_id": 1386, "subject": "Związek trzęsień ziemi z tektoniką płyt", "paragraphs": ["Trzęsienia ziemi związane z granicami konwergentnymi", "Najliczniejsze i najsilniejsze trzęsienia ziemi występują na granicach konwergentnych (zob. Typy granic konwergentnych ), związanych z subdukcją [1], [2].", "Występuje tu interakcja dwóch płyt litosfery (zob. Architektura strefy subdukcji ). Dolna płyta zanurza się pod płytą górną ( Rys. 1 ). Naprężenia wywołujące trzęsienia ziemi mogą występować na płaszczyźnie poślizgu pomiędzy płytami, jak również wewnątrz płyty dolnej i górnej. Płaszczyzna poślizgu ma geometryczny charakter uskoku odwróconego i jest przedstawiana w postaci graficznego symbolu, tzw. \"piłki plażowej\" dla takiego uskoku [3], [4]. Naprężenia zginające i rozciągające mogą powodować pęknięcia wewnątrz płyty dolnej i górnej. Pęknięcia te mogą mieć charakter zarówno uskoków normalnych jak i odwróconych. Trzęsienia ziemi związane z subdukcją wyznaczają strefę Benioffa [5].", "Trzęsienia ziemi o magnitudzie ponad 8 mogą występować w strefach kolizji płyt kontynentalnych, na przykład w Himalajach. Himalaje powstały w wyniku kolizji płyty indyjskiej i płyty eurazjatyckiej [6], [7]. Poszczególne jednostki tektoniczne nasuwają się na siebie, jak również na płytę indyjską (zob. Orogeny kolizyjne ). Naprężenia mogące skutkować trzęsieniami ziemi powstają na płaszczyznach nasunięć ( Rys. 2 ).", "Trzęsienia ziemi związane z granicami dywergentnymi", "Granice dywergentne, czyli rozbieżne to te, na których płyty litosfery oddalają się od siebie. Powszechnie występują na grzbietach śródoceanicznych (zob. Architektura i procesy strefy rozrostu oceanicznego ). Centralną częścią takiego grzbietu jest dolina ryftowa. Trzęsienia ziemi są tu zlokalizowane na powierzchniach normalnych uskoków ( Rys. 3 ).", "Normalne uskoki i doliny ryftowe w obrębie litosfery kontynentalnej są również miejscem trzęsień ziemi o względnie płytkim hipocentrum (zob. Trzęsienia ziemi - definicje podstawowe ).", "Trzęsienia ziemi na powierzchniach normalnych uskoków w ryfcie kontynentalnym (zob. Geneza ryftu ) są przedstawione na Rys. 4 .", "Trzęsienia ziemi związane z granicami transformacyjnymi", "Trzęsienia ziemi o płytkim ognisku występują wzdłuż granicy transformującej ( Rys. 5 ), (zob. Granice transformujące ), gdzie dwie płyty przesuwają się względem siebie [8], [9], [10]. Naprężenia są spowodowane siłą oporu tarcia. Gdy siła ta jest przezwyciężona, płyty raptownie się poruszają [11], [12], [3], [4]. Towarzyszą temu często silne wstrząsy, jak na przykład trzęsienie ziemi o magnitudzie 7,9 w San Francisco w 1906 roku."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Trzęsienia Ziemi", "subject_id": 1341, "subject": "Rozmieszczenie trzęsień ziemi", "paragraphs": ["Ogniska trzęsień ziemi występują na różnych głębokościach. Rozlokowane są pomiędzy powierzchnią Ziemi, a głębokością około 700 km. W zależności od głębokości dzielimy trzęsienia ziemi na:", "Rozmieszczenie trzęsień ziemi pokrywa się z obszarami aktywności tektonicznej Ziemi. Na granicach konwergentnych zarejestrowano około 90 \\( \\% \\) wszystkich trzęsień ziemi, w tym wszystkie trzęsienia (zob. Trzęsienia ziemi - definicje podstawowe ) o magnitudzie ponad 9 zanotowane w XX i XXI wieku ( Rys. 1 ). Większość tych trzęsień ziemi rozmieszczonych jest wokół Pacyfiku, w strefie zwanej pacyficznym pierścieniem ognia (zob. Związek trzęsień ziemi z tektoniką płyt ), [5].", "Rys. 2 przedstawia najsilniejsze trzęsienia ziemi w latach 2019-2021.", "Na podstawie tego typu map sporządzono mapę obszarów zagrożenia sejsmicznego ( Rys. 3 ). Zagrożenie sejsmiczne (używa się również określenia hazard sejsmiczny) jest to prawdopodobieństwo wystąpienia na rozpatrywanym obszarze trzęsień ziemi o magnitudzie, która spowoduje szkodliwe skutki, takie jak ofiary w ludziach, zniszczenia budynków i infrastruktury. Przedział czasowy takiego zagrożenia jest dłuższy, niż w przypadku przewidywania zagrożenia krótkoterminowego (predykcji, zob. Przewidywanie i zapobieganie trzęsieniom ziemi ), a więc liczony w latach. Mapy zagrożenia są używane do odpowiedniego planowania przestrzennego, ustalania norm i przepisów budowlanych, a także stawek ubezpieczeniowych.", "Na Rys. 3 obszary o wysokim stopniu zagrożenia oznaczono intensywnym kolorem czerwonym, zaś obszary niezagrożone kolorem bladoróżowym przechodzącym w biały. Pomiędzy tymi obszarami znajdują się tereny pośrednie, oznaczone różnymi odcieniami czerwieni. Odpowiada to podziałowi na:", "Grzbiety śródoceaniczne obfitują w trzęsienia ziemi (zob. Związek trzęsień ziemi z tektoniką płyt ), ale ich skutki dla ludzi są mniejsze. Większa część oceanów jest sejsmicznie spokojna [6]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Trzęsienia Ziemi", "subject_id": 1385, "subject": "Skutki trzęsień ziemi", "paragraphs": ["Bezpośrednie skutki trzęsień ziemi ( Rys. 1 ) dotykające ludzi to [1], [2], [3], [4]:", "Skutki wtórne dotykające ludzi to:", "Trzęsienia ziemi również powodują zmiany geomorfologiczne i zmiany w zbiornikach wodnych; zmiany te obejmują:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Trzęsienia Ziemi", "subject_id": 1342, "subject": "Przewidywanie i zapobieganie trzęsieniom ziemi", "paragraphs": ["Sejsmolodzy od lat usiłują wypracować metody pozwalające na przewidywanie:", "Takie przewidywanie [1], [2], [3], [4] nazywane jest krótkoterminowym albo predykcją [5]. Przykładowe przewidywanie krótkoterminowe to stwierdzenie, że za trzy dni w Krakowie nastąpi trzęsienie ziemi o magnitudzie 7 (zob. Trzęsienia ziemi - definicje podstawowe ). Możliwa jest wtedy ewakuacja ludności z zagrożonego obszaru. Dotychczas podawany jest jeden przykład pomyślnego przewidywania krótkoterminowego, które dotyczyło trzęsienia ziemi w Haicheng w Chinach z 1975 roku. Wówczas na dzień przed trzęsieniem ziemi o magnitudzie 7,3 wydano ostrzeżenie i zorganizowano ewakuację. Obserwacje zmiany wysokości terenu i poziomu wód gruntowych, powszechne doniesienia o osobliwych zachowaniach zwierząt i wiele wstrząsów poprzedzających doprowadziły do tych decyzji. Wspomniane zjawiska i wydarzenia nazywamy prekursorami. Niestety większość trzęsień ziemi nie ma tak oczywistych prekursorów. Pomimo chińskiego sukcesu w 1975 roku, nie było ostrzeżenia o trzęsieniu ziemi o sile 7,6 w Tangshan w 1976 roku, które spowodowało około 250 000 ofiar śmiertelnych. Do prekursorów należą:", "Luka sejsmiczna to aktywna część uskoku (zob. Geneza trzęsień ziemi ), w której nie było w dłuższym okresie czasu trzęsień ziemi [5]. Może to być uskok zakleszczony, w którym narastają naprężenia. Trzęsienie ziemi Loma Prieta w Kalifornii w 1989 roku jest przykładem wydarzenia związanego z luką sejsmiczną. Zmiana poziomu wody wiąże się z powstaniem szczelin, do których woda ucieka. W wodach podziemnych dokonuje się pomiaru emisji radonu ( Rys. 1A), [6]. Do badań geofizycznych związanych z prekursorami należą badania pomiary metodami elektromagnetycznymi i elektrycznymi [7], pomiary zmian prędkości fal sejsmicznych [8] i pomiary grawimetryczne [9]. System ATROPATENA ( Rys. 1B), przeznaczony do monitorowania zmian grawitacji, został w ostatnich latach zainstalowany w szeregu krajów dotkniętych trzęsieniami ziemi, zwłaszcza w Azji.", "Jak dotąd prekursory nie okazały się wystarczająco użyteczne dla predykcji trzęsień ziemi. Na dzisiejszym etapie wiedzy nie jest możliwe dokładne krótkoterminowe ich przewidywanie [5]. Przewidywanie długoterminowe natomiast mówi nam o tym, czy na danym obszarze trzęsienie ziemi pojawi się okresie dłuższym, kilku, a nawet kilkudziesięciu lat. Opiera się ono na analizie poprzednich wydarzeń sejsmicznych w badanym rejonie, jak również na analizie budowy geologicznej w szczególności bliskości do granic płyt. Jeżeli dany obszar zostaje uznany za sejsmiczny podejmuje się odpowiednie środki zaradcze, w szczególności odpowiednie budownictwo. Niewłaściwe budownictwo powoduje znacznie większe straty w ludziach, jak to miało miejsce w przypadku trzęsienia ziemi w Armenii w 1888 roku [10], czy też Skopje w 1963 roku [11]. Budynki odporne na trzęsienia konstruowane są z betonu uzbrojonego stalowymi prętami, co nadaje im odpowiednią elastyczność. Ważne jest odpowiednie posadowienie amortyzujące wstrząsy [12]. System ostrzegania o trzęsieniu ziemi (lub system wczesnego ostrzegania) to zespół akcelerometrów, sejsmometrów, środków, komunikacji, komputerów i alarmów, który został opracowany w celu powiadamiania sąsiednich regionów o silnym trzęsieniu ziemi w trakcie jego trwania. To nie to samo, co przewidywanie trzęsień ziemi, które obecnie nie jest w stanie wygenerować decydujących ostrzeżeń o zdarzeniach. Szczególnie ważnym jest odpowiednie informowanie o nadchodzącej fali tsunami ( Rys. 2 ).", "Na Pacyfiku został wdrożony odpowiedni system ostrzegania o tsunami zwany DART (ang. Deep-ocean Assessment and Reporting of Tsunamis) ( Rys. 3 ), w skład którego wchodzą boje, czujniki na dnie oceanu (tsunamometry), satelity odbierające dane i ośrodek na Hawajach analizujący dane i ostrzegający rejony zagrożone [13]. System ten umożliwia ostrzeganie rejonów zagrożonych niejednokrotnie na godziny przed nadejściem fali. Niestety zabrakło go w czasie trzęsienia ziemi w Indonezji w 2004 roku."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Trzęsienia Ziemi", "subject_id": 1343, "subject": "Trzęsienia ziemi w zapisie geologicznym", "paragraphs": ["Badanie zjawisk związanych z trzęsieniami ziemi w przeszłości jest ważne z punktu widzenia przewidywania przyszłych trzęsień w prognozach długoterminowych (zob. Przewidywanie i zapobieganie trzęsieniom ziemi ). Badania te zajmują się:", "Z praktycznego punktu widzenia związanego z prognozowaniem najważniejsze jest badanie zjawisk w nieodległej przeszłości, a więc w holocenie, a w szczególności w przeszłości historycznej. Wielkie trzęsienia ziemi, takie jak San Francisco w 1906 roku, czy u wybrzeży Kanady (Great Banks) w 1929 roku, pozostawiły po sobie wyraźny ślad w morfologii, tektonice, a także w osadach. Ślad ten jest wynikiem samych wstrząsów, jak również zjawisk towarzyszących, takich jak tsunami. Trzęsienie ziemi w San Francisco było spowodowane aktywnością wielkiego uskoku San Andreas (zob. Geneza trzęsień ziemi ). W wyniku tej aktywności nastąpiło przemieszczenie poziome wzdłuż uskoku, zaobserwowane między innymi w przesunięciu płotów zlokalizowanych w poprzek uskoku. Przesunięcia poziome starsze, z okresu kiedy nie było jeszcze konstrukcji zbudowanych przez ludzi, odnotowywane są w zmianach cieków wodnych. W przypadku strumienia Wallace'a Creeka ( Rys. 1 ) rozcięte aluwia strumienia zostały wydatowane metodą radiowęglową na około 3700 lat. Metoda ta jest dość dokładna dla holocenu, okresu obejmującego ostatnie 12000 lat. 3700 lat temu nastąpiło uaktywnienie uskoku San Andreas. Od tego czasu strumień Wallace Creek został przesunięty około 130 m. Przesunięcie to jest wynikiem szeregu trzęsień ziemi, między innymi w roku 1857 i 1906 [1], [2].", "Uskok San Andreas jest uskokiem prawoskrętnym (zob. Granice transformujące ) to znaczy, że płyta pacyficzna przesuwa się na północny zachód, a płyta północnoamerykańska na południowy wschód. Podobne przesunięcia odnotowano między innymi wzdłuż uskoku anatolijskiego w Turcji, czy uskoku Kunlun w Tybecie [3].", "W 1929 roku wielkie trzęsieni ziemi u wybrzeży Kanady, na południe od Nowej Fundlandii, o magnitudzie około 7,2 (zob. Trzęsienia ziemi - definicje podstawowe ) spowodowało przemieszczenie ponad 100 \\( km^3 \\) osadów. Osuwiska podmorskie i prądy zawiesinowe (turbidyty) przemieściły osady na odległość do 25 km od wybrzeży Atlantyku, uszkadzając położone na dnie oceanu kable telekomunikacyjne [4]. Przemieszczenie osadów było prawdopodobnie spowodowane przez zjawisko wtórne, jakim było tsunami (zob. Skutki trzęsień ziemi ). Fala tsunami ma znaczącą siłę nośną i może redeponować materiał pochodzący z erozji na stoku kontynentalnym i na dnie głębokiego basenu ( Rys. 2 ). Można wyróżnić następujące etapy charakteryzujące działalność tej fali [5], [6]:", "Osuwiska podmorskie i tsunami towarzyszyły również wielkiemu trzęsieniu ziemi na Alasce w 1964 roku [7]. Badania trzęsień ziemi w regionie Cascadia między południową Kolumbią Brytyjską, a północną Kalifornią, stwierdziły częstotliwość wielkich trzęsień co 300 do 500 lat. 19 lub 20 gigantycznych trzęsień ziemi o sile 9 miało miejsce w ciągu ostatnich 10 000 lat [8]. Wydarzenia te związane były z aktywnością strefy subdukcji, w której płyta Juan de Fuca zanurza się pod płytę północnoamerykańską. Aktywność tej strefy dokumentują podmorskie osuwiska i turbidyty. Osuwiska mogły być wywołane bezpośrednio przez trzęsienia ziemi ( Rys. 3 ), zaś turbidyty przez fale tsunami.", "Zgodnie z zasadą aktualizmu geologicznego, porównanie zapisu tych wydarzeń z zapisem wydarzeń w przeszłości geologicznej może prowadzić do wniosku, że większość utworów w kopalnych strefach konwergentnych jest związanych z trzęsieniami ziemi. W Karpatach Zewnętrznych przykładem utworów związanych z trzęsieniami ziemi są olistostromy ( Rys. 4 ), [9], [10], zaś utworów związanych z falami tsunami - sekwencje turbidytowe we fliszu karpackim.", "Zjawiskami związanymi z trzęsieniami ziemi w przeszłości zajmuje się paleosejsmologia, gałąź nauk o Ziemi [11], [12]. Wprowadzone zostały terminy sejsmity (utwory związane bezpośrednio z trzęsieniami ziemi) i tsunamity (utwory związane z falami tsunami) [13], [14], [15]. Osady związane z trzęsieniami ziemi w pasmach orogenicznych są pospolite. Zwrócono jednak uwagę [5], [6], że terminów sejsmity i tsunamity nie powinno się stosować dla utworów głębokomorskich, gdyż istnieją już inne ugruntowane nazwy takie jak turbidyty, debryty, czy olistostromy. Ogranicza to ich stosowanie dla utworów płytkomorskich i lądowych, a te są stosunkowo rzadkie [15]. W przypadku sejsmitów ogranicza się to do pierwotnie upłynnionych nieskonsolidowanych osadów drobnoziarnistych, które zostały następnie lityfikowane ( Rys. 5 )."], "definitions": [{"name": "Definicja 1: Turbidyty", "content": "są osadami powstającymi w wyniku wytrącania składników okruchowych z zawiesiny. Zawiesina powstaje przez zmieszanie składników okruchowych z wodą morską w wyniku zaburzeń, powodowanych między innymi przez trzęsienia ziemi. Przemieszcza się z brzegu basenu w kierunku jego głębszych części pod wpływem grawitacji. To przemieszczanie nazywa się prądem zawiesinowym. Stosowany jest również termin spływ kohezyjny, gdy składniki okruchowe utrzymują się w wodzie w wyniku kohezji, czyli oddziaływania sił międzycząsteczkowych."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Plutonizm", "subject_id": 1303, "subject": "Rodzaje magmy", "paragraphs": ["Rodzaje magmy", "Magma to gorąca (od", "\\({650}{^o}\\) C – \\({1250}{^o}\\) C), ruchliwa materia złożona z fazy ciekłej, stałej i gazowej występujących w różnych proporcjach. Głównymi składnikami magmy są pierwiastki:\\(Si, Al, Fe, Mg, Ca, Na, Mn, K\\) występujące w związkach chemicznych ( Nie znaleziono skrótu dla otoczenia (1) ). Fazę stałą tworzą kryształy krzemianów, glinokrzemianów i tlenków, które wykrystalizowały w wysokich temperaturach.", "Faza lotna składa się z:\\(H_2O\\), \\(N_2\\), \\(O_2\\), \\(CO\\), \\(CO_2\\), \\(NH_3\\), \\(H_2\\), \\(SO_2\\), \\(SO\\) i innych gazów.", "Ze względu na genezę wyróżniamy dwa rodzaje magmy:", "Magmy pierwotne pochodzą z obszaru źródłowego zlokalizowanego w zewnętrznej części płaszcza Ziemi lub głębokich strefach skorupy ziemskiej.", "Magmy wtórne powstają w skorupie ziemskiej w wyniku dyferencjacji magmy pierwotnej. Magmy wtórne są z reguły kwaśne (granitoidowe), ponieważ są wzbogacone w krzemionkę i alkalia kosztem \\(Ca, Mg, Fe\\)[1], [2], [3].", "Powstanie magm wymaga wysokiej temperatury (od", "\\({650}{^o}\\) C do \\({1000}{^o}\\) C). Wysokość temperatury skorelowana jest z głębokością (stopień geotermiczny)(zob. Ciepło Ziemi ), bliskością pióropuszy płaszcza (zob. Pióropusze płaszcza i plamy gorąca ), czy wcześniej powstałych ognisk magmowych. Wiele czynników wpływa na temperaturę topienia skał, czyli powstania magmy: ciśnienie (jeśli wzrasta, to rośnie także temperatura topnienia), zawartość gazów, a zwłaszcza pary wodnej, która pod ciśnieniem obniża topienie minerałów.", "Powstanie magm zasadowych (ubogich w krzemionkę), zwanych gabrowymi lub płaszczowymi ( Rys. 1 ), wiąże się z częściowym wytapianiem skał ultramaficznych górnego płaszcza. Obszary wytapiania płaszczowego występują pod granicami dywergentnymi płyt oraz pod plamami gorąca.", "Magmy obojętne, zwane diorytowymi, generowane są przez częściowe wytapianie się skał subdukowanej skorupy oceanicznej, która ulega pogrążaniu w strefy płaszczowe Ziemi ( Rys. 1 ). Główną masę skał macierzystych stanowią skały cokołu skorupy oceanicznej, czyli skały zasadowe i obojętne, które nadłożone są z reguły cienką, bogatą w krzemionkę serią osadową. Magmy obojętne mogą też powstawać w wyniku dyferencjacji magm zasadowych.", "Magmy kwaśne (bogate w krzemionkę), zwane granitoidowymi, pochodzą z częściowego topienia skał bogatych w krzemionkę, jakie są składnikiem skorupy kontynentalnej ( Rys. 1 ). Proces ten odbywa się w częściach korzeniowych skorupy kontynentalnej, zwłaszcza grubych bloków kontynentalnych, które znajdują się w warunkach podwyższonych temperatur. Część magm kwaśnych powstaje również w procesie dyferencjacji magm obojętnych przez wzbogacanie stopu w krzemionkę.", "Powstały w ognisku magmowym stop glinokrzemianowy migruje ku górze i gromadzi się lokalnie, w miejscach nazywanych komorami magmowymi. Komory magmowe mają różne rozmiary i występują na głębokościach do 250 km. W komorze magmowej dochodzi do całkowitej lub częściowej krystalizacji stopu. Niewykrystalizowana magma podlega przemieszczaniu, tzw. intrudowaniu, w obręb skalnej powłoki litosferycznej (zob. Intruzje magmowe ). Intrudowanie związane jest z iniekcyjnym ruchem wznoszącym ku strefom o niższym ciśnieniu, czyli ku powierzchni Ziemi. Część magm osiąga powierzchnię Ziemi i ulega transformacji w lawę (zob. Lawa ), cześć zastyga w obrębie przypowierzchniowych struktur ziemskich, dając magmowe ciała intruzywne [2], [4]."], "definitions": [{"name": " Definicja 1: Plutonizm ", "content": " to zespół procesów zachodzących w głębi skorupy ziemskiej i w górnym\npłaszczu Ziemi, prowadzących do powstania magm i skał magmowych głębinowych."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Plutonizm", "subject_id": 1304, "subject": "Dyferencjacja magmy", "paragraphs": ["Dyferencjacja przebiega wieloetapowo i jest bardzo skomplikowana. Najważniejsze procesy dyferencjacji to:", "Krystalizacja frakcyjna polega na kolejnym wydzielaniu się kryształów ze stopu magmowego wskutek zmian temperatury i ciśnienia. W efekcie zmienia się skład stopu, a kryształy (w zależności od gęstości) opadają na dno zbiornika magmowego (większa gęstość) tworząc warstwy ( Rys. 1 ). Kolejne krystalizujące minerały zdeponowane na dnie zbiornika magmowego będą izolować wcześniej wykrystalizowane minerały od kontaktu i reakcji z magmą [1], [2], [3].", "Asymilacja polega na topieniu przez magmę skał otaczających zbiornik magmowy lub na reakcjach wymiennych między magmą, a skałami otaczającymi. W każdym z tych przypadków magma zmienia skład tym wyraźniej, im wyraźniejsza jest różnica w składzie chemicznym magmy i skał. Niekiedy oderwane fragmenty skał nie ulegają stopieniu i pozostają w zakrzepłej magmie w postaci tzw. ksenolitów( Rys. 2 ), [2], [4], [5].", "Badacze zajmujący się problematyką dyferencjacji magmy przypisują pewne znaczenie jeszcze innym procesom: mieszaniu się magm o różnym składzie chemicznym i likwacji.", "Mieszanie się magm o różnym składzie chemicznym, które może prowadzić do powstania skał o pośrednim składzie między skrajnymi członami. Mieszanie się magm może być wzmocnione przez konwekcję składników lotnych. Magma zasobna w składniki lotne przemieszcza się ku górze zbiornika, unosząc np. lżejsze i później krystalizujące związki krzemianowe [2], [4], [5], [3].", "Likwacja, czyli proces odwrotny, polegający na rozdzieleniu się magmy na dwa nie mieszające się stopy w warunkach spadku temperatury, np. oddzielenie stopu siarczkowego od bazaltowego. Magmy alkaliczne, bogate w \\(CO_2\\), mogą rozdzielać się na jedną bogatą w węglany, a drugą w krzemionkę i alkalia [2], [6], [7]."], "definitions": [{"name": " Definicja 1: Dyferencjacja magmy ", "content": " to zespół procesów prowadzących do różnicowania jej składu i\ntworzenia magm pochodnych."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Plutonizm", "subject_id": 1302, "subject": "Krystalizacja magmy", "paragraphs": ["Obniżenie temperatury i ciśnienia magmy powoduje wydzielanie się (krystalizację) minerałów ze stopu. Istotne znaczenia dla krzepnięcia magmy ma skład chemiczny stopu, gdyż wydzielanie się składników jasnych, które są zasobne w krzemionkę przebiega w niższych temperaturach, a składników z niedoborem krzemionki w temperaturach wyższych. Magma składa się ze składników o różnych punktach krzepnięcia i proces ten przebiega w określonym zakresie temperatur, który nazywany jest interwałem krzepnięcia. W procesie krzepnięcia dochodzi do krystalizacji minerałów, które przy ochładzaniu stopu wydzielają się w określonym porządku. Kolejność krystalizacji może być określona na podstawie stopnia automorfizmu składników skały (zob. Rys. ), gdyż tylko kryształy powstałe swobodnie wykształcają formy prawidłowe.", "Przebieg krzepnięcia jest skomplikowany i jego zrozumienie ułatwiają układy modelowe jedno- i wielkoskładnikowe skondensowane lub z fazą gazową [1].", "Proces krystalizacji zależy od pozycji fazy stałej. Jeśli krystalizacja przebiega przy współdziałaniu dyferencjacji frakcyjnej (zob. Dyferencjacja magmy ) i faza mineralna zostaje odprowadzona ze stopu nazywany jest krystalizacją frakcyjną. Natomiast, gdy wykrystalizowana faza stała pozostaje w magmie i dochodzi do reakcji pomiędzy wykrystalizowanymi minerałami a stopem określana jest krystalizacją równowagową. Zachodzące reakcje wywołane są dążeniem do uzyskania równowagi chemicznej pomiędzy stopem a faza stałą. Równowaga ta zostaje zachwiana podczas krystalizacji, gdy określone związki chemiczne ze stopu przechodzą do kryształów minerałów. Stop wysycony w związku w stosunku do danego minerału wchodzi z nim w reakcje, co powoduje przebudowę struktur kryształów. Efektem reakcji magmy z kryształami jest wytworzenie nowego minerału, a kolejność powstawania nowych minerałów przebiega w ściśle określonym porządku i nazywana jest szeregiem reakcyjnym [2], [3], [1].", "Szeregi reakcyjne Bowena", "W trakcie krystalizacji magmy zachodzą reakcje między już wykrystalizowanymi kryształami minerałów a stopem magmowym. Krystalizujące minerały tworzą szeregi reakcyjne, w których każdy następny minerał może powstać z poprzedniego wskutek reakcji ze stopem. Formowane są wówczas kryształy mieszane lub jedne minerały narastają na drugich albo tworzą się całkowicie odmienne minerały.", "Dla magmy gabrowej szeregi reakcyjne (nazywane szeregami reakcyjnymi Bowena) mają następującą postać ( Rys. 1 ), [3], [4]:", "Szereg łączący minerały żelazo-magnezowe (oliwiny, pirokseny, amfibole, biotyt) określany jest mianem nieciągłego szeregu reakcyjnego. Każdy kolejny minerał ma strukturę całkowicie odmienną i w trakcie reakcji ze stopem magmowym jest ona przebudowana. Drugi szereg zawiera plagioklazy, w sukcesji od wapniowych do sodowych, i nazywany jest ciągłym szeregiem reakcyjnym. Plagioklazy są minerałami izomorficznymi i przebudowa odmian bardziej wapniowych w bardziej sodowe nie wymaga przekształcenia struktury sieci.", "W ostatnim etapie, po utworzeniu mieszaniny plagioklazów i minerałów barwnych (seria femiczna), tworzy się skaleń potasowy, muskowit oraz na samym końcu kwarc, jako wynik konsumpcji ostatniej części krzemionki [5], [4], [6]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Plutonizm", "subject_id": 1306, "subject": "Stadia krystalizacji magmy", "paragraphs": ["Krzepnięcie magm w litosferze odbywa się pod ciśnieniem. Ciśnienie to jest rezultatem warunków zewnętrznych i jest wywoływane:", "Wzrost ciśnienia oraz obecność fazy gazowej powoduje obniżenie temperatury krystalizacji magmy, dlatego magmy krzepną w niższych temperaturach niż lawy w warunkach powierzchniowych Ziemi [1], [2].", "Magmą wyjściową jest magma gabrowa lub perydotytowa. W wyniku spadku ciśnienia i temperatury magma ulega dyferencjacji, zmienia swój skład i przechodzi kolejno w magmę diorytową, granodiorytową i wreszcie granitową. Dzieje się tak dlatego, że minerały krystalizują zgodnie z porządkiem opisanym szeregami reakcyjnymi Bowena.", "W przebiegu krystalizacji magmy wyróżniamy 3 stadia [3]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Plutonizm", "subject_id": 1387, "subject": "Intruzje magmowe", "paragraphs": ["Zastygająca w głębi Ziemi magma tworzy różnego kształtu i wielkości ciała skał magmowych wśród innych skał.", "Intruzje zgodne oraz niezgodne są powszechnymi komponentami skorupy ziemskiej. Ich rozmiary są bardzo zróżnicowane. W stosunku do niewielkich wydłużonych form używana jest ogólna nazwa żyły, a rozległe ciała magmowe określane są zbiorczo plutonami. Intruzje niezgodne mogą tworzyć drobne, zupełnie podrzędne formy, ale i bardzo duże ciała skalne, których średnica liczona jest w dziesiątkach kilometrów.", "Oba typy intruzji spotykane są na różnych głębokościach. Generalnie rozkład intruzji nie jest równomierny i w ich rozmieszczeniu obserwowana jest pewna zależność. Intruzje niezgodne dominują w głębszych partiach skorupy ziemskiej, natomiast intruzje zgodne są częstsze na głębokościach do 5 km. Jako ścieżki migracji stopu w przypowierzchniowych strefach skorupy wykorzystywane są głównie powierzchnie strukturalne [3], [5], [6]."], "definitions": [{"name": " Definicja 1: System magmowy ", "content": " czyli powiązany ze sobą kompleks obejmujący wszelkie miejsca, w\nktórych znajduje się stop glinokrzemianowy, we wnętrzu i na powierzchni Ziemi. Obejmuje on strefę ogniska\nmagmowego, komory magmowe oraz inne zbiorniki, w których następuje gromadzenie magm, odchodzące\nod nich korytarze, w które jest wtłaczany stop lub którymi odbywa się jego migracja oraz struktury\nlawowe, które formują się na powierzchni Ziemi."}, {"name": " Definicja 2: Intruzje magmowe ", "content": " to ciała skalne powstałe z magmy zastygłej w skorupie ziemskiej lub\nproces iniekcji magm w struktury skorupy ziemskiej [1], [2], [3], [4], [5], [6].\nW zależności od kształtu intruzji i ich stosunku do skał otaczających wyróżniamy ( Rys. 1 ), [7], [1], [4], [6]:\n\n\nintruzje zgodne to takie, których ściany są zgodne z powierzchniami strukturalnymi skał\notaczających: uławiceniem, warstwowaniem, płaszczyznami tektonicznymi i płaszczyznami\nniezgodności,\n\nintruzje niezgodne, gdy ich ściany przecinają powierzchnie strukturalne.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Plutonizm", "subject_id": 1305, "subject": "Rodzaje intruzji zgodnych", "paragraphs": ["Do intruzji zgodnych zaliczamy:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Plutonizm", "subject_id": 1308, "subject": "Rodzaje intruzji niezgodnych", "paragraphs": ["Do intruzji niezgodnych zaliczamy:", "Spotykane są także pewne specyficzne odmiany dajek: – dajki pierścieniowe tworzące kilka współśrodkowych pierścieni. Często każdy pierścień buduje inna skała magmowa. Zwykle występują w zespołach, tworząc zespół koncentrycznych żył okalających pnie magmowe. – dajki stożkowe ułożone są współśrodkowo i zapadają stromo ku centrum, do jednego wierzchołka. Powstają w efekcie wniknięcia magmy w system tektonicznych szczelin powstałych pod wpływem ciśnienia intrudującej magmy.", "Duże batolity mogą mieć bardzo skomplikowaną genezę, w której znaczącą rolę odgrywa metasomatoza (zob. Metasomatoza ), czyli przeobrażenie skał otaczających roztworami i gazami pochodzącymi z ognisk magmowych aktywnych przez długi czas. Granice batolitów są nieostre, skały magmowe gradacyjnie przechodzą w sekwencję skał metamorficznych i skał osłony."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Wulkanizm", "subject_id": 1389, "subject": "Wulkanizm - wprowadzenie", "paragraphs": ["Wulkanizm jest jednym z najbardziej rozpoznawalnych procesów geologicznych. Erupcje wulkaniczne w wielu miejscach kształtują rzeźbę Ziemi ( Rys. 1 ) i dostarczają wielu informacji o budowie jej wnętrza. Setki czynnych oraz tysiące drzemiących i nieaktywnych wulkanów działają na wyobraźnię ludzi; są one jednymi z ważniejszych obiektów turystycznych [1]. Ich egzotykę i piękno ilustrują liczne zdjęcia i filmy.", "Ze względu na powierzchnię i geometrię miejsca erupcji wyróżniane są ( Rys. 2 ):", "Aktualnie zdecydowanie dominują erupcje centralne ( Rys. 3 ). Produkty gromadzą się wokół miejsca erupcji w formie stożkowatego wzniesienia zwanego wulkanem [2], [3], [4], [5].", "Erupcje linijne ( Rys. 4 ) na lądach są obecnie dość rzadkie, ale w przeszłości występowały często [2], [3], [4]. Współcześnie tego typu wylewy znane są tylko z Islandii. W ubiegłych epokach geologicznych powstawały w ten sposób rozległe pokrywy bazaltowe, zwane trapami, które znane są z USA (500 \\( tys. km^2 \\) i 1 km grubości), Dekanu (300 \\( tys. km^2 \\) i do 3 km grubości), z Syberii, Afryki czy Grenlandii.", "Obecnie erupcje linijne są dominującym typem w środowiskach podwodnych. Wylewy szczelinowe mają miejsce w strefach neowulkanicznych dolin ryftowych, w strefach rozrostu skorupy oceanicznej ( Rys. 5 ). W erupcjach linijnych dochodzi do efuzji niskiej lepkości, ruchliwych law bazaltowych. Wylew linijny to prawie zawsze akt jednorazowy. Po akcie efuzywnym szczelina zostaje zatkana zakrzepłą lawą, a w jej obrębie punktowo mogą tworzyć się niewielkie erupcje centralne.", "Erupcje arealne powstają przez przetopienie powierzchniowych warstw skorupy ziemskiej nad komorą magmową lub rozległą intruzją magmową. Wówczas miejsce wypływu stopu zajmuje dużą powierzchnię. Aktualnie takie erupcje nie występują, ale w odległej historii Ziemi, w czasie akrecji skorupy ziemskiej i w pierwszych etapach jej stabilizacji, odgrywały kluczową rolę [6].", "Do erupcji dochodzi w środowiskach lądowych oraz podwodnych. Szczególne są erupcje podwodne, które mają miejsce na dnie morskim, oceanicznym lub jeziornym i tylko te płytsze (do około 2 km) dają objawy widoczne na powierzchni wody ( Rys. 6 ).", "Charakterystycznym produktem erupcji podmorskich są lawy poduszkowe (ang. pillow lava) powstające wskutek szybkiego stygnięcia lawy w kontakcie z zimną wodą morską (zob. Lawa-Rys. 1 ) [6], [7]. Krzepnący w tych warunkach stop przyjmuje formy o kształcie bochenkowatym lub poduszkowatym.", "Rzadziej dochodzi do kumulacji utworów piroklastycznych, które powstają przez kontakt lawy z zimną wodą morską. Stożki pirokastyczne formowane w ten sposób mogą wystawać ponad powierzchnie wody.", "Produktami wulkanizmu są [8], [9], [3]:"], "definitions": [{"name": "Definicja 1: Wulkanizm", "content": "to zespół procesów związanych z wydobywaniem się magmy, okruchów skalnych i gazów z głębi Ziemi na jej powierzchnię. Zjawisko wydobywania się produktów wulkanicznych na powierzchnię nazywamy erupcją."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Wulkanizm", "subject_id": 1297, "subject": "Lawa", "paragraphs": ["Ze względu na skład chemiczny wyróżnia się:", "Lawy kwaśne mają wysoką lepkość, przez co wolno płyną tworząc krótkie potoki i krzepną w kopułowatych formach. Zdarza się, że mają dużo gazów i wówczas spada lepkość, a lawa rozlewa się szeroko.", "Lawy zasadowe mają niską lepkość, dlatego łatwo płyną i rozlewają się na dużym obszarze lub tworzą długie potoki.", "Temperatura law wydobywających się z krateru mieści się w przedziale od 1000", "\\(^o\\)C do 1200 \\(^o\\)C, a ich krzepnięcie następuje w temperaturze od 600 \\(^o\\)C do 800 \\(^o\\)C. Lawy zasadowe krzepną w temperaturach wyższych niż lawy kwaśne. W zależności od składu chemicznego, ilości fazy gazowej oraz środowiska, krzepnące lawy przybierają różne formy. Są to:", "Z procesem krzepnięcia form wulkanicznych wiąże się powstanie ciosu słupowego[6], [4], czyli systemu regularnych spękań, najczęściej o pięcio- lub sześciokątnych podstawach, które ułożone są prostopadle do powierzchni stygnięcia ( Rys. 6 ). Cios jest wynikiem powstawania naprężeń rozciągających się w stygnącej skale. Cios słupowy występuje w różnych typach skał wylewnych, ale najlepiej wykształca się w skałach bazaltowych. Z reguły słupy w wewnętrznej części ciała wulkanicznego przybierają bardziej regularne kształty niż te, które występują w strefach zewnętrznych."], "definitions": [{"name": " Definicja 1: Lawa ", "content": " to stop magmowy, który wylał się na powierzchnię Ziemi. Jest mieszaniną tlenków\nkrzemu, tlenków różnych metali, krzemianów i gazów."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Wulkanizm", "subject_id": 1298, "subject": "Materiały piroklastyczne", "paragraphs": ["Materiały piroklastyczne powstają w wyniku wyrzucenia lawy z krateru wulkanu. Są to także rozdrobnione fragmenty skał wyrwanych z podłoża, kanału lub stożka wulkanu ( Rys. 1 ). Do utworów piroklastycznych zaliczamy: bomby, szlaki, scoria, lapille, piaski, popioły, pumeks [1], [2], [3], [4].", "Bomby wulkaniczne są to fragmenty lawy wyrzucone przez wulkan i krzepnące w powietrzu ( Rys. 2 ). Ich kształt jest owalny, często wrzecionowaty i skręcony. Mają zróżnicowaną wielkość, najczęściej średnica wynosi kilkadziesiąt centymetrów, ale czasem przekracza 1 metr. Wnętrze bomby jest niekiedy krystaliczne, a część zewnętrzna jest gąbczasta. Często powstają także bomby o nieregularnym kształcie (bloki), powstałe z rozsadzenia skał budujących stożek. Niektórzy badacze [2] wyróżniają wspólną grupę materiałów piroklastycznych: bomby i bloki.", "Szlaki to fragmenty szklistej, pęcherzykowatej w efekcie odgazowania, zastygłej lawy o średnicy od kilku do kilkunastu centymetrów; często powstają w wyniku rozsadzenia zgazowanych bomb.", "Scoria (wł. piana) to niewielkie kawałki (wielkości orzecha) zakrzepłej w powietrzu, gąbczastej lawy ( Rys. 3 ).", "Lapille (wł. małe kamyczki) są to fragmenty wielkości ziaren grochu powstałe z zakrzepnięcia lawy lub z rozdrobnienia starszych, zakrzepłych law wewnątrz stożka wulkanicznego ( Rys. 3 ). Rzadziej są to obtopione na krawędziach kryształy, co świadczy o częściowej krystalizacji magmy przed erupcją.", "Popioły wulkaniczne – najdrobniejsza (poniżej 2 mm średnicy) frakcja powstająca w wyniku krzepnięcia drobin ciekłej lawy lub rozdrobnienia starszego materiału wulkanicznego ( Rys. 4 ). Często są to bardzo drobne kryształy, niekiedy oblepione szkliwem wulkanicznym. Popioły są charakterystycznym materiałem lawy kwaśnej. Popioły o średnicy ziaren 0,05 mm – 2 mm często nazywamy piaskami, a poniżej 0,05 mm – pyłami.", "Pumeks to krzepnące w powietrzu fragmenty lawy pozbywającej się gazów, co prowadzi do powstania lekkich (poniżej 1 g/ \\( cm^3 \\)), porowatych skał ( Rys. 5 ).", "Materiał piroklastyczny wyrzucany z wulkanu zachowuje się różnie w zależności od frakcji. Bomby wulkaniczne wyrzucane są na wysokość do 100 m i opadają w odległości kilkuset metrów od krateru. Najdrobniejsze frakcje (pyły, popioły) wyrzucane są nawet na wysokość rzędu kilkudziesięciu kilometrów i pokrywają olbrzymie obszary, a krążąc wokół Ziemi mogą opadać w dowolnych jej rejonach. W trakcie wybuchów wulkanów wyrzucających duże ilości materiału piroklastycznego mogą powstać potoki piroklastyczne [4]. To odmiana znanych z sedymentologii gęstych prądów zawiesinowych, w których grawitacja powoduje przemieszczanie materiału, a turbulencja podtrzymuje materiał okruchowy przed opadaniem na dno ( Rys. 6 ).", "Wśród potoków piroklastycznych wyróżniamy [2]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Wulkanizm", "subject_id": 1390, "subject": "Typy wulkanów", "paragraphs": ["W warunkach lądowych powszechne są erupcje centralne (zob. Wulkanizm - wprowadzenie ), w których produkty erupcji gromadzą się wokół miejsca erupcji w formie stożkowatego wzniesienia zwanego wulkanem [1], [2], [3], [4].", "Wulkany takie dzielone są ze względu na dominujący rodzaj (rodzaje) produktów erupcji na ( Rys. 1 ):", "W trakcie wszystkich tych erupcji wydobywają się także różne gazy.", "Stożki wulkanów lawowych (wylewnych) zbudowane są ze skał wylewnych. Mogą być dwojakiego rodzaju [4]:", "Gdy erupcje lawowe są niskoenergetyczne nazywane są efuzjami, a wulkany z takim przebiegiem erupcji - efuzywnymi. Gdy lawy wyrzucane są z krateru i tworzą fontanny law nazywane są ekstruzjami, a wulkany ekstruzywnymi.", "Wulkany mieszane (stratowulkany) ( Rys. 3 ) stanowią dominującą grupę aktualnie czynnych wulkanów lądowych [1], [2], [3], [4]. Charakterystyczne dla nich są stożki o nachyleniu stoków około 30 \\( {^o} \\), które zbudowane są z naprzemianległych, nachylonych zgodnie z powierzchnią stożka warstw zakrzepłej lawy i materiału piroklastycznego ( Rys. 4 ).", "Taka sekwencja jest wynikiem podobnego przebiegu kolejnych erupcji, w których wyraźnie wyodrębniają się dwie fazy. Pierwsza faza jest wysokoenergetyczna, a erupcję rozpoczyna wyrzut materiału piroklastycznego. Materiał ten pochodzi z rozsadzenia znajdujących się w kominie i kraterze skał wulkanicznych oraz krzepnięcia strzępów lawy wyrzuconej pod wpływem parcia gazów. Po tej fazie rozpoczyna się etap efuzywno-ekstruzywny, podczas którego podstawowym produktem jest lawa wylewająca się na pokrywy piroklastyczne.", "Poza głównym kraterem stratowulkanów, mniejsze porcje lawy i popiołów wydobywają się także ze szczelin oraz z podrzędnych stożków, znajdujących się na stoku. Stożki tworzące się na powierzchni głównego stożka nazywane są pasożytniczymi ( Rys. 5 ).", "Charakterystycznym elementem budowy wielu stratowulkanów są kaldery [1], [8], [9]. Są to często ogromne, nawet do 20 km średnicy, zagłębienia w szczytowej części stożka. Powstają one w wyniku:", "Podczas kolejnych aktów eruptywnych w kalderze wyrasta nowy stożek. Wiele zagłębień kalderowych wypełnionych jest wodą tworząc tzw. jeziora kraterowe ( Rys. 7 ).", "Czynnymi stratowulkanami są między innymi: Wezuwiusz, Cotopaxi (Andy), Kilimandżaro, Fudżi i wiele innych.", "Wulkany eksplozywne wyrzucają prawie wyłącznie materiał piroklastyczny ( Rys. 8 ) lub produkty gazowe. Aktualnie jest to najrzadziej występujący typ wulkanów [7], [9]. Z nieodległej przeszłości znane są takie wulkany z Masywu Centralnego (Francja) i z Doliny Wulkanów (Peru).", "Typem wulkanów eksplozywnych są maary ( Rys. 9 ). Są to lejkowate wgłębienia otoczone niewysokim wałem zbudowanym z utworów piroklastycznych. Zagłębienia te przechodzą w kanały wypełnione brekcją wulkaniczną i materiałem piroklastycznym (tzw. diatremę). Uważa się, że maary powstają przez eksplozję zgromadzonych w komorze wulkanu gazów. Podczas eksplozji dochodzi do rozdrobnienia skał wulkanicznych wypełniających komin oraz skał osłony. Diatremami są także kominy kimberlitowe często zawierające diamenty.", "Maary są również efektem erupcji freatycznych wywołanymi przez wody gruntowe, opadowe lub morskie, które w podłożu wulkanu zostają podgrzane i zamienione w parę wodną. Eksplozja jest efektem wybuchu pary wodnej, który doprowadza do wyrzutu produktów z poprzednich erupcji ( Rys. 10 ), [10], [11]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Wulkanizm", "subject_id": 1301, "subject": "Typy erupcji", "paragraphs": ["W zależności od przebiegu erupcji wyróżnia się jej typy, odnosząc je do znanych i doskonale udokumentowanych erupcji. W tym podziale wyróżniamy następujące typy [1], [2], [3], [4]:", "Przytoczone typy erupcji nie zawsze występują w czystej postaci. Często wykazują cechy pośrednie lub pewne, indywidualne zjawiska."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Wulkanizm", "subject_id": 1299, "subject": "Przebieg i mechanizmy erupcji", "paragraphs": ["Nie ma jednego scenariusza przebiegu erupcji wulkanicznych. Często poprzedzane są one charakterystycznymi objawami, takimi jak:", "Czasem jednak nie rejestruje się żadnych objawów, a wulkan wybucha raptownie. Częstotliwość erupcji jest bardzo zmienna. Istnieją wulkany aktywne przez tysiące lat (np. Stromboli na morzu Tyrreńskim, Kilauea na Hawajach i wiele innych). Są takie, które uaktywniają się od czasu do czasu (np. Wezuwiusz, Fudżijama, Kilimandżaro) i takie, które zakończyły swoją aktywność miliony lat temu. Z częstotliwością erupcji wiąże się podział wulkanów na: czynne ( Rys. 1 ), wygasłe ( Rys. 2 ) i drzemiące ( Rys. 3 ).", "W uproszczony sposób możemy uznać, że ten podział uzależniony jest od bilansu ciepła w komorze magmowej. Gdy dopływ ciepła z głębi ziemi jest większy od straty ciepła w wyniku erupcji, to wulkan jest czynny; jeśli jest mniejszy, to wulkan jest wygasły. Jeśli natomiast dopływ ciepła mniej więcej równoważy się ze stratą ciepła, to jest to tzw. wulkan drzemiący. Przyjmuje się, że wulkany wygasłe nie były aktywne w czasach historycznych, wulkany drzemiące od wielu lat nie wykazują aktywności, a wulkany czynne cały czas przejawiają jakąś formę aktywności.", "Mechanizm erupcji Mechanizmu erupcji nie da się opisać jednym scenariuszem, zbyt wiele jest czynników wpływających na jej przebieg. Można jednak wskazać kilka najważniejszych [1], [2], [3], [4], [5]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Wulkanizm", "subject_id": 1300, "subject": "Rozmieszczenie wulkanów", "paragraphs": ["Rozmieszczenie wulkanów wykazuje ścisły związek z wielkimi elementami geotektonicznymi Ziemi ( Rys. 1 ), ( Rys. 2 ), [1], [2].", "Wyróżniamy trzy główne obszary:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Wulkanizm", "subject_id": 1307, "subject": "Zjawiska powulkaniczne", "paragraphs": ["Po głównej erupcji jeszcze przez długi czas występują rożne zjawiska z nią związane. Są to:", "Ekshalacje wulkaniczne W zależności od czasu występowania emanacji gazowych w trakcie lub po głównej erupcji, temperatury i składu gazów wyróżniamy [1], [2]:", "W trakcie wybuchu najbliżej wulkanu występują fumarole, nieco dalej solfatary i najdalej mofety. W miarę upływu czasu fumarole zastępowane są przez solfatary, a te z kolei przez mofety. Mofety rejestrowane są nawet miliony lat po erupcji i w dużej odległości od miejsca erupcji. Z ekshalacjami wulkanicznymi związane są niewielkie złoża mineralne, najczęściej siarki ( Rys. 2 ), rzadziej magnetytu i hematytu.", "Gejzery Gejzerami nazywamy gorące źródła, które periodycznie wyrzucają gorącą wodę i przegrzaną parę wodną [3], [4], [5]. Wyrzuty odbywają się periodycznie w różnych odstępach czasowych – od kilku minut do (nawet) kilkunastu miesięcy.", "Woda wyrzucana z gejzeru zawiera wiele rozpuszczonych substancji, najczęściej krzemionkę i węglan wapnia, które osadzając się wokół kanału gejzera tworzą niekiedy niewielkie stożki o średnicy maksymalnie do kilkunastu metrów i wysokości kilku metrów. Gejzery występują na obszarach młodych gór fałdowych, a mechanizm wybuchu wulkanu jest dość skomplikowany ( Rys. 3 ). Tworzą się nad systemem pustek wewnątrz skorupy ziemskiej zwieńczonych kanałem. Ogrzewana ciepłem z wnętrza Ziemi woda, mimo osiągnięcia \\( {100}{^o} \\) C, nie gotuje się, ponieważ przeciwdziała temu ciśnienie nadległego słupa cięższej, chłodniejszej wody (np. przy 10-metrowym słupie chłodnej wody temperatura wrzenia wynosi \\( {180}{^o} \\) C). Kiedy w końcu woda osiągnie temperaturę wrzenia, przegrzana para wodna podnosi słup wody i częściowo wyrzuca go na zewnątrz ( Rys. 4 ).", "Wówczas ciśnienie raptownie spada, woda gotuje się i zostaje wyrzucona na zewnątrz. Po wybuchu część wody o niższej temperaturze opada do kanału i proces zaczyna się od nowa. Substancje mineralne pochodzące z gejzerów tworzą często różnorodne nawarstwienia mineralne ( Rys. 5 ).", "Gorące (termalne) źródła Powstają w miejscach, w których pod ziemią znajdują się komory magmowe podgrzewające wody podziemne i gruntowe. Mogą tworzyć różnej wielkości zbiorniki gorącej wody (stawy, jeziora) [3], [5]. W wodzie oraz na brzegach gorących zbiorników geotermalnych stwierdzono obecność ciepłolubnych sinic i różnych minerałów, które barwią wodę na żywe, zmieniające się kolory przypominające tęczę ( Rys. 6 ). Możliwe, że kolory wody w głębszych częściach basenów geotermalnych mają swoje źródła w rozszczepianiu światła. W gorących źródłach Nowej Zelandii fantastyczne barwy dają związki siarki, żelaza i manganu.", "Wulkany błotne Wulkany błotne to pewna odmiana gorących źródeł, w których woda wymieszana jest z iłem i piaskiem [3], [5]. Erupcja jest zróżnicowana – od eksplozywnych, wyrzucających na niewielką wysokość błotną mieszaninę, po spokojnie wylewające się niewielkie porcje ( Rys. 7 ). Podkreślić należy, że nie wszystkie wulkany błotne związane są z terenami powulkanicznymi. W wielu rejonach przyczyną powstania chłodnych wulkanów błotnych są emanacje gazu ziemnego przebijające się przez zawodnione warstwy iłów, piasków, glin (Rumunia, Azerbejdżan, Iran, Pakistan, Wenezuela, Kolumbia, Indie)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1309, "subject": "Struktury skał magmowych", "paragraphs": ["Budowa wewnętrzna skał magmowych, czyli rozmieszczenie i wykształcenie poszczególnych składników, są zależne od warunków krzepnięcia, głównie od ciśnienia oraz czasu chłodzenia stopu. Warunki te mogą być interpretowane na podstawie cech strukturalnych i teksturalnych skały.", "Ze względu na stopień krystaliczności, w skałach magmowych wyróżniane są struktury ( Rys. 1 ):", "Warunki krzepnięcia stopu decydują o stopniu krystaliczności składników skały (zob. Środowiska powstania skał magmowych ). Wzrost ciśnienia, tempa chłodzenia oraz obecność fazy gazowej sprzyjają procesowi krystalizacji. W gwałtownie chłodzonym stopie glinokrzemianowym nie dochodzi do krystalizacji i tworzy się substancja amorficzna (bezpostaciowa), czyli szkliwo ( Rys. 2 ). Struktura hialinowa jest strukturą pierwotną i powstaje podczas szybkiego krzepnięcia stopu w warunkach powierzchniowych Ziemi. Jest ona strukturą niestabilną, z czasem szkliwo może ulec krystalizacji częściowej lub całkowitej, a proces ten nazywany jest dewitryfikacją, czyli odszkleniem [4], [5]. Struktury hipokrystaliczna i holokrystaliczna powstają jako struktury pierwotne, w czasie krzepnięcia stopu lub są strukturami wtórnymi, związanymi z dewitryfikacją. Występują wyłącznie w skałach krzepnących na powierzchni Ziemi (zob. Środowiska powstania skał magmowych ).", "Wyłączając skały o dostrzegalnych kryształach, badanie stopnia krystaliczności skały wymaga obserwacji mikroskopowych. Rozróżnienie okiem nieuzbrojonym skał o strukturze hialinowej czy hipokrystalicznej jest niemożliwe. Dlatego, dla potrzeb identyfikacji makroskopowej skał używana jest klasyfikacja struktur opierająca się na wielkości składników, przy założeniu, iż bez wykorzystania sprzętu optycznego oko ludzkie rozróżnia swobodnie składniki wielkości ≥0,5 mm.", "Pod względem wielkości składników wydziela się 3 rodzaje struktur ( Rys. 3 ):", "Zmienność wielkości ziarn w obrębie struktur fanerokrystalicznych jest podstawą do ich zróżnicowania na:", "Podział struktur równoziarnistych na podtypy bazuje na wielkości kryształów w skale ( Rys. 4 ), wg schematu ( Nie znaleziono skrótu dla otoczenia (1) ):", "W strukturach nierównoziarnistych, wyróżniana jest struktura fanerokrystaliczno-porfirowa(seryjna), gdy w skale występują składniki różnej wielkości, od małych do dużych, oraz porfirowata, gdy występują dwie klasy wielkościowe składników, duże kryształy prakryształów otoczone są masą drobnych ( Rys. 5 ), [1].", "Wzrost wielkości kryształów skały jest wprost proporcjonalny do czasu krystalizacji składników skały oraz ilości (objętości) fazy gazowej. Istotne zróżnicowanie wielkości składników skały magmowej, w szczególności rozkład bimodalny, jaki jest typowy dla struktur porfirowatej lub porfirowej, wiąże się z występowaniem dwóch faz krzepnięcia stopu. W sprzyjających warunkach powstaje populacja automorficznych prakryształów. Zmiana środowiska w trakcie krzepnięcia, powiązana zwykle z migracją stopu ku powierzchni Ziemi, skutkuje zwiększeniem tempa krzepnięcia. Reszta składników skały, powstaje w mniej korzystnych warunkach, dlatego tworzą ją, od kilku do nawet kilkunastu rzędów wielkości, mniejsze kryształy lub szkliwo wulkaniczne (zob. Środowiska powstania skał magmowych ).", "Pewne typy skał posiadają swoiste cechy strukturalne, dlatego obok standardowych podziałów struktur wyróżnia się struktury specjalne( Rys. 6 ), [3]. Do najczęściej występujących należą [4], [6]:", "W skałach holokrystalicznych tylko część składników posiada prawidłowe wykształcenie, czyli są to kryształy, których morfologia jest zgodna z charakterystyczną postacią dla danego minerału. Stopień prawidłowości wykształcenia kryształów, czyli własnokształtność (automorfizm)( Rys. 7 ) określany jest jako:", "Obserwacja stopnia automorfizmu pozwala na ustalenie kolejności krystalizacji poszczególnych minerałów. Kryształy automorficzne, to kryształy wzrastające swobodnie w środowisku i są to formy najwcześniej krystalizujące. Kryształy ksenomorficzne generowane są w końcowym etapie powstawania skały i krystalizują w przestrzeniach pomiędzy składnikami skały wypełniając wolne przestrzenie, do których się dopasowują."], "definitions": [{"name": " Definicja 1: Struktura ", "content": " charakteryzuje jakość wykształcenia poszczególnych składników, czyli\nstopień krystaliczności, prawidłowości wykształcenia, wielkość oraz wzajemne relacje pomiędzy\nskładnikami.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1310, "subject": "Tekstury skał magmowych", "paragraphs": ["Ze względu na stopień wypełnienia skały przez składniki( Rys. 1 )wyróżniane są:", "Pory mają zróżnicowaną wielkość i morfologię. Pory w skałach fanerokrystalicznych mają zarysy kanciaste, gdyż ograniczone są prawidłowymi ścianami kryształów hipautomorficznych ( Rys. 1 C). Takie wykształcenie charakterystyczne jest dla tekstury miarolitycznej, a pojedynczy por nosi nazwę miaroli.", "Pory obłe, w przekroju nawiązujące do okręgu lub owalu, są typowe dla tekstury pęcherzykowatej( Rys. 1 B), ( Rys. 2 ) i występują w skałach afanitowych lub porfirowych. W przypadku wysokiej ilości pęcherzy, gdy wypełniają one większość skały, wyróżniana jest tekstura gąbczasta( Rys. 2 A) . Wskutek wtórnych procesów, pory mogą zostać częściowo lub całkowicie wypełnione substancją mineralną. Wówczas wyróżniana jest odmiana tekstury pęcherzykowatej, zwana teksturą migdałowcową ( Rys. 2 B, C), [2]. Jej nazwa nawiązuje do kształtu wypełnionych przestrzeni pogazowych, które mają zazwyczaj kształt elipsoidalny, przypominający morfologią nasiona migdałowca. Do wypełnienia porów może dojść w różnym czasie po zakrzepnięciu stopu i proces ten może nie być związany z magmatyzmem [5], [2], [6], [3].", "Rozkład składników w skale magmowej jest związany z dynamiką stopu. Obecność składników w przyporządkowaniu do przestrzennych układów geometrycznych jest wskaźnikowa dla grupy tekstur uporządkowanych. Ich podział opiera się na sposobie orientacji składników. Wyróżniane są tekstury równoległe oraz kuliste[2], [3]. W teksturze równoległej rozmieszczenie składników następuje względem płaszczyzny (foliacja) lub linii (lineacja). W skałach fanerokrystalicznych taka struktura będzie zaznaczała się w uporządkowaniu kryształów wydłużonych i płaskich, w skałach afanitowych w podobnym układzie będą występowały smugi lub/i rozciągnięte pęcherze pogazowe ( Rys. 3 ). W wielu przypadkach struktura równoległa wynika z płynięcia stopu glino-krzemianowego, dlatego nazywana jest również fluidalną[5], [6].", "Składniki skały, które zorientowane są względem punktów należą do grupy tekstur kulistych ( Rys. 5 ). Dzielone są na:", "Brak uporządkowania jest wyznacznikiem tekstury bezładnej( Rys. 6 )."], "definitions": [{"name": " Definicja 1: Tekstura ", "content": " sposób ułożenia oraz przestrzennego rozmieszczenia składników w skale\nmagmowej, określany jako uporządkowanie i stopień wypełnienia."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1311, "subject": "Minerały skałotwórcze skał magmowych", "paragraphs": ["Skały magmowe powstają w wyniku krystalizacji stopu glinokrzemianowego, który powstał w głębi Ziemi. Warunki krystalizacji oraz skład stopu przekładają się na skład mineralny skały magmowej. Różnice w chemizmie stopu powodują, że kompozycja mineralna skał jest zróżnicowana (zob. Rodzaje magmy ). Określone grupy minerałów krystalizują ze stopów o określonym składzie chemicznym. Istotną rolę pełni ilość krzemionki, która jest składnikiem większości minerałów. Zatem ze stopów zasobnych w krzemionkę będą krystalizowały minerały wysokokrzemianowe, takie jak kwarce, skalenie i miki, a ze stopów niezasobnych w krzemionkę – minerały niskokrzemianowe np. oliwiny i skaleniowce (zob. Krystalizacja magmy ). Współwystępowanie kwarcu i oliwinu lub kwarcu i skaleniowców w jednej skale magmowej jest teoretycznie niemożliwe, gdyż krystalizują one ze stopów o diametralnie innym chemizmie. Istotna modyfikacja składu stopu magmowego zachodzi na powierzchni Ziemi i wiąże się głównie z utratą części fazy gazowej i wody. Dlatego podczas krystalizacji w warunkach naziemnych powstają głównie minerały bezwodne.", "Ze względu na ilościowy udział, minerały skałotwórcze skał magmowych, dzielone są na:", "Grupa głównych minerałów skałotwórczych, czyli takich które dominują w skałach i decydują o ich przynależności systematycznej [1], [2], obejmuje niewielką część minerałów skał magmowych. Główne minerały skałotwórcze skał magmowych to:", "Występują w ilości co najmniej kilkunastu procent w skale. Minerały te mają wyrazisty i indywidualny zestaw cech diagnostycznych, przez co są makroskopowo łatwo identyfikowalne.", "Obok minerałów głównych występują minerały poboczne i akcesoryczne. Skałotwórcze minerały poboczne to minerały występujące powszechnie w skałach, w niewielkiej ilości, wynoszącej \\(5-10\\%\\). Skałotwórcze minerały akcesoryczne, zwane minerałami dodatkowymi [1], występują w ilości poniżej \\(5\\%\\) w skale.", "W różnych typach skał magmowych te same minerały mogą być pobocznymi lub akcesorycznymi, a w niektórych odmianach skał ich ilość może być na tyle wysoka, że porównywalna będzie z ilością minerałów głównych. Minerały poboczne i akcesoryczne mają zróżnicowany skład chemiczny, zaliczane są do tlenków, fosforanów i krzemianów. Większość z nich występuje w formie niewidocznych makroskopowo kryształów, które rozsiane są bezładnie w skale magmowej. Obecność niektórych może wpływać na ogólne zabarwienie skały.", "Minerały skał magmowych krystalizują bezpośrednio ze stopu glinokrzemianowego, wówczas stanowią minerały pierwotne[1]. Mają one zróżnicowaną stabilność środowiskową, te mniej odporne, pod wpływem procesów pomagmowych lub podczas wietrzenia, mogą ulegać przemianom w inne gatunki mineralne, które należą do minerałów wtórnych[3], [2]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1312, "subject": "Kwarc", "paragraphs": ["Jednym z powszechnych składników skał magmowych jest kwarc. Wśród minerałów skałotwórczych, jest najzasobniejszy w krzem i krystalizuje tylko z magm bogatych w krzemionkę [1].", "W procesach magmowych powstają dwie odmiany polimorficzne kwarcu. Kwarc α zwany wysokotemperaturowym (pirogenicznym), krystalizujący w temperaturze powyżej 573 \\( ^oC \\). Jest składnikiem pierwotnym skał magmowych. Przy obniżeniu temperatury kwarc α przechodzi w kwarc β, tworząc paramorfozy po odmianie α (zob. Budowa wewnętrzna i postać minerałów ), [2], [3], [4], [5]. Kwarc β zwany jest niskotemperaturowym. Jako pierwotny krystalizuje z pomagmowych roztworów hydrotermalnych.", "Najbardziej popularna odmiana kwarcu jest reprezentowana przez półprzeźroczysty i zabarwiony na szaro kwarc dymny ( Rys. 1 ).", "Krystalizujący w procesach pomagmowych kwarc β występuje w różnych odmianach kolorystycznych ( Rys. 2 ). Kryształy bezbarwne przeźroczyste nazywane są kryształem górskim, zabarwione na biało - kwarcem mlecznym, na żółto - cytrynem, na fioletowo - ametystem, na czerwono - krwawnikiem (lub kwarcem żelaznym), a na czarno - morionem [4], [3], [5].", "Zespół cech charakterystycznych, które odróżniają kwarc od innych minerałów skałotwórczych w skałach magmowych, obejmuje wysoką twardość, brak łupliwości oraz występowanie połysku tłustego na powierzchniach przełamu ( Tabela 1 ).", "W skałach magmowych występuje odmiana kwarcu β, która jest paramorfozą po odmianie α. Kwarc krystalizuje jako jeden z ostatnich minerałów głównych ze stopu (zob. Krystalizacja magmy ). W skałach fanerokrystalicznych tworzy kryształy ksenomorficzne, dostosowując się powierzchniami zewnętrznymi do innych składników skały (zob. Struktury skał magmowych ). W skałach porfirowych prakryształy kwarcowe mają pokrój izometryczny, typowy dla kwarcu α ( Rys. 1 ). Kwarc zwykle tworzy ziarna niewielkie, o średnicach kilku milimetrów. Większe kryształy, wielkości centymetrów, a nawet do kilku metrów, powstają w pegmatytach.", "Kwarc jest najpospolitszym minerałem na powierzchni Ziemi. Szacuje się, że stanowi \\( 75\\% \\) wszystkich minerałów. Oprócz procesów magmowych, kwarc powstaje w procesach metamorficznych, hydrotermalnych oraz przez rekrystalizację minerałów z grupy krzemionki w skałach osadowych. Ze względu na wysoką odporność na czynniki wietrzenia fizycznego i chemicznego, kwarc należy do minerałów stabilnych w środowisku, gdzie wielokrotnie wchodzi w cykle sedymentacyjne [4]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1316, "subject": "Skalenie", "paragraphs": ["Są to minerały powszechne w skałach magmowych, występujące w wielu odmianach skalnych. Obejmują dużą grupę minerałów o zróżnicowanym składzie chemicznym, które należą do glinokrzemianów sodu, potasu oraz wapnia.", "W ich obrębie wyróżniane są dwie grupy minerałów ( Nie znaleziono skrótu dla otoczenia (1) ):", "Są to szeregi izomorficzne (zob. Budowa wewnętrzna i postać minerałów ), które zakończone są odmianami czystymi:", "Plagioklazy to ważna grupa minerałów skałotwórczych skał magmowych. Reprezentowane są przez różne odmiany mineralne. Za wyjątkiem ortoklazu, skalenie alkaliczne mają podrzędne znaczenie w skałach.", "Plagioklazy to ciąg mieszany, w którym wydzielenie poszczególnych minerałów definiuje ilościowy stosunek odmian czystych albitowych i anortytowych ( Nie znaleziono skrótu dla otoczenia (2) ), [3], [6]. W oparciu o skład chemiczny wewnątrz grupy plagioklazów wyróżnia się 6 podstawowych minerałów [1], [2], [4], [5], które podaje Nie znaleziono skrótu dla otoczenia (2) :", "Skalenie z dużą ilością albitu są zasobne w krzemionkę, dlatego nazywa się je kwaśnymi, a skalenie ze znaczną ilością anortytu posiadają krzemionki istotnie mniej i dlatego nazywane są zasadowymi.", "Cechami diagnostycznymi skaleni jest połysk szklisty, który jest połyskiem mocnym, dobra łupliwość w dwóch kierunkach, wysoka twardość oraz jasne zabarwienia ( Rys. 1 ), [1], [6]. W skałach magmowych skalenie dość często występują w kryształach automorficznych lub hipautomorficznych (zob. Struktury skał magmowych ). Skalenie powszechnie tworzą formy zbliźniaczone. Plagioklazy występują głównie w formach bliźniaków wielokrotnych, podczas gdy skalenie potasowe w formach bliźniaków dwukrotnych (zob. Pokrój minerałów i forma skupień ). Inną cechą typową dla skaleni jest tworzenie kryształów o budowie pasowej, gdzie jądro skaleniowe obleczone jest serią koncentrycznych powłok ( Rys. 4 A), [2], [6]. Zwykle jądro jest ciemniejsze, zbudowane jest ze skalenia wapniowego, a powłoki okalające występują w sekwencji jaśniejących barw i odpowiadają składem skaleniom z większą zawartością sodu ( Rys. 4 A). Budowa pasowa jest dobrze widoczna w większych kryształach.", "Cechy fizyczne plagioklazów i skaleni alkalicznych są podobne, zwykle makroskopowo oznacza się je jako grupę. Poszczególne skalenie wykazują różnice w składzie chemicznym, w gęstości i w niektórych właściwościach optycznych. Rozróżnianie makroskopowe poszczególnych skaleni jest trudne i często nie jest możliwe. Biorąc pod uwagę zabarwienia można szacować typy skaleni. I tak, mleczno-białe kryształy są reprezentatywne dla form z dużą ilością cząstki albitowej ( Rys. 1 ), mocno szare dla form z dużą ilością cząstki anortytowej ( Rys. 2 ), a różowe są charakterystyczne dla form bliskich ortoklazowi ( Rys. 3 ).", "Ważną i charakterystyczną cechą plagioklazów wapniowych, szczególnie labradoru i bytownitu, jest występowanie iryzacji (zob. Cechy optyczne minerałów ), w tym przypadku określanej jako labradoryzacja ( Rys. 4 B), [1]. Jest to efekt optyczny, w którym odbijane promienie światła dają efekt gry barw w kolorach niebieskich, szarych, złocistych i zielonkawych.", "Skalenie sodowe i potasowe krystalizują z magm bogatych w krzemionkę, z kolei krystalizacja skaleni zasobniejszych w cząstkę anortytową zachodzi z magm, w których tej krzemionki jest mniej (zob. Krystalizacja magmy ). W głębinowych skałach magmowych skalenie tworzą kryształy duże, zwykle wielkości do kilku centymetrów. Największe kryształy, osiągające wielkości metrów, mogą występować w pegmatytach.", "Skalenie, jako grupa minerałów, wykazują słabą odporność na działanie czynników niszczących. Pod wpływem wietrzenia chemicznego ulegają przeobrażeniu w minerały ilaste z grupy kaolinitu. Okazy zwietrzałe charakteryzuje słaby połysk oraz obniżona twardość. Szczególnie nietrwałe są skalenie wapniowe. Tempo przeobrażeń skaleni sodowych oraz potasowych jest wolniejsze, dlatego one mogą być spotykane jako ziarna w środowiskach sedymentacyjnych. Skalenie wykazują powinowactwo do przeobrażeń w procesach pomagmowych i przy wzroście temperatury ulegają transformacji w minerały z grupy łyszczyków, przy niższych temperaturach w minerały ilaste [2].", "Skalenie tworzą główną masę pegmatytów. Niektóre pegmatyty mogą posiadać kryształy skaleni (najczęściej jest to mikroklin - odmiana polimorficzna skalenia potasowego), których wielkość może przekraczać 1 m. Takie wystąpienia często są eksploatowane na potrzeby przemysłu ceramicznego."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1315, "subject": "Skaleniowce", "paragraphs": ["Skaleniowce (foidy) to grupa glinokrzemianów zbliżonych składem chemicznym do skaleni, różni je od nich mniejsza zasobność w krzemionkę.", "Są to minerały, które krystalizują ze stopów zasadowych. Znaczenie skałotwórcze mają ( Rys. 1 ):", "Znaczenie diagnostyczne dla skaleniowców ma twardość, połysk oraz zabarwienie kryształów ( Tabela 1 ). W skałach występują zwykle jako ziarna ksenomorficzne (zob. Struktury skał magmowych ). Identyfikacja makroskopowa skaleniowców może stwarzać trudności. W związku z tym, iż krystalizują tylko z magm niezasobnych w krzemionkę, nie będą współwystępowały z kwarcem. Skaleniowce wykazują słabą odporność na działalność czynników wietrzeniowych oraz stosunkowo łatwo ulegają przeobrażeniom w procesach hydrotermalnych [1]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1314, "subject": "Miki", "paragraphs": ["Miki (łyszczyki) to grupa glinokrzemianów o podobnych cechach fizycznych. Ze względu na cechy optyczne zwyczajowo dzielone są na miki jasne, przyjmujące zabarwienia srebrzystobiałe, żółtawe, szare, zielonawe lub pozostające bezbarwne oraz na miki ciemne, które charakteryzują zabarwienia brunatne, szare i czarne. W skałach magmowych znaczenie skałotwórcze mają dwa łyszczyki. Są to:", "Miki należą do charakterystycznych minerałów skałotwórczych skał magmowych. Ich diagnostyka jest oparta o niską twardość (najniższa wśród minerałów głównych), ale również o pokrój płytkowy, mocny połysk oraz jednokierunkową łupliwość ( Nie znaleziono skrótu dla otoczenia (1) ), (zob. Właściwości fizyczne minerałów ). Muskowit i biotyt są łatwo rozróżnialne dzięki różnemu zabarwieniu.", "Biotyt bywa pleochroiczny (zob. Cechy optyczne minerałów ), w mikroskopie optycznym wykazuje zmienności barw od zielonowawej do brunatnawej [3], [1], [4], [5], [6].", "Do krystalizacji mik dochodzi w końcowych etapach krzepnięcia stopu (zob. Krystalizacja magmy ). Z reguły tworzą kryształy wielkości milimetrów. Duże kryształy, wielkości centymetrów i większe, powstają w pegmatytach, gdzie krystalizacja z resztkowego stopu zachodzi w warunkach wysokiego uwodnienia i obecności gazów. Znane są biotyty, których powierzchnie osiągały 70 \\(m^2\\) oraz muskowity o wadze 85 ton [1].", "Łyszczyki to minerały krystalizujące z magm bogatych w krzemionkę. Są powszechnym składnikiem skał głębinowych i żyłowych, rzadko krystalizują z law, gdyż taki stop jest zubożony w wodę. W skałach wylewnych łyszczyki występują jako prakryształy, wykształcone w warunkach subaeralnych [2].", "Łyszczyki powstają przez krystalizację ze stopu magmowego oraz w wyniku procesów metamorficznych i pomagmowych. Muskowit przechodzi do środowiska osadowego [1]. Należy do minerałów stabilnych w środowisku z racji znacznej odporności na procesy wietrzenia chemicznego. Niska twardość powoduje, że ulega on istotnemu rozdrobnieniu i w skałach osadowych występuje w formie małych i cienkich łuskowatych ziarn. Biotyt wykazuje słabą odporność na zmiany, zarówno pod wpływem procesów pomagmowych, jak i na wietrzenie chemiczne. Raczej krótko funkcjonuje w środowiskach sedymentacyjnych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1313, "subject": "Amfibole", "paragraphs": ["Amfibole to grupa uwodnionych glinokrzemianów, z których znaczenie skałotwórcze w skałach magmowych ma hornblenda \\(NaCa_2(Mg,Fe,AL)_3(SiAl)_8O_{22}(OH)_2\\)( Rys. 1 ), [1], [2], [3], [4].", "Diagnostyczny dla hornblendy jest pokrój, który zwykle jest długosłupowy lub igiełkowy, znaczna twardość oraz cechy optyczne, tj. czarna lub czarno-zielona barwa, szklisty połysk na ścianach kryształu oraz na powierzchniach łupliwości ( Nie znaleziono skrótu dla otoczenia (1) ), (zob. Właściwości fizyczne minerałów ), (zob. Cechy optyczne minerałów ). W grupie minerałów skałotwórczych skał magmowych, hornblenda bywa mylona z piroksenami lub turmalinami. Cechą indywidualną hornblendy jest 6-kątny zarys kryształu w przekroju poprzecznym oraz diagonalny układ powierzchni łupliwości. Jest on zgodny ze ścianami słupa i tworzy dwa systemy przecinające się pod kątem \\(128^o\\). W odmianach krótkosłupowych jednoznaczne odróżnienie hornblendy od piroksenów może być trudne.", "Hornblenda należy do uwodnionych glinokrzemianów, których krystalizacja odbywa się pod powierzchnią Ziemi. Występuje w ziarnach ksenomorficznych (np. w skałach szybkokrystalizujących) lub w ziarnach automorficznych, charakterystycznych dla skał porfirowych (zob. Struktury skał magmowych ). W związku z tym, hornblenda dzielona jest na hornblendę zwyczajną, występującą w obcokształtnych skupieniach ziarnistych, zwykle o czarno-zielonawym zabarwieniu i hornblendę bazaltową, która występuje w formie prawidłowych długosłupowych kryształów automorficznych o zabarwieniu czarno-brązowym [2], [3]. Standardowe kryształy hornblendy osiągają wielkości kilku milimetrów, rzadziej są większe.", "Hornblenda jest powszechnym minerałem skał magmowych. Skały powstające przez krystalizację magm ubogich w krzemionkę zawierają zwykle znaczne ilości hornblendy, w przeciwieństwie do skał krzepnących ze stopów bogatych w krzemionkę, gdzie jej ilość jest niewielka. Amfibole w dużej różnorodności mineralnej są powszechnym składnikiem skał metamorficznych [1]. Minerały te wykazują odporność na działalność czynników wietrzeniowych i przechodzą do środowisk osadowych. Stanowią składnik akcesoryczny skał klastycznych [2]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1324, "subject": "Pirokseny", "paragraphs": ["Pirokseny to grupa minerałów tworząca kryształy mieszane. Znaczenie skałotwórcze w skałach magmowych ma augit( Rys. 1 )\\((Ca,Mg,Fe)_2Si_2O_6\\)[1], [2], [3].", "Diagnostyka augitu oparta jest o znaczną twardość, pokrój kryształu, który zwykle jest krótkosłupowy lub tabliczkowy, czarne lub czarno-zielone zabarwianie i szklisty połysk, zarówno na powierzchni kryształu, jak i na powierzchniach łupliwości ( Nie znaleziono skrótu dla otoczenia (1) ), (zob. Właściwości fizyczne minerałów , Cechy optyczne minerałów ). Cechą swoistą, która pozwala odróżnić augit od podobnej do niego hornblendy, oprócz pokroju kryształu, jest 8-kątny zarys kryształu w przekroju poprzecznym oraz dwukierunkowa łupliwość zgodna ze ścianami słupa, w której płaszczyzny przecinają się pod kątem \\(87^o\\)( Rys. 1 D), [2], [4], [5], [6].", "Augit jest powszechny w skałach głębinowych oraz wylewnych (zob. Środowiska powstania skał magmowych ), może być składnikiem dominującym w skale. Krystalizuje z magm niezasobnych w krzemionkę, obecny jest głównie w skałach obojętnych, zasadowych i ultrazasadowych (zob. Skały obojętne , Skały zasadowe, ultrazasadowe i ultramaficzne ), [1]. W skałach magmowych głębinowych tworzy głównie kryształy auto- i ksenomorficzne, które mają wielkości milimetrów, rozmiary centymetrowe są stosunkowo rzadkie (zob. Struktury skał magmowych ). Automorficzne kryształy augitu występują powszechnie jako krystaloklasty w tufach wulkanicznych ( Rys. 1 A,B), (zob. Skały piroklastyczne ).", "Oprócz skał magmowych, pirokseny są często spotykanym składnikiem skał metamorficznych [3]. Przechodzą również do środowisk osadowych, w których ze względu na słabą odporność, funkcjonują dość krótko."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1317, "subject": "Oliwiny", "paragraphs": ["Oliwiny stanowią istotny składnik skał magmowych z niewielką zawartością krzemionki (zob. Skały zasadowe, ultrazasadowe i ultramaficzne ). Tworzą ciąg minerałów izomorficznych (zob. Budowa wewnętrzna i postać minerałów ) o skrajnych odmianach fajalit \\(Fe_2[SiO_4]\\) – forsteryt \\(Mg_2(SiO_4)\\)[1], [2], [3], [4], [5], [6]. W przyrodzie najczęściej wstępują człony oliwinów zawierające \\(70-90\\%\\) forsterytu.", "Oliwiny są minerałami o charakterystycznych cechach. Wyróżnia je wysoka twardość, oliwkowo-zielone zabarwienie ( Rys. 1 ) oraz brak łupliwości ( Nie znaleziono skrótu dla otoczenia (1) ). W kryształach oliwinów występują liczne spękania, które mogą przypominać systemy łupliwości.", "Oliwiny krystalizują w wysokich temperaturach i powstają w warunkach głębinowych (zob. Krystalizacja magmy ). Są podstawowym składnikiem warstwy perydotytowej, będącej najwyższą strefą płaszcza ziemskiego. Stanowią tam składnik istotny, dominujący lub tworzą mono- lub prawie monomineralne odmiany skalne (zob. Płaszcz Ziemi , Skały zasadowe, ultrazasadowe i ultramaficzne ). Przeciętne kryształy oliwinów osiągają około 5 mm wielkości. Niewielkie ilości tych minerałów dostają się w warunki powierzchniowe Ziemi. W skałach wylewnych występują jako prakryształy lub tworzą ziarniste skupienia występujące w bazaltach, zwane bombami oliwinowymi ( Rys. 1 B, C).", "Oliwiny należą do minerałów nietrwałych, ulegają przeobrażeniom już podczas procesów pomagmowych. Są nieodporne na działanie czynników wietrzeniowych, dlatego bardzo rzadko występują w środowiskach osadowych [6]. Spotykane są w niektórych odmianach skał metamorficznych [2], [7], [8]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1318, "subject": "Minerały poboczne i akcesoryczne", "paragraphs": ["Wśród minerałów pobocznych i akcesorycznych, w skałach magmowych, najczęściej występują cyrkon, apatyt, tytanit, monacyt, ksenotym, ilmenit, magnetyt. Są to jednocześnie minerały zaliczane do grupy minerałów ciężkich, czyli takich których gęstość jest nie mniejsza niż 2,9 \\( g/cm^3 \\) [1].", "Cyrkon ( Rys. 1A) jest powszechnym minerałem akcesorycznym skał magmowych, jest częstym składnikiem odmian kwaśnych i obojętnych (zob. Skały skrajnie kwaśne i kwaśne ), [2]. Występuje zwykle w formie bardzo małych kryształów (ułamki milimetra), tylko w pegmatytach tworzy kryształy osiągające wielkości centymetrów. Jest również składnikiem skał metamorficznych. Należy do minerałów powszechnych w środowisku osadowym. Jest nieczynny chemicznie w środowisku powierzchniowym Ziemi oraz odporny na niszczenie mechaniczne. To czyni go minerałem o wysokiej stabilności w środowisku, który wielokrotnie wchodzi w cykle sedymentacyjne [3], [4], [5].", "Tytanit ( Rys. 1B) występuje w skałach magmowych bogatych w krzemionkę [1], powszechny jest w skałach kwaśnych oraz obojętnych (zob. Skały skrajnie kwaśne i kwaśne, Skały obojętne ). Zwykle tworzy małe, nierozróżnialne makroskopowo kryształy, większe kryształy w skałach magmowych występują sporadycznie. Jest również popularnym minerałem skał metamorficznych. Z powodzeniem przechodzi do środowiska osadowego, gdzie jest stabilny i wielokrotnie wchodzi w cykle osadowe [3], [4].", "Magnetyt ( Rys. 1C) należy do ferromagnetyków (zob. Pole magnetyczne Ziemi ). Występuje w różnych typach skał magmowych, szczególnie powszechny jest w odmianach zasadowych i ultrazasadowych. Choć jest minerałem charakterystycznym, makroskopowo jest trudny do identyfikacji. Zwykle występuje w formie bardzo drobnych, nierozróżnialnych okiem nieuzbrojonym kryształów. Osobniki wielkości milimetrów występują rzadziej. Rozproszone drobne kryształy magnetytu nadają skale czarne lub ciemnoszare zabarwienie. Magnetyt powszechny jest w skałach metamorficznych, gdzie tworzy kryształy różnej wielkości [3], [4], [5].", "Ilmenit ( Rys. 2D) jest minerałem występującym w różnych odmianach skał magmowych, często współwystępuje z hematytem i magnetytem [2]. Znany jest ze skał metamorficznych. Przechodzi do środowiska osadowego, gdzie wchodzi wielokrotnie w cykle osadowe jako minerał stabilny w środowisku [3], [4].", "Apatyt ( Rys. 2A) jest powszechnym minerałem skał magmowych, w których tworzy zwykle małe, bezładnie rozsiane kryształy. Kryształy wielkości centymetrów wstępują głównie w pegmatytach i innych skałach związanych z etapem peneumatolitycznym i hydrotermalnym. Znany jest jako minerał wypełniający geody i druzy. Apatyt występuje również w skałach metamorficznych oraz w skałach osadowych [3], [4], [5].", "Apatyt jest przykładem biominerału, czyli składnika występującego w elementach szkieletowych zwierząt. Kości i zęby kręgowców zawierają m.in. hydroksylapatyt (apatyt wzbogacony w grupę OH-), który pod względem chemicznym jest taki sam, jak występujący minerał w różnych typach skał.", "Monacyt ( Rys. 2C) w skałach magmowych tworzy drobne kryształy. Jest składnikiem głównie skał kwaśnych, występuje też w skałach obojętnych [2]. Powszechny jest w pegmatytach, gdzie tworzy większe, makroskopowo dostrzegalne kryształy. Stanowi minerał wypełniający druzy i geody. W skałach metamorficznych jest rzadszy. Przechodzi do środowiska osadowego, gdzie jest składnikiem stabilnym i wchodzi w skład wielu generacji skał klastycznych [3], [4].", "Ksenotym ( Rys. 2B) powstaje w wyniku procesów magmowych, występuje głównie w skałach kwaśnych wraz z monacytem i cyrkonem. Jest składnikiem niektórych skał metamorficznych oraz osadowych okruchowych. Wchodzi w wiele cykli sedymentacyjnych i wykazuje odporność na działanie czynników wietrzeniowych. Zawiera pierwiastki promieniotwórcze [3], [4]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1319, "subject": "Środowiska powstania skał magmowych", "paragraphs": ["Ze względu na miejsce krzepnięcia ( Rys. 1 ) wyróżniane są:", "W związku z tym, iż powyższe typy skał powstają w różnych warunkach, cechują je różne zespoły cech strukturalnych i teksturalnych oraz morfologia powstałego ciała skalnego.", "Skały wulkaniczne powstają na powierzchni Ziemi ( Rys. 1 ), [4], na/lub w najbliższym otoczeniu wulkanu. W ich obrębie wyróżnia się:", "Skały wulkaniczne powstają na lądzie oraz w środowisku wodnym (zob. Wulkanizm - wprowadzenie ), [5]. Skały wulkaniczne lądowe przyjmują formy zakrzepłych potoków ( Rys. 3 A) lub pokryw lawowych (zob. Lawa ). Zwykle tworzą zespoły potoków lub pokryw występujących w układzie obocznym lub jedna nad drugą, uformowanych w wyniku następujących po sobie jednostkowych aktów efuzywnych lub ekstruzywnych. W wielu przypadkach są rozdzielone przez pokłady różnej miąższości skał piroklastycznych ( Rys. 2 ), ( Rys. 4 D).", "Skały wylewne powstałe w środowisku wodnym nazywane są lawami poduszkowymi i mają najczęściej formę kopców ( Rys. 3 B), (zob. Lawa ). Są to zespoły krótkich i drobnych strug lawowych, które kończą się charakterystyczną bąblowatym rozdęciem tzw. poduszką. Potoki przecinają kopiec lawowy składający się z wcześniejszych generacji potoków, a poduszki formowane są na jego zewnętrznych powierzchniach.", "Tempo chłodzenia lawy na powierzchni Ziemi jest gwałtowne, więc czas krystalizacji jest krótki. Skały wylewne składają się ze szkliwa oraz/lub drobnych kryształów, zatem w tych skałach występują struktury hialinowe, hipokrystaliczne lub mikrokrystaliczne, które w oglądzie makroskopowym określane jako struktury afanitowe [2]. Struktury hipokrystaliczne oraz krystaliczne są pochodzenia pierwotnego lub powstają jako wtórne w procesie dewitryfikacji. Ponad wspomniane, w skałach wulkanicznych występują również struktury porfirowe (zob. Struktury skał magmowych ). Ich obecność wskazuje na zmianę warunków podczas krzepnięcia stopu, która najpierw odbywa się w warunkach głębinowych, gdzie następuje swobodny wzrost prakryształów oraz kolejno w warunkach powierzchniowych, gdzie wykształca się reszta składników skały, w formie drobnych kryształów bądź szkliwa wulkanicznego. Prakryształy skał wylewnych mają zwykle obtopione krawędzie i naroża wskutek wzrostu temperatury stopu, jaka zachodzi podczas erupcji oraz wskutek korozji chemicznej.", "W przekroju poduszki, potoku lub pokrywy lawowej, zwłaszcza o dużej miąższości, mogą zaznaczać się różnice w wykształceniu strukturalnym. W strefach centralnych, które powstawały przy wydłużonym czasie krzepnięcia znajdują się zwykle większe ilości składników krystalicznych, w stosunku do stref obwodowych, które krzepły najszybciej ( Rys. 4 ).", "W skałach wulkanicznych występują tekstury masywne oraz pęcherzykowate i migdałowcowe. Struktury pęcherzykowate koncentrują się w górnych częściach potoków/pokryw wulkanicznych oraz obwodowo w poduszce ( Rys. 4 C, D, E). Związane są z procesem odgazowywania stopu i zamrożenia migrujących do stref o niższym ciśnieniu pęcherzy gazowych. Strefy pęchykowate od zewnątrz są obleczone cienką warstwą skały szklistej i zbitej, która zakrzepła wcześniej, w bezpośrednim kontakcie ze środowiskiem zewnętrznym. W skałach wulkanicznych występują tekstury bezładne i kierunkowe. Tekstury kierunkowe wynikają głównie z przemieszczenia się stopu i są powszechne zwłaszcza w skałach efuzywnych. Zaznaczają się równoległym układem rozciągniętych pęcherzy pogazowych w teksturach pęcherzykowatych lub migdałowcowych, układem smug w afanitowych skałach masywnych lub równoległą orientacją prakryształów o wydłużonych lub płaskich pokrojach w skałach porfirowych (zob. Tekstury skał magmowych ).", "Krzepnięcie w obrębie skorupy ziemskiej sprzyja krystalizacji stopu glinokrzemianowego, dlatego skały powstałe w tych warunkach cechują struktury holokrystaliczne (zob. Struktury skał magmowych ), [2]. Wielkość kryształów jest zależna od warunków krystalizacji, dlatego skały krzepnące bliżej powierzchni Ziemi lub w peryferycznych częściach dużych komór magmowych, gdzie stop jest najszybciej chłodzony, składają się z kryształów mniejszych. Skały powstałe w optymalnych warunkach zbudowane są z dużych, generalnie podobnej wielkości kryształów. W skałach głębinowych występują struktury równoziarniste, wynikające ze stabilnych warunków w czasie chłodzenia i nierównoziarniste, które wskazują na zamianę tych warunków. Struktury porfirowate są oznaką stopniowo pogarszających się warunków, natomiast struktury fanerokrystaliczno-porfirowe świadczą o dwóch odrębnych etapach krystalizacji, w bardziej lub mniej sprzyjających warunkach [5]. Krzepnięcie w litosferze odbywa się pod ciśnieniem. W większości skały głębinowe są zbite, struktury porowate występują podrzędnie. Przestrzenie porowe związane są głównie ze skałami kwaśnymi, które krystalizują z magm zasobnych w fazę gazową. Pory w skałach głębinowych o strukturach fanerokrystalicznych mają formę miarol. W skałach głębinowych dominują tekstury bezładne. Tekstury kierunkowe są rzadsze, zaznaczają się równoległym ułożeniem kryształów o pokrojach wydłużonych lub płaskich (zob. Tekstury skał magmowych ). Układ taki powstaje w trakcie przemieszczania się stopu bądź formowany jest pod wpływem ciśnienia.", "Cechy strukturalne i teksturalne skał żyłowych zależą od głębokości, na której dochodzi do krzepnięcia magmy oraz od wielkości krzepnącego ciała ( Rys. 5 ). W ich obrębie może występować szerokie spektrum cech [2]. Zwykle w skałach żyłowych występują struktury fanerokrystaliczne, drobnoziarniste, fanerokrystaliczno-porfirowe i porfirowate. Powszechne są tekstury kierunkowe fluidalne, jak i tekstury bezładne (zob. Tekstury skał magmowych ). Drobne żyły magmowe lub ciała powstające blisko powierzchni Ziemi mają cechy skał wulkanicznych, cechuje je struktura afanitowa lub porfirowa. Z kolei, skały powstające na głębokościach kilku kilometrów mogą mieć cechy skał głębinowych. Duża różnorodność cech strukturalnych w skałach żyłowych powoduje, że identyfikacja oparta o struktury i tekstury nie jest miarodajna, powinna być uzupełniona o ustalenie geometrii ciała magmowego."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1392, "subject": "Klasyfikacje skał magmowych", "paragraphs": ["Skały magmowe cechuje wysoka różnorodność. Jest ona pochodną składu chemicznego stopu glinokrzemianowego i różnych warunków krystaliacji. Magmy pierwotne mają niejednolite chemizmy, gdyż tworzą się przez wytapianie różnych skał macierzystych, a ich późniejsza dyferencjacja prowadzi do powstania całej gamy rozmaitych stopów. W wyniku ich krystalizacji powstają skały, które posiadają odmienny skład mineralny, a zróżnicowane warunki krzepnięcia wpływają na wykształcenie przeróżnych cech strukturalno-teksturalnych (zob. Rodzaje magmy , Dyferencjacja magmy ).", "Klasyfikacja skał magmowych oparta jest o skład mineralny, który wynika ze składu chemicznego. Podstawą podziału na główne grupy jest zawartość krzemionki w skale [1], której szacunkowa ilość jest określana na podstawie wskaźników mineralnych. Do wskaźników tych należą kwarc, skalenie alkaliczne, plagioklazy, skaleniowce, stanowiące sekwencję minerałów o malejącej ilości krzemionki (zob. Kwarc , Skalenie , Skaleniowce ), [2]. Występowanie kwarcu wiąże się z nadmiarem krzemionki w skale, z kolei obecność skaleniowców z jej niedoborem. Z uwagi na jasne zabarwienie wskaźników mineralnych nazywane są one minerałami jasnymi(felzytowymi).", "Pod względem obecności i wzajemnych proporcji składników mineralnych skały magmowe dzielone są na 5 grup głównych, są to ( Rys. 1 ), [3], [1]:", "Powyższy podział stosuje się do skał magmowych, w których składniki jasne stanowią przynajmniej \\(10\\%\\) skały. Jeśli tych składników jest mniej, wyróżniana jest grupa skał skrajnie maficznych(ultramaficznych).", "W głównych grupach skał magmowych wydzielane są klasy skalne, odpowiednio dla skał wylewnych, głębinowych i żyłowych (zob. Środowiska powstania skał magmowych ).", "Udział i rodzaj wskaźników mineralnych w skałach magmowych może być szacowany przy wykorzytaniu wskaźnika barwy( Rys. 2 ), [4], [5]. Jest to ogólny stosunek minerałów jasnych do minerałów ciemnych (maficznych), czyli sumaryczna ilość kwarcu, skalenia i skaleniowców do sumarycznej ilości amfiboli, piroksenów, oliwinów, łyszczyków. Wskaźnik barwy opiera się na zależności, iż przy sukcesywnie zmniejszającej się ilości krzemionki w skałach, zwiększa się ilość minerałów ciemnych, a spada udział minerałów jasnych. To wydatnie wpływa na generalne zabarwienie skał. Skały dzielone są na 3 grupy ( Rys. 2 ), [3]:", "Wraz ze wzrostem ilości minerałów ciemnych zwiększa się ciężar właściwy skał magmowych. W skałach leukokratycznych wynosi on 2,35 – 2,7 \\(g/cm^3\\), w skałach mezokratycznych od 2,7 – 2,9 \\(g/cm^3\\), a w melanokratycznych 3,0-3,2\\(g/cm^3\\).", "Skały magmowe są ważnym i podstawowym składnikiem litosfery. W skorupie oceanicznej dominują skały zasadowe i obojętne, w skorupie kontynentalnej wystepują skały zasadowe, obojętne i kwaśne, a skały ultramaficzne są typowym budulcem dolnych części litosfery."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1321, "subject": "Skały skrajnie kwaśne i kwaśne", "paragraphs": ["Cechą charakterystyczną skał kwaśnych jest obecność w skale kwarcu (zob. Kwarc ) w ilości ponad \\(20\\%\\). Skały głębinowe kwaśne bywają zbiorczo nazywane granitoidami( Rys. 1 ). Występowanie obok kwarcu skaleni alkalicznych (zob. Skalenie ), zwykle w formie ortoklazu i albitu, jest charakterystyczne dla granitów alkaliczno-skaleniowych i ich odpowiedników wylewnych - riolitów alkalicznych( Rys. 1 ). Skały, w których występują różne grupy skaleni, ale zaznacza się dominacja lub porównywalny udział skaleni alkalicznych i plagioklazów z grupy albit-oligoklaz, są klasyfikowane jako granity, a ich wylewne odmiany jako riolity. Istotna dominacja plagioklazów (albit-andezyn) nad skaleniami alkalicznymi jest podstawą do wyróżnienia granodiorytów w grupie skał głębinowych oraz dacytów w grupie skał wylewnych. Występowanie obok kwarcu plagioklazów (oligoklaz-andezyn) jest charakterystyczne dla tonalitów oraz plagiodacytów. W skałach żyłowych granitoidy reprezentowane są przez pegmatyty i aplity( Rys. 1 ). Udział minerałów ciemnych (biotytu, amfiboli, piroksenów) w skałach kwaśnych jest niewielki, w granitach wynosi kilka procent, w granodiorytach i tonalitach wzrasta do \\(20\\%\\)[1], [2], [3], [4], [5], [6], [7].", "Identyfikacja skał kwaśnych", "W wielu ze skał głębinowych kwaśnych występują duże, łatwo identyfikowalne kryształy, co sprzyja ich analizie makroskopowej. Trudności może sprawiać diagnostyka poszczególnych grup skaleni, zwłaszcza w odmianach drobnokrystalicznych. W granitoidach powszechnie występują struktury średnio- i gruboziarniste oraz porfirowate (zob. Struktury skał magmowych ), z reguły są to skały zbite i masywne, podrzędnie występują miarole (zob. Tekstury skał magmowych ). Obecność skaleni alkalicznych, w tym ortoklazu w granitach powoduje, że mają one zabarwienie różowawe. Granodioryty oraz tonality występują w odcieniach szarości ( Rys. 2 ), [4].", "Aplity to zwykle zbite skały żyłowe, drobnoziarniste do bardzo drobnoziarnistych o jasnym, białym ( Rys. 3 A) lub różowym odcieniu. Z kolei pegmatyty to skały grubo- lub bardzo gruboziarniste, w ich obrębie występuje tekstura pismowa, która jest właściwa tylko dla tej grupy skał [4]. Pegmatyty formują różne ciała skalne. Powszechnie występują jako wypełnienia pustek-miarol lub mogą tworzyć większe formy masywne i różnej wielkości żyłowe. Pegmatyty należą do skał krystalizujących z tzw. stopów resztkowych, czyli składników magmy pozostałych po wykrystalizowaniu głównej masy plutonów granitowych (zob. Krystalizacja magmy ). Skład mineralny pegmatytu jest analogiczny do granitu, z tą różnicą, że kryształy są kilka do kilkuset razy większe ( Rys. 3 C). Dodatkowo, w pegmatytach występują minerały, które są zasobne w lantanowce, tj. tor, uran, niob. Drobnoziarniste skały żyłowe z podwyższoną ilością minerałów ciemnych określane są jako lamprofiry. Przeważnie mają barwę szarą, ciemnoszarą lub czarną, bywają również czerwonawe lub zielonawe [4]. Najczęściej są ciemniejsze od skał, które przecinają. Identyfikacja makroskopowa skał żyłowych kwaśnych, przy braku możliwości określenia formy ciała magmowego i odróżnienie ich od niektórych odmian wylewnych może być problematyczna.", "W odmianach porfirowych diagnostyka makroskopowa opiera się na analizie prakryształów. W skałach kwaśnych zwykle występują zarówno prakryształy z kwarcem, jak i ze skaleniem ( Rys. 4 A, B ), w podrzędnej ilości z biotytem. Dla skał, w których oszacowanie skaleni w prakryształach nie jest możliwe, w nieformalnym nazewnictwie stosuje się ogólne określenie - porfir kwarcowy. W strukturze afanitowej przeprowadza się jedynie szacowanie przynależności klasyfikacyjnej stosując wskaźnik barwy, zgodnie z zasadą, że większość skał leukokratycznych to skały zawierające wśród minerałów jasnych również kwarc. Skały kwaśne afanitowe charakteryzuje ogólne zabarwienie w różnych odcieniach barwy kremowej, szarej i różowej. Podczas gwałtownego krzepnięcia skały kwaśne tworzą odmiany szkliste, przykładem jest obsydian i smołowiec [4].", "Skały skrajnie kwaśne zawierają ponad \\(60\\%\\) kwarcu. W skałach głębinowych wyróżniane są granity silnie kwarcowe, gdy kwarcowi towarzyszą skalenie. Makroskopowo podobne są do granitoidów. Skały skrajnie kwaśnie są rzadko spotykane."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1322, "subject": "Skały obojętne", "paragraphs": ["W skałach obojętnych głównym składnikiem są skalenie (zob. Skalenie ). Przewaga skaleni alkalicznych wśród minerałów jasnych jest podstawą do wydzielenia w skałach głębinowych grupy sjenitoidów, z klasami sjenitów(ze znaczną przewagą skaleni alkalicznych, głównie ortoklazu) i monzonitów(z porównywalną ilością skaleni alkalicznych i plagioklazów). Odmianami wulkanicznymi są trachity i latyty, łączone w grupę trachitoidów ( Rys. 1 ). Dominacja plagioklazów nad skaleniami alkalicznymi jest podstawą do wydzielenia diorytów w skałach głębinowych oraz andezytów w skałach wylewnych, a występowanie tylko plagioklazów zasadowych jest typowe dla gabr i anortozytów, których odpowiednikiem wylewnym są bazalty. W skałach żyłowych wyróżniane są doleryty i diabazy( Rys. 1 ), [1], [2], [3], [4], [5], [6].", "Skały obojętne z dużą ilością skaleni alkalicznych mogą zawierać do kilkunastu procent kwarcu, z kolei skały z dominacją plagioklazów wapniowych mogą zawierać do kilku procent skaleniowców.", "Identyfikacja skał obojętnych", "Sjenitoidy należą do skał leukokratycznych i składają się z minerałów jasnych. Ilość minerałów ciemnych tj. biotyt, hornblenda jest marginalna. W klasie diorytu ilość minerałów ciemnych wzrasta i wynosi \\(20\\%\\) lub więcej, z kolei w gabrach przekracza \\(50\\%\\). Minerały ciemne gabr to głównie pirokseny, w mniejszej ilości mogą występować amfibole lub oliwiny. Anortozyty zawierają niewiele minerałów ciemnych, składają się głównie z plagioklazów zasadowych.", "Ze względu na znaczne ilości ortoklazu sjenity zwykle mają zabarwienia czerwone i różowe, a monzonity, zawierające wysoką zawartość plagioklazów z grupy oligoklaz-andezyn, są szare ( Rys. 2 A, B ). Sjenitoidy są grubo-, średnioziarniste lub porfirowate, zwykle zbite i bezładne (zob. Struktury skał magmowych , Tekstury skał magmowych ). Diorytoidy mają struktury średnioziarniste, są bezładne lub mają teksturę równoległą, podkreśloną rozkładem minerałów o pokrojach wydłużonych ( Rys. 2 C). Występują w odcieniach szarych lub są biało-czarne. Powszechnie występujące plagioklazy z grupy oligoklaz-andezyn w diorytoidach są zwykle zielonkawe [7]. Gabra i anortozyty to skały głównie grubokrystaliczne. Gabra to skały ciemne, występują w kolorystyce od zielonoszarych przez ciemnoszare do czarnych ( Rys. 2 D, E, F). Barwa zależy od ilości, zabarwionych na szaro, plagioklazów zasadowych z grupy labrador-bytownit oraz od ciemnych piroksenów [7]. Anortozyty składają się głównie ze skaleni zasadowych, mają zabarwienie szare lub szarozielonkawe i są jaśniejsze od gabr.", "Skały żyłowe zwykle mają struktury drobnoziarniste ( Rys. 3 ) i ich diagnostyka makroskopowa, ze względu na ograniczone możliwości obserwacji makroskopowych, jest utrudniona. Odmiany jasne, zawierające skalenie oraz minerały ciemne barwy szarej, nazywane są lamprofirami. Zaliczane są tu żyłowe odpowiedniki sjenitoidów oraz diorytoidów. Jeśli istnieje możliwość ustalenia stosunków jakościowych i ilościowych skaleni, używa się nazw nawiązujących do skał głębinowych, tj. mikrosjenit, mikromonzonit, mikrodioryt. Diabazy, będące odpowiednikami klasy gabra i bazaltu, są skałami czarnymi, ciemnoszarymi i drobnokrystalicznymi ( Rys. 3 A).", "Skały wulkaniczne mają struktury afanitowe lub porfirowe ( Rys. 4 ). W skałach porfirowych, w prakryształach, występują skalenie, z którymi mogą współwystępować amfibole, pirokseny, biotyt lub występuje tylko oliwin [7]. Takie skały makroskopowo wyróżniane są jako porfiry bezkwarcowe. Zespół prakryształów może służyć jako szacunkowy dla potrzeb klasyfikacyjnych. Prakryształy hornblendy zwykle występują w szarym cieście skalnym, co jest typowe dla andezytów, a prakryształy oliwinu znajdują się w ciemnym cieście skalnym, co jest charakterystyczne dla bazaltów.", "Dla szacunkowego określenia przynależności klasyfikacyjnej skał afanitowych wykorzystuje się wskaźnik barwy. Trachitoidy, podobnie jak odpowiadające im głębinowe sjenitoidy, to skały leukokratyczne, które cechuje ogólne jasne zabarwienie różowe lub szare. Bazalty, składające się w przeważającej części z minerałów ciemnych, mają zabarwienie od czarnego i ciemnoszarego do brązowo-czerwonego ( Rys. 4 E, F). W ich obrębie mogą występować ziarniste skupienia oliwinu, zwane bombami oliwinowymi. Poza teksturami zbitymi i bezładnymi, w bazaltach powszechne są tekstury pęcherzykowate i fluidalne."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1323, "subject": "Skały zasadowe, ultrazasadowe i ultramaficzne", "paragraphs": ["Cechą skał zasadowych i ultrazasadowych jest dominacja skaleniowców (zob. Skaleniowce ) w grupie minerałów jasnych. Współwystępowanie skaleniowców oraz skaleni (zob. Skalenie ) jest podstawą wyróżnienia skał zasadowych, brak skaleni decyduje o przynależności do skał ultrazasadowych [1]. Skały te mają podrzędne znaczenie w budowie skorupy ziemskiej, zwykle tworzą niewielkie ciała magmowe, za wyjątkiem skał wylewnych, które spotykane są w większej ilości.", "Zasadowe skały głębinowe reprezentowane są przez dwie grupy: sjenitoidy foidowe, które obok skaleniowców zawierają skalenie alkaliczne i niewielką ilość składników ciemnych oraz diorytoidy foidowe, zawierające obok skaleniowców plagioklazy i większą ilość składników ciemnych ( Rys. 1 ). Odpowiednikiem wylewnym sjenitodiów foidowych są fonolity, a diorytoidów foidowych są tefryty i bazanity, łączone w grupę tefroidów [1], [2], [3], [4], [5].", "Identyfikacja skał zasadowych", "Sjenitoidy foidowe oraz ich wulkaniczne odpowiedniki są skałami leukokratycznymi, mają ogólne zabarwienie szare, z odcieniem różowym lub zielonkawym. Diorytoidy foidowe makroskopowo są podobne do gabra. Tefryty cechuje barwa szara, a bazanity - ciemnoszara do czarnej [1]. Odmiany wylewne są masywne lub porowate, również migdałowcowe (zob. Tekstury skał magmowych ). Foidolity to głębinowe skały ultrazasadowe, czyli takie, które zawierają skaleniowce w grupie minerałów jasnych. Charakteryzuje je struktura gruboziarnista (zob. Struktury skał magmowych ), tekstura zbita i bezładna. Przedstawicielami tych skał są urtyty i ijonity. Urtyty mają zabarwienie jasnoszare z odcieniem zielonym lub różowym, mogą zawierać do \\( 30\\% \\) minerałów ciemnych. Ijonity mają barwy od szarych do ciemnoszarych, mogą zawierać do \\( 70\\% \\) minerałów ciemnych. Wulkanicznym odpowiednikiem foidolitów są foidyty, reprezentowane przez nefelinity i leucytyty. Są to skały afanitowe lub porfirowe z parakryształami piroksenu. Leucytyty występują w zabarwieniu jasnoszarym lub szaro-zielonym, nefelinity mają barwy od szarej do czarnej. Identyfikacja makroskopowa skał zasadowych i ultrazasadowych jest problematyczna. Podstawową trudnością jest identyfikacja skaleniowców i odróżnienie ich od skaleni. Skały zasadowe i ultrazasadowe wykazują wysokie podobieństwo w obrazie makroskopowym do skał obojętnych.", "Skały ultramaficzne (skrajnie melanokratyczne) składają się z minerałów ciemnych, czyli oliwinu, amfibolu i/lub piroksenu (zob. Oliwiny, Amfibole, Pirokseny ), [1], którym może towarzyszyć niewielka domieszka, w ilości do kilku procent, minerałów jasnych, zwykle skaleniowców. Charakterystyczna dla tych skał jest zdecydowana dominacja jednego z minerałów ciemnych. Gdy dominuje oliwin wyróżniane są perydotyty, gdy to jest jeden z piroksenów – wyróżniane są piroksenity, gdy to jest hornblenda – hornblendyty. Odmiany żyłowe nazywane są pikrytami [6]. Skały ultramaficzne powstają głownie w środowiskach głębinowych [1], [7], znacznie rzadziej tworzą żyły, sporadycznie krystalizują w warunkach powierzchniowych.", "Identyfikacja skał ultramaficznych", "Typowe perydotyty mają zabarwienie zielono-szare, zielono-czarne, a gdy nie mają domieszek innych minerałów są jasno zielone ( Rys. 2B). Są to skały, które budują dolne części litosfery, przynależące do górnego płaszcza ziemskiego. Mają struktury od drobno- do gruboziarnistych, zwykle równoziarniste lub porfirowate. Hornblendyty i piroksenity są barwy czarnej lub czarnozielonej ( Rys. 2A, C). Hornblendyty mają struktury grubo- lub bardzo gruboziarniste i równoziarniste. Pirokseny są średnio- lub gruboziarniste, równoziarniste lub porfirowate. Głębinowe skały ultramaficzne są zbite, mają tekstury bezładne lub uporządkowane. Pikryty są drobnokrystaliczne lub porfirowe z oliwinami lub/i piroksenami w prakryształach. Mają zabarwienie od czarnego do ciemnoszarego lub czarno-zielonego, makroskopowo są trudno odróżnialne od zasadowych diabazów."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały magmowe i piroklastyczne", "subject_id": 1320, "subject": "Skały piroklastyczne", "paragraphs": ["Skały piroklastyczne ( Rys. 1 ) są deponowane w otoczeniu krateru i tworzą pokrywę (warstwę) na skałach podłoża lub skałach pochodzenia wulkanicznego, powstałych w wyniku wcześniejszych erupcji (zob. Środowiska powstania skał magmowych ). W związku z tym, iż składają się z ziaren, których osadzenie poprzedzone jest transportem, zaliczane są do grupy skał osadowych [1]. Długość drogi transportu składników jest zróżnicowana, zależy od wielkości materiału piroklastycznego, jego ilości, masy oraz siły eksplozji. Ziarna duże, występują w skałach piroklastycznych deponowanych w bezpośrednim sąsiedztwie wulkanu. Wraz ze wzrostem odległości od wulkanu zmniejsza się frakcja ziaren. Najdrobniejsze frakcje, czyli pyły wulkaniczne, mogą być latami zawieszone w atmosferze.", "Nagromadzenie nieskonsolidowanego materiału piroklastycznego w środowisku lądowym nazywane jest tefrą( Rys. 1 A, B ), [1]. Jest to skała luźna, nierozsortowana, której depozycja była poprzedzona relatywnie krótkim transportem. Składa się z piasków i pyłów, w których mogą występować wszystkie inne typy piroklastów tj. bloki, bomby i lapille (zob. Środowiska powstania skał magmowych ), [1]. Tefra deponowana jest na stokach wulkanu oraz w jego bezpośrednim otoczeniu. Tworzy pokrywę klastyczną, której grubość maleje wraz z odległością od krateru. Warstwy piroklastyczne zbudowane tylko z frakcji aleurytowej i pelitowej nazywane są pyłami wulkanicznymi, gdy zawierają piaski nazywane są popiołami wulkanicznymi. Frakcja lekka piroklastów może być transportowana na duże odległości, jej depozycja może być istotnie oddalona od miejsca erupcji.", "Skonsolidowany materiał tefry, który przeszedł procesy lityfikacyjne, nazywany jest tufem( Rys. 1 C), ( Rys. 2 ), [2], [3]. Podstawowym składnikiem większości tufów jest zcementowany popiół, w którym wyróżnia się następujące typy ziarn:", "Popiół wulkaniczny stanowi główną masę skały lub tło, w którym występują inne, większe ziarna pochodzenia magmowego [1], [2]. W zależności od rodzaju składników tufy dzieli się na:", "Tufy zwykle są skałami porowatymi, o strukturze bezładnej lub ze słabo zaznaczonym uporządkowaniem równoległym. Charakteryzuje je niska selekcja materiału ziarnistego, która wzrasta wraz odległością od źródła erupcji. Tufy przyjmują zabarwienia od szarego i beżowego, przez różowawe i fioletowawe do brunatnego.", "Tufity to skały mieszane, składające się z drobnego materiału piroklastycznego (pyłu i/lub piasku wulkanicznego) w ilości od \\(25-75\\%\\) oraz materiału osadowego, typowego dla danego środowiska sedymentacyjnego ( Rys. 3 A), [1], [2]. Powstają w wyniku osadzenia materiału piroklastycznego w środowisku wodnym lub transportu materiałów piroklastycznych przez wodę. W ich obrębie występują struktury sedymentacyjne, odpowiadające dynamice środowiska. Większość zachowanych tufitów to osady środowisk morskich lub jeziornych, które deponowane były z suspensji, czyli swobodnego opadania zawiesiny. Są skałami słabo porowatymi, barwy od białej do szarej. Tworzą warstwy, zwykle są równolegle laminowane, z gradacją normalną ziarna, która jest efektem segregacji materiału w słupie wody. Ilość materiału piroklastycznego zmniejsza się ku górze warstwy.", "Zdiagenezowane tufity, w których w wyniku podmorskiego wietrzenia doszło do transformacji materiału piroklastycznego w minerały ilaste z grupy montmorylonitu, nazywane są bentonitami( Rys. 3 C).", "Do skał piroklastycznych zalicza się również ignimbryty(tufy spieczone)( Rys. 3 B), [2]. Tworzą pokrywy powstające w wyniku depozycji składników magmowych (kryształy, szkliwo, fragmenty skał) przy udziale sprężonej pary wodnej i innych fluidów. Powstają przez depozycję z wysokoenergetycznych i gorących spływów piroklastycznych (zob. Materiały piroklastyczne ). Są to skały barwy białej, szarej lub różowej, porowate, bezładne lub ze słabo zaznaczonymi strukturami kierunkowymi. Większe ziarna, w obrębie ignimbrytów, mają skorodowane krawędzie [1]."], "definitions": [{"name": " Definicja 1: Skały piroklastyczne ", "content": " skały powstające w wyniku sedymentacji, zbudowane są z\nmateriału ziarnowego, wyrzuconego z wulkanu podczas erupcji, czyli piroklastów (zob. Materiały\npiroklastyczne ), których zawartość przekracza \\(75\\%\\) składników skały [1]. "}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Metamorfizm", "subject_id": 1344, "subject": "Metamorfizm - wprowadzenie", "paragraphs": ["Przeobrażeniom metamorficznym ulegają wszystkie rodzaje skał: magmowe, osadowe i metamorficzne (wcześniej słabiej przeobrażone). Skala przeobrażeń jest zróżnicowana ( Rys. 1 ).", "Najłatwiej podlegają metamorfozie skały osadowe, najtrudniej magmowe głębinowe, które powstają w warunkach wysokiej temperatury i ciśnienia."], "definitions": [{"name": " Definicja 1: Metamorfizm ", "content": " jest to zespół procesów prowadzących do zmian strukturalnych,\nteksturalnych, składu mineralnego i chemicznego pod wpływem wysokiego ciśnienia, wysokiej temperatury i\nkrążących substancji. Przemiany te zachodzą w stanie stałym. Przyjmuje się, że granicę między diagenezą a\nmetamorfizmem wyznacza temperatura \\({200}{^o}\\) C i ciśnienie rzędu 2 kilobarów."}]} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Metamorfizm", "subject_id": 1345, "subject": "Czynniki metamorfizmu", "paragraphs": ["Metamorfozę wywołuje wiele różnych czynników, przy czym jeden lub dwa z nich są dominujące. Podstawowe czynniki to:", "Temperatura jest najważniejszym czynnikiem metamorfozy [1], [2], [3], [4]. Podwyższenie temperatury związane jest z pogrążaniem skał w głębsze strefy skorupy ziemskiej (stopień geotermiczny)( Rys. 1 ), (zob. Pióropusze płaszcza i plamy gorąca ) albo z oddziaływaniem intruzji magmowych i pióropuszy płaszcza. Wzrost temperatury powoduje wiele zmian w składzie mineralnym: generalnie przyspiesza reakcje chemiczne i w efekcie wywołuje zmiany polimorficzne, przekrystalizowanie i rekrystalizację. Przekrystalizowaniu (powstaniu większych kryształów) ulegają skały skryto- i drobnokrystaliczne. Następuje także proces rekrystalizacji szkliw wulkanicznych i likwidacja stanów koloidalnych. Wzrost temperatury prowadzi do dehydratyzacji minerałów uwodnionych, dehydroksylacji minerałów zawierających grupę \\(OH\\) oraz dysocjacji termicznej węglanów. W wyniku tych reakcji powstaje duża ilość \\(H_2O\\) i \\(CO_2\\), które tworzą bardzo ruchliwy roztwór. Roztwór ten, migrując, wywołuje przemiany metasomatyczne (zob. Metasomatoza ).", "Ciśnienie statyczne", "Skały pogrążające się w głąb skorupy ziemskiej podlegają coraz większemu ciśnieniu, wywieranemu przez wyżej leżące masy skalne [5], [6]. Wzrost ciśnienia powoduje zmniejszenie objętości minerałów i skał ( Rys. 2 ) i jest odwrotnie skorelowany ze wzrostem temperatury. Jeśli temperatura przyspiesza reakcje chemiczne, to ciśnienie je hamuje. Generalnie, ciśnienie statyczne powoduje zastępowanie minerałów o strukturach luźniejszych przez minerały z gęściej upakowanymi atomami lub jonami [3], [2], [7], [4], [8].", "Ciśnienie kierunkowe (stress)", "W przeciwieństwie do ciśnienia statycznego, ciśnienie kierunkowe wywołują ruchy górotwórcze i związane z nimi ruchy tektoniczne ( Rys. 3 ), [5], [6]. W płytkich strefach skorupy ziemskiej ciśnienie kierunkowe prowadzi do kruszenia i mielenia skał. Silne oddziaływanie ciśnienia kierunkowego prowadzi do powstania minerałów stressowych (np. dysten, łyszczyki, chloryty) i tekstur kierunkowych (laminacja, foliacja, lineacja)( Rys. 4 ), [5], [3], [2], [7], [8].", "Fluidy i wędrówka substancji", "Większość procesów metamorficznych zachodzi przy małym udziale fazy ciekłej. Jednak w wielu skałach fluidy występują w porach międzyziarnowych, tworząc cienkie otoczki na ziarnach. W wysokiej temperaturze mogą być one bardzo aktywne. Jest to roztwór zjonizowany, zawierający aniony \\(OH\\) i \\(CO_2\\), podrzędnie \\(SO_4\\) i \\(Cl\\) oraz wiele różnych kationów. W efekcie, taki roztwór może rozpuszczać minerały nietrwałe, ułatwia reakcje wymienne przez dyfuzję i przyspiesza krystalizację nowych minerałów. Jeśli takie substancje, w efekcie reakcji między minerałami, uwalniają różne pierwiastki lub tlenki (szczególnie \\(K\\) i \\(Na\\), ale także \\(Cl\\), \\(CO_2, OH, H_2O\\)), to te substancje wędrując przez masywy skalne powodują powstanie nowych minerałów [2], [4], [9]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Metamorfizm", "subject_id": 1346, "subject": "Rodzaje metamorfizmu", "paragraphs": ["Funkcjonuje wiele różnych kryteriów klasyfikacyjnych metamorfizmu [1], [2], [3], [4]. Jeśli kryterium klasyfikacyjnym jest kierunek zmian, to wyróżniamy:", "W obrębie metamorfizmu progresywnego, w zależności od objętości skał metamorficznych, wyróżniono [2]:", "Metamorfizm regionalny [5], [4] zachodzi w warunkach pogrążania mas skalnych w głębokie (powyżej 5 km) strefy skorupy ziemskiej. Wywołany jest wysokim ciśnieniem statycznym i wysoką temperaturą. Czynnikiem dodatkowym może być krążenie substancji, a w płytszych strefach skorupy ziemskiej także ciśnienie kierunkowe. Metamorfizm regionalny charakteryzuje szerokie spektrum natężenia czynników w miarę przesuwania się w głąb skorupy ziemskiej.", "Odmianami metamorfizmu regionalnego są [2]:", "W obrębie metamorfizmu lokalnego wyróżniamy:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Metamorfizm", "subject_id": 1347, "subject": "Strefy metamorfizmu", "paragraphs": ["Wraz ze wzrostem głębokości pogrążenia kompleksów skalnych rośnie intensywność przeobrażeń. Wyróżniamy w odniesieniu do metamorfizmu regionalnego trzy stopnie przeobrażenia: niski, pośredni i wysoki.", "Często w literaturze odpowiadają im trzy strefy [1], [2], [3]: epizona, mezozona i katazona ( Rys. 1 )."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Metamorfizm", "subject_id": 1348, "subject": "Facje metamorficzne", "paragraphs": ["Najważniejsze klasyfikacje metamorfizmu opierają się na pojęciu facji metamorficznej [1], [2], [3], [4], [5].", "Facja metamorficzna oznacza pewien zakres ciśnienia i temperatury, w których trwałe są określone zespoły mineralne.", "Najczęściej wyróżniamy następujące facje ( Rys. 1 ), [3], [4]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Metamorfizm", "subject_id": 1350, "subject": "Ultrametamorfizm", "paragraphs": ["Procesy metamorficzne przebiegają bez znaczącego udziału fazy ciekłej. Po przekroczeniu pewnej, granicznej wartości temperatury i ciśnienia występuje zjawisko coraz intensywniejszego wytapiania składników o niskim stopniu topnienia i pojawianie się coraz większych ilości stopu krzemianowego. Rozpoczyna się proces ultrametamorfizmu. Granica nie jest stała i zależy od składu mineralnego, chemicznego oraz udziału składników lotnych.", "Procesy ultrametamorficzne przebiegają w dwóch stadiach [1]:", "Produktem ultrametamorfizmu są migmatyty ( Rys. 1 ), [2], [3], [1]. Zbudowane są one z dwóch składników: paleosomu, czyli skały pierwotnej, która nie przeszła w fazę ciekłą oraz neosomu, czyli nowej skały powstałej z krystalizacji wtórnej magmy. Migmatyty charakteryzuje specyficzna forma:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Metamorfizm", "subject_id": 1349, "subject": "Metasomatoza", "paragraphs": ["Metasomatoza to proces przeobrażenia skał w stanie stałym, pod wpływem gazów i cieczy doprowadzonych z zewnątrz. Są one łatwo rozpuszczalne w roztworach porowych i uruchomiane do wędrówki wywołują przemiany mineralne [1], [2], [3].", "W obrębie metasomatozy wyróżniamy szczególne typy metamorfozy:", "Procesy metasomatyczne wywołują wiele przekształceń mineralnych. Są to:", "Z utworami metasomatycznymi związane są koncentracje złożowe wielu metali (Fe, Cu, Co, Mo, Zn, Pb, Mn i innych)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1357, "subject": "Skały metamorficzne - wprowadzenie", "paragraphs": ["Skały metamorficzne powstają przez zmianę struktury, tekstury oraz/lub składu mineralnego skał wyjściowych, która odbywa się pod wpływem czynników metamorficznych, czyli ciśnienia, temperatury, fluidów i czasu (zob. Metamorfizm - wprowadzenie ). Metamorfizmowi podlegają wszystkie typy genetyczne skał, czyli skały magmowe, osadowe oraz metamorficzne. Większość skał metamorficznych powstaje w środowisku wnętrza skorupy ziemskiej lub płaszcza. Tylko niewielka ich część formowana jest na powierzchni Ziemi. Należą do nich skały przeobrażone pod wpływem impaktów (metamorfizm szokowy) lub odziaływania termicznego law wulkanicznych (jeden z typów metamorfizmu kontaktowego), (zob. Rodzaje metamorfizmu ).", "Skała wyjściowa, która podlegała procesom metamorfizmu nazywana jest protolitem, natomiast skała po przemianach metamorficznych neolitem. Nazwy skał metamorficznych z protolitów magmowych poprzedza się przedrostkiem orto-(np. ortokwarcyt, ortognejs), a nazwy skał powstałych z protolitów osadowych poprzedza się przedrostkiem para-(np. paraamfibolit, parałupek)[1], [2]. Protolity wykazują różne kompetencje na przemiany metamorficzne. Zwykle pod wpływem tych samych warunków w skałach osadowych zaznaczą się bardziej zaawansowane zmiany, niż w skałach magmowych głębinowych.", "Metamorfizm często całkowicie zmienia wygląd makroskopowy protolitu. Skala przebudowy składu mineralnego, struktur i tekstur skały wyjściowej zależy od natężenia czynników metamorfizmu (zob. Czynniki metamorfizmu ). Niektóre skały formowane w warunkach metamorfizmu niskociśnieniowo-temperaturowego w obrazie makroskopowym mogą przypominać protolity, choć w obrazie mikroskopowym będą posiadały wyraźne cechy skał metamorficznych. Przy bardziej zaawansowanym wpływie czynników metamorfizmu, neolity nabierają zupełnie indywidulanych cech i ich wygląd nie nawiązuje do skał wyjściowych.", "Skały metamorficzne to bardzo duża i zróżnicowana grupa skał, zarówno pod względem mineralnym, jak i cech strukturalno-teksturalnych. Różnorodność ta determinowana jest przez:", "Większość skał metamorficznych posiada swoiste cechy uniwersalne, do których należą (zob. Czynniki metamorfizmu ):", "Czynniki metamorfizmu inicjują procesy krystaliczne, więc:", "Pod względem genetycznym minerały w skałach metamorficznych należą do (zob. Minerały protolitów ):", "Do głównych minerałów neogenicznych skał metamorficznych należą:", "Podstawowa klasyfikacja skał metamorficznych oparta jest o ich genezę (zob. Rodzaje metamorfizmu ). Względem tego podziału podstawowe grupy skał metamorficznych to:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1358, "subject": "Struktury skał metamorficznych", "paragraphs": ["Struktura w skałach metamorficznych charakteryzuje wielkość, wzajemne relacje pomiędzy składnikami oraz kształt dominujących blastów.", "Skały metamorficzne w większości są skałami krystalicznymi, czyli blastycznymi. Ze względu na wyrazistość w obrazie makroskopowym wyróżniana jest [1]:", "Względem wzajemnych relacji wielkościowych pomiędzy składnikami skały metamorficznej wydzielana jest ( Rys. 1 ), [2]:", "Kształt dominujących blastów (zob. Pokrój minerałów i forma skupień ) w skale jest podstawą dla wyznaczenia struktury ( Rys. 2 ), [4], [2], [3], [5]:", "Struktury te znajdują zastosowanie głównie w opisach skał metamorfizmu regionalnego (zob. Rodzaje metamorfizmu ), [6].", "W przypadku metamorficznych skał polimineralnych, w których dominująca masa składa się ze składników o różnych pokrojach, wydziela się struktury mieszane ( Rys. 3 ), np. granolepidoblastyczne, granonematoblastyczne, lepidogranoblastyczne, przy czym przedrostek będący pierwszym członem sugeruje dominację składnika o danym pokroju w skale [2].", "W skałach dynamometamorfizmu (zob. Skały dynamometamorfizmu ), dla których charakterystyczne są deformacje nieciągłe, wyróżniane są struktury kataklazowe i mylonityczne [6], [2], [1], [5]. Struktura kataklazowa to typ struktury zbrekcjowanej, określa skałę składającą się z ostrokrawędzistych klastów, znajdujących się w otoczeniu drobnoziarnistego, roztartego materiału, a mylonityczna odnosi się do skał składających się z drobnoziarnistego, roztartego materiału, w którym znajdują się porfiroblasty.", "Ze struktur specjalnych w skałach metamorficznych występuje struktura poikiloblastyczna, charakteryzująca się występowaniem nieregularnych wrostków minerału w obrębie większych blastów innego minerału.", "Powyższe struktury są formowane podczas przeobrażenia protolitu i są efektem jego przebudowy wewnętrznej. W niektórych skałach metamorficznych, zwłaszcza w tych formowanych przy stosunkowo niewysokich wartościach temperatur i/lub ciśnień, mogą zostać zachowane pozostałości pierwotnych struktur protolitu. Należą one do grupy struktur reliktowych. Do ich określenia stosuje się nazwy oryginalnych struktur protolitu, które poprzedza się przedrostkiem blasto. W skałach metamorficznych najczęściej występują relikty profiroklastów i takie struktury nazywane są blastoporfirowymi lub zachowuje się morfologia większych ziarn psefitowych i wówczas występują struktury blastopsefitowe ( Rys. 4 ), [6], [3]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1359, "subject": "Tekstury skał metamorficznych", "paragraphs": ["Tekstury w skałach metamorficznych charakteryzują rozmieszczenie składników w skale.", "Przy braku uporządkowania blastów wyróżniane są tekstury bezładne (bezkierunkowe)( Rys. 1 ). Tworzą się one w skałach metamorfizowanych przy istotnym wpływie ciśnienia statycznego, zwykle w warunkach głębokiego pogrążenia litosferycznego (zob. Czynniki metamorfizmu ).", "Konfiguracja geometryczna blastów w skale metamorficznej jest podstawą wyróżnienia grupy tekstur kierunkowych (uporządkowanych)( Rys. 2 ). Jest ona efektem przebudowy wewnętrznej protolitu pod wpływem stresu (ciśnienia kierunkowego). Rozkład blastów jest zwykle uporządkowaniem równoległym względem jednego określonego kierunku, prostopadłego do kierunku działania stresu.", "W obrębie tekstur kierunkowych wyróżniane są:", "Laminacja charakteryzuje teksturę, gdzie w układzie równoległym występują, wzajemnie przekładające się, cienkie warstewki o zróżnicowanym składzie mineralnym ( Rys. 2 A, B, C), [1], [2]. Foliację charakteryzuje równoległe rozmieszczenie blastów o pokrojach płaskich (płytkowych, blaszkowych, łuseczkowych)( Rys. 2 D, E), (zob. Pokrój minerałów i forma skupień ), [1]. Foliacja ma różne stopnie wyrazistości. Gdy jest ona dobrze wykształcona, skała metamorficzna uzyskuje charakterystyczną oddzielność, która uwidacznia się przez pękanie skały pod wpływem nacisku mechanicznego wzdłuż równoległych powierzchni teksturalnych. Wówczas wyróżniana jest tekstura łupkowa( Rys. 2 E), [3], [4].", "Szczególną odmianą laminacji jest tekstura gnejsowa( Rys. 3 ), [5], w której laminy skaleniowo-kwarcowe przekładane są laminami z dominacją łyszczyków i amfiboli [3]. Ze względu na dużą różnorodność wykształcenia, jest ona dzielona na: tekstury równe i nierówne. Do tekstur równych należą:", "Do tekstur gnejsowych nierównych należą:", "Jeśli w skałach metamorficznych zachowały się pierwotne cechy teksturalne protolitów wówczas, podobnie jak w przypadku struktur, wyróżniane są tekstury reliktowe. Najczęściej występują pozostałości po laminacjach ze skał osadowych lub strukturach fluidalnych skał magmowych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1360, "subject": "Minerały protolitów", "paragraphs": ["Minerały wstępujące w protolitach wykazują różne właściwości mechaniczne i chemiczne na działalność czynników metamorfizmu. Główne minerały skałotwórcze można podzielić na dwa rodzaje:", "W niektórych minerałach zachodzi częściowa przebudowa struktury kryształów i powstają formy pokrewne z tej samej grupy mineralnej, które cechuje stabilność ciśnieniowo-temperaturowa. Należą tu minerały z grupy węglanów, przechodzące w trwały kalcyt, czy skalenie wapniowe ulegające transformacji w formy bogatsze w sód. W tym przypadku stabilność mineralna może być rozpatrywana w obrębie grup minerałów. Niektóre minerały, np. granat lub muskowit, w skałach metamorficznych mogą przechodzić z protolitów lub powstawać na drodze blastezy.", "Poddane metamorfizmowi główne minerały skał magmowych i osadowych zachowują się następująco:", "Minerały z grupy krzemionki", "Minerały z grupy krzemionki w skałach metamorficznych reprezentowane są wyłącznie przez kwarc( Rys. 1 A, B )(wyjątkiem są skały powstające w wyniku metamorfizmu szokowego, w których może powstać stiszowit czy koezyt)(zob. Kwarc ), [1], [2]. Uwodnione formy krzemionki, czyli opal i chalcedon, ulegają odwodnieniu i przechodzą w kwarc [3]. W temperaturach powyżej \\(573 ^oC\\) kwarc β podlega transformacji w wysokotemperaturową odmianę kwarcu α.", "Kwarc jest typowym składnikiem skał metamorficznych dziedziczonym po protolicie. Jego ilość zależy od ilości minerałów z grupy krzemionki obecnych w skale wyjściowej. Wśród skał metamorficznych występują odmiany kwarcowe mono- lub prawie monomineralne nazywane kwarcytami (zob. Skały metamorfizmu regionalnego ), [4]. Powszechne są skały oligomiktyczne, tj. fyllity, gnejsy, granulity i niektóre odmiany łupków, gdzie kwarc należy do głównych składników (zob. ), , ). W wielu typach skał metamorficznych jest minerałem pobocznym lub akcesorycznym. W odmianach oligomineralnych tworzy często indywidualne nagromadzenia w formie gniazd lub soczewek. Powszechnie występuje również jako minerał wypełniający żyły.", "Skalenie", "Skalenie ( Rys. 1 A, C) to grupa minerałów, która jest dziedziczona po protolicie (zob. Skalenie ). Do minerałów stabilnych należą plagioklazy kwaśne. Są one reprezentowane głównie przez albit i oligoklaz, czyli odmiany zasobne w sód. Plagioklazy wapniowe są nietrwałe i przechodzą w skalenie sodowe lub ulegają transformacji w epidoty, zoisyty i klinozoisyty (zob. Minerały z grupy epidotu ), czyli krzemiany glinu i wapnia [5]. Skalenie potasowe zachowują się w warunkach podwyższonych temperatur oraz ciśnień. Często występującym w skałach metamorficznych jest, biało lub szaro zabarwiony, mikroklin[1]. Krystalizuje on w układzie trójskośnym, w przeciwieństwie od innych skaleni potasowych, które krystalizują w układzie jednoskośnym [4], [2]. Skalenie są minerałami akcesorycznymi lub pobocznymi w wielu skałach metamorficznych. Jako jeden z głównych składników występują w granulitach i gnejsach (zob. ), ).", "Miki (łyszczyki)", "Miki ( Rys. 1 A, C, D) są typowym składnikiem wielu typów skał metamorficznych, zwłaszcza skał powstających w warunkach niskotemperaturowych i niskociśnieniowych. Są dziedziczone jako minerały stabilne z protolitów, głównie magmowych, lub są efektem transformacji minerałów ilastych. Powszechnie występują muskowit, biotyt (zob. Miki ) oraz serycyt[5], [1], [3], który jest drobnołuseczkową odmianą mik o charakterystycznej barwie szaro-srebrzystej lub zielonkawo-srebrzystej. Zwykle jest obecny w skałach niskiego stopnia metamorfizmu regionalnego [4], [1] oraz w niektórych typach skał osadowych. Łyszczyki są głównym, również mogą być dominującym, składnikiem łupków mikowych, powszechne są w gnejsach (zob. , ) i jako minerały akcesoryczne występują w wielu różnych odmianach skał metamorficznych.", "Amfibole", "Amfibole należą do minerałów stabilnych i neogenicznych. W skałach metamorficznych powszechnie występuje hornblenda (zob. Amfibole ). Częste są również inne formy, tj. glaukofan, antofyllit oraz minerały z szeregu aktynolitu (Mg-Fe szereg amfiboli wapniowych)( Nie znaleziono skrótu dla otoczenia (1) ), ( Rys. 2 ), z których zwykle występuje tremolit [1], [5], [4], [2].", "Amfibolie są głównym składnikiem łupków w facji zieleńcowej, których rodzaj amfibolu uwzględniony jest w nazwie skały, np. łupki aktynolitowe, tremolitowe czy antofyllitowe (zob. ). Z wymienionych amfiboli, tremolit należy do minerałów powszechnie spotykanych, występuje w skałach metamorfizmu regionalnego oraz kontaktowego. Glaukofan jest charakterystyczny dla łupków glaukofanowych, które powstają przy zaangażowaniu wysokich ciśnień (zob. ) .", "Pirokseny", "Pirokseny należą do minerałów stabilnych. Obok piroksenów znanych ze skał magmowych (zob. Pirokseny ), w skałach metamorficznych powszechny jest omfacyt o charakterystycznym zielonym zabarwieniu [4]. Jest jednym z głównych minerałów eklogitów (zob. ).", "Minerały poboczne i akcesoryczne skał magmowych", "Minerały poboczne i akcesoryczne ze skał magmowych są w części dziedziczone z protolitów i przechodzą do skał metamorficznych. Najczęściej są to: spinele, cyrkon, granat ( Rys. 3 ), turmalin, ilmenit, tytanit, apatyt i monacyt (zob. Minerały poboczne i akcesoryczne ).", "Węglany", "Węglany w skałach metamorficznych reprezentowane są głównie przez kalcyt [5], który jest odmianą trwałą w warunkach wysokich ciśnień i temperatur. W facji zieleńcowej zachowują się syderyt i dolomit, które przy wzroście parametrów temperaturowych przechodzą w stabilny kalcyt. Węglany są składnikiem dziedziczonym po protolicie. Budują skały mono- lub prawie monomineralne zwane marmurami (zob. Skały metamorfizmu regionalnego ), ale występują również w innych odmianach skał metamorficznych, jako składnik poboczny lub akcesoryczny.", "Substancja organiczna", "Węgiel pochodzenia osadowego, występujący w materii organicznej, w warunkach metamorfizmu ulega zachowaniu i transformacji w grafit.", "Minerały niestabilne", "Do minerałów, które nie przechodzą z protolitów do skał metamorficznych i ulegają rozpadowi w warunkach podwyższonych temperatur i ciśnień należą [5], [3], [6]:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1362, "subject": "Andaluzyt, kyanit, sillimanit", "paragraphs": ["To grupa minerałów stanowiąca odmiany polimorficzne substancji \\(Al_2SiO_5\\)(zob. Budowa wewnętrzna i postać minerałów ), [1].", "Kyanit( Rys. 1 A, B ) to minerał powstający w warunkach bardzo wysokich ciśnień [2]. Występuje w skałach facji amfibolitowej, granulitowej i eklogiotowej, jako komponent łupków mikowych, amfibolitów oraz eklogitów (zob. , , [3]. Inna nazwa, używana zamiennie z kyanitem, to cjanit, znacząca niebieski, podkreśla ona charakterystyczną barwę tego minerału. W literaturze z ubiegłego wieku używana jeszcze była nazwa dysten [4]. Ta nazwa nawiązywała do jego charakterystycznej cechy fizycznej. Określenie „dysten” (dis = podwójnie oraz sthenos = siła, moc) podkreśla anizotropię twardości, która u kyanitu ma różne wartości, w zależności od kierunku jej badania. Wzdłuż kryształów kyanit wykazuje twardość 4-4,5 w skali Mohsa, analizowana ona w poprzek długości wynosi 6,5-7 w skali Mohsa ( Nie znaleziono skrótu dla otoczenia (1) ).", "Kyanit jest podatny na procesy wietrzenia i nie jest powszechny w środowiskach sedymentacyjnych [3].", "Sillimanit i andaluzyt( Rys. 1 C, D, E) to minerały wysokotemperaturowe [5], [6], charakterystyczne dla metamorfizmu kontaktowego, dla facji hornfelsowej oraz amfibolitowej, granulitowej i eklogitowej (zob. Skały metamorfizmu kontaktowego , , , [3], [7].", "W skałach metamorficznych występują głównie jako minerały poboczne lub akcesoryczne [8]. Są odporne na procesy wietrzeniowe i przechodzą do środowisk osadowych, gdzie spotykane są jako ziarna w utworach klastycznych [5]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1373, "subject": "Talk i grafit", "paragraphs": ["Talk", "Talk ( Rys. 1 B) to minerał charakterystyczny dla stref niskiego metamorfizmu (zob. ), [1], [2].", "Należy do minerałów wybitnie miękkich, ulega zarysowaniu paznokciem. Jest minerałem wskaźnikowym w skali Mohsa, który definiuje najniższy stopień twardości, oznaczony wartością 1 ( Nie znaleziono skrótu dla otoczenia (1) ), (zob. Właściwości fizyczne minerałów ). Poza twardością, talk wyróżnia charakterystyczny połysk oraz odczucie tłustości w dotyku [3]. Zwykle występuje w skupieniach zbitych, pojedyncze kryształy nie są częste. Jest dominującym składnikiem łupków talkowych, powstających w facji zieleńcowej (zob. ), [4], [2].", "Grafit", "Grafit ( Rys. 1 A) należy do gromady pierwiastków rodzimych (zob. Minerały ). Zwykle występuje w skupieniach zbitych, pojedyncze kryształy nie są częste. Jego nazwa pochodzi od słowa pisać, nawiązuje do łatwo uzyskiwanej barwnej rysy minerału. Grafit jest produktem metamorfizmu regionalnego i kontaktowego (zob. Rodzaje metamorfizmu ), [5] lub związany jest z krystalizacją stopów resztkowych [3]. Jest charakterystycznym składnikiem łupków grafitowych (zob. ). Występuje powszechnie jako minerał poboczny lub akcesoryczny w innych odmianach skał metamorficznych [1]. Znany jest również z meteorytów [6], [4]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1370, "subject": "Chloryty", "paragraphs": ["Chloryty ( Rys. 1 ) to powszechne minerały w wielu skałach metamorfizmu regionalnego oraz metamorfizmu kontaktowego (zob. Skały metamorfizmu regionalnego , Skały metamorfizmu kontaktowego ). Najczęściej występuje pennin i klinochlor[1], [2], [3].", "Większe nagromadzenia chlorytów znajdują się w zieleńcach i łupkach metamorficznych (zob. ). W innych skałach metamorficznych są minerałami pobocznymi lub akcesorycznymi. Chloryty stosunkowo rzadko tworzą duże kryształy, zwykle są kryptokrystaliczne. Poza procesami metamorficznymi, powstają z fluidów hydrotermalnych oraz jako produkt wietrzenia/przeobrażenia innych minerałów [4] lub związany z krystalizacją stopów resztkowych [3]. Nazwa chlorytów (z gr.) nawiązuje do charakterystycznego zielonego zabarwienia tego minerału."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1372, "subject": "Minerały z grupy serpentynu", "paragraphs": ["Powszechne minerały z grupy serpentynu to chryzotyl, antygoryt, lizardyt( Rys. 1 ). Minerały te zwykle współwystępują ze sobą, przeplatając lub przerastając się wzajemnie. To powoduje powstanie charakterystycznego efektu plamistości, który dostrzegalny jest w skałach.", "Antygoryt i lizardyt tworzą kryształy o pokroju płytkowym ( Nie znaleziono skrótu dla otoczenia (1) ), (zob. Pokrój minerałów i forma skupień ), [1], [2], [3]. Dla chryzotylu typowe są kryształy pokroju włóknistego, a skupiska takich kryształów nazywane są azbestem chryzotylowym [4]. Minerały z grupy serpentynu są dominującym komponentem serpentynitów, w których największy udział mają antygoryt i chryzotyl (zob. ), [1]. Występują jako poboczne lub akcesoryczne składniki w wielu różnych skałach metamorficznych. Mogą powstawać również w wyniku procesów hydrotermalnych i wietrzeniowych [5]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1369, "subject": "Staurolit", "paragraphs": ["Staurolit ( Rys. 1 ) jest częstym składnikiem skał metamorfizmu regionalnego (zob. Rodzaje metamorfizmu ). Występuje w różnych odmianach łupków i gnejsów (zob. ), zwykle jako składnik poboczny lub akcesoryczny. Rzadziej powstaje podczas przeobrażeń kontaktowych [1].", "Nazwa staurolit (z gr.), która w tłumaczeniu znaczy kamień krzyżowy, nawiązuje do typowych form zbliźniaczeń krzyżowych ( Rys. 1 ), (zob. Pokrój minerałów i forma skupień ), które powszechnie tworzy ten minerał [2]. Jest to jedna z jego cech identyfikacyjnych [3]. Staurolit jest odporny na czynniki wietrzne i wchodzi w generacje skał osadowych [4], [5]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1374, "subject": "Minerały z grupy epidotu", "paragraphs": ["Powszechnymi minerałami grupy epidotu, które występują w skałach metamorficznych są epidot, zoisyt i klinozoisyt( Rys. 1 ), [1].", "Epidoty tworzą szereg izomorficzny z klinozoisytem (zob. Budowa wewnętrzna i postać minerałów ). Powstają podczas przeobrażeń kontaktowych oraz metamorfizmu regionalnego [2]. Stanowią częsty składnik poboczny lub akcesoryczny zieleńców oraz łupków facji zieleńcowej i amfibolitowej (zob. ), . W łupkach epidototowo-chlorytowych należą do minerałów głównych (zob. ). Krystalizacja epidotu może być związana również z procesami hydrotermalnymi.", "Zoisyt i klinozoisyt stanowią odmiany polimorficzne krzemianów glinowo-wapniowych [2], [3]. Klinozoisyt, to powszechny minerał, powstaje podczas metamorfizmu regionalnego oraz kontaktowo-metasomatycznego, również z przeobrażenia skaleni wapniowych podczas procesów hydrotermalnych. Zoisyt występuje rzadziej, zwykle jest składnikiem pobocznym lub akcesorycznym skał powstających przy wpływie bardzo wysokich ciśnień. Występuje w łupkach glaukofanowych, amfibolitach, gnejsach, granulitach i eklogitach. Powstaje również podczas metamorfizmu kontaktowo-metasomatycznego (zob. ), , , [4]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1371, "subject": "Kordieryt i wollastonit", "paragraphs": ["Kordieryt", "Kordieryt ( Rys. 1 A) występuje zwykle jako minerał poboczny i akcesoryczny w skałach metamorfizmu regionalnego (zob. Skały metamorfizmu regionalnego ), głównie w gnejsach i łupkach oraz w skałach metamorfizmu kontaktowego (zob. Skały metamorfizmu kontaktowego ), [1], [2], [3]. Jest rzadki w skałach magmowych, znajdowany jest głównie w pegmatytach [4]. Tworzy dostrzegalne makroskopowo przerosty pomiędzy indywidualnymi osobnikami. Powszechnie tworzy zbliźniaczenia polisyntetyczne.", "Wollastonit", "Wollastonit ( Rys. 1 B) jest głównie produktem metamorfizmu kontaktowego lub kontaktowo-metasomatycznego (zob. Skały metamorfizmu kontaktowego ) skał węglanowych [5], [4]. Powstaje w wyniku reakcji węglanu wapnia z krzemionką [6]. Minerał ten tworzy zwykle białe wrostki w obrębie innych minerałów np. w kwarcu lub w agregatach chlorytowo-mikowych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1364, "subject": "Skały metamorfizmu regionalnego", "paragraphs": ["Spośród wszystkich skał metamorficznych, skały metamorfizmu regionalnego mają największy udział w budowie skorupy ziemskiej. Są wynikiem przeobrażeń wewnątrzlitosferycznych, czyli oddziaływania wysokich ciśnień i temperatur na skały występujące na określonych głębokościach w obrębie skorupy ziemskiej i górnej części płaszcza ziemskiego. Proces ten zachodzi globalnie i jego produktem są rozległe ciała skalne (zob. Rodzaje metamorfizmu ).", "Skały metamorfizmu regionalnego cechują zróżnicowane cechy strukturalne i teksturalne, które wykazują bezpośrednie powiązanie z typem i stopniem natężenia czynników metamorfizmu oraz składem mineralnym protolitu [1]. Zależnie od rodzaju i nasilenia czynników metamorfizmu, z jednego protolitu mogą powstawać różne odmiany skalne. Zakres zmienności warunków występujących w metamorfizmie regionalnym, będący kombinacją różnych wartości stresu, ciśnienia statycznego i temperatury, jest bardzo szeroki i obejmuje generalnie facje: zeolitową, zieleńcową, amfibolitową, granulitową, eklogitową i glaukofanową (zob. Facje metamorficzne ). W każdej z facji powstają skały typowe dla określonych warunków metamorficznych, posiadające cechy swoiste, wyrażane przede wszystkim składem minerałów neogenicznych, ale i cechami teksturalno-strukturalnymi.", "Skład mineralny skał przeobrażonych regionalnie zależny jest od składu mineralnego skał wyjściowych. Z reguły neolity zawierają nowe minerały, zwłaszcza gdy powstały z protolitów oligo- lub polimineralnych. Skały powstające z protolitów monomineralnych, zbudowanych z minerałów stabilnych, nie zmieniają podstawowego składu mineralnego, a od protolitu różnią się cechami tekstualno-strukturalnymi. Do tej grupy zaliczane są marmury oraz kwarcyty. Cechuje je unifikacja facjalna, gdyż powstają powszechnie, w różnych warunkach ciśnieniowo-temperaturowych, zatem występują w różnych facjach metamorfizmu regionalnego.", "Marmury", "Marmury ( Rys. 1 ) to grupa skał węglanowych, występująca w zróżnicowanym zabarwieniu [2]. Większość marmurów to skały jasne, w kolorystyce od śnieżno-białej, przez szarą, różową, zielonkawą do skał ciemnych - ciemnoszarych i czarnych. W wielu skałach obserwowana jest horyzontalna lub wertykalna zmiana zabarwienia i wzajemne przejścia różnych odmian kolorystycznych. Ze względu na powszechność struktur faneroblastycznych, marmury bywają nazywane wapieniami krystalicznymi. Cechują je struktury granoblastyczne, homeoblastyczne od drobno- do gruboblastycznych, zwykle średnioblastyczne (zob. Struktury skał metamorficznych ), [2], [3]. Przejawem faneroblastyczności jest faktura cukrowata świeżego przełamu skały ( Rys. 1 C, D, E, F). Wynika ona z pękania skały wzdłuż granic blastów lub wzdłuż powierzchni ich łupliwości. Powierzchnie te intensywnie połyskują. Cecha ta została podkreślona w nazwie skały, marmos po grecku znaczy skrzący. Tekstury w marmurach są zróżnicowane. Większość marmurów posiada tektury bezładne. Tekstury kierunkowe, głównie różne odmiany laminacji, występują dość powszechnie, rzadsze są odmiany łupkowe (zob. Tekstury skał metamorficznych ). Podstawowym składnikiem mineralnym marmuru, stanowiącym ponad \\(90\\%\\) skały, jest węglan, najczęściej kalcyt, rzadziej dolomit (marmury dolomityczne). Poza węglanami, marmury zawierają akcesoryczne domieszki kwarcu, skaleni, mik, chlorytów, amfiboli, piroksenów, granatów, brucytu, wollastonitu i innych minerałów skał metamorficznych [4], [5].", "Marmury powstają w warunkach metamorfizmu regionalnego oraz metamorfizmu kontaktowego (zob. Rodzaje metamorfizmu ). Tworzą się przez przeobrażenie skał węglanowych, głównie wapieni, ale również dolomitów i syderytów [6].", "Kwarcyty", "Kwarcyty ( Rys. 2 ) to głównie skały jasne o zabarwieniu od białych i szarych przez różowe, czerwonawe. Odmiany ciemne występują rzadziej. Mają struktury homeoblastyczne, drobno- lub średnioblastyczne, grano- lub granonematoblastyczne (zob. Struktury skał metamorficznych ). Cechują je głównie tekstury bezładne, tekstury kierunkowe nie są powszechne [2]. Dla odmian z wyrazistą oddzielnością kierunkową używana jest nazwa łupek kwarcytyczny ( Rys. 2 C). Oddzielność ta wynika z laminarnej koncentracji mik, wzdłuż której następuje podzielność skały [3]. W kwarcytach powstałych w facji zieleńcowej mogą występować struktury i tekstury reliktowe (zob. Tekstury skał metamorficznych ). Są to najczęściej pozostałości stratyfikacji i laminacji lub zarysy obtoczonych większych ziaren klastycznych. Kwarcyty zbudowane są z kwarcu, w ilości ponad \\(80\\%\\)[2]. Obok niego mogą występować skalenie, miki, chloryty, węglany, epidot i inne minerały skał metamorficznych [4].", "Cechy świeżych powierzchni skały przypominają cechy kryształu kwarcu (zob. Kwarc ). Kwarcyty to skały twarde, odłupki kwarcytu są ostrokrawędziste. Pękają wzdłuż powierzchni nierównych, nawiązujących wyglądem do przełamu muszlowego, na których występuje połysk tłusty. Kwarcyty powstają jako produkt metamorfizmu regionalnego oraz metamorfizmu kontaktowego z piaskowców kwarcowych oraz skał krzemionkowych [6]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1376, "subject": "Skały niskich ciśnień i temperatur (facja zieleńcowa i zeolitowa)", "paragraphs": ["Wpływ stresu na protolit, w facjach zieleńcowej i zeolitowej, skutkuje uformowaniem tekstur kierunkowych (zob. Czynniki metamorfizmu ). W skałach niskiego metamorfizmu powszechne są foliacja i jej odmiany łupkowe (zob. Tekstury skał metamorficznych ). Tekstury te bywają zniekształcone przez deformacje fałdowe. Typowe dla skał niskich ciśnień i temperatur są struktury drobnoblastyczne. Charakterystycznymi odmianami skalnymi powstającymi w facji zieleńcowej są zieleńce, fyllity, serpentynity i różne odmiany łupków.", "Zieleńce", "Zieleńce ( Rys. 1 A, B ) to grupa skał drobnoblastycznych, często skrytoblastycznych, homeoblastycznych, zwykle wykazujących różny stopień zaawansowania foliacji oraz zabarwienie zielonkawe, szare, szaro-zielone. Zbudowane są z blastów chlorytu, epidotu, skaleni oraz amfiboli, którym mogą towarzyszyć inne minerały skał metamorficznych [1], [2]. Łupki zieleńcowe( Rys. 1 F), zwane łupkami zielonymi, to odmiana teksturalna zieleńców z dobrze zaznaczoną foliacją.", "Zieleńce powstają głównie przez przeobrażenie magmowych skał zasadowych, tj. bazaltów, diabazów, niektórych gabr oraz tufów i tufitów, czyli skał piroklastycznych [2]. Mogą też powstawać z pelitycznych skał osadowych, najczęściej z protolitów marglistych [3]. W zieleńcach i łupkach zieleńcowych stosunkowo często zachowują się struktury reliktowe, odziedziczone po protolitach magmowych.", "Serpentynity", "Serpentynity ( Rys. 2 ) to skały o strukturach od drobno- do gruboblastycznych, posiadające zabarwienie zielone. Nazwa skały nawiązuje do składu mineralnego, który zdominowany jest przez minerały z grupy serpentynu: antygoryt, chryzotyl i lizardyt (zob. Minerały z grupy serpentynu ), [2]. Zmienność cech strukturalnych i teksturalnych skutkuje dużą różnorodnością serpentynitów w obrazie makroskopowym. W ich obrębie występują odmiany włókniste, siatkowate lub łuseczkowate, o teksturach bezkierunkowych, z foliacjami lub laminowane [1]. Charakterystyczna dla wielu serpentynitów jest plamistość, czyli występowanie bezładnie rozmieszczonych intensywniej i słabiej wybarwionych obszarów skały. Jest to wynik selekcji mineralnej i punktowych koncentracji jednego ze składników głównych. Inne odmiany są rzadziej spotykane. Powierzchnie rozłamu serpentynitów są gładkie, szklisto lub tłustawo połyskujące. Skały te często poprzecinane są siecią żył mineralnych wypełnionych minerałami wtórnymi, najczęściej minerałami z grupy krzemionki lub węglanami.", "Serpentynity powstają przez przeobrażenie w warunkach facji zieleńcowej, przy współudziale procesów hydrotermalnych lub/i metasomatycznych, skał ultrazasadowych z grupy perydotytów oraz niektórych odmian zasadowych gabr i lamprofirów [3]. Wskutek procesu serpentynizacji, przekształceniu w serpentynity ulegają również skały metamorficzne, tj. amfibolity i marmury.", "Fyllity", "Fyllity ( Rys. 1 C, D, E) to skały o strukturach drobnoblastycznych, często skrytoblastycznych, homeoblastycznych i zabarwieniu szarym, zielonkawym lub brunatnawym. Cechą typową fyllitów jest wyraźny jedwabisty lub/i srebrzysty połysk na powierzchniach oddzielności [2], [4]. Nazwa fyllit pochodzi od słowa liść (z gr.) i podkreśla typową dla fyllitów, bardzo dobrą oddzielność cienko- i średniopłytkową, określaną powszechnie jako liściowa. Wiele fyllitów wykazuje deformacje fałdowe. Fyllity składają się z serycytu i kwarcu, które stanowią około połowy składników w skale (zob. Minerały protolitów ). Obok nich wstępuje powszechnie chloryt, skalenie i węglany [1].", "Fyllity to produkt przeobrażenia protolitów osadowych skał pelitycznych, tj. iłowce, mułowce [3].", "Łupki metamorficzne", "Różnorodną grupą skał powstających w facji zieleńcowej są łupki ( Rys. 3 ), ( Rys. 4 ). Cechuje je występowanie spójnych cech strukturalno-teksturalnych. Są to skały drobnoblastyczne, powszechnie skrytoblastyczne, rzadziej średnioblastyczne z dominującym lub istotnym udziałem struktur lepido- lub nematoblastycznych. Wykazują wyraziste złupkowacenie [2], [4]. W ich obrębie powszechnie występują monomineralne laminy, zwykle składające się z kwarcu.", "Podział na różne typy łupków prowadzony jest ze względu na obecność charakterystycznego minerału, nadającego skale metamorficznej szczególne cechy, które zaznaczają się w jej obrazie makroskopowym. Minerał ten, zwany indeksowym, może być dominujący w skale, jak kwarc w łupkach kwarcytycznych, czy talk w łupkach talkowych. Może też stanowić jeden ze składników charakterystycznych, jak grafit, który w łupkach grafitowych jest minerałem akcesorycznym, czy chloryt, który występuje równorzędnie lub podrzędnie z kwarcem w łupkach chlorytowych.", "W facji zieleńcowej występują różnorodne łupki będące odmianami petrograficznymi fyllitów i zieleńców. Do skał o typie fyllitów należą wzbogacone w chloryty (zob. Chloryty ), łupki chlorytowo-serycytowe, łupki kwarcowo-serycytowe zubożone w chloryty, łupki serycytowe( Rys. 3 A, B, C, D), w których dominuje serycyt (zob. Minerały protolitów ), obok którego występują podrzędnie kwarc, chloryty i skalenie [1]. Powstają one z przeobrażenia osadowych skał pelitycznych. W niektórych odmianach łupków występują liczne porfiroblasty granatów, wówczas do nazwy skały dodawane jest określenie – z granatami.", "Do grupy zieleńców i fyllitów nawiązują łupki chlorytowe( Rys. 3 E, F) o zwiększonym udziale chlorytów [3] oraz łupki epidotowo-chlorytowe o zwiększonym udziale chlorytów i epidotów (zob. Minerały z grupy epidotu ), [1]. Powstają przez metamorfizm skał pelitycznych ilastych, mułowcowych, marglistych, skał piroklastycznych i magmowych skał zasadowych i ultrazasadowych. Niektóre odmiany formowane są w warunkach wysokiego ciśnienia, w obrębie facji glaukofanowej (zob. ).", "Zabarwienie i cechy teksturalne tych skał są podobne do odmian macierzystych i nawiązują odpowiednio do cech zieleńców lub fyllitów.", "Kolejna grupa łupków to skały składające się w przewadze z amfiboli, tj. łupki aktynolitowe, tremolitowe, antofyllitowe. Podrzędnie występują w nich inne amfibole, talk, epidot, miki i inne minerały. Nazwy łupków pochodzą od nazwy amfibolu, który stanowi składnik dominujący (zob. Minerały protolitów ). Charakteryzuje je struktura nematoblastyczna i jasne zabarwienie w odcieniach białego, szarego, zielono-szarego, za wyjątkiem łupków aktynolitowych, które są ciemnozielone [1]. Są efektem metamorfizmu skał ultrazasadowych [3], powstają przy współudziale procesów hydrotermalnych.", "Indywidualne wydzielenia tworzą łupki talkowe i grafitowe. Łupki talkowe( Rys. 4 C) wyróżnia srebrzysto-biała, srebrzysto-zielona lub srebrzysto-szara barwa, tłusty lub perłowy połysk na powierzchniach oddzielności i odczucie tłustego dotyku. Zbudowane są w ponad \\(90\\%\\) z talku (zob. Talk i grafit ), któremu podrzędnie towarzyszą serpentyny, amfibole, chloryt, kwarc i inne minerały [2], [5]. Są one efektem metamorfizmu regionalnego oraz termicznego. Powstają z przeobrażenia protolitów ultrazasadowych i zasadowych skał magmowych [3] w obecności wody przy współdziałaniu procesów hydrotermalnych [1].", "Łupki grafitowe( Rys. 4 A, B ) zbudowane są głównie z kwarcu, grafit będący minerałem indeksowym występuje w ilości do kilku procent. Łyszczyki, chloryty i inne minerały skał metamorficznych stanowią składniki akcesoryczne. Domieszka grafitu wybarwia skałę na kolor czarny oraz jest przyczyną brudzenia palców przy potarciu powierzchni skały [2]. Łupki grafitowe powstają ze skał klastycznych, tj. łupków, piaskowców, które zawierają istotne ilości węgla [1], [4]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1363, "subject": "Skały średnich ciśnień i temperatur (facja amfibolitowa)", "paragraphs": ["Warunki temperatur i ciśnień w facji amfibolitowej, w tym istotne oddziaływanie stresu, wpływają na wykształcenie skał o strukturach faneroblastycznych oraz o tekturach kierunkowych, o różnym stopniu wyrazistości. Typowymi odmianami skał tej facji są amfibolity, gnejsy i łupki mikowe.", "Amfibolity", "Amfibolity ( Rys. 1 ) to skały barwy ciemnej, zwykle czarnej, czarno-zielonej lub czarno-szarej, o silnym połysku na świeżych powierzchniach. Zabarwienie i połysk wynikają z cech indywidualnych hornblendy (zob. Amfibole ), która jest dominującym składnikiem mineralnym. Obok hornblendy, występują plagioklazy [1] oraz domieszki kwarcu, epidotu, granatów i innych minerałów typowych dla skał metamorficznych [2], [3]. Amfibolity mają struktury drobno- lub średnioblastyczne, nematoblastyczne [4] lub granonematoblastyczne (zob. Struktury skał metamorficznych ). Struktury porfiroblastyczne występują sporadycznie. W amfibolitach dominują tekstury kierunkowe, mające formy zarówno foliacji, jak i laminacji (zob. Tekstury skał metamorficznych ). Skały o wyrazistej foliacji składające się z hornblendy i kwarcu nazywane są łupkami amfibolitowymi( Rys. 1 F) lub łupkami hornblendowymi.", "Amfibolity powstają głównie z zasadowych i obojętnych protolitów magmowych, tj. gabra, dioryty, diabazy, andezyty i bazalty oraz piroklastycznych, rzadziej z protolitów osadowych, tj. skały margliste [5] i dolomityczne.", "Amfibolity są produktem metamorfizmu regionalnego, przede wszystkim w facji amfibolitowej, ale niektóre ich odmiany mogą być formowane w facji zieleńcowej. Małe ciała amfibolitów mogą powstawać przy zachowaniu odpowiednich warunków ciśnieniowo-termicznych, podczas wymiany składników pomiędzy zróżnicowanymi chemicznie protolitami lub w procesie metamorfizmu kontaktowego [2].", "Łupki mikowe (łupki łyszczykowe)", "Łupki mikowe ( Rys. 2 ) to grupa skał z dobrze wykształconą teksturą kierunkową, zbudowana z kwarcu, skaleni i mik (zob. Tekstury skał metamorficznych , Kwarc , Skalenie , Miki ), [5], [4]. W ich obrębie wyróżniane są dwa podstawowe typy skał:", "Typowa dla nich jest wyrazista foliacja, podkreślona łupliwością. Powszechnie występują również laminacje. Łupki mikowe charakteryzuje struktura drobnoblastyczna, lepidoblastyczna lub lepidogranoblastyczna [2]. Częste są łupki porfiroblastyczne, gdzie w porfiroblastach zwykle występują granaty, kyanit, andaluzyt lub staurolit. W łupkach powszechne są koncentracje kwarcu, mające formę soczewkowatych gniazd lub cienkich żyłek kwarcowych oraz deformacje fałdowe [5]. Podstawowym składnikom łupków mikowych towarzyszą chloryt, staurolit, granat, sillimanit lub inne minerały skał metamorficznych.", "Łupki łyszczykowe powstają z przeobrażenia głównie skał osadowych pelitycznych, tj. mułowce i iłowce oraz kwaśnych skał magmowych [1].", "Gnejsy", "Gnejsy ( Rys. 3 ) to grupa skał o charakterystycznym rysunku teksturalnym, który podkreślony jest przez segregację składników jasnych i ciemnych. Dominują składniki jasne, czyli skaleń i kwarc [4], w mniejszej ilości chloryt i muskowit [5]. Składniki ciemne, głównie biotyt i amfibole, stanowią do kilkunastu procent skały. Oprócz tego, występują inne minerały, do powszechnych należą dysten, sillimanit, andaluzyt, kordieryt, augit, granaty, fluoryt, topaz, wollastonit i talk. Cechą gnejsów jest występowanie wyrazistych struktur kierunkowych [1], [5], co podkreśla nazwa skały pochodząca od słowiańskiego słowa \"zgnieciony kamień\". Cechuje je występowanie różnych odmian tekstury gnejsowej ( Rys. 3 ), [3]. Gnejsy o tekturach masywnych, nazywane granitognejsami, nie są powszechne [2]. Barwy gnejsów są jasne, podstawowe tło skaleniowo-kwarcowe jest białe, szare, zielonawe, różowe lub czerwonawe. W nim występują zgrupowane składniki ciemne w formie czarnych, czarno-zielonych lub ciemnoszarych lamin lub smug. Ze względu na oboczne zmiany barw tła kwarcowo-skaleniowego określane są jako skały pstre. Gnejsy są skałami o teksturach grano-lepidoblastycznych, homeoblastycznych, od drobno- do gruboblastycznych, niektóre odmiany są profiroblastyczne (zob. Struktury skał metamorficznych ), [2]. Koloryt oraz wykształcenie teksturalne gnejsów są zróżnicowane, przez co jest to grupa skał wykazująca dużą zmienność w wyglądzie makroskopowym.", "Gnejsy to grupa skał, która może być formowana z szerokiej gamy protolitów osadowych (paragnejsy) i magmowych (ortognejsy)[5] oraz powstaje w wyniku metamorfizmu uwarunkowanego różnymi czynnikami [6]. Zatem gnejsy powstają w wyniku:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1361, "subject": "Skały wysokich ciśnień i temperatur (facja granulitowa i eklogitowa)", "paragraphs": ["Typowe dla skał powstałych w tej facji są struktury faneroblastyczne i granoblastyczne (zob. Struktury skał metamorficznych ). Warunki wysokich ciśnień statycznych (zob. Czynniki metamorfizmu ), w jakich zachodzą przeobrażenia, generują głównie tekstury bezkierunkowe. Typowymi skałami są granulity i eklogity.", "Typowe granulity ( Rys. 1 ) zbudowane są z blastów skalenia i kwarcu (zob. Skalenie , Kwarc ), co przekłada się na ich białe i szare barwy. Głównym składnikom towarzyszą podrzędnie granaty lub/i pirokseny. Ze względu zabarwienie takie granulity nazywane są granulitami jasnymi [1]. Odmiany granulitów ciemnych, z dużą ilością granatu i piroksenu [2], [3], głównie hiperstenu, występują w kolorystyce szaro-brązowej lub czarno-bordowej. Obok składników głównych, w granulitach występują dysten, sillimanit i kordieryt i inne minerały. Cechują je struktury granoblastyczne, drobno- lub średnioblastyczne oraz porfiroblastyczne (zob. Struktury skał metamorficznych ), [4] z granatami w porfiroblastach. Granulity zwykle mają tekstury bezładne, tekstury kierunkowe o typie gnejsowym występują podrzędnie.", "Granulity powstają przez transformację metamorficzną skał magmowych: głębinowych obojętnych, tj. dioryty, gabra oraz kwaśnych, obojętnych i zasadowych skał wylewnych, tj. granitoidy, a także oligomiktycznych skał klastycznych, tj. arkozy, szarogłazy, mułowce oraz skał piroklastycznych. Granulity należą do skał rzadkich w obrębie powierzchniowych struktur litosferycznych [4].", "Eklogity", "Eklogity mają zabarwienie ciemne ( Rys. 2 ). Zwykle są ciemno-szare lub szaro-zielone z odcieniem fioletowym lub bordowym. Charakteryzują je struktury granoblastyczne, drobno- i średnioblastyczne lub rzadziej porfiroblastyczne, gdzie granaty (zob. Minerały protolitów ), reprezentowane zwykle przez pirop, występują w charakterze porfiroblastów. Obok granatów, drugim podstawowym składnikiem jest piroksen, najczęściej omfacyt [2], [1]. Jako składniki poboczne zawierają skalenie, kwarc, amfibole i inne minerały [5]. Eklogity są skałami o teksturach bezładnych, podrzędnie występują tekstury kierunkowe o typie laminacji.", "Eklogity powstają głównie przez metamorfizm skał magmowych obojętnych, zasadowych i ultrazasadowych, tj. diabazy, lamprofiry, andezyty, gabra, bazalty, perydotyty oraz skał piroklastycznych. Podrzędnie powstają ze skał osadowych wapienno-ilastych i wapienno-krzemionkowych [4]. Eklogity należą do rzadko spotykanych odmian skał metamorficznych występujących w górnej części litosfery."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1375, "subject": "Skały wysokich ciśnień (facja glaukofanowa)", "paragraphs": ["Skały facji glaukofanowej powstają w warunkach bardzo wysokich ciśnień kierunkowych. To sprzyja występowaniu foliacji oraz struktur nematoblastycznych, będących efektem dominującej ilości minerałów o pokrojach wydłużonych (zob. Czynniki metamorfizmu ). Typową odmianą skalną dla tej facji są łupki glaukofanowe.", "Łupki glaukofanowe, zwane są również glaukofanitami lub niebieskimi łupkami ( Rys. 1 ) ze względu na charakterystyczne niebiesko-fioletowe lub szaro-niebieskawe zabarwienie [1]. Pochodzi ono od glaukofanu (amfibolu), który jest ich głównym składnikiem (zob. Minerały protolitów ). Towarzyszą mu epidoty, rutyl, kwarc, skalenie, chloryty i granaty. Łupki glaukofanowe to skały o strukturach drobno- lub średnioblastycznych, wykazujące złupkowacenie o różnym stopniu wyrazistości [2], [3]. Są to skały rzadko występujące w powierzchniowych strefach litosfery ziemskiej. Łupki glaukofanowe są produktem metamorfizmu wysokociśnieniowego w warunkach niskich temperatur (zob. Facje metamorficzne ), [4], głównie skał magmowych zasadowych, tj. bazalty, diabazy i gabra, lamprofiry, oraz skał piroklastycznych (tufów wulkanicznych). Niektóre odmiany mogą powstawać również z innych skał magmowych lub osadowych o typie szarogłazów lub arkoz [1]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1367, "subject": "Skały metamorfizmu kontaktowego", "paragraphs": ["Skały metamorfizmu kontaktowego, to skały metamorfizmu wysokotemperaturowego facji hornfelsowej (zob. Facje metamorficzne ), które de facto są inicjowane przez procesy magmowe. Źródłem temperatur, które są decydującym czynnikiem dla zmian skał otoczenia, jest stop glinokrzemianowy w intruzji magmowej.", "Ze względu na pozycję w aureoli kontaktowej oraz typ czynników przeobrażających, skały metamorfizmu kontaktowego reprezentują:", "Skały kontaktowo-metasomatyczne", "Cechą skał jest wzbogacenie protolitu w krzemionkę oraz Mg, Cl, F i inne składniki, które dostarczane są do przeobrażanego protolitu przez fluidy pochodzące z intrudującego stopu glinokrzemianowego. W tych warunkach protolity zbudowane z minerałów węglanowych przekształcają się w skarny ( Rys. 1 A), ( Rys. 2 B, E, F), skały pelitowe i aleurytowe zdominowane przez minerały ilaste w hornfelsy ( Rys. 1 B), ( Rys. 2 D), a skały składające się z minerałów krzemionkowych w kwarcyty [1]. Typowa dla skał metasomatycznych jest struktura podkreślona liniowymi przebarwieniami skały w strefach nasilonej migracji fluidów ( Rys. 2 A, B ).", "Skarny( Rys. 1 A), ( Rys. 2 ,C, E, F) to skały zbudowane z krzemianów i węglanów [2]. Powszechnie występują w nich kalcyt, piroksen, amfibol, wollastonit, wezuwian, grant oraz szereg innych minerałów, typowych dla metamorfizmu wysokotemperaturowego [1]. Jest to grupa skał o dużej zmienności w obrazie makroskopowym. Mogą mieć zabarwienie, od białego i kremowego, przez różowe, zielonkawe, do bordowego, ciemnoszarego i czarnego. Zwykle cechują je struktury profiroblastyczne lub struktury równoblastyczne, od drobno- do gruboblastycznych (zob. Struktury skał metamorficznych ), tekstury bezkierunkowe lub kierunkowe [3].", "Skarny powstają w wyniku metamorfizmu metasomatycznego z protolitów węglanowych i obocznie przechodzą w marmury lub powstają w wyniku metamorfizmu termicznego z protolitów węglanowo-krzemionkowych [4], tj. margle, mułowce margliste, dolomity ilaste, wapienie krzemionkowe [3].", "Hornfelsy( Rys. 1 B), ( Rys. 2 D) to skały ciemne, barwy ciemnoszarej, czarnej, brązowawej lub ciemnobordowej. Zwykle charakteryzuje je struktura drobnoblastyczna i granoblastyczna (zob. Struktury skał metamorficznych ) oraz tekstura bezładna, która wraz ze wzrostem odległości do intruzji, przechodzi w tekstury kierunkowe i kolejno w tekstury reliktowe [4]. Skały o teksturach kierunkowych zwykle wyróżniane są jako łupki hornfelsowe lub plamiste [1], [2]. Hornfelsy zbudowane są z kordierytu i andaluzytu, skaleni (w tym sanidynu), piroksenów i mik, oprócz których zawierają szereg innych minerałów typowych dla metamorfizmu wysokotemperaturowego [3].", "Powstają przez przeobrażenie protolitów osadowych pelitycznych, tj. mułowce, iłowce lub ze skał metamorficznych, tj. fyllity, łupki chlorytowe [2], [5]. Podobnie jak skarny, hornfelsy są wynikiem przeobrażenia skał protolitu, w obecności fluidów magmowych lub bez dostawy z zewnątrz substancji chemicznych.", "Skały wysokotemperaturowe", "Oprócz powyżej wspomnianych odmian, skały metamorfizmu kontaktowego są reprezentowane przez:", "Forma występowania", "Skały metamorfizmu kontaktowego występują lokalnie:", "Wraz z odległością od ciała intruzywnego lub efuzywnego maleje stopień zaawansowania zmian metamorficznych i następuje gradacyjne przejście w niezmienione skały otoczenia."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1366, "subject": "Skały dynamometamorfizmu", "paragraphs": ["Jakość przeobrażeń w dynamometamorfizmie jest zależna od wartości stresu. Zaangażowanie stresu jest wprost proporcjonalne do rozdrobnienia protolitu oraz ilości neogenicznych profiroblastów (zob. Czynniki metamorfizmu ). Skały dynamometamorfizmu reprezentowane są przez szereg odmian powstałych przy wzrastających wartościach ciśnienia. Są to kakiryty i brekcje tektoniczne, kataklazyty oraz mylonity i ultramylonity.", "Kakiryty są efektem słabo zaawansowanego metamorfizmu dyslokacyjnego i należą do skał o najniższym stopniu przeobrażenia. Występują w strefach zewnętrznych osłony metamorficznej, pomiędzy niezmienionymi skałami otoczenia a brekcją tektoniczną. Kakiryt to skała protolitu poprzecinana siecią spękań, w której wyodrębnione klasty nie uległy przemieszczeniu [1], [2]. Brekcje tektoniczne( Rys. 1 A), zwane druzgotem tektonicznym lub salcesonem skalnym, to pokruszony na ziarna protolit [1], który został wtórnie spojony materiałem najdrobniejszym, powstałym przez zmiażdżenie części skały wyjściowej. Klasty brekcji są ostrokrawędziste, mają zróżnicowaną frakcję i bezładne rozmieszczenie. Poszczególne ziarna mogą być przemieszczone względem siebie [2].", "Kataklazyty( Rys. 1 B) to skały silnie rozdrobnionego protolitu [3], w którym występują residualne ziarna skalne, zwane porfiroklastami. Pomiędzy nimi może występować niewielka ilość miazgi mylonitycznej, czyli zgniecionego i roztartego protolitu [1], [2]. Porfiroklasty zwykle są niewielkie, choć ich frakcja może być zróżnicowana, zwykle są dostrzegalne makroskopowo. Większość kataklazytów ma tektury bezładne, tekstury kierunkowe są rzadkie [4].", "Mylonit( Rys. 1 C) to roztarta skała protolityczna (nazwa skały pochodzi od słowa mleć), w której pod wpływem ciśnienia kierunkowego rozpoczęły się procesy blastezy. W obrębie miazgi mylonitycznej, obok bardzo drobnych, niedostrzegalnych makroskopowo drobnych porfiroklastów w ilości \\(10-50\\%\\), występują również porfiroblasty. Mylonity zwykle wykazują strukturę kierunkową [1]. Skały o wyraźnych profiroblastach nazywane są blastomylonitami, niektóre odmiany są zaliczane do gnejsów oczkowych [4].", "Ultramylonity to skały zaawansowanego metamorfizmu dyslokacyjnego, w których zaznacza się najsilniejsze rozdrobnienie i ilość drobnych porfiroklastów nie przekracza \\(10\\%\\). W ultramylonitach wyraźnie zaznaczają się struktury kierunkowe [2].", "Forma występowania", "Skały dynamometamorfizmu występują lokalnie, w obrębie oraz obustronnie wzdłuż stref przemieszczeń litosferycznych (np. wzdłuż uskoków, nasunięć łusek, płaszczowin), tworząc osłonę (aureolę) metamorficzną( Rys. 2 ). Składa się ona z zespołu skał, w którym wraz z odległością od strefy tektonicznej maleje stopnień zaawansowania zmian metamorficznych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1365, "subject": "Skały metamorfizmu szokowego", "paragraphs": ["Podczas przemian w metamorfizmie szokowym (uderzeniowym) dochodzi do rozdrobnienia i przetopienia części protolitu (zob. Rodzaje metamorfizmu ). W wyniku tych procesów powstają brekcje impaktowe i suewity.", "Brekcja impaktowa (zderzeniowa) ( Rys. 1 ) to skała występująca w strefie obrzeżenia aureoli impaktowej. Składa się z ostrokrawędzistych, bezładnie rozmieszczonych klastów protolitu. Jest on spojony mocno rozdrobnionym i roztartym materiałem drobnoziarnistym, który może zawierać niewielką ilość szkliwa impaktytowego [1]. Cechuje je tekstura bezładna. Brekcja impaktowa stanowi ogniwo przejściowe pomiędzy suewitami, a skałami protolitu z wykształconym systemem ciosu stożkowego ( Rys. 3 ).", "Suewity ( Rys. 2 ) to skały, składające się z rozmieszczonych bezładnie, ostrokrawędzistych lub nieco zaoblonych, w wyniku obtopienia, klastów protolitu. Są one spojone rozdrobnionym materiałem skalnym oraz szkliwem impaktowym, powstałym z przetopienia skał protolitu [2]. Ogólnie cechuje je tekstura bezładna. Części skały, które uległy istotnemu upłynnieniu, mogą przybierać tekstury kierunkowe [3]. Suewity są szczególną odmianą brekcji.", "Forma występowania", "Skały metamorfizmu szokowego występują lokalnie, w podłożu oraz bezpośrednim otoczeniu krateru impaktowego (aureola impaktowa) ( Rys. 3 ). Wraz z odległością od krateru maleje stopień zaawansowania zmian metamorficznych."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Geologia. Ziemia i procesy endogeniczne", "chapter": "Skały metamorficzne", "subject_id": 1368, "subject": "Skały ultrametamorfizmu", "paragraphs": ["W wyniku procesów ultrametamorficznych dochodzi do powstania migmatytów( Rys. 1 ). Są to skały, które przeszły zaawansowane procesy metamorficzne w warunkach wysokich ciśnień i temperatur, co spowodowało wyprodukowanie stopów (zob. Ultrametamorfizm ), [1]. Częściowe upłynnienie protolitu powoduje selekcję składników o wyższych temperaturach topnienia. W wyniku tego powstają skały wykazujące laminację. Składają się z lamin utworzonych przez minerały wykrystalizowane z części upłynnionych oraz lamin silnie zmetamorfizowanych, zbudowanych ze składników stabilnych, które przetrwały w stałym stanie skupienia. Poszczególne laminy w makroskopowym obrazie migmatytu wyróżniają się kolorystycznie i strukturalnie. Laminy barwy białej, szarej, kremowej lub różowej mają strukturę granoblastyczną i zbudowane są w przewadze z kwarcu oraz skaleni. Ze względu na jasne zabarwienia nazywane są leukosomem. Określane są też neosomem, gdyż są genetycznie najmłodszą częścią skały. Przekładające je laminy ciemne, barwy czarnej, szarej, zielonawej, mają strukturę lepidonematoblastyczną, gdyż dominują w nich blasty ciemnych łyszczyków i amfiboli. Z uwagi na ciemne zabarwienie, te części nazywane są melanosomem lub określane paleosomem, gdyż reprezentują odziedziczone po protolicie, starsze części skały [2], [3]. Granice pomiędzy leukosomem, a melanosomem mogą być ostre, wyraźnie zaznaczone lub mniej wyraźne i pomiędzy nimi może występować przejściowa strefa reakcyjna, która nazywana jest mezosomem.", "Układ lamin w migmatycie może być bardzo różny, dlatego migmatyty jako grupę cechuje wysokie zróżnicowanie teksturalne ( Rys. 1 ). Cechy te stanowią podstawę ich podziału na różne odmiany. Do najczęściej występujących tekstur należą: brekcjowata, blokowa, siatkowa, żyłowa, warstwowa, fałdowa, oczkowa i smugowana [1], [4], [3], [5]. Laminy migmatytu cechuje oboczna zmienność miąższości, w większości wykazują deformacje plastyczne i z płynięcia. Charakterystyczne dla migmatytów są fałdki ptygmatytowe, czyli dysharmonijne, o wysokim stopniu krętości laminy leukosomu, których przebieg nie jest zgodny z ukierunkowaniem struktur paleosomu.", "Formy występowania", "Migmatyty powstają na znacznych głębokościach i tworzą rozległe ciała skalne, powiązane ze skałami metamorfizmu regionalnego facji wysokich ciśnień i/lub temperatur. Spotykane są również w otoczeniu dużych intruzji magmowych, najczęściej granitoidowych, w ich środkowych częściach, rzadziej aplikalnych [4]."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Wprowadzenie", "subject_id": 1497, "subject": "Wprowadzenie", "paragraphs": ["Fotogrametria była i jest powiązana z fotografią, wpierw doświadczyła fazy analogowej, w której aparaty fotograficzne były rezultatem precyzyjnego rzemiosła mechaniczno-optycznego (Rys. 1), a zdjęcia były naświetlane na materiałach srebrowych i wywoływane w ciemni. W ślad za rozwojem aparatów cyfrowych fotogrametria przeszła ewolucyjnie do fazy cyfrowej, dysponuje obecnie szeroką gamą urządzeń do wykonywania zdjęć.", "Od wielu lat rolę produktu flagowego fotogrametrii lotniczej pełni ortofotomapa, czyli mapa o fotograficznym przekazie treści. Opracowanie ortofotomapy jest relatywnie szybkie i tanie, co pozwala cyklicznie dokumentować zmiany użytkowania terenu, jak pokazuje Rys. 2 (dodatkowo można zauważyć poprawę rozdzielczości ortofotomapy z biegiem czasu).", "Współczesna fotogrametria lotnicza dysponuje środkami technicznymi, które można stosować zarówno w pracach wielkoobszarowych (statki załogowe) jak i małoobszarowych (statki bezzałogowe zwane dronami), zapewniając dokładności wymagane w pomiarach geodezyjnych. Po latach dominacji fotogrametrii lotniczej wraca zainteresowanie fotogrametrią z perspektywy naziemnej, która może być realizowana statycznie lub mobilnie. Nowym asortymentem prac fotogrametrycznych są modele 3D – budynków, obiektów inżynierskich czy artefaktów muzealnych. Fotogrametria, poza obecnością w geodezji, z powodzeniem zagnieżdża się w inne dziedziny. Jest wykorzystywana przy tworzeniu wirtualnej i rozszerzonej rzeczywistości. Otwiera się perspektywa automatyzacji \"czytania zdjęć\" opartej na sztucznej inteligencji.", "Podręcznik skupia się na fotogrametrii lotniczej, nie pomijając fotogrametrii naziemnej. Współczesna fotogrametria stosuje praktycznie ten sam aparat analityczny do opracowania zdjęć lotniczych jak i naziemnych, podobieństwa dotyczą też zasad wykonywania zdjęć, zwłaszcza w zakresie poprawnego naświetlania. Dowodem na uniwersalność przekazywanych treści jest fakt, że najczęściej cytowanym w e-podręczniku źródłem jest \"Close-range photogrammetry and 3D imaging\" [3], czyli książka poświęcona fotogrametrii bliskiego zasięgu. Zasadniczo tylko rozdziały \"Loty fotogrametryczne i osnowa terenowa\" oraz \"Ortofoto\" są poświęcone wyłącznie fotogrametrii lotniczej (aczkolwiek uważny Czytelnik znajdzie w tych rozdziałach informacje łatwe do adaptacji w fotogrametrii naziemnej).", "W ostatnich latach wielką popularność zdobyła metoda Structure-from-Motion (zob. Metoda SfM), która dzięki automatyzacji otworzyła wrota fotogrametrii dla szerokiego grona użytkowników. Nadto metoda zaciera – niegdyś ostre – granice pomiędzy fotogrametrią lotniczą i naziemną. Lektura podręcznika, w szczególności rozdziału \"Orientacja zdjęć w przestrzeni\", pozwala zrozumieć jak działa SfM, gdyż metoda stosuje rozwiązania wypływające z wieloletniego dorobku fotogrametrii. Metody automatyczne szybko prowadzą do wyniku, ale bardzo trudno jest ocenić jego jakość bez zrozumienia, które elementy procesu są kluczowe i mogą zawieść ( Murphy: \"Jeśli coś może pójść źle, to pójdzie\"). Dlatego warto sięgnąć do teorii, która jest syntetycznie przedstawiona w \"Podstawach fotogrametrii\".", "Ze względu na ukierunkowanie na podstawy fotogrametrii podręcznik pomija m.in.:"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Fotografia z perspektywy fotogrametrii", "subject_id": 1487, "subject": "Aparat fotograficzny czyli udoskonalona camera obscura", "paragraphs": ["Gdy rzutnia znajduje się przed środkiem rzutu, wówczas obraz ma taką samą orientację jak rzutowane obiekty (przedmioty), gdy rzutnia jest za środkiem rzutu wówczas obraz jest odwrócony o 180\\(\\mathtt {^o}\\), co pokazuje Rys. 1.", "Człowiek widzi rzeczywistość w sposób ulotny. Utrwalanie widzianych obrazów było ludzkim marzeniem które spełniało się etapowo. Około tysiąc lat temu powstała camera obscura, protoplasta aparatu fotograficznego. Pierwotnie było to ciemne pomieszczenie, światło przechodziło tylko przez mały otworek na jednej ścianie a obraz wyświetlał się na przeciwległej. Późniejsza camera obscura to niewielka ciemna skrzynka, a jeszcze później w miejscu otworka pojawiła się soczewka czyli prosty obiektyw. Przez stulecia nie udawało się pokonać problemu utrwalania obrazu, musiał być kopiowany ręcznie. W XIX wieku powstała technika utrwalania obrazu na materiałach pokrytych związkami srebra (tzw. fotografia srebrowa), która była doskonalona przez kolejne dziesięciolecia [2]. Dopiero pod koniec ubiegłego wieku materiały srebrowe zostały zastąpione mikroskopijnymi fotodiodami, tworzącymi rzutnię współczesnego aparatu fotograficznego.", "Korpus to szczelna obudowa o kształcie zwykle przypominającym prostopadłościan, która do wnętrza wpuszcza światło przechodzące tylko przez obiektyw. Obiektyw może być połączony na stałe z korpusem, w bardziej zaawansowanych aparatach obiektywy są wymienne. Na tylnej, wewnętrznej ścianie korpusu mieści się rzutnia, na której powstaje obraz.", "Obiektyw to układ optyczny skupiający światło, złożony z wielu soczewek, wykonanych ze szkła lub z plastiku. Na Rys. 2 obiektyw ma tylko jedną soczewkę, w rzeczywistości jest ich kilka a nawet kilkanaście. Przykład obiektywu z siedmioma soczewkami pokazuje Rys. 3. Podstawowymi cechami obiektywu są: ogniskowa, jasność, kąt widzenia. Ogniskowa to odległość od środka rzutu do ogniska (punkt \\(F'\\) na Rys. 4).", "Aby aparat fotograficzny robił ostre zdjęcia musi mieć możliwość zmiany odległości obiektyw–rzutnia, zwanej odległością obrazową. Zmiana tej odległości jest konieczna dla uzyskania ostrego zdjęcia, które powstaje wtedy, gdy jest spełnione równanie soczewki 2 :", "gdzie: \\(f\\) – ogniskowa obiektywu, \\(c\\) – odległość obrazowa, \\(d\\) – odległość przedmiotowa (Rys. 4).", "Z wzoru (1) wynika, że dla obiektów dalekich \\(c \\approx f\\), natomiast dla bliskich \\(c > f\\). Dlatego ustawianie ostrości na bliski plan (mała odległość przedmiotowa) wymaga odsuwania obiektywu od rzutni, a \"ostrzenie\" na daleki plan – przesunięcia obiektywu jak najbliżej rzutni. Większość współczesnych aparatów aparatów jest wyposażonych w system automatycznego ustawiania ostrości – auto focus AF.", "Rzutnia jest zmaterializowana przez regularny układ mikroskopijnych fotodetektorów, nazywany w fotografii matrycą. Detektory konwertują fotony światła na ładunek elektryczny, który z kolei jest zamieniany na wartości cyfrowe (zob. Jak powstaje zdjęcie cyfrowe). Matryca światłoczuła jest obok obiektywu kluczowym elementem aparatu fotograficznego.", "Na zewnętrznej, tylnej ścianie korpusu jest ekran dający podgląd obrazu, zwany wyświetlaczem lub wizjerem elektronicznym 3 . Moduł przetwarzania obraca obraz o 180\\(\\mathtt {^o}\\), aby był wyświetlany poprawnie (współczesne aparaty wykonują ponadto wiele innych działań przed wyświetleniem obrazu).", "Czas naświetlania matrycy reguluje migawka – mechaniczna, elektroniczna lub hybrydowa (świat obrazu). Migawki mechaniczne zasłaniają matrycę, otwierają się tylko w momencie wykonywania zdjęcia. W przypadku migawki elektronicznej czas naświetlenia jest równy czasowi odczytu matrycy i przekazania do pamięci. Na Rys. 2 pokazana jest symbolicznie migawka szczelinowa położona bezpośrednio przed matrycą. Migawka może być umiejscowiona wewnątrz obiektywu – migawka centralna.", "Przysłona to otwór kołowy o regulowanej średnicy, umieszczony pomiędzy soczewkami obiektywu (Rys. 3), decyduje jak dużo światła pada na matrycę. Ustawienie czasu naświetlania, wybór otworu przysłony, wyzwolenie migawki to funkcje modułu sterowania."], "definitions": [{"name": " Definicja 1: Rzut środkowy ", "content": " odwzorowanie przestrzeni 3D na płaską rzutnię, w którym obraz punktu\npowstaje na przecięciu rzutni z prostą przechodzącą przez punkt rzutowany i nieleżący na rzutni punkt, zwany\nśrodkiem rzutu środkowego. "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Fotografia z perspektywy fotogrametrii", "subject_id": 1495, "subject": "Przepis na dobre zdjęcie", "paragraphs": ["Aby zdjęcie zostało poprawnie naświetlone trzeba znaleźć optymalny układ czterech parametrów: przysłony, czasu otwarcia migawki, czułości matrycy i balansu bieli.", "Im większa jest średnica otworu przysłony tym więcej światła pada na rzutnię [1]. Wskaźnikiem jasności jest liczba przysłony \\(N\\) 1 obliczana następująco:", "gdzie: \\(f\\) – ogniskowa obiektywu, \\(\\phi _z\\) – średnica otworu czynnego, czyli otworu przez który światło wpada do obiektywu.", "Jak pokazuje Rys. 1 średnica otworu czynnego \\(\\phi _z\\) jest większa od średnicy przysłony \\(\\phi _p\\).", "Dla naświetlenia zdjęcia istotna jest powierzchnia obiektywu przez którą światło wpada do aparatu. Rozważmy dwie liczby przysłony: \\(N\\) i \\(\\sqrt {2} \\times N\\). Taka zmiana powoduje, że powierzchnia otworu czynnego maleje dwukrotnie. Odpowiada temu standard przysłon opisanych przez ciąg liczb \\(N\\): 1,4; 2; 2.8; 4; 5.6; 8; 11; 16, w którym każda zmiana \\(N\\) na kolejną (większą) powoduje dwukrotne zmniejszenie naświetlenia (Rys. 2).", "Czas otwarcia migawki musi być na tyle krótki, aby ruch fotografowanego obiektu czy ruch aparatu nie spowodował nieostrości zdjęcia. Gdy fotografujemy „z ręki” to czas naświetlania nie powinien być dłuższy niż 1/30 sek. Lepiej wybierać krótsze czasy, mając na uwadze, że im krótszy czas tym zmniejsza się liniowo naświetlenie matrycy.", "Aby powstał obraz, naświetlenie musi być większe niż czułość matrycy. Do określania czułości matryc stosuje się jednostki ISO (International Standards Organization). Wartość bazowa ISO równa 100 oznacza, że na matrycy powstanie obraz dobrej jakości przy naświetleniu 0,1 lx \\(\\cdot \\) s 2 . Standardowo stosuje się ciąg wartości ISO: 100, 200, 400, 800, itd. W takim ciągu każda zmiana ISO o jeden krok to dwukrotne zwiększenie czułości matrycy na światło. Wartości ISO większe od czułości bazowej matrycy są uzyskiwane na drodze wzmocnienia pomierzonego naświetlenia (sygnału). Ponieważ każdy sygnał zawiera szum, toteż wzmocnienie sygnału zwiększa jednocześnie zawarty w nim szum.", "Każda fotografowana scena ma swoją głębię. Odległość fotografowania dla której spełnione jest w aparacie równanie soczewki (1) nazywana jest planem \"ostrzenia\". Obiekty które leżą przed i za \"ostrym\" planem są na zdjęciu nieostre, im większe jest oddalenie od ostrego planu tym nieostrość jest większa.", "Występujące w definicji głębi ostrości pojęcie „wystarczająca ostrość” jest umowne, bo przecież nie wiadomo w jakiej skali będziemy oglądać zdjęcie (wydrukowane na papierze, wyświetlone na monitorze). Przyjmowane są różne wartości dopuszczalnej plamki nieostrości obrazu, wraz z postępem technologicznym w fotografii wielkość plamki ulega zmniejszeniu. Jeśli za punkt wyjścia przyjąć kątową ostrość oka ludzkiego wynoszącą 1’ i oglądanie obrazu na monitorze komputera z odległości 50 cm, wówczas średnica plamki nie powinna przekraczać 0,015mm.", "Głębia ostrości jest tym większa im większa jest odległość fotografowania, mniejsza ogniskowa i większa liczba przysłony [2]. Głębia będzie mała gdy fotografujemy bliski plan, zwłaszcza aparatem z dużą ogniskową i przy ustawieniu małej liczby \\(N\\) (czyli dużego otworu przysłony). Fotografowanie z małym otworem przysłony (duże \\(N\\)) zwiększa głębię ostrości, ale powoduje, że na matrycę pada mniej światła, zdjęcie może być zbyt ciemne (niedoświetlone). Bardzo mały otwór przysłony (\\(N > 16\\)) może wywołać dyfrakcję (ugięcie promieni światła), która zmniejsza możliwość odróżnienia blisko siebie położnych detali.", "Odległość hiperfokalną liczy się z wzoru (2) [3]:", "gdzie: \\(d_h\\) – odległość hiperfokalna, \\(u'\\) – średnica plamki nieostrości na zdjęciu.", "Odległość hiperfokalna jest przydatna w fotogrametrii, gdyż zespół zdjęć wykonywanych dla potrzeb pomiarowych wykonuje się bez zmiany \"ostrzenia\". Ustawienie ostrości na odległość hiperfokalną powoduje zachowanie ostrości dla dużej głębi sceny."], "definitions": [{"name": " Definicja 1: Głębia ostrości ", "content": " zakres przestrzeni przedmiotowej który odfotografowuje się\nwystarczająco ostro, wyznaczony przez przednią i tylną granicę (Rys. 3). "}, {"name": " Definicja 2: Odległość hiperfokalna ", "content": " odległość ustawienia ostrości przy której przednia granica głębi\nwypada w jej połowie, a tylna w nieskończoności (Rys. 4). "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Fotografia z perspektywy fotogrametrii", "subject_id": 1494, "subject": "Jak powstaje zdjęcie cyfrowe", "paragraphs": ["W zakresie widzialnym występuje szereg tzw. kolorów prostych: różne odcienie niebieskiego, zielonego, żółtego i czerwonego. Szerszą gamę kolorów (ściślej barw 1 ) uzyskuje się na drodze nakładania na siebie trzech kolorów: czerwonego, zielonego i niebieskiego (ang. red, green, blue – R,G,B), z których każdy może występować z różną jasnością [1]. Istotę modelu RGB obrazuje sześcian pokazany na Rys. 1, na którym jasności kolorów przyjmują zakres od 0 do 255 (od ciemnego do jasnego) 2 .", "Model RGB ma zastosowanie przy rejestracji obrazów na matrycach aparatów fotograficznych oraz przy wyświetlaniu obrazów na monitorach. Rejestracja obrazu kolorowego polega na wydzieleniu ze światła trzech składowych spektralnych, co odbywa się z zastosowaniem filtrów czerwonego, zielonego i niebieskiego, powstają trzy kanały: R,G,B (Rys. 2A).", "Jeśli na monitorze zostanie wyświetlony tylko jeden kanał, to obserwator zobaczy obraz czarno–biały w skali szarości (ang. grey scale). Natomiast gdy składowe R,G,B wyświetlane są wspólnie, każda przez odpowiedni filtr, to monitor wyświetli obraz kolorowy (Rys. 2B).", "Matryca aparatu jest układem elektrycznym złożonym z fotodiod (detektorów) uporządkowanych w wiersze i kolumny. Pojedynczy detektor matrycy po naświetleniu i konwersji A/D staje się pikselem obrazu cyfrowego. Mnożąc rozmiar detektora matrycy (zazwyczaj kwadrat) przez liczbę kolumn i wierszy dostajemy fizyczny rozmiar prostokąta matrycy. Punktem odniesienia dla fizycznych rozmiarów matryc jest tzw. pełna klatka, czyli matryca o rozmiarze 36 mm \\(\\cdot \\) 24 mm. Matryce w aparatach smartfonowych są znacznie mniejsze, a matryce w specjalistycznych aparatach stosowanych w fotogrametrii są znacznie większe niż pełna klatka (zob. Kamery metryczne i niemetryczne).", "W aparatach fotograficznych są stosowane dwa główne typy matryc: CCD i CMOS. Matryce CCD, ze względu na mniejsze szumy i większą światłoczułość, są montowane w aparatach do zastosowań przemysłowych, w tym fotogrametrycznych (zob. Kamery metryczne i niemetryczne). Matryce CMOS są wykorzystywane powszechnie w popularnych aparatach fotograficznych. Nowe matryce CMOS, produkowane w technologii BSI, w której przetwornik A/D jest umieszczony pod fotodiodą, wypierają matryce CCD z wielu pól zastosowań.", "Wskutek nagrzewania się fotodiod podczas procesu zamiany światła na elektrony powstają szumy losowe, które zniekształcają jasności przypisane pikselom. Zbyt ciepła fotodioda wyzwala „niechciane” elektrony co zaburza ostateczny wynik pomiaru padającego na fotodiodę światła. Szumy rosną gdy zdjęcie wykonywane jest przy słabym naświetleniu. Większa powierzchnia fotodiody zmniejsza szumy.", "Inną przyczyną błędów pomiaru światła przez matrycę jest sposób tworzenia obrazów kolorowych. Skoro obraz kolorowy składa się z komponentów R,G,B, to każdy z nich powinien być mierzony przez inną matrycę. Takie rozwiązanie jest skomplikowane technicznie, dlatego jest rzadziej stosowane (zob. Kamery metryczne i niemetryczne). Dominuje rozwiązanie z jedną matrycą pokrytą tzw. filtrem Bayer-a, którego idea pokazana jest na Rys. 4.", "Filtr Bayer-a to mozaika trzech filtrów, połowa pikseli (fotodiod) jest pokryta filtrem zielonym, a jedna czwarta odpowiednio filtrami czerwonym i niebieskim. O ile na matrycy jednostką jest piksel, to na filtrze jednostką jest \"kostka\" 2\\(\\cdot \\)2 piksele. Składowa G jest mierzona dla 50\\(\\%\\) pikseli, a R i B tylko dla 25\\(\\%\\) pikseli. Pomimo tego procesor obrazu, na drodze interpolacji, tworzy obraz wynikowy w którym wszystkie piksele matrycy mają składowe RGB. Ten zabieg, zwany demozaikowaniem, jest źródłem wprowadzenia szumu do obrazu kolorowego.", "Jak wynika z powyższego przy tworzeniu obrazy kolorowego z filtrem Bayer-a składowa G jest mierzona dwa razy częściej niż R i B. Preferowanie koloru zielonego ma swoje uzasadnienie w czułości oka ludzkiego, które silniej reaguje na kolor jasno zielony (fale elektromagnetyczne o długości 555 nm) niż na pozostałe kolory [5] (Widzenie barwne)."], "definitions": [{"name": " Definicja 1: Obraz cyfrowy RGB 3\n ", "content": " funkcja \\(f(i,j)\\) przyporządkowująca kolor pikselowi o dyskretnych współrzędnych \\(i,j\\); funkcja musi przyjmować\nwartości niezerowe oraz być skończona [2, 3, 4],\njako obiekt programowania: układ trzech macierzy lub tablica trójwymiarowa przyporządkowująca komórce \\(i,j\\)\njasności spektralne R,G,B,\njako plik komputerowy: układ trzech rastrów (kanałów) o identycznych rozmiarach (liczba kolumn i wierszy),\npiksele mają atrybuty R,G,B (odpowiednio dla kanałów); standardowo stosowane jest 8-bitowe kodowanie\njasności 4\n .\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Fotografia z perspektywy fotogrametrii", "subject_id": 1844, "subject": "Rozdzielczość przestrzenna zdjęcia", "paragraphs": ["Nie ma obiektywnej miary rozdzielczości przestrzennej, trzeba posługiwać się zespołem cząstkowych wskaźników, do których należą m.in. [1, 2]:", "Poniżej zostaną wyjaśnione tylko trzy pierwsze z wymienionych wskaźników rozdzielczości przestrzennej, które można określić na podstawie właściwości zdjęcia.", "Mianownik skali w jakiej odwzoruje się obiekt na zdjęciu jest równy:", "gdzie: \\(h\\) – liniowy rozmiar obiektu w rzeczywistości, \\(h'\\) – rozmiar obrazu tego obiektu, \\(d\\) – odległość przedmiotowa, \\(c\\) – odległość obrazowa.", "Zmniejszanie się skali obiektu (czyli zwiększanie \\(m\\)) wraz ze wzrostem odległości jest dla człowieka oczywiste, gdyż ma miejsce przy wizualnym postrzeganiu rzeczywistości. Tylko w wyjątkowych sytuacjach skala zdjęcia jest stała, jest tak np. gdy sfotografowana zostanie ściana budynku, a płaszczyzna zdjęcia będzie do niej równoległa. Natomiast na zdjęciu wykonanym z samolotu, z dużej wysokości pionowo w dół, obiekty krajobrazu będą odwzorowane w podobnej skali (zmienność skali jest nieduża).", "Znajomość rozmiaru piksela (na matrycy) oraz skali pozwala obliczyć liniowy rozmiar piksela na fotografowanym obiekcie, który jest równy:", "gdzie: \\(s_p\\) – rozmiar piksela na obiekcie, \\(s'_p\\) – rozmiar piksela na matrycy.", "Przy obliczaniu \\(s_p\\) przyjmuje się, że piksel na obiekcie ma kształt kwadratowy. Jest to uproszczenie, w rzeczywistości piksel na obiekcie może być dowolnym czworobokiem, co pokazuje Rys. 2.", "Tereny o urozmaiconym pokryciu i użytkowaniu, zwłaszcza położone w umiarkowanej strefie klimatycznej, są z perspektywy lotniczej widoczne jako wielokolorowe i wielotonalne (od tej reguły są wyjątki). Dobrze naświetlone zdjęcie lotnicze powinno zawierać – w każdym kanale R,G,B – zróżnicowane jasności mieszczące się w przedziale [0,255], co daje efekt \"szerokich histogramów\" pokazany na Rys. 3. Z punktu widzenia dalszego przetwarzania zdjęcia korzystnie jest, aby minimalne i maksymalne jasności nie osiągały wartości brzegowych, tj. 0 i 255 odpowiednio, a nawet były od nich oddalone o kilka jednostek jasności (w miejscach gdzie występują skupienia pikseli o jasnościach bliskich 0 lub 255 zanika tekstura obrazu). Taka \"rezerwa\" otwiera drogę do działań korygujących zdjęcie, np. zmiana nasycenia kolorów, usuwanie dominanty koloru, zwiększenie kontrastu.", "Kontrast lokalny wyraża jak zmienia się jasność piksela względem otoczenia. Miary kontrastu lokalnego podali Weber i Michelson [4]. Na zdjęciach o szerokich histogramach zwiększa się prawdopodobieństwo wyróżniania się szczegółu względem tła. Jeśli kontrast między szczegółem a jego otoczeniem jest duży, to rośnie prawdopodobieństwo identyfikacji szczegółu złożonego z pojedynczych pikseli (Rys. 4A). Jednak gdy szczegół mało odróżnia się od tła, jego rozpoznanie na zdjęciu może być utrudnione (Rys. 4B). Nadto podczas próbkowania zdjęcia (zob. Jak powstaje zdjęcie cyfrowe) następuje \"rozmycie\" pikseli, gdyż szczegół o rozmiarze \\(s_p\\) (GSD) rzadko kiedy odwzorowuje się dokładnie na jednym pikselu matrycy.", "Błędem jest uznanie rozmiaru piksela na obiekcie za rozdzielczość przestrzenną zdjęcia (\\(s_p\\), GSD dla zdjęcia lotniczego). Gdy kontrast lokalny jest bardzo wysoki, a obiekt ma wydłużony kształt liniowy o szerokości ≈ \\(s_p\\), wówczas jest szansa na jego identyfikację. Ale przy bardzo niskim kontraście identyfikacja staje się niemożliwa. Przyjmuje się umownie, że na zdjęciach da się zidentyfikować obiekty, których mniejszy rozmiar wynosi od dwóch do trzech wielokrotności \\(s_p\\)."], "definitions": [{"name": " Definicja 1: Rozdzielczość przestrzenna zdjęcia ", "content": " zdolność do wyróżniania szczegółów obiektu\nodwzorowanego na zdjęciu; zależy od szeregu czynników związanych z: parametrami aparatu, naświetleniem\nzdjęcia i właściwościami fotografowanego obiektu. "}, {"name": " Definicja 2: Terenowa odległość próbkowania - GSD ", "content": " stosowany w fotogrametrii (głównie\nlotniczej) 2\n \nsynonim średniego rozmiaru piksela w terenie (ang. Ground Sample Distance) [1]. "}, {"name": " Definicja 3: Histogram zdjęcia ", "content": " wykres przedstawiający liczność wystąpień poszczególnych jasności\n(dla każdego kanału R,G,B) – na osi poziomej jest przedział jasności od 0 do 255, na osi pionowej pokazana\njest suma wystąpień poszczególnych jasności; na histogramie znormalizowanym liczność każdej jasności jest\ndzielona przez liczność maksymalną, dzięki czemu wartości na osi pionowej mają zakres od 0 do 1.\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Elementarz fotogrametrii", "subject_id": 1846, "subject": "Fotogrametria 2D", "paragraphs": ["Tak wykonane zdjęcie ma stałą skalę wynoszącą:", "gdzie: \\(c\\) – odległość obrazowa (zob. wzór (1)), \\(d\\) – odległość przedmiotowa, \\(s, w\\) – rozmiary obiektu (szerokość, wysokość), \\(s', w'\\) – rozmiary obiektu na zdjęciu.", "Dzięki stałej skali zdjęcie można uznać za mapę o fotograficznym przekazie treści. Założenie to byłoby prawdziwe, gdyby aparat realizował rzut środkowy bez zniekształceń. Niestety promienie świetlne po przejściu przez obiektyw ulegają odchyleniu od linii prostej (Rys. 2). To zjawisko nazywa się dystorsją, jest immanentną cechą obiektywów.", "Jeśli sfotografujemy idealnie płaski obiekt z narysowaną siatką kwadratów (Rys. 3A), zachowując równoległość obiekt–rzutnia, to na zdjęciu siatka będzie odwzorowana w postaci krzywych, obraz będzie przypominał beczkę (Rys. 3B) lub poduszkę (Rys. 3C).", "Osiągnięcie równoległości płaszczyzny zdjęcia do płaszczyzny mierzonego obiektu jest w praktyce bardzo trudne. Dla zdjęć dowolnie położonych względem płaskiego obiektu stosuje się transformację perspektywiczną, której istotę przedstawia Rys. 4.", "Transformacja perspektywiczna [1, 2] wiąże położenie punktów na zdjęciu (bez dystorsji) z położeniem na obiekcie, zgodnie z funkcjami (2) i (3), różniącymi się dziedzinami:", "gdzie: \\(x,y\\) – współrzędne punktu na zdjęciu, w dowolnym układzie prostokątnym na zdjęciu, \\(X,Y\\) – współrzędne punktu na obiekcie, w dowolnym układzie prostokątnym na płaskim obiekcie, \\(a_1,..., a_8\\) oraz \\(b_1,..., b_8\\) – parametry transformacji odpowiednio dla (2) i (3).", "Do wyznaczenia 8 parametrów transformacji perspektywicznej trzeba znać współrzędne co najmniej czterech odpowiadających sobie punktów, zwanych w fotogrametrii fotopunktami (żadne trzy nie mogą leżeć na jednej prostej). Często markuje się fotopunkty na obiekcie aby ułatwić identyfikację i pomiar na zdjęciu. Punkty których współrzędne są mierzone w terenie i są dobrze identyfikowalne na zdjęciu nazywane są w fotogrametrii fotopunktami."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Elementarz fotogrametrii", "subject_id": 1847, "subject": "Cechy pionowego zdjęcia lotniczego", "paragraphs": ["Rozważmy zdjęcie lotnicze płaskiego terenu z budynkami i drzewami, wykonane hipotetycznie przy pionowej osi kamery, co symbolicznie przedstawia Rys. 1A.", "Obiekty wystające nad teren ulegają na zdjęciu zniekształceniu perspektywicznemu. W efekcie obiekty pionowe \"kładą\" się na zdjęciu w taki sposób, że ich szczyty odchylają na zewnątrz zdjęcia, a kierunki odchylenia zbiegają się w środku zdjęcia, jak pokazuje Rys. 1B. Z własności figur przedstawionych na Rys. 2 wynika, że wielkość odchylenia zwanego przesunięciem radialnym \\( \\Delta r\\) jest równa [1]:", "gdzie: \\(\\Delta Z\\) – wysokość kamery nad terenem, \\(h \\) – wysokość obiektu nad terenem, \\( r', \\; (r)\\) – odległość od środka zdjęcia do obrazu punktu szczytowego na zdjęciu (odpowiednik w terenie), \\( \\Delta r', \\, (\\Delta r)\\) – odległość od środka zdjęcia do obrazu punktu szczytowego na zdjęciu (odpowiednik w terenie).", "Efekt przesunięć radialnych rozciąga się na całą głębię fotografowanej przestrzeni. Zatem jeśli teren jest zróżnicowany wysokościowo, to fragmenty leżące powyżej średniej wysokości odsuwają się radialnie od środka ku brzegom zdjęcia, a obszary leżące poniżej średniej wysokości przesuwają się do środka (Rys. 3). Wielkość przesunięć radialnych wylicza się z wzoru (1), przy czym \\(h\\) oznacza różnicę wysokości terenu względem płaszczyzny odniesienia (ma wartości dodatnie i ujemne).", "Średnią skalę zdjęcia lotniczego \\(\\frac {1}{m}\\) liczy się względem płaszczyzna odniesienia (Rys. 3):"], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Elementarz fotogrametrii", "subject_id": 1866, "subject": "Fotogrametria 3D", "paragraphs": ["Dla odległości dobrego widzenia kąt konwergencji wynosi ok. 16\\(^{\\circ }\\) (\\(b\\) = 7 cm, \\(d\\) = 25 cm). Ze wzrostem odległości do miejsca obserwacji człowiek stopniowo traci zdolność jej oceny, gdyż coraz mniejszy staje się kąt \\(\\gamma \\) (przyjmuje się, że granica widzenia stereoskopowego mieści się w przedziale 0,5 –1 kilometr [2, 3]). Widzenie stereoskopowe człowieka przypomina konstrukcję geodezyjną zwaną wcięciem w przód, w której kąt \\(\\gamma \\) nazywa się kątem wcinającym.", "Fotogrametria realizuje pomiar 3D przy pomocy stereogramu [4], czyli dwóch zdjęć tej samej sceny wykonanych z dwóch różnych miejsc przestrzeni (Rys. 2A). Jeśli stereogram jest obserwowany przez człowieka w taki sposób, że każde z oczu widzi tylko jedno zdjęcie, wówczas powstaje w mózgu wrażenie głębi obserwowanej sceny, nazywane sztucznym efektem stereoskopowym. Do separacji obserwowanych zdjęć stosuje się różne techniki, w tym anaglifową, polaryzacyjną czy migawkową [5] (zob. Rodzaje pomiarów fotogrametrycznych). Rys. 2 przedstawia stereogram zdjęć lotniczych spełniający następujące założenia:", "Właściwości stereogramu normalnego powodują, że punkty homologiczne lokują się na prostych równoległych do bazy (które na Rys. 2B są symbolicznie zaznaczone odcinkami czerwonymi) – stąd paralaksa poprzeczna \\(p_y=0\\).", "Paralaksa (podłużna) jest kluczem do pomiaru głębi przestrzeni odwzorowanej na zdjęciach. Z podobieństwa trójkątów pokazanych na Rys. 2D wynika wzór (2) na różnicę wysokości pomiędzy środkami rzutu a punktem terenowym \\(\\Delta Z\\):", "Symbole użyte we wzorze (2) są wyjaśnione na Rys. 2, przy czym dla uproszczenia paralaksę podłużną \\(p_x\\) oznaczono przez \\(p\\).", "Ilorazy \\( \\frac {b} {p} \\) oraz \\( \\frac {\\Delta Z} {c} \\) są mianownikiem skali w której odwzorował się punkt \\(P\\) na zdjęciach (dla stereogramu normalnego \\(m\\!=\\!m_1\\!=\\!m_2\\)). Znając lokalną skalę można obliczyć przyrosty współrzędnych \\(\\Delta X_1\\) i \\(\\Delta X_2\\) pokazane na Rys. 2, oraz analogicznie przyrosty \\(\\Delta Y_1\\) i \\(\\Delta Y_2\\). Ostatecznie wzory na współrzędne \\(X,Y,Z\\) wcinanego punktu \\(P\\) mają postać:", "Wzory (3)– (5) reprezentują fotogrametryczne wcięcie w przód, które stanowi istotę pomiarów fotogrametrycznych 3D. W przypadku zdjęć dowolnie nachylonych współrzędne 3D są obliczane z bardziej złożonych wzorów, ale reprezentujących tą samą konstrukcję geometryczną.", "Wcięcie w przód wymaga identyfikacji punktów homologicznych i pomiaru ich współrzędnych na zdjęciach. Pomiar może być wykonany w trybie mono, czyli osobno na każdym zdjęciu, albo z włączeniem sztucznego efektu stereoskopowego (tryb stereo). Pomiar mono, manualny lub automatyczny, jest ograniczony do przypadku, gdy na obu zdjęciach wskazanie punktów jest jednoznaczne. Natomiast tryb stereo pozwala obserwatorowi wskazywać i mierzyć punkty także na powierzchniach pozbawionych wyrazistej tekstury (rozumianej jako zmiany jasności i koloru tworzące punkty, plamy, linie, figury geometryczne, itp.).", "Różniczkując wzory (3)– (5) odpowiednio względem \\(x,y,p_x\\) można wysnuć następujące wnioski 5 :", "Jeśli punkt terenowy odwzorował się na kilku zdjęciach, wówczas do pomiaru należy wybrać stereogram o największym kącie wcinającym, gdyż wtedy iloraz \\(\\frac {\\Delta Z } {b}\\) jest najmniejszy. W sytuacji pokazanej na Rys. 3, największy kąt wcinający dla punktu \\(P\\) jest na stereogramie złożonym ze zdjęcia pierwszego i trzeciego (baza \\(b_{13}\\))."], "definitions": [{"name": " Definicja 1: Stereogram normalny ", "content": " układ dwóch zdjęć wykonanych z innych miejsc przestrzeni w taki\nsposób, że osie kamer są pionowe a ich baza – pozioma; pojęcie rozciąga się na zdjęcia naziemne, wówczas za\nnormalny uznaje się stereogram zdjęć wykonanych przy poziomych osiach kamery prostopadłych do bazy\n1\n \n.\n"}, {"name": " Definicja 2: Punkt główny zdjęcia ", "content": " rzut ortogonalny środka rzutu na\nzdjęcie 2\n ,\npunkt główny jest początkiem układu w którym mierzy się współrzędne na\nzdjęciu 3\n .\n"}, {"name": " Definicja 3: Pokrycie zdjęć ", "content": " część wspólna zdjęć stereogramu (Rys. 2C); pokrycie wyraża się\nstosunkiem powierzchni wspólnej do powierzchni zdjęcia (zob. Rodzaje lotów fotogrametrycznych).\n"}, {"name": " Definicja 4: Punkty homologiczne na zdjęciach ", "content": " obrazy tego samego punktu terenowego\nna zdjęciach wykonanych z innych miejsc przestrzeni; w przypadku stereogramu są dwa punkty\nhomologiczne (na Rys. 2AB są punkty \\(P'_1\\) i \\(P'_2\\)); punkty homologiczne leżą zawsze w obszarze pokrycia.\n"}, {"name": " Definicja 5: Paralaksa punktów homologicznych ", "content": " różnica położenia punktów homologicznych na\nzdjęciach odniesiona do punktów głównych, dla stereogramu normalnego różnica dotyczy tylko kierunku\nrównoległego do bazy i wynosi: \n\n \n\n \n\n \\begin{equation} p_x = x_1 - x_2 \\end{equation} gdzie:\n\\(p_x\\) – paralaksa (podłużna) 4\n ,\n\\(x_1, \\, x_2\\) – współrzędne punktów homologicznych na zdjęciach w układach o początku w punktach głównych\n(odpowiednio lewym i prawym). "}, {"name": " Definicja 6: Fotogrametryczne wcięcie w przód ", "content": " określanie położenia punktu w przestrzeni 3D\npoprzez przecięcie prostych wyprowadzonych z punktów homologicznych i przechodzących przez odpowiednie\nśrodki rzutu (co najmniej) dwóch zdjęć. "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Elementarz fotogrametrii", "subject_id": 2084, "subject": "Kamienie milowe fotogrametrii 3D", "paragraphs": ["Wykonanie fotogrametrycznych zdjęć lotniczych wymaga sprzyjających warunków meteorologicznych przy jednoczesnym spełnieniu wymogów formalnych (zob. Fotogrametryczne statki powietrzne). Odpowiednia dla lotów pogoda istotnie ogranicza operacyjność fotogrametrii. W przypadku zdjęć naziemnych warunki meteorologiczne odgrywają mniejszą rolę, przy czym fotografowana scena powinna być równomiernie oświetlona.", "Wzajemne pokrycie sąsiednich zdjęć jest generalną zasadą fotogrametrii 3D. Wykonanie zdjęć powinno następować zgodnie z wcześniej przygotowanym planem (zob. Rodzaje lotów fotogrametrycznych oraz Planowanie lotów blokowych). Jeśli nastąpiło odstępstwo od planu lotu, w tym zwłaszcza mniejsze od wymaganego pokrycie zdjęć, wówczas dalsze ich opracowanie może być utrudnione, a w niektórych przypadkach niemożliwe.", "Krytyczny dla jakości zdjęć z platform mobilnych (samoloty, drony, samochody) jest czas naświetlania, który zwykle musi być bardzo krótki. W czasie otwarcia migawki kamera jest w ruchu, czego skutkiem jest nieostrość obrazu – zamiast punktu powstaje plamka rozciągnięta w kierunku lotu (Rys. 1).", "Rozmiar plamki wynosi teoretycznie [1]:", "gdzie: \\(u'_{t}\\) – rozmiar plamki rozmazania w kierunku lotu, \\(\\Delta d \\) – droga jaką przebywa kamera w czasie otwarcia migawki, \\(v\\) – prędkość z jaką porusza się platforma przenosząca kamerę, \\(t\\) – czas otwarcia migawki, \\( \\Delta Z\\) – różnica wysokości pomiędzy środkiem rzutu a punktem w terenie, \\( c \\) – odległość obrazowa, \\( m\\) – mianownik lokalnej skali.", "Krótki czas otwarcia migawki wymaga odpowiedniego dobrania pozostałych parametrów ekspozycji (zob. Przepis na dobre zdjęcie). Do zwiększenia naświetlenia w pierwszej kolejności powinna być wykorzystana przysłona, natomiast zwiększanie czułości jest ostatecznością.", "Fotogrametria może być stosowana tylko wówczas, gdy fotografowana scena utworzy na zdjęciach obraz będący zbiorem detali wyróżniających się kształtem, jasnością, kolorem, gradientem (szybkością zmiany jasności/koloru). Tylko wówczas operator lub proces automatyczny będzie mógł wskazać punkty homologiczne na pokrywających się zdjęciach. Takie cechy występują zwykle gdy fotografowana jest \"Ziemia z góry\", jednak niektóre materiały np.: woda, jasny piasek na płaskiej powierzchni, nie dają gwarancji utworzenia na zdjęciu jakichkolwiek śladów tekstury. Fotografowanie z bliskiej odległości obiektów których powierzchnie są gładkie, jednolite kolorystycznie i błyszczące utrudnia, a czasami uniemożliwia, wykonanie pomiaru fotogrametrycznego.", "Wszystkie omawiane w podręczniku związki analityczne zakładają, że zdjęcie jest rzutem środkowym. Z teoretycznego punktu widzenia używane w fotogrametrii kamery powinny realizować rzut środkowy bez zniekształceń. Jest to praktycznie niemożliwe, gdyż obiektywy mają dystorsję i inne odstępstwa od idealnego rzutu środkowego. Dlatego konieczne jest zbadanie zniekształceń zdjęcia i ich usunięcie (zob. Elementy orientacji wewnętrznej i dystorsja oraz Kalibracja kamer). W fotogrametrii rekomenduje się wykorzystanie kamer specjalistycznych, ale przy spełnieniu pewnych warunków mogą to być również aparaty fotograficzne ogólnego stosowania (zob. Kamery metryczne i niemetryczne).", "W fotogrametrii dominuje wykonywanie zdjęć kamerami zamontowanymi na mobilnych platformach. Nawet gdy ruch platformy jest spokojny, a kamera zamontowana na stabilizującym zawieszeniu, to rzeczywiste położenie kamery w przestrzeni jest zawsze inne od zaplanowanego, co symbolicznie ilustruje Rys. 2.", "Dane określające chwilowe położenie kamery w przestrzeni są nazywane elementami orientacji zewnętrznej ( Definicja EOZ (1)).", "Są dwie drogi wyznaczenia EOZ kamer/zdjęć:", "Z reguły stosuje się połączenie metody bezpośredniej i pośredniej, rozwijające się w kierunku osiągnięcia wysokiej automatyzacji, czego przykładem jest Metoda SfM.", "Od dokładności wyznaczenia EOZ zależy dokładność końcowego opracowania fotogrametrycznego, które najczęściej ma jedną z dwóch postaci:", "W module Zastosowania fotogrametrii jest przedstawiony przegląd zagadnień w których wykorzystuje się fotogrametrię jako metodę pomiaru oraz jako materiał źródłowy dla potrzeb dokumentowania stanu geo-przestrzeni i pojedynczych obiektów."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Loty fotogrametryczne i osnowa terenowa", "subject_id": 1958, "subject": "Fotogrametryczne statki powietrzne", "paragraphs": ["Płatowce są mniej zwrotne od wirnikowców, ale pozwalają na dłuższy i wyższy lot. Zaletą wirnikowców jest pionowy start i lądowanie, podczas gdy płatowce potrzebują do lądowania płaskiej, miękkiej nawierzchni [3]. W ostatnich latach pojawiła się technologia VTOL (ang. Vertical Take Off) umożliwiająca pionowy start i lądowanie płatowców. W fotogrametrii używa się BSP o maksymalnej masie startowej (MTOM) do 25 kg. Kluczowym dla zastosowań fotogrametrycznych jest czas trwania lotu, który kształtuje się w zakresie od kilkunastu minut do dwóch–trzech godzin. W BSP są stosowane wbudowane albo wymienne kamery, z reguły o masie do 1 kg. W celu przeciwdziałania nadmiernym wychyleniom kamer podwiesza się je do urządzeń stabilizujących, określanych jako gimbal (Rys. 2 i Rys. 3)."], "definitions": [{"name": " Definicja 1: Fotogrametryczny statek powietrzny ", "content": " statek powietrzny wyprodukowany lub\nzaadaptowany do wykonywania zdjęć fotogrametrycznych, który poza wyposażeniem standardowym, w tym\nnawigacyjnym, ma urządzenie do podwieszenia kamery w sposób amortyzujący drgania (opcjonalnie posiada\notwór w podłodze – fotoluk). "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Loty fotogrametryczne i osnowa terenowa", "subject_id": 1959, "subject": "Rodzaje lotów fotogrametrycznych", "paragraphs": ["Zdjęcie jest pionowe gdy oś kamery jest skierowana zgodnie z kierunkiem siły ciężkości. Takie zdjęcia znacznie ułatwiają dalsze opracowanie fotogrametryczne. Ale wykonanie zdjęcia ściśle pionowego jest w praktyce niemożliwe, dlatego termin „pionowe” rozciąga się na zdjęcia odchylone od pionu o kilka stopni (są one niekiedy nazywane prawie-pionowymi).", "Zdjęcia z zamierzonym odchyleniem osi kamery od pionu nazywane są nachylonymi lub ukośnymi 1 . Ich fotogrametryczne opracowanie jest trudniejsze, ale są lepsze do opracowania modeli 3D, w których widać obiekty nie tylko z góry ale też z boku (np. ściany budynków). Kompromisowym rozwiązaniem jest symultaniczne wykonywanie zdjęć pionowych i ukośnych, przy pomocy zespołów kamer średnioformatowych (zob. Kamery metryczne i niemetryczne).", "gdzie: \\(s\\) – rozmiar zdjęcia w terenie w kierunku lotu, \\(b_p\\) – baza podłużna (odległość pomiędzy środkami rzutu kolejnych zdjęć).", "W fotogrametrii 3D stosuje się standardowo pokrycie podłużne \\( \\geq 60\\%\\). Pokrycie potrójne zdjęć \\(p_3\\), pokazane na Rys. 4B, wynosi:", "gdzie: \\(w\\) – rozmiar zdjęcia w terenie w kierunku poprzecznym do lotu, \\(b_q\\) – baza poprzeczna (odległość pomiędzy osiami sąsiednich szeregów).", "W fotogrametrii 3D stosuje się standardowo pokrycie poprzeczne 20-30\\(\\%\\), ale dla zdjęć z BSP \\( \\geq 60\\%\\) (występuje wtedy potrójne pokrycie poprzeczne)."], "definitions": [{"name": " Definicja 1: Lot fotogrametryczny ", "content": " odpowiednio zaplanowany lot statku powietrznego wyposażonego\nw kamerę, którego celem jest sekwencyjne wykonywanie pokrywających się zdjęć lotniczych, o określonym\nuporządkowaniu przestrzennym. "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Loty fotogrametryczne i osnowa terenowa", "subject_id": 1960, "subject": "Planowanie lotów blokowych", "paragraphs": ["Po wyborze kamery znany jest rozmiar piksela matrycy (\\(s'_p\\)), ogniskowa kamery (\\(f\\)) 1 , co przy określonym GSD pozwala obliczyć mianownik skali zdjęcia (\\(m\\)) oraz wysokość lotu nad średnią wysokością terenu (\\(\\Delta Z\\)):", "Wysokość lotu jest wprost proporcjonalna do ogniskowej kamery. Jeśli kamera ma wymienne obiektywy to planując lot nad miastem lepiej jest wybrać obiektyw z dłuższą ogniskową, gdyż wtedy na zdjęciu będzie mniej miejsc przesłoniętych przez budynki czy drzewa. Jak pokazuje Rys. 1 taką samą skalę i taki sam GSD można uzyskać przy różnych relacjach wysokości lotu i ogniskowej.", "Znajomość skali zdjęcia oraz rozmiaru matrycy kamery (\\(s', w'\\)) pozwala obliczyć (średni) zasięg zdjęcia w terenie (\\(s,w\\)):", "Znając terenowy zasięg zdjęcia oraz planowane pokrycie podłużne i poprzeczne można, wychodząc z wzorów (1,3), wyznaczyć bazę podłużną i poprzeczną (\\(b_p, \\, b_q\\)):", "Planując liczbę szeregów i zdjęć zachowuje się zasadę objęcia blokiem obszaru opracowania wraz z zewnętrznym buforem, jak pokazuje Rys. 2 [3]. Generalnie dąży się do planowania bloków o kształcie prostokątnym. Gdy obszar opracowania ma mocno nieforemny kształt, a przez to prostokąt ograniczający ma dużo większą powierzchnię, wówczas można blokowi nadać formę nieregularną mając na uwadze, że może to wpłynąć niekorzystnie na dokładność opracowania fotogrametrycznego (Rys. 2B).", "Ze względów aerodynamicznych preferowane są loty na jednej wysokości względem poziomu morza. Różnice wysokości terenu powodują lokalną zmianę GSD i zmianę pokryć zdjęć. Na Rys. 3 pokazana jest sytuacja skutkująca utratą potrójnego pokrycia podłużnego, co jest niedopuszczalne dla fotogrametrii 3D. Aby zapobiec nadmiernym zmianom GSD i zejściem pokryć poniżej minimum, można:", "Do planowania lotów fotogrametrycznych stosuje się programy komputerowe, często związane z określonymi kamerami [4]. W otwartym oprogramowaniu QGIS dostępne są wtyczki do planowania lotu: Flight Planner (loty samolotami załogowymi) oraz Science Flight Planner (loty BSP)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Loty fotogrametryczne i osnowa terenowa", "subject_id": 1961, "subject": "Terenowa osnowa fotogrametryczna", "paragraphs": ["Nie zawsze da się spełnić powyższe zasady. Lasy i akweny wodne to obszary gdzie nie można ulokować punktów osnowy. Najistotniejsze są fotopunkty w narożach bloku i w skrajnych szeregach, zwłaszcza, gdy są długie. Jeśli takie umiejscowienie jest niemożliwe, to należy powiększyć obszar lub zmodyfikować kształt bloku.", "W celu podniesienia precyzji pomiaru fotopunktów i punktów kontrolnych na zdjęciach zaleca się ich sygnalizację w terenie (przed wykonaniem zdjęć). Sygnałom nadaje się kształt krzyża lub litery L1 , malując je na podłożu twardym albo przytwierdzając plansze lub listwy z tworzywa sztucznego do podłoża miękkiego, jak pokazuje Rys. 2. Długość ramion sygnału od jego środka licząc powinna wynosić (6–9) GSD a szerokość (2–3) GSD [3]. Sygnalizacja jest zabiegiem stosunkowo uciążliwym, dlatego przed jej wykonaniem analizuje się możliwość wykorzystania szczegółów terenowych w roli fotopunktów/punktów kontrolnych.", "Warunki stawiane szczegółom terenowym wybieranym jako fotopunkty/punkty kontrolne:"], "definitions": [{"name": " Definicja 1: Terenowa osnowa fotogrametryczna ", "content": " zbiór odpowiednio rozlokowanych w obszarze bloku\npunktów o pomierzonych współrzędnych terenowych \\(X,Y,Z\\), dających się precyzyjnie pomierzyć na zdjęciach; osnowa\ndzieli się na:\n\n\nfotopunkty - które pełnią aktywną rolę w procesie fotogrametrycznego opracowania zdjęć (ang.\nGround Control Point – GCP),\n\n\n\npunkty kontrolne - które pełnią bierną rolę w procesie fotogrametrycznego opracowania zdjęć,\nnatomiast służą do kontroli dokładności (ang. Check Point – CP).\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Metryczność kamer i zdjęć", "subject_id": 1956, "subject": "Elementy orientacji wewnętrznej i dystorsja", "paragraphs": ["Konwencja przyjęta dla zwrotu osi \\(z\\) powoduje, że wszystkie punkty zdjęcia mają w układzie kamery współrzędną \\(z\\) równą \\(-c\\). Dla lotów blokowych oś \\(x\\) wskazuje w którym kierunku przemieszcza się kamera.", "W roli układu zdjęcia używa się też układu sensora ustalonego przez kolumny i wiersze matrycy. W fotogrametrii analogowej układ zdjęcia był wyznaczany przez znaczki (markery) położone na marginesach zdjęcia, stąd nosił nazwę układu tłowego (znaczki tłowe kamery są widoczne na Rys. 1).", "Z punktu widzenie fotogrametrii rzut środkowy jest wyznaczony przez wskazanie środka rzutu, rzutni oraz punktu głównego zdjęcia (rzut ortogonalny środka rzutu na zdjęcie). Środek rzutu \\(O\\) i punkt główny \\(O'\\) dzieli odległość obrazowa \\(c\\) zwana w fotogrametrii stałą kamery 1 (ang. principal distance). Jeśli kamera idealnie realizuje rzut środkowy, to punkt główny zdjęcia pokrywa się ze środkiem geometrycznym zdjęcia S ( Rys. 1A). Jest to bardzo trudne do osiągnięcia w praktyce, z reguły punkt główny nie leży dokładnie w środku geometrycznym zdjęcia lecz w jego pobliżu (Rys. 1B). Układ zdjęcia (scentrowany) stanowi fizyczną referencję dla punktu głównego [1].", "Współrzędne punktu \\(P'\\) w układzie kamery wynoszą (Rys. 1):", "gdzie: \\(\\hat {x}, \\hat {y}\\) – współrzędne punktu \\(P'\\) w układzie scentrowanym, \\(x_{o}\\), \\(y_{o}\\), \\(c\\) – EOW.", "Obiektywy aparatów fotograficznych wprowadzają względem rzutu środkowego szereg zniekształceń, zwanych aberracjami. Wskutek aberracji: chromatycznej, sferycznej, krzywizny pola i astygmatyzmu, następuje spadek ostrości obrazu. Z kolei dystorsja (geometryczna) ujawnia się odwzorowaniem na zdjęciu linii prostych w postaci krzywych (zob. Rys. 3) [2, 3]. Promienie przechodząc przez soczewki obiektywu tracą prostoliniowość – kąt promieni względem osi kamery jest inny w przestrzeni przedmiotowej i obrazowej. W rezultacie obraz punktu \\(P\\) zamiast powstać z zachowaniem kolinearności w punkcie \\(P'\\), sytuuje się w błędnym punkcie \\(P''\\) (Rys. 2A).", "Zostały opracowane modele matematyczne opisujące deformacje geometryczne zdjęcia. Wydzielono dystorsję radialną – symetryczną względem punktu głównego 2 (Rys. 2A,B) i tangencjalną, której wektor jest prostopadły do promienia radialnego (Rys. 2B). Najczęściej stosowany jest wielomianowy model Brown-a [4], który dystorsję radialną opisuje wzorem (2) a tangencjalną wzorem (3).", "gdzie: \\(\\Delta x_r, \\Delta y_r \\) – składowe dystorsji radialnej, \\(\\Delta x_t, \\Delta y_t \\) – składowe dystorsji tangencjalnej, \\(\\Delta x_d, \\Delta y_d \\) – składowe dystorsji sumarycznej, \\(k_1, k_2, k_3 \\) – parametry dystorsji radialnej, \\(p_1, p_2 \\) – parametry dystorsji tangencjalnej, \\(x,y\\) – współrzędne punktu odniesione do punktu głównego, obliczane z wzoru (5) , \\(r\\) – promień punktu względem punktu głównego zdjęcia, obliczany z wzoru (6).", "Sposób wyznaczania parametrów dystorsji opisany jest w Kalibracja kamer."], "definitions": [{"name": " Definicja 1: Układ kamery ", "content": " prawoskrętny układ 3D zaczepiony w środku rzutu kamery, oś \\(z\\) jest\nskierowana wzdłuż osi kamery w kierunku od obiektu, osie \\(x\\) i \\(y\\) są równoległe do ramki matrycy kamery (Rys.\n1). "}, {"name": " Definicja 2: Układ zdjęcia scentrowany ", "content": " prawoskrętny układ 2D zaczepiony w środku geometrycznym\nzdjęcia, osie \\(\\hat {x}\\) i \\(\\hat {y}\\) są równoległe do ramki matrycy kamery, co pokazuje Rys. 1 (ang. image-centered frame).\n"}, {"name": " Definicja 3: Elementy orientacji wewnętrznej kamery – EOW ", "content": " zespół trzech parametrów:\nwspółrzędne punktu głównego w układzie zdjęcia scentrowanym i stała kamery (\\(x_{o}\\), \\(y_{o}\\), \\(c\\)). "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Metryczność kamer i zdjęć", "subject_id": 1500, "subject": "Kalibracja kamer", "paragraphs": ["Pole kalibracyjne może mieć postać:", "Wykonywane dookolnie zdjęcia pola kalibracyjnego pokazanego na Rys. 2 mają znacząco inną orientację przestrzenną, co zmniejsza korelację niewiadomych (parametrów EOW i dystorsji), a przez to poprawia dokładność kalibracji [3].", "Najprostszym polem kalibracyjnym jest szachownica wyświetlana na ekranie monitora (Rys. 3). Wykonuje się zwykle dziewięć zdjęć tak, aby szachownica była ujęta z różnych perspektyw, aby wypełniała cały kadr zdjęcia, a pomiędzy zdjęciami nie zmienia się ostrości (odległość obrazowa ma być stała). Do obliczeń EOW i dystorsji używa się najczęściej metody opracowanej przez Zhang-a [4], której implementacja informatyczna jest bibliotece OpenCV. Kalibracja \"na szachownicę\" nadaje się dla aparatów o krótkich ogniskowych, które po wyostrzeniu na bliski plan mają większe głębie ostrości niż aparaty długoogniskowe.", "Szczególnym rodzajem kalibracji jest tzw. samokalibracja, w której rolę pola kalibracyjnego odgrywa obiekt będący przedmiotem pomiaru fotogrametrycznego."], "definitions": [{"name": " Definicja 1: Kalibracja kamery ", "content": " estymacja EOW i dystorsji na podstawie zaobserwowanych na\nzdjęciach deformacji wzorca geometrycznego (pola kalibracyjnego). "}, {"name": " Definicja 2: Samokalibracja kamery ", "content": " wyznaczenie EOW i dystorsji na podstawie deformacji zdjęć\nwykrytych podczas procesu opracowania zdjęć wykonanych dla potrzeb pomiarowych (zob. Metoda SfM).\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Metryczność kamer i zdjęć", "subject_id": 1501, "subject": "Kamery metryczne i niemetryczne", "paragraphs": ["Podstawowe cechy wielkoformatowych cyfrowych kamer pomiarowych (Rys. 1) [1]:", "Kamery wielogłowicowe rejestrują w tym samym czasie osobne kanały (Rys. 2), które później są montowane w jedno zdjęcie wirtualne. Zdjęcie kolorowe powstaje na drodze syntezy kanałów R,G,B z kanałem panchromatycznym (bez stosowania filtra Bayer-a). Kanał NIR jest opcjonalnie wykorzystywany do tworzenia obrazów w tzw. fałszywych kolorach, stosowanych głównie w leśnictwie do analizy kondycji drzew.", "Stosowana w kamerach pomiarowych kompensacja ruchu postępowego polega na mechanicznym przesunięciu zdjęcia w kierunku lotu o pokazany na Rys. 3 wektor, którego długość \\(u_t'\\) równa się potencjalnej plamce rozmazania zdjęcia – zgodnie z wzorem (1). Przesunięcie zdjęcia musi odbyć się w czasie otwarcia migawki, co wymaga synchronizacji z prędkością i wysokością lotu. Elektronicznym odpowiednikiem mechanicznego systemu kompensacji FMC jest sukcesywne przesuwanie naświetlonych „linijek” w kierunku lotu (TDI – Time Delay Integration). Dzięki FMC/TDI mogą być stosowane dłuższe czasy otwarcia migawki, co pozwala uniknąć zwiększenia czułości matrycy.", "Kamery pomiarowe są podstawowym narzędziem fotogrametrii lotniczej ze statków załogowych. Praktyka pokazuje, że kalibrację kamer pomiarowych należy okresowo sprawdzać (co rok lub dwa), a w przypadku dużych zmian względem fabrycznej metryki, kieruje się ją do producenta na badanie kontrolne.", "W kamerach średnioformatowych nie stosuje się wielogłowicowej rejestracji pojedynczego zdjęcia, nie ma też redukcji nieostrości zdjęcia wskutek ruchu postępowego. Zdjęcia kolorowe powstają z zastosowaniem zmodyfikowanych filtrów Bayer-a. Kamery mają centralną migawkę pozwalającą na bardzo krótkie czasy naświetlania (np. 1/2500 s) oraz matryce o wysokiej czułości bazowej (ISO < 100), dzięki czemu można uzyskiwać ostre zdjęcia pomimo ruchu kamery. Zaletą kamer jest dostępność obiektywów o różnych ogniskowych (po wymianie obiektywu zalecana jest kalibracja). Dzięki małej masie można montować systemy złożone z kilku kamer, zarówno do zdjęć pionowych jak i zdjęć ukośnych. Popularne są zestawy pięciu kamer, z których jedna jest skierowana w dół, a pozostałe są odchylone o \\(45^{\\circ }\\) od pionu i wykonują zdjęcia w czterech różnych kierunkach. Coraz więcej kamer średnioformatowych nadaje się do stosowania w BSP.", "Przy wykonywaniu zdjęć fotogrametrycznych z dronów (zob. Fotogrametryczne statki powietrzne), stosuje się kamery o masie < 1 kg, o różnym poziomie stabilności EOW i dystorsji. Standardem postępowania de facto jest samokalibracja kamer (2) (zakłada się, że w czasie trwania lotu kamera jest stabilna).", "W przypadku zdjęć wykonywanych w ruchu, co przeważa w fotogrametrii, nie zaleca się stosowania kamer wyposażonych w migawki szczelinowe (zob. Aparat fotograficzny czyli udoskonalona camera obscura). Czas przewijania migawki szczelinowej jest dłuższy niż czas naświetlania matrycy, co może doprowadzić do rozmazania obrazu, nazywanego efektem rolling shuter. Z punktu widzenia fotogrametrii znacznie lepsza jest mechaniczna migawka centralna lub elektroniczna globalna.", "Aparaty fotograficzne instalowane w smartfonach mają znacznie mniejsze rozmiary w stosunku do klasycznych aparatów fotograficznych, matryce są miniaturowe, obiektywy plastikowe [4]. Z tych powodów aparaty smarfonowe cechuje zmienność EOW (dystorsja jest relatywnie stała). Niezależnie od tych uwarunkowań aparaty smartfonowe mogą być stosowane do zastosowań pomiarowych w których wystarczają mniejsze dokładności [5]."], "definitions": [{"name": " Definicja 1: Kamery metryczne ", "content": " kamery wyprodukowane specjalnie dla potrzeb fotogrametrycznych,\nEOW i dystorsja kamer nie ulegają zmianie w czasie (przy założeniu, że kamera nie doświadczy gwałtownych\nwstrząsów czy uszkodzenia mechanicznego); kamery są fabrycznie kalibrowane i dostarczane wraz z protokołem\nkalibracji. "}, {"name": " Definicja 2: Kamery niemetryczne ", "content": " aparaty fotograficzne ogólnego przeznaczenia, EOW i dystorsja są\nwyznaczone przez użytkownika na drodze kalibracji powtarzanej okresowo albo przed każdym pomiarem\nfotogrametrycznym, albo wykonywanej w trybie samokalibracji. "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Orientacja zdjęć w przestrzeni", "subject_id": 1963, "subject": "Równania kolinearności i elementy orientacji zewnętrznej", "paragraphs": ["gdzie: \\(X,Y,Z\\) – współrzędne punktu \\(P\\) w układzie terenowym \\(XYZ\\), \\(x,y,-c\\) – współrzędne punktu \\(P'\\) (obraz \\(P\\)) w układzie kamery, skorygowane o EOW i dystorsję (zob. wzór (7) w Elementy orientacji wewnętrznej i dystorsja).", "Cechą rzutu środkowego jest współliniowość (kolinearność) środka rzutu \\(O\\), punktu \\(P\\) i jego obrazu \\(P'\\) na zdjęciu, co pokazuje Rys. 1. W części B rysunku w miejscu układu kamery usytuowany jest pomocniczy układ współrzędnych \\(\\dot {x}, \\dot {y}, \\dot {z}\\), którego osie są równoległe do osi układu terenowego \\(XYZ\\).", "Kolinearność punktów \\(O, P, P'\\) można zapisać następująco [1]:", "gdzie: \\(X, Y, Z\\) – współrzędne punktu \\(P\\) w układzie \\(XYZ\\), \\(X_o, Y_o, Z_o\\) – współrzędne środka rzutu \\(O\\) w układzie \\(XYZ\\), \\(m\\) – mianownik skali w jakiej odwzorował się punkt \\(P'\\), \\(m\\) wyraża ile razy wektor \\(OP\\) jest dłuższy od wektora \\(OP'\\), \\(\\dot {x}, \\dot {y}, \\dot {z}\\) – współrzędne punktu \\(P'\\) w układzie \\(\\dot {x}\\dot {y}\\dot {z}\\), \\(\\mathbf {R}\\) – macierz obrotu transformująca współrzędne z układu kamery do układu \\(\\dot {x}\\dot {y}\\dot {z}\\).", "Układ kamery \\(xyz\\) i układ pomocniczy \\(\\dot {x}\\dot {y}\\dot {z}\\) są wzajemnie skręcone (Rys. 1). Obracając jeden układ kolejno wokół trzech osi można doprowadzić go do pozycji tożsamej z drugim układem (zob. kąty Eulera). W ogólności kolejność obrotów jest dowolna. W fotogrametrii przyjęto następującą konwencję obrotów: obracany jest układ \\(\\dot {x}\\dot {y}\\dot {z}\\), kolejność obrotów \\( \\omega , \\phi , \\kappa \\) (Rys. 2), dodatnim obrotem jest kierunek przeciwny do ruchu wskazówek zegara gdy obrót obserwujemy z dodatniego kierunku osi obrotu [2].", "Dla przyjętej konwencji obrotów można zapisać transformację współrzędnych z układu kamery \\(xyz\\) do układu \\(\\dot {x}\\dot {y}\\dot {z}\\) jako zespół kolejno po sobie następujących transformacji elementarnych, wyrażających obroty \\( \\omega , \\phi , \\kappa \\) wokół kolejno obracanych osi \\(\\dot {x}, \\dot {y}, \\dot {z}\\) (każdy kolejny obrót powoduje nowe położenie układu). Transformacje elementarne są pokazane na Rys. 2, pod którym są umieszczone macierze transformacji \\(\\mathbf {R_{\\omega }}, \\mathbf {R_{\\phi }}, \\mathbf {R_{\\kappa }}\\).", "Po wymnożeniu macierzy elementarnych \\(\\mathbf {R_{\\omega }}, \\mathbf {R_{\\phi }}, \\mathbf {R_{\\kappa }}\\) uzyskamy macierz obrotu \\(\\mathbf {R}\\) wyrażoną wzorem (4). Macierz \\(\\mathbf {R}\\) ma rozmiar 3×3, jest ortogonalna, czyli \\(\\mathbf {R}^{-1} = \\mathbf {R}^T\\) 1 .", "Kolinearność zapisana wzorem (2) pokazuje drogę przeliczenia współrzędnych punktu \\(P'\\) na współrzędne punktu \\(P\\), czyli \"zdjęcie \\(\\Rightarrow \\) teren\". Wzór (2) łatwo przekształcić do postaci (5) która reprezentuje drogę przeliczenia współrzędnych punktu \\(P\\) na współrzędne punktu \\(P'\\), czyli \"teren \\(\\Rightarrow \\) zdjęcie\".", "Z wzoru (5) można otrzymać równoważną postać złożoną z trzech oddzielnych równań odpowiednio dla \\(x, y\\) i \\(-c\\). Jeśli następnie podzielimy dwa pierwsze równania przez równanie trzecie i ostatecznie wymnożymy oba równania przez \\(-c\\), to uzyskamy równania kolinearności:", "gdzie: \\( r_{11}, r_{12},.., r_{33}\\) – elementy macierzy \\(\\mathbf {R}\\).", "Równania kolinearności (6) pozwalają obliczyć położenie obrazów punktów terenowych na zdjęciu na podstawie:", "Równania kolinearności (6) stanowią punkt wyjścia dla sformułowania równań obserwacyjnych w procesie obliczania najbardziej prawdopodobnych EOZ (zob. Estymacja EOZ - aerotriangulacja)."], "definitions": [{"name": " Definicja 1: Elementy orientacji zewnętrznej kamery\n– EOZ 2\n ", "content": " dane określające położenie układu kamery w układzie terenowym, składające się ze współrzędnych\nśrodka rzutu \\(X_o,Y_o,Z_o\\) oraz trzech kątów \\( \\omega , \\phi , \\kappa \\) wyrażających orientację kątową układu kamery względem terenowego (zbiór\nsześciu EOZ składa się z trzech elementów liniowych i trzech kątowych). "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Orientacja zdjęć w przestrzeni", "subject_id": 2088, "subject": "Bezpośredni pomiar EOZ", "paragraphs": ["Dane z nawigacyjnych systemów GNSS i INS (zob. Fotogrametryczne statki powietrzne) opisują chwilowe położenie statku powietrznego, jednak nie są wystarczające do wykorzystania bezpośrednio jako georeferencje kamer. Dlatego stosuje się osobne urządzenia pomiarowe oparte o analogiczne techniki jak w nawigacji, ale o wyższej dokładności i wzajemnie zintegrowane:", "Urządzeniem pomiarowym INS jest jednostka inercyjna (IMU-Inertial Measurement Unit). IMU składa się najczęściej z 3 żyroskopów, 3 akcelerometrów oraz opcjonalnie magnetometru. Żyroskopy (mechaniczne, optyczne lub światłowodowe) służą do wyznaczenia orientacji kątowej (poprzez pomiar prędkości kątowych). Akcelerometry (przyspieszeniomierze) służą do wyznaczenia pozycji (poprzez pomiar liniowych zmian prędkości).", "W pomiarach GNSS/INS występują dwa 1 układy współrzędnych, pokazane na Rys. 1:", "Pomiar GNSS odniesiony do układu \\(X^e Y^e Z^e\\) jest wykonywany przy wsparciu stacji referencyjnych (np. ASG EUPOS), technikami: różnicową (dGPS), kinematyczną (RTK) lub kinematyczną z opracowaniem w post-processingu (PPK). Pomiar orientacji kątowej wykonywany przez INS jest odniesiony do układu nawigacyjnego \\(NED\\). Orientacja kątowa jest wyrażana przez odchylenie od pionu (roll, pitch ) i azymut względem północy (yaw). Nazwy kątów i ich zwroty są zaadoptowane z nawigacji lotniczej (zob. Aircraft Rotations), zmiany orientacji kątowej kamery są pochodną ruchu statku powietrznego (zob. animacja yaw, animacja pitch, animacja roll).", "Pomiędzy anteną GNSS, IMU oraz kamerą występują ekscentry które muszą być wyznaczone w procesie kalibracji zestawu pomiarowego, aby możliwe było przeliczenie mierzonych kątów (INS) i współrzędnych (GNSS) na wartości odpowiadające układowi kamery (Rys. 2A). Mierzone przez INS kąty yaw, pitch, roll dotyczą IMU, a nie kamery (Rys. 2B). Dlatego przeliczenie pomierzonych kątów na orientację kątową kamery wymaga uwzględnienia, poza ekscentrem liniowym, nierównoległości układu kamery i układu IMU.", "Podstawowym parametrem charakteryzującym dokładność IMU jest dryft (liniowa strata dokładności w funkcji czasu) [2]. Najwyższej klasy urządzenia mają dryft na poziomie 0,001\\(^{\\circ }\\)/h, a jednostki klasy consumer grade rzędu (\\({10} - {10^3}\\))\\(^{\\circ }\\)/h [3]. Stosowane w fotogrametrii ze statków załogowych urządzenia GNSS/INS są wzajemnie zintegrowane, co pozwala korygować dryft INS. W BSP stosuje się zwykle wysokiej jakości system GNSS (RTK/PPK) i znacznie niższej INS.", "Uzyskane z INS i skorygowane do układu kamery kąty yaw, pitch, roll są współmierne względem kątów \\(\\omega , \\phi , \\kappa \\), podobieństwa i różnice są następujące [5]:", ".", "Do przeliczenia yaw, pitch, roll na \\(\\omega , \\phi , \\kappa \\) trzeba znać:", "Konieczność przeliczenia kątów nie występuje, gdy estymacja EOZ (zob. Estymacja EOZ - aerotriangulacja) odbywa się w układzie geocentrycznym (lub topocentrycznym którego płaszczyzna \\(XY\\) jest styczna do elipsoidy w środku obszaru opracowania). Takie postępowanie jest korzystne dla dużych obszarowo projektów fotogrametrycznych, gdyż nie wprowadza do estymacji EOZ zaburzeń z tytułu zniekształceń odwzorowania kartograficznego."], "definitions": [{"name": " Definicja 1: Pomiar georeferencji kamery ", "content": " pomiar pozycji i orientacji kątowej kamery (EOZ)\nwykonywany technikami GNSS i INS podczas lotu fotogrametrycznego. "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Orientacja zdjęć w przestrzeni", "subject_id": 1965, "subject": "Estymacja EOZ - aerotriangulacja", "paragraphs": ["Metoda niezależnych wiązek oraz bezpośredni pomiar georeferencji są współmierne w tym sensie, że maję wspólny cel: określenie EOZ zdjęć. Estymacja \"wiązkami\" jest od wielu lat stosowana operacyjnie, dzięki czemu zyskała miano metody skutecznej, niezawodnej i wystarczająco dokładnej. Integracja obu metod staje się standardem de facto współczesnej fotogrametrii.", "Punkty wiążące tworzą kameralną osnowę fotogrametryczną, w odróżnieniu od fotopunktów i punktów kontrolnych nie są mierzone w terenie (zob. Terenowa osnowa fotogrametryczna). Liczba punktów wiążących w porównaniu z osnową terenową jest bardzo duża, od kilku (5-6) punktów na każdym zdjęciu do tysięcy punktów (gdy do estymacji EOZ jest wykorzystana Metoda SfM). W procesie estymacji EOZ punkty wiążące uzyskują współrzędne terenowe \\(X,Y,Z\\).", "Estymacja EOZ zdjęć lotniczych jest tradycyjnie nazywana aerotriangulacją [1]. Nazwa ta była w pełni adekwatna w czasach fotogrametrii analogowej, kiedy konieczne było zagęszczanie osnowy terenowej, gdyż rzadko rozłożone fotopunkty nie wystarczały do opracowania stereoskopowego par zdjęć lotniczych [2]. Punkty wiążące z uzyskanymi po aerotriangulacji współrzędnymi terenowymi stanowiły nieodzowne uzupełnienie osnowy terenowej. Współcześnie współrzędne terenowe punktów wiążących nie są głównym celem aerotriangulacji, mają znaczenie pomocnicze.", "Punkty wiążące i fotopunkty powinny równomiernie pokrywać obszar bloku zdjęć, co pokazuje Rys. 2 (na przykładzie symbolicznego bloku złożonego z dwóch szeregów po trzy zdjęcia każdy).", ".", "Zapiszmy równania kolinearności (6) w symbolicznej postaci (1):", "gdzie: \\(c\\) – stała kamery, \\(X_{o_j}, Y_{o_j}, Z_{o_j}, \\omega _j, \\phi _j, \\kappa _j\\) – EOZ zdjęcia \\(j\\), \\(X_i, Y_i, Z_i\\) – współrzędne terenowe punktu osnowy \\(i\\), \\(x_{ij}\\), \\(y_{ij}\\) – współrzędne punktu osnowy \\(i\\) odwzorowanego na zdjęciu \\(j\\).", "Na podstawie równań kolinearności (1) ułóżmy równania poprawek dla obserwowanych współrzędnych:", "Gdy równania (2) dotyczą fotopunktów, to zawierają 6 niewiadomych (EOZ), natomiast w równaniach dla punktów wiążących jest o 3 niewiadome więcej, są to ich współrzędne terenowe.", "Estymacja EOZ metodą niezależnych wiązek polega na jednoczesnym rozwiązaniu układu równań obserwacyjnych (2) zestawionych dla wszystkich obserwacji (współrzędne \\(x,y\\) punktów osnowy), przy warunku minimalizacji sumy kwadratów losowych poprawek do obserwacji. Każdy punkt osnowy wnosi tyle par równań (2) na ilu zdjęciach został odwzorowany. Liczba niewiadomych układu równań wynosi: 6 ⋅ liczba zdjęć + 3 ⋅ liczba punktów wiążących. Dzięki pokryciu zdjęć, w szczególności potrójnemu, nawet przy niedużej liczbie zdjęć występują obserwacje nadliczbowe względem liczby niewiadomych (zob. przykład (1)).", "Ponieważ równania kolinearności są nieliniowe, to dla potrzeb estymacji EOZ konieczna jest ich linearyzacja z wykorzystaniem wzoru Taylora. Linearyzacja wymaga oszacowania wartości przybliżonych niewiadomych, obliczenia pochodnych cząstkowych (1 stopnia) względem niewiadomych, a przedmiotem estymacji są przyrosty do podanych przybliżeń. Wzory na pochodne cząstkowe są podane w [4].", "Opracowano metodę szacowania wartości przybliżonych opartą na sukcesywnym budowaniu bloku w układzie lokalnym (zob. Metoda SfM), w której nie jest potrzebny Bezpośredni pomiar EOZ a zdjęcia mogą mieć dowolne nachylenie.", "Rozwiązanie jest iteracyjne, w każdej iteracji liczone są przyrosty do wejściowych wartości niewiadomych. W nowszych rozwiązaniach zamiast kolejnych iteracji stosuje algorytm optymalizacji nieliniowej Levenberga-Marquardta, co przyspiesza obliczenia [5].", "gdzie: \\(\\mathbf {v}\\) – wektor poprawek losowych, rozmiar \\(n \\times 1\\), \\(\\mathbf {P}\\) – macierz wag obserwacji, rozmiar \\(n \\times n\\), \\(n\\) – liczba obserwacji, \\(u\\) – liczba niewiadomych.", "Wskaźnikiem zrównoważonej estymacji jest uzyskanie: \\(\\sigma _0 \\! \\approx \\! 1\\). Liczone są także błędy średnie współrzędnych pomierzonych na zdjęciach oraz współrzędnych fotopunktów i pomierzonych EOZ (gdy te pomiary były traktowane jako obserwacje).", "Poza statystyką wyprowadzoną z procesu estymacji oblicza się empiryczne wskaźniki dokładności aerotriangulacji, w szczególności porównując współrzędne punktów kontrolnych z pomiaru terenowego (zob. Terenowa osnowa fotogrametryczna) i fotogrametrycznego (zob. Dokładność pomiarów fotogrametrycznych).", "W powyższym przykładzie liczba obserwacji nadliczbowych jest niewielka, gdyż blok zdjęć jest bardzo mały, a liczba punktów wiążących praktycznie najmniejsza z dopuszczalnych. Nadliczbowość rośnie ze wzrostem pokrycia zdjęć i liczby punktów osnowy (zwłaszcza punktów wiążących odwzorowanych na wielu zdjęciach).", "Klasyczny proces estymacji EOZ zdjęć wykonanych kamerą pomiarową jest realizowany przy pomocy specjalistycznego oprogramowania (np. Trimble Inpho, Socet Set, Image Station), obejmuje następujące etapy:"], "definitions": [{"name": " Definicja 1: Estymacja EOZ metodą niezależnych\nwiązek 1\n\n", "content": " ustalenie EOZ wielu zdjęć w jednym procesie obliczeniowym, w którym korygowane są inicjalne EOZ w taki\nsposób, aby zapewnić optymalne dopasowanie wiązek promieni wychodzących ze środków rzutu kamer, a\nprzecinających się na punktach wiążących i fotopunktach (Rys. 1). "}, {"name": " Definicja 2: Punkty wiążące ", "content": " punkty homologiczne potrzebne do rekonstrukcji promieni tworzących\nwiązki poszczególnych zdjęć, które podlegają dopasowaniu w procesie estymacji EOZ (potocznie: punkty\nsłużące do \"powiązania\" zdjęć). "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Orientacja zdjęć w przestrzeni", "subject_id": 2087, "subject": "Orientacja wzajemna i bezwzględna", "paragraphs": ["Wyobraźmy sobie dwa zdjęcia na których zobrazowana jest scena reprezentowana przez punkt \\(P\\) na Rys. 1. Przecięcie bazy (wektora \\(O_1O_2\\)) z płaszczyznami zdjęć daje punkty epipolarne. Proste łączące punkty epipolarne z obrazami punktu \\(P\\) na zdjęciach (\\(P'\\!_1, P'\\!_2\\)) nazywa się liniami epipolarnymi.", "Gdy zdjęcia są wzajemnie zorientowane to:", "Analityczne ujęcie związków geometrycznych przedstawionych na Rys. 1 wyraża wzór (1) [1]:", "gdzie: \\(x_1, y_1, x_2, y_2\\) – współrzędne punktów \\(P'\\!_1\\) i \\(P'\\!_2\\) na zdjęciach, w dowolnym układzie 2D, \\(\\mathbf {F}\\) – macierz fundamentalna 2 .", "Obliczenie elementów macierzy \\(\\mathbf {F}\\) wymaga znajomości 8 punktów homologicznych (dodatkowe warunki pozwalają zmniejszyć liczbę do 7). Macierz fundamentalną można dekomponować na translację oraz rotację [1]. Znajomość \\(\\mathbf {F}\\) i współrzędnych punktu na jednym zdjęciu, pozwala obliczyć równanie linii epipolarnej na drugim zdjęciu (zależność punkt -> linia epipolarna). Do orientacji wzajemnej zdjęć poprzez macierz fundamentalną nie jest potrzebna znajomość EOW kamery (ale dystorsja powinna być usunięta). Jeśli EOW kamery są znane, wówczas liczba niewiadomych orientacji wzajemnej zmniejsza się do pięciu, określają one jawnie położenie przestrzenne jednego zdjęcia względem drugiego (uzyskujemy zależność punkt -> punkt) [2].", ".", "Położenie prawego zdjęcia względem lewego jest zdefiniowane przez pięć parametrów (Rys. 2):", "Składowa bazy \\(b_x\\) jest przyjmowana arbitralnie, decyduje o skali modelu (np. \\(b_x=1\\)). Parametry orientacji wzajemnej można traktować jako EOZ zdjęcia prawego, ale odniesione do układu modelu 6 . Ten fakt podkreśla, że w orientacji wzajemnej nie jest istotne położenie względem układu terenowego a jedynie relacja jednego zdjęcia do drugiego. Powstały po orientacji wzajemnej model 3D zachowuje proporcje rozmiarów obiektów, ale nie ma określonej skali i położenia w przestrzeni.", "Model przestrzenny utworzony po orientacji wzajemnej pary zdjęć jest wyrażony w układzie modelu o nieznanym położeniu względem terenu, ma przypadkową skalę. Transformacja modelu do układu terenowego jest złożona z przesunięcia, przeskalowania i obrotu [3] (transformacja Helmerta 3D), co wyraża wzór (2) i pokazuje symbolicznie Rys. 3.", "gdzie: \\(\\ddot {x}, \\ddot {y}, \\ddot {z}\\) – współrzędne punktów modelu, \\(\\mathbf {R}\\) – macierz obrotu modelu o kąty \\(\\ddot {\\omega }, \\ddot {\\phi }, \\ddot {\\kappa } \\) 7 , \\(m\\) – współczynnik przeskalowania modelu (jeden dla całego modelu), \\(X_o, Y_o, Z_o \\) – współrzędne początku układu modelu w układzie \\(XYZ\\).", ".", "Do wyznaczenia siedmiu parametrów transformacji modelu (\\(X_o, Y_o, Z_o, \\ddot {\\omega }, \\ddot {\\phi }, \\ddot {\\kappa }, m \\)) potrzeba minimum trzech fotopunktów (poza współrzędnymi terenowymi \\(X,Y,Z\\) muszą one mieć znane współrzędne w układzie modelu \\(\\ddot {x}\\ddot {y}\\ddot {z}\\))."], "definitions": [{"name": " Definicja 1: Orientacja wzajemna pary zdjęć 1\n ", "content": " rekonstrukcja przestrzennej orientacji pary zdjęć względem siebie w oparciu o warunek poprawnego przecinania\nsię promieni punktów homologicznych; rezultat orientacji nazywany jest modelem (fotogrametrycznym).\n"}, {"name": " Definicja 2: Układ współrzędnych modelu ", "content": " arbitralnie przyjęty układ\nw którym wyrażone jest wzajemne położenie zdjęć (kamer), np. układ zaczepiony w\nśrodku rzutu kamery lewej i dziedziczący jej kierunki osi, ale przy założeniu, że oś \\(z\\) jest\npionowa 3\n ;\nukład służy do obliczania współrzędnych 3D z przecięcia promieni punktów homologicznych zdjęć tworzących\nmodel 4\n .\n"}, {"name": " Definicja 3: Orientacja bezwzględna (absolutna) modelu ", "content": " transformacja modelu do układu terenowego\n(ang. absolute orientation – AO). "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Orientacja zdjęć w przestrzeni", "subject_id": 2093, "subject": "Wcięcia fotogrametryczne i normalizacja zdjęć", "paragraphs": ["gdzie: \\({X_{o}}, {Y_{o}}, {Z_{o}}, {\\omega }, {\\phi },{\\kappa }\\) – obliczane EOZ zdjęcia, \\(X_i,Y_i,Z_i\\) – współrzędne terenowe fotopunktu \\(i\\), \\(i=1...\\geq 3\\), \\(x_{i}, y_{i}\\) – współrzędne fotopunktu \\(i\\) na zdjęciu, \\(c\\) – stała kamery.", "Aby z układu równań (1) wyliczyć EOZ trzeba podać wartości przybliżone niewiadomych (ta zasada dotyczy wszystkich zadań opartych na równaniach kolinearności). W przypadku zdjęć prawie pionowych oszacowanie przybliżonych EOZ nie jest trudne. Dla zdjęć o dużych odchyleniach od pionu pozyskanie przybliżonych EOZ jest problemem, dlatego stosowane są metody, które nie wymagają przybliżeń:", "Wyznaczanie EOZ wcięciem wstecz jest mało efektywne w porównaniu do aerotriangulacji, gdyż wymaga, aby fotopunkty były na każdym zdjęciu. Algorytmy PnP są używane w procesie sukcesywnego dopasowania orientacji kolejnych zdjęć w szeregu (zob. Metoda SfM). Wówczas w roli fotopunktów wykorzystuje się punkty wiążące o obliczonych współrzędnych 3D (punkty wiążące stają się pseudo-fotopunktami, ich współrzędne 3D nie są mierzone w terenie).", "Wcięcie w przód jest używane w dwóch zasadniczych sytuacjach:", "Wcięcie będzie przedstawione dla sytuacji II, która jest ogólniejsza.", "Metoda zasadza się na ustaleniu współczynników wydłużenia wektorów \\(O_1P_1\\) i \\(O_2P_2\\), aby spotkały się punkcie \\(P\\) (Rys. 2), co wyraża zależność (2):", "gdzie: \\(X,Y,Z\\) – obliczane współrzędne terenowe punktu \\(P\\) odwzorowanego na dwóch zdjęciach, \\(X_{o_1},Y_{o_1}, Z_{o_1}\\) i \\(X_{o_2},Y_{o_2}, Z_{o_2}\\) – współrzędne terenowe środków rzutów obu zdjęć (znane), \\(\\mathbf {R_1}\\) i \\(\\mathbf {R_1}\\) – macierze obrotów obu zdjęć (znane), \\(x_{1}, y_{1}\\) i \\(x_{1}, y_{1}\\) – współrzędne punktu \\(P\\) na zdjęciach (znane), \\(c\\) – stała kamery (znana), \\(m_1\\) i \\(m_2\\) – mianowniki lokalnej skali punktu \\(P\\) odpowiednio dla obu zdjęć (nieznane).", "Na podstawie (2) można zestawić układ równań w którym niewiadomymi są tylko współczynniki \\(m_1\\) i \\(m_2\\):", "Układ trzech równań (3) ma dwie niewiadome, można go rozwiązać jako nadokreślony układ równań liniowych. Często postępuje się inaczej, rezygnując z równania drugiego i obliczając \\(m_1\\) i \\(m_2\\) z pozostałych równań [1]. Następnie z pominiętego równania oblicza się współrzędną \\(Y\\) osobno dla zdjęcia lewego i prawego, a uzyskana różnica \\(p_Y\\!= \\!Y_{o_2}\\!-\\!Y_{o_1}\\), zwana paralaksą poprzeczną, jest wskaźnikiem jakości wcięcia. Gdy prawie pionowe tworzą szeregi ukierunkowane wzdłuż osi X układu terenowego, wówczas paralaksa poprzeczna powinna być bliska zero 1 .", "Do wcięcia z wielu zdjęć przystępuje się z założeniem, że przyczyną braku idealnego przecięcia promieni w przestrzeni 3D są błędy pomierzonych na zdjęciach współrzędnych. Za optymalne wcięcie uznaje się takie, przy którym poprawki losowe do pomierzonych współrzędnych spełniają warunek minimum sumy kwadratów [1, 4]. Algorytm wcięcia bazuje na równaniach kolinearności zestawionych dla wszystkich punktów homologicznych będących obrazami punktu \\(P\\) o nieznanych współrzędnych \\(X,Y,Z\\) (Rys. 3).", "Równania kolinearności dla punktu homologicznego na zdjęciu \\(j\\) mają postać (4):", "gdzie: \\({X}, {Y}, {Z}\\) – obliczane współrzędne terenowe punktu odwzorowanego na \\(j\\) zdjęciach, \\(j=1...\\geq 2\\), \\(X_{o_j}, Y_{o_j}, Z_{o_j}, \\omega _j, \\phi _j, \\kappa _j \\) – EOZ zdjęcia \\(j\\), \\(x_{Pj}, y_{Pj}\\) – współrzędne obrazu punktu \\(P\\) na zdjęciu \\(j\\), \\(c\\) – stała kamery.", "Równania kolinearności (4) z racji nieliniowości wymagają rozwinięcia w szereg Taylora względem niewiadomych (\\(X,Y,Z\\)), wraz z podaniem ich wartości przybliżonych. Do obliczenia wartości przybliżonych można wykorzystać algorytm dokonujący wcięcia z dwóch zdjęć.", "Wskaźnikiem jakości wcięcia są błędy reprojekcji punktu \\(P\\) na zdjęcia (na Rys. 3 pokazane są punkty pomierzone i uzyskane z reprojekcji). Średni błąd reprojekcji wcięcia jest liczony z poprawek losowych \\(v_x,v_y\\) na poszczególnych zdjęciach, zgodnie z wzorem: (5):", "gdzie: \\(v_x, v_y\\) – losowe poprawki uzyskane po reprojekcji na poszczególne zdjęcia, \\(n\\) – liczba zdjęć (promieni) użytych do wcięcia.", "Gdy błąd reprojekcji jest większy od oczekiwanego, wówczas odrzuca się obserwacje uznane za odstające. W przypadku dużej liczby promieni wcinających dobrą praktyką jest pominięcie tych promieni, pomiędzy którymi kąt wcinający jest bardzo mały (teoretycznie im większy kąt wcinający, tym wyższa dokładność współrzędnej \\(Z\\)).", "Normalizacja może być przeprowadzona po orientacji wzajemnej, bezwzględnej oraz po aerotriangulacji. Najczęściej wykonuje się ją po aerotriangulacji, tworząc stereogramy znormalizowane z różnych kombinacji pokrywających się zdjęć. Do obliczenia ekwiwalentnego położenia punktów homologicznych na zdjęciach znormalizowanych wykorzystuje się równania kolinearności."], "definitions": [{"name": " Definicja 1: Wcięcie wstecz ", "content": " wyznaczenie EOZ zdjęcia na podstawie fotopunktów odwzorowanych na\nzdjęciu. "}, {"name": " Definicja 2: Wcięcie w przód ", "content": " polega na wyznaczeniu współrzędnych 3D punktów terenowych\nodwzorowanych na co najmniej dwóch zdjęciach, poprzez przecięcie promieni punktów homologicznych.\n"}, {"name": " Definicja 3: Stereogram znormalizowany ", "content": " układ dwóch zdjęć o osiach prostopadłych do\npoziomej bazy, uzyskany na drodze przetworzenia zdjęć tworzących stereogram rzeczywisty (Rys. 4).\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Orientacja zdjęć w przestrzeni", "subject_id": 1968, "subject": "Metoda SfM", "paragraphs": ["SIFT 1 działa skutecznie na zdjęciach o różnych skalach i stosunkowo dużym wzajemnym skręceniu (zakres różnic zależy od takich czynników jak: wielkość GSD, kąt obserwacji detalu obiektu, oświetlenie, tekstura). Ostateczna liczba punktów wiążących jest zwykle rzędu kilku tysięcy na zdjęciu (!), co daje wysokie prawdopodobieństwo ich równomiernego rozmieszczenia na zdjęciach. Dzięki temu uzasadniona jest estymacja EOW i dystorsji na etapie aerotriangulacji (samokalibracja – zob. Kalibracja kamer).", "Efektywny algorytm detekcji punktów wiążących 2 pozwolił opracować metodę automatycznej estymacji EOZ zdjęć, opartą na równaniach kolinearności, która rozwiązuje problem przybliżonych wartości niewiadomych dla dowolnie zorientowanych zdjęć (elementem metody jest automatyczne szacowanie przybliżonych EOZ). Równolegle rozwijały się metody automatycznego, masowego pomiaru stereoskopowego na zdjęciach o znanych EOZ [4, 5], nazywane Multi View Stereo (MVS). Efekty obu ścieżek badawczych są łącznie implementowane w programach komputerowych, co podkreśla nazwa złożona z dwóch akronimów: SfM–MVS 3 .", "SfM w części dotyczącej estymacji EOZ posiada następujące cechy użytkowe:", "Estymację EOZ poprzedzają prace przygotowawcze, cały proces można podzielić na trzy etapy:", "przy czym etapy 2) i 3) mogą się przeplatać.", "Każda potencjalna para zdjęć jest weryfikowana poprzez wykonanie orientacji wzajemnej. W tym celu obliczana jest macierz fundamentalna na podstawie losowo wybranych co najmniej 8 punktów (zob. Orientacja wzajemna i bezwzględna) i bada się poprawność pozostałych punktów przy pomocy strategii RANSAC. Punkty nie spełniające warunku linii epipolarnych są odrzucane, a proces ma charakter iteracyjny. Pary zdjęć dla których nie udało się wykonać orientacji wzajemnej są eliminowane. Ostatecznie powstaje graf wskazujący na wzajemne relacje zdjęć.", "Proces formowania bloku zaczyna się od wybrania inicjalnej pary zdjęć (w sposób arbitralny, np. zdjęcia leżące w środkowej części bloku lub wybór pary o dobrej geometrii przecięcia promieni homologicznych [6]). Układ modelu inicjalnego staje się układem w którym będzie formowany blok zdjęć. Kolejno są wykonywane następujące kroki [7]:", "pokazane symbolicznie na Rys. 2. Następnie powtarzane są kroki B i C dla kolejnych zdjęć.", "Wykonywane w kroku B wcięcie wstecz bazuje na algorytmach PnP (ang. perspective-n-point problem) [8]. Wcześniej wyznaczone współrzędne 3D punktów wiążących odgrywają rolę \"wirtualnych\" fotopunktów (klasyczny fotopunkt ma współrzędne wyznaczone pomiarem terenowym).", "Opisane formowanie bloku zdjęć jest odniesione do układu modelu inicjalnego. Związanie z terenem wymaga minimum trzech fotopunktów, które powinny być pomierzone na zdjęciach (na których się odwzorowały). Po transformacji 3D bloku (zob. Orientacja bezwzględna (absolutna) modelu (3)) zdjęcia uzyskują EOZ, a punkty wiążące współrzędne 3D, wyrażone w układzie terenowym. W ten sposób powstają wartości przybliżone niewiadomych potrzebne do estymacji EOZ metodą niezależnych wiązek (zob. Estymacja EOZ - aerotriangulacja).", "W trakcie formowania bloku ponownie sprawdza się poprawność punktów charakterystycznych jako potencjalnych punktów wiążących. Podczas obliczeń wykonywanych w ramach kroku B następuje filtracja z zastosowaniem strategii RANSAC – wpierw liczone jest wcięcie wstecz na podstawie kilku losowo wybranych \"wirtualnych\" fotopunktów, a następnie wykonuje się wcięcie z wszystkich punktów 5 . Brak zgodności wyników (EOZ dołączanego zdjęcia) jest przesłanką do odrzucenia punktów należących do \"wylosowanego\" zbioru i powtórzenia procesu.", "Nakreślona powyżej droga postępowania poprzez wyznaczenie wartości przybliżonych, a następnie estymację EOZ w jednym procesie dla całego bloku, jest podejściem globalnym [7]. Stosowana jest też strategia przyrostowa, która uruchamia proces dopasowania wiązek na etapie formowania bloku po każdorazowym dowiązaniu zdjęcia lub grupy zdjęć.", "W przypadku samokalibracji, często stosowanej w SfM, równania kolinearności (6) są uzupełnione o parametry EOW i dystorsji, które są dodatkowymi niewiadomymi (konieczne są ich wartości przybliżone), co ujmuje wzór (1):", "gdzie: \\(x,y\\) – współrzędne punktu osnowy (punkt wiążący, fotopunkt) na zdjęciu w układzie scentrowanym (zob. Elementy orientacji wewnętrznej i dystorsja), \\(x_o, y_o\\) – współrzędne punktu głównego, \\(\\Delta x_d, \\Delta y_d \\) – składowe dystorsji w postaci modelu Brown-a (zob. Elementy orientacji wewnętrznej i dystorsja), pozostałe oznaczenia jak dla wzoru (6).", "Jakość estymacji EOZ, EOW i dystorsji ocenia się na podstawie średniego błędu reprojekcji \\(\\mathrm {RE}\\) wszystkich punktów osnowy (gdzie jest wyraźna dominacja punktów wiążących), który jest liczony z wzoru (2) 8 :", "gdzie: \\(v_x, v_y\\) – losowe poprawki uzyskane dla wszystkich obserwacji \\(x\\) i \\(y\\) punktów osnowy na zdjęciach, \\(n\\) – liczba wszystkich pomiarów punktów osnowy na zdjęciach (obserwowana para współrzędnych \\(x,y\\) jest rozumiana jako jeden pomiar).", "Błąd reprojekcji jest wykorzystywany również do filtracji punktów wiążących po aerotriangulacji, wówczas liczony jest tylko z obserwacji danego punktu osnowy. Po usunięciu punktów wiążących o błędach uznanych za duże (zwykle gdy \\(\\mathrm {RE} >>\\) 1 piksel) wykonuje się ponownie estymację EOZ.", "Opracowano wiele metod MVS [4, 5]. W wydajnym algorytmie SGM dopasowanie jest prowadzone dla par zdjęć, a wyniki są łączone w jedną chmurę punktów. Podstawą dopasowania pikseli pomiędzy zdjęciami jest badanie funkcji kosztu opartej na liczeniu różnic jasności RGB pomiędzy otoczeniami pikseli na zdjęciach [9]. Proces obejmuje następujące zasadnicze etapy:", "Punkt homologiczny (piksel) na drugim zdjęciu nie jest poszukiwany wzdłuż całej linii epipolarnej, lecz na pewnym jej odcinku, wyliczonym na podstawie wstępnie oszacowanego zakresu paralaks podłużnych pomiędzy zdjęciami tworzącymi stereogram. Na podstawie paralaks przypisanych pikselom poszczególnych zdjęć tworzy się mapy głębokości, które powstają z przeliczenia paralaks na przyrosty \\(\\Delta Z\\) – zob. Fotogrametria 3D."], "definitions": [{"name": " Definicja 1: Sukcesywne formowanie bloku ", "content": " proces sekwencyjnego dopasowania orientacji kolejnych zdjęć względem\npary zdjęć przyjętej za inicjalną, którego celem jest doprowadzenie do poprawnego przecinania się promieni punktów\nhomologicznych 4\n .\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Ortofoto", "subject_id": 1969, "subject": "Od zdjęcia do ortofoto", "paragraphs": ["Do wykonania ortorektyfikacji zdjęcia są potrzebne:", "Różnica pomiędzy NMT a NMPT polega na tym, że NMT jest modelem powierzchni topograficznej terenu, a NMPT jest modelem reprezentującym teren i pokrywające go obiekty, jak pokazuje Rys. 2. Typową strukturą przestrzenną modeli wysokościowych jest siatka kwadratów lub siatka trójkątów, w których każdy węzeł ma przypisaną jedną wysokość.", "W zależności od modelu wysokościowego zastosowanego do ortorektyfikacji, wynikowy ortoobraz inaczej przedstawia obiekty wystające ponad teren, co pokazuje Rys. 3:", "Ortorektyfikacja jest stosowana od kilkudziesięciu lat, wpierw była wykonywana na przyrządach analogowych, potem w sposób cyfrowy [4], ale przez długi czas zdjęcia przetwarzano wyłącznie na podstawie NMT. Na początku XXI wieku pojawiły się rozwiązania wykorzystujące NMPT, nazwano je true ortorektyfikacją, podkreślając w ten sposób różnicę w stosunku do \"zwykłej\" ortorektyfikacji. Obecnie stosuje się oba warianty ortorektyfikacji, gdyż każdy ma swoje zalety i wady, wybór ścieżki technologicznej zależy od celu jakiemu ma służyć opracowanie.", "Ortoobrazy dziedziczą po zdjęciach zakres obszarowy oraz wzajemne pokrycie. Dla większości zastosowań funkcjonalne jest połączenie ortoobrazów w większe moduły obszarowe.", "Dla dużych obszarów (np. województwo) ortofotomapy opracowuje się w kartograficznym kroju sekcyjnym (arkuszowym). Dla mniejszych obszarowo opracowań ortofotomapom nadaje się kształt dostosowany do potrzeb (np. gmina, obszar projektowanej inwestycji). W Polsce termin ortofotomapa jest formalnie zarezerwowany dla opracowań wykonywanych kamerami metrycznymi [5]. Dlatego w przypadku technologii opartej na zdjęciach z BSP używa się nazwy ortomozaika. W fotogrametrii naziemnej wynik mozaikowania ortoobrazów określa się jako ortofotoplan [6].", "Newralgicznym elementem mozaikowania ortoobrazów powstałych na podstawie NMT jest trasowanie linii wzdłuż której następuje połączenie ortoobrazów. Linia mozaikowania musi omijać obiekty wystające nad teren, jak pokazuje Rys. 4. W przeciwnym wypadku zetkną się niepasujące geometrycznie obiekty (budynki, drzewa) i powstają artefakty. Stosowane są różne metody automatycznego trasowania linii mozaikowania [7]. Poprawność przebiegu linii wymaga jednak weryfikacji, jest to jeden z nielicznych etapów opracowania ortofotomapy z NMT, w którym potrzebny jest nadzór obserwatora.", "Na ortofotomapie opracowanej z NMT obiekty wystające nad teren są pokazane w jednej perspektywie z przesunięciem radialnym, a przez to nie jest widoczny obszar zasłonięty przez dany obiekt. Jeśli zamiast ortofotomapy wykorzystywane są poszczególne ortoobrazy, to w miejscu ich pokrycia istnieje możliwość obserwacji terenu z różnych perspektyw, odpowiednio do ukierunkowania kamery w momencie fotografowania (Rys. 5). Daje to pełniejszy obraz zagospodarowania terenu, ale wymaga włączania/wyłączania poszczególnych ortoobrazów.", "Na Rys. 5, poza przesłonięciami zagospodarowania za wysokimi budynkami, pokazany jest również problem wynikający ze zmiany oświetlenia fotografowanej sceny. Pomiędzy zdjęciami wykonanymi z różnych szeregów upływ czasu może powodować duże różnice jasności (R,G,B) na styku łączonych ortoobrazów (zdarza się, że szeregi \"poprawkowe\" są rejestrowane w innych dniach). Powoduje to konieczność korekcji jasności i nasycenia kolorów, aby na ortofotomapie różnice pomiędzy łączonymi ortoobrazami były jak najmniej widoczne.", "Na ortoobrazach przetwarzanych na NMPT nie ma przesunięć radialnych obiektów wystających nad teren. Dlatego przy łączeniu ortoobrazów linia mozaikowania nie musi omijać takich obiektów. Wobec dowolności przebiegu linii mozaikowania jako nadrzędne kryterium stawia się wybór środkowych części ortoobrazów, dzieląc obszar diagramem Woronoja względem położenia środków rzutów zdjęć. W tej ścieżce technologicznej etapem krytycznym jest uzupełnianie miejsc zakrytych treścią z innych ortoobrazów (zob. Praktyczne aspekty opracowania ortofoto)."], "definitions": [{"name": " Definicja 1: Ortorektyfikacja zdjęcia ", "content": " przetworzenie zdjęcia z rzutu środkowego do postaci\nodpowiadającej hipotetycznemu rzutowi ortogonalnemu; rezultat ortorektyfikacji zdjęcia jest nazywany\nortoobrazem lub ortozdjęciem (ang. ortho-image, orthophoto [2, 3]). "}, {"name": " Definicja 2: Ortofotomapa ", "content": " kartometryczny obraz cyfrowy powstały przez połączenie ortoobrazów w\nwiększe moduły obszarowe w sposób gwarantujący ciągłość odwzorowanych obiektów na stykach ortoobrazów;\nwyróżnia się:\n\n\nortofotomapę zwykłą, która pokazuje obiekty wystające nad teren z przesunięciem radialnym\n(skutek ortorektyfikacji na NMT),\n\n\n\ntrue ortofotomapę (ang. true orthophoto), która pokazuje obiekty wystające nad teren bez\nprzesunięcia radialnego (skutek ortorektyfikacji na NMPT).\n"}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Ortofoto", "subject_id": 1971, "subject": "Praktyczne aspekty opracowania ortofoto", "paragraphs": ["Model wysokościowy (NMT, NMPT) jest zbiorem punktów (\\(X,Y,Z\\)) zorganizowanym w trójkąty lub kwadraty. Podstawową funkcjonalnością modelu jest określenie wysokości (\\(Z\\)) dla dowolnego punktu obszaru opracowania o wskazanym położeniu \\((X,Y)\\), poprzez interpolację z otaczających punkt węzłów siatki, co symbolicznie przedstawia wzór (1):", "Do ortorektyfikacji najczęściej stosuje się modele o strukturze siatki kwadratów, ze względu na prostotę algorytmu interpolacji wysokości [1]. W przypadku NMT \"oczko\" siatki może wynosić kilka-kilkanaście metrów. Siatka NMPT musi mieć znacznie większą gęstość, aby jak najwierniej oddać kształt budynków i koron drzew. Stosuje się również struktury hybrydowe, w których do siatki kwadratów dodaje się linie lub powierzchnie 3D, w miejscach skokowych zmian wysokości (np. krawędzie dachów budynków, skarpy, uskoki). Dodatkowe elementy wektorowe pozytywnie wpływają na jakość true ortofoto, jednak ich pozyskanie jest pracochłonne.", "Obecnie w ortorektyfikacji dominują NMPT i NMT o drobnych oczkach (Rys. 1), gdyż istnieją techniki pomiarowe, które sprawnie dostarczają danych 3D o wysokiej gęstości. Jedną z tych technik jest lotnicze skanowanie laserowe, a drugą automatyczne opracowanie gęstej chmury punktów ze zdjęć (zob. Metoda SfM). Obie techniki generują zbiory punktów osadzonych na powierzchniach obiektów pokrycia terenu widocznych z perspektywy lotniczej (głównie dachy i korony drzew), a w miejscach otwartych – na terenie (w przypadku skanowania laserowego powierzchnie ażurowe jak drzewa i krzewy powodują, że część punktów przenika w głąb, aż do terenu). Tak uzyskane dane pomiarowe są zbiorami punktów o nieregularnym rozłożeniu, na drodze interpolacji uzyskuje się regularne siatki NMT/NMPT. Przed interpolacją NMT chmury punktów są poddawane filtracji, aby wydzielić z nich punkty terenu. Przygotowanie NMT dla ortorektyfikacji z reguły wymaga interwencji operatora, ale jest to zadanie mniej pracochłonne niż korekta automatycznie opracowanego NMPT, zapewniająca poprawne odwzorowanie krawędzi budynków na true ortofoto.", "Naszkicowana w module Od zdjęcia do ortofotomapy idea ortorektyfikacji, jest w praktyce realizowana metodą \"wstecz\", opartą na projekcji pikseli hipotetycznego ortoobrazu na zdjęcie (a nie projekcji zdjęcie -> orto) [1]. Metoda wstecz wymaga prognozy granic obszaru który będzie zajęty przez ortoobraz. Zadanie jest łatwe dla regularnych bloków zdjęć prawie pionowych, zorientowanych w przybliżeniu równolegle do osi układu terenowego. W przypadku bloków skręconych do układu terenowego lub zdjęć ukośnych, zdefiniowanie prostokąta otaczającego wymaga projekcji narożnych pikseli zdjęcia na płaszczyznę o średniej wysokości terenowej.", "Odwzorowane na zdjęciu środki pikseli ortoobrazu tracą pierwotną regularność, odległości między nimi są zmienne (Rys. 2). Przypisanie koloru RGB pikselom ortobrazu wymaga wymaga interpolacji.", "Środki pikseli ortofoto które tworzą siatkę kwadratów ( Rys. 3A), są nieregularnie rozłożone po reprojekcji na zdjęcie ( Rys. 3B). W ponownym próbkowaniu wykorzystuje się najczęściej interpolację dwuliniową [2]. Do interpolacji koloru są brane cztery piksele zdjęcia, których środki otaczają punkt reprezentujący środek piksela ortofoto na zdjęciu (Rys. 3C).", "Kolor przypisany punktowi (de facto pikselowi ortoobrazu) jest średnią ważoną liczoną ze wzoru (2), przy czym obliczenia dotyczą osobno składowych R,G,B:", "gdzie: \\(g_{orto}\\) – jedna z trzech składowych koloru R,G,B piksela ortoobrazu (czerwona kropka na Rys. 3ABC), \\(g_j\\) – jedna z trzech składowych koloru R,G,B piksela zdjęcia (\\(j=1,..,4\\)), \\(w_j\\) – waga równa powierzchni pokazanej na Rys. 3C.", "Wskutek ponownego próbkowania ortobraz składa się z pikseli których kolory różnią od kolorów pikseli zdjęcia. Największe zmiany następują w miejscach silnych kontrastów na zdjęciu. Ortoobraz jest mniej ostry od zdjęcia, gdyż interpolacja wygładza kolory. Gdy zdjęcie ma wysoki poziom szumów losowych, wówczas ponowne próbkowanie działa jak filtr redukujący szum.", "Opracowanie true ortofoto wymaga wykrycia miejsc zasłoniętych na danym ortoobrazie i przeszukania ortoobrazów sąsiednich w celu znalezienia takich, na których miejsca zakryte są widoczne.", "Do wykryciu miejsc zasłoniętych na zdjęciach, a w konsekwencji na ortoobrazach, stosuje się najczęściej metodę Z-bufora [3, 4], wywodzącą się z grafiki komputerowej. Z-bufor jest tablicą o rozmiarach identycznych jak zdjęcie 2 , do której są wpisywane sukcesywnie odległości od pikseli ortoobrazu (X,Y), uzupełnionych o wysokości (Z), do środka rzutu. Lokalizację poszczególnych odległości wskazują współrzędne \\(x,y\\) liczone z równań kolinearności (6)). Jeśli do tej samej komórki Z-bufora trafi nowa odległość, to gdy będzie to wartość mniejsza – zostanie wpisana do komórki. Sytuacja taka jest pokazana na Rys. 4A: piksel położony za dachem w stosunku do środka rzutu zostanie wskazany jako niewidoczny, gdyż jego odległość do środka rzutu jest większa niż piksela na dachu. Piksele niewidoczne zwykle otrzymują wartości R=G=B=255, stając się \"białymi plamami\". Wypełnianie Z-bufora odległościami \"teren–zdjęcie\" to etap wstępny po którym następuje ortorektyfikacja metodą wstecz.", "Ortoobrazy są osadzone w układzie współrzędnych, co pozwala na działanie pomiędzy nimi jak na warstwach GIS (w miejscach gdzie się pokrywają). Dla pikseli oznaczonych jako \"białe plamy\" na jednym ortoobrazie badane są piksele leżące w tym samych miejscach, ale na innych ortobrazach. W ten sposób wybrany jest ortoobraz (lub ortoobrazy) na którym miejsce nie było zasłonięte. Na Rys. 4B przestawione jest wymienne wypełnienie miejsc zakrytych powstałych na dwóch sąsiednich ortoobrazach \\(i,i\\!+1\\!\\) (zdjęcie \\(i\\!+\\!1\\) nie została jawnie pokazane). Jeśli istnieje więcej niż jedna możliwość zapełniania \"plamy\" włączane są dodatkowe kryteria, np. mniejszy kąt pomiędzy osią kamery a promieniem do punktu [5]."], "definitions": [{"name": " Definicja 1: Ponowne próbkowanie obrazu ", "content": " tworzenie nowego obrazu który różni się od pierwotnego\ninnym układem pikseli; przypisanie koloru pikselom nowego obrazu odbywa się na drodze interpolacji w oparciu\no kolory pikseli obrazu pierwotnego (ang. resampling). "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Pomiary fotogrametryczne i zastosowania fotogrametrii", "subject_id": 1973, "subject": "Rodzaje pomiarów fotogrametrycznych", "paragraphs": ["Pomiar fotogrametryczny może mieć charakter:", "Pomiar manualny 3D jest realizowany dwoma metodami [2]:", "Stereoskopia sztuczna wzoruje się na stereoskopii naturalnej (zob. Fotogrametria 3D), polega na równoczesnej obserwacji dwóch zdjęć, z których każde jest skierowane do innego oka. Jeśli kolejność obserwowanych zdjęć odpowiada ich relacji przestrzennej, wówczas obserwator widzi głębię sceny odpowiadającą rzeczywistości, gdy kolejność jest zmieniona – głębia sceny jest odwrócona (efekt pseudoskopowy [3]). W fotogrametrii stosowane są następujące techniki obserwacji stereoskopowej [4]:", "Zadaniem obserwatora podczas pomiaru jest takie ustawienie znaczka pomiarowego, aby dotknął detalu terenowego na modelu 3D. Zaletą obserwacji stereoskopowej jest prawidłowe wskazanie punktów homologicznych na obu zdjęciach, gdyż są widziane równocześnie. W przypadku pomiaru NMT realizowanego bezpośrednio w siatce kwadratów, jest stosowane automatyczne przesunięcie o rozmiar oczka siatki, w nowym miejscu obserwator \"dotyka znaczkiem terenu\". Wadą stereo jest możliwość pomiaru tylko na dwóch zdjęciach, wykorzystanie wszystkich odwzorowań detalu na zdjęciach wymaga sukcesywnej zmiany pary stereoskopowej. Jeżeli jest wiele par stereoskopowych, wówczas preferowane są stereogramy o większym kącie wcinającym, złożone ze zdjęć z tego samego szeregu.", "W przypadku gdy mierzone detale są jednoznacznie identyfikowalne na pokrywających się zdjęciach, wówczas można stosować pomiar monoskopowy, czyli osobne wskazanie na kolejnych zdjęciach. W ten sposób można mierzyć takie szczegóły terenowe, których obraz jest plamką lub figurą geometryczną odcinającą się od tła (np. właz do kanału), albo jest wskazany poprzez przecinające się elementy liniowe (np. narożnik budynku). Metoda nie nadaje się do pomiarów w miejscach, gdzie na zdjęciach nie ma wyrazistej tekstury.", "Chmura punktów z reguły pełni rolę produktu pośredniego, służy do:", "Modele grid są często wykorzystywane w pomiarach objętości mas ziemnych i kruszyw. Modele mesh są przeznaczone głównie dla celów prezentacyjnych.", "Szczegóły terenowe mogą być interpretowane i mierzone na chmurze punktów, wówczas jest to wtórny pomiar fotogrametryczny. Podobna sytuacja ma miejsce przy pomiarze szczegółów na ortofoto, przy czym jest to pomiar 2D.", "Przedstawiony na Rys. 2 pomiar narożnika budynku jawi się jako podobny do pomiaru na zdjęciach (Rys. 1) ze względu na bardzo gęstą chmurę punktów, rzędu kilku milimetrów (zdjęcia były wykonywane z wysokości kilkunastu metrów). Gdy odstępy między punktami chmury są na poziomie centymetrów lub decymetrów, wówczas pomiar nie jest tak jednoznaczny i często odbywa się na drodze przecięcia pomocniczych prostych lub płaszczyzn estymowanych przez operatora (przy wsparciu funkcjonalnością narzędzi CAD).", "Na podstawie ortofoto można mierzyć położenie szczegółów leżących na terenie i odróżniających się od otaczającego tła (warunki te często spełniają elementy naziemne podziemnego uzbrojenia terenu). Takie pomiary dostarczają współrzędnych \\(X,Y\\), co jest wystarczające w przypadku geodezyjnych pomiarów sytuacyjnych [1]. Wykorzystanie ortofotomapy (ortomozaiki) jest mało efektywne w pomiarach budynków, gdyż na ortofoto/NMPT narożniki tworzące kontur budynku są niewidoczne, a na ortofoto/NMT widoczne są tylko niektóre. Efektywność pomiaru przyziemi budynków jest wyższa, jeśli pomiar wykonywany jest na ortoobrazach z NMT. Takie postępowanie podnosi dokładność pomiaru (średnia z kilku obserwacji – Rys. 3). Niezgodność pomiarów na ortoobrazach jest sygnałem, że w mierzonym miejscu wystąpiło zniekształcenie z powodu błędów NMT/NMPT (znacznie częściej występują błędy na automatycznie generowanych modelach)."], "definitions": [{"name": " Definicja 1: Pomiar fotogrametryczny 3D ", "content": " polega na identyfikacji na co najmniej dwóch zdjęciach\npunktów homologicznych reprezentujących punkt terenowy, pomiarze położenia tych punktów na zdjęciach i\nobliczeniu współrzędnych 3D w układzie terenowym na drodze wcięcia w przód (zob. Wcięcia\nfotogrametryczne i normalizacja zdjęć). "}]} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Pomiary fotogrametryczne i zastosowania fotogrametrii", "subject_id": 2094, "subject": "Dokładność pomiarów fotogrametrycznych", "paragraphs": ["Wspólnymi elementami dokładności wszystkich rodzajów pomiarów są: dokładność EOZ i EOW\\(^{+}\\) oraz GSD zdjęć (ściślej Rozdzielczość przestrzenna zdjęcia (1)). Powtarza się również jakość identyfikacji szczegółu terenowego, przy czym odnosi się ona do innego materiału pomiarowego (zdjęcie, gęsta chmura, ortofoto).", "Z procesu estymacji EOZ i EOW\\(^{+}\\) uzyskuje się odchylenia standardowe wyznaczanych parametrów, co pozwala wykonać analizę dokładności pomiaru fotogrametrycznego. Ze względu na wzajemną korelację parametrów EOZ i EOW\\(^{+}\\) (wewnątrz grup i pomiędzy nimi) [1], analiza ich wpływu na dokładność współrzędnych \\(X,Y,Z\\) z wcięcia w przód nie jest w pełni miarodajna. Dlatego zamiast teoretycznie oceniać dokładność pomiarów fotogrametrycznych, wykonuje się badanie empiryczne, oparte na punktach kontrolnych (zob. Terenowa osnowa fotogrametryczna). Wynik tego badania nie jest równoznaczny z dokładnością pomiarów szczegółów terenowych, ale stanowi punkt wyjścia do wnioskowania, jaka dokładność może być osiągnięta.", "Równolegle z badaniem dokładności punktów kontrolnych sprawdza się, czy estymacja ma charakter zrównoważony statystycznie [3]. Jest to konieczne, gdyż liczba punktów kontrolnych w opracowaniach produkcyjnych z reguły jest niewielka (wymagane minimum to 8 lub 10 – zob. Terenowa osnowa fotogrametryczna) 1 , co przy dużych blokach zdjęć rodzi niebezpieczeństwo niewykrycia lokalnych błędów w wyrównywanej sieci 3D.", "Aby ocenić dokładności pomiaru fotogrametrycznego należy:", "Po estymacji EOZ/EOW\\(^{+}\\) mierzy się na zdjęciach punkty kontrolne i oblicza ich współrzędne terenowe z wcięcia w przód. Pozwala to zestawić różnice pomiędzy współrzędnymi fotogrametrycznymi a referencyjnymi (z pomiaru terenowego) i obliczyć średnie kwadratowe błędów współrzędnych \\(X,Y,Z\\) – zgodnie z wzorem (1):", "gdzie: \\(X_i, Y_i, Z_i \\) – współrzędne punktów kontrolnych z pomiaru fotogrametrycznego, \\(\\hat {X_i}, \\hat {Y_i}, \\hat {Z_i} \\) – współrzędne punktów kontrolnych z pomiaru terenowego, \\(n\\) – liczba punktów kontrolnych.", "Błąd średni położenia sytuacyjnego punktów kontrolnych wynosi:", "Wraz z oceną RMSE analizuje się maksymalne wartości różnic pomiędzy współrzędnymi fotogrametrycznymi a referencyjnymi, oraz ich wartości średnie. Pozwala to sprawdzić, czy nie występuje składnik systematyczny, sygnalizujący nieprawidłowość w procesie estymacji. Zakładając, że różnice pomiędzy współrzędnymi fotogrametrycznymi a referencyjnymi mają rozkład normalny, należy traktować wielkości przekraczające 3 RMSE jako błędy grube. Taka sytuacja wymaga zbadania przyczyny błędu grubego 2 i ewentualnego dodania nowego punktu kontrolnego w bliskiej odległości od punktu błędnego.", "Statystyka procesu estymacji zawiera wiele parametrów, spośród których kluczowe dla oceny jakości estymacji są:", "Średnie kwadratowe błędów \\(X,Y,Z\\) fotopunktów są liczone analogicznie jak \\(\\mathrm {RMSE}\\) punktów kontrolnych (zob. wzór (1)). Wartości powinny być zbliżone do deklarowanych przed estymacją dokładności fotopunktów. Wartości podane a priori powinny uwzględniać zarówno dokładność pomiaru terenowego współrzędnych \\(X,Y,Z\\) jak i dokładność identyfikacji na zdjęciach. Przyjmuje się, że stosunek wartości a priori do uzyskanych a posteriori nie powinien różnić się od jedności więcej niż 10\\(\\%\\). Większa różnica wskazuje na konieczność powtórzenia estymacji ze skorygowanym parametrem dokładności fotopunktów (zgodnie z Wnioskowaniem bayesowskim).", "Odchylenie standardowe obserwacji jednostkowej liczone jest z wzoru (4). Wartość \\(\\sigma _0\\) jest bezwymiarowa i powinna być zbliżona do jedności. Duże odstępstwo od jedności świadczy o złym wagowaniu równań obserwacyjnych przy estymacji EOZ. W niektórych algorytmach aerotriangulacji stosuje się taki sposób wagowania obserwacji, który nadaje \\(\\sigma _0\\) wymiar liniowy (µm, piksel). Wówczas wartość \\(\\sigma _0\\) powinna być zbliżona do deklarowanej a priori dokładności pomiaru na zdjęciach.", "Średni błąd reprojekcji jest liczony z wzoru (2). Wartość błędu nie powinna być większa od deklarowanej przed estymacją dokładności punktów wiążących (na zdjęciu). Wobec bardzo dużej liczby punktów wiążących na wielkość średniego błędu reprojekcji nie wpływa znacząco obecność relatywnie niewielkiej grupy błędnych punktów wiążących. Tym niemniej powinny być analizowane błędy reprojekcji poszczególnych punktów a punkty o odstających błędach – usuwane, gdyż mogą powodować lokalne błędy w wyrównywanej sieci.", "Dokładność identyfikacji szczegółów na zdjęciach jest zagadnieniem złożonym, gdyż zależy od splotu wielu czynników (zob. Rozdzielczość przestrzenna zdjęcia). W przypadku zdjęć lotniczych zmienność skali jest relatywnie mała, co uprawnia do traktowania GSD jest terenowego odpowiednika piksela na zdjęcia. Tej samej miary można też użyć dla ortofoto, gdyż z reguły piksel ortofoto jest bliski GSD. Gęstość chmury punktów jest dla powierzchni płaskich powiązana z GSD, zatem i w tym przypadku można wykorzystać GSD do wyrażenia dokładności identyfikacji.", "Trudniej identyfikować na zdjęciach szczegóły leżące na styku terenu ze ścianami budynków, zwłaszcza gdy te elementy mają podobną kolorystykę, oraz szczegóły w miejscach zacienionych. Dokładność identyfikacji szczegółów na zdjęciach zwykle mieści się w przedziale od 0,5 do 3 pikseli (równoważnie można ten zakres podać w GSD). Pomiar w trybie stereo, w stosunku do pomiaru mono, podnosi dokładność identyfikacji, najbardziej gdy szczegóły są słabo uwidocznione na zdjęciach (większe prawdopodobieństwo poprawnego wskazania punktów homologicznych, ale ograniczone do pary zdjęć).", "Pomiar szczegółów na chmurze punktów 3 jest z reguły mniej jednoznaczny niż na zdjęciach, dotyczy to w pierwszej kolejności szczegółów położonych na powierzchni topograficznej terenu (na drogach, chodnikach, płaskich lub pofalowanych terenach rolnych). Taki przypadek obejmuje wszystkie szczegóły pokazane na Rys. 1. Natomiast jeśli szczegół można zidentyfikować na drodze przecięcia płaszczyzn (np. krawędź budynku, kalenica dachu), wówczas identyfikacja na chmurze może być być bliska 1 GSD. W ogólności błędy identyfikacji szczegółów na chmurach lokują się w przedziale od 1 do 4 GSD.", "Identyfikacja na ortofoto jest współmierna w stosunku do wskazywania szczegółów na zdjęciach, jednak prawie zawsze jest mniej dokładna. Strata dokładności identyfikacji względem zdjęć kształtuje się na poziomie 25\\(\\%\\), sporadycznie dochodzi do 50\\(\\%\\) (w przypadku wystąpienia błędów NMT/NMPT strata może być jeszcze większa)."], "definitions": []} {"field": "Geologia i Geodezja", "coursebook": "Podstawy fotogrametrii", "chapter": "Pomiary fotogrametryczne i zastosowania fotogrametrii", "subject_id": 2095, "subject": "Zastosowania fotogrametrii", "paragraphs": ["W wielu krajach ortofotomapy ze zdjęć lotniczych są wykonywane w ramach projektów centralnych lub regionalnych. W opracowanie ortofoto inwestują także globalne przedsiębiorstwa informatyczne, oferując serwisy z ortofoto lotniczymi i satelitarnymi. W dobie społeczeństwa informacyjnego ortofoto jest oczywistym elementem infrastruktury informacji przestrzennej. W ramach europejskiej dyrektywy INSPIRE powstała specyfikacja Orthoimagery, która standaryzuje opracowanie ortofoto.", "W Polsce program cyklicznego opracowania ortofotomapy o zasięgu krajowym rozpoczął się na początku obecnego wieku. Program jest zarządzany centralnie, stawia wymóg, aby zdjęcia były wykonane kamerą pomiarową [3]. Dlatego ortofotomapy wykonywane w ramach programu krajowego są domeną fotogrametrii ze statków załogowych (zob. Fotogrametryczne statki powietrzne). Punktem dostępowym jest serwis geoportal.gov.pl, serwis notuje około milion odwiedzin miesięcznie 1 . Ortofotomapa jest jedną z wielu warstw tematycznych, wyświetla się domyślnie jako mapa podkładowa danych wektorowych (przy odpowiednio dużej skali przeglądania). Podobną rolę odgrywa ortofoto w regionalnych serwisach informacji przestrzennej, np. Małopolska i systemach miejskich, np. Kraków. Ortofoto z różnych lat można nie tylko przeglądać, ale też pobrać i przy pomocy narzędzi GIS wykorzystać dla potrzeb zawodowych lub osobistych. Eksploatacja ortofoto w narzędziach GIS, jako warstwy odniesionej do dowolnego układu współrzędnych, jest ujednolicona dzięki otwartemu standardowi GeoTIFF. Kierunki wykorzystania ortofoto są bardzo zróżnicowane [1]. Dla celów zawodowych z ortofoto korzystają najczęściej: planiści przestrzenni, urbaniści, pośrednicy nieruchomości, pracownicy administracji publicznej, leśnicy, archeolodzy.", "Prowadzone są próby zastąpienia fotogrametrii załogowej przez BSP, dowodzące, że pomiar budynków na zdjęciach zapewnia dokładności stawiane szczegółom I grupy (średni błąd położenia 10 cm) [9]. Duże pokrycie podłużne i poprzeczne stosowane w fotogrametrii z BSP poprawia kompletność pomiaru budynków, jednak w pełni kompletny pomiar jest praktycznie niemożliwy (zob. Rodzaje pomiarów fotogrametrycznych). O ile zastosowanie fotogrametrii do pomiaru działek i budynków było i pozostanie problematyczne, to jednoznacznie pozytywnie jest oceniona przydatność ortofotomapy do pomiaru granic użytków gruntowych oraz jako materiał weryfikujący aktualność danych EGiB. Ortofotomapa przydaje się także w monitoringu zgłoszeń podatkowych, gdyż pozwala wskazać obiekty służące działalności gospodarczej a nie wykazane w rejestrach publicznych [10].", "Scalenia gruntów w nowoczesnej, ukierunkowanej na zrównoważony rozwój formule [11], są coraz częściej wspierane opracowaniami fotogrametrycznymi [12, 13]. Ortofoto, obrazujące zmiany zagospodarowania w latach poprzedzających rozpoczęcie prac scaleniowych, jest znakomitym źródłem informacji o postępujących trendach, które rzutują na uwarunkowania założeń do projektu scalenia. Opracowana na podstawie aktualnego ortofoto szczegółowa mapa użytkowania oraz NMT, odgrywają kluczową rolę w przygotowaniu projektu scalenia, a ortofoto stanowi jednocześnie podkład mapowy czytelny dla wszystkich interesariuszy.", "Inna grupę inżynieryjnych zastosowań fotogrametrii stanowią pomiary o nieco mniejszej dokładności (1-5 cm), ale dotyczące bardziej rozległych obszarów/obiektów, jak:", "Poza klasyczną dokumentacją 2D, obejmującą rzuty i przekroje, wykonuje się również modele 3D mesh [27, 28]. W większości przypadków stanowią one materiał poglądowy, uzupełniający a nie zastępujący klasycznej dokumentacji.", "Coraz częściej stosuje się integrację fotogrametrii ze skanowaniem laserowym [29, 30, 31]. Ważną zaletą skanowania jest skuteczna rejestracja 3D obiektów o słabo zarysowanej teksturze, natomiast wadą – niższa efektywność dokumentowania powierzchni o drobnej, układającej się w rysunek teksturze.", "Fotogrametria, dzięki automatycznemu generowaniu gęstej chmury punktów (zob. Metoda SfM) jest podstawową, obok skanowania laserowego, metodą dostarczania danych dla potrzeb modelowania 3D oraz 4D (czas jako czwarty wymiar). Chmura punktów jest zbiorem niezorganizowanym, któremu stosunkowo łatwo można nadać formę siatki mesh [32, 28]. Taki model 3D ma charakter poglądowy, nadaje się głównie do wizualizacji i pomiarów po interpretacji treści (analogia do ortofotomapy jako poglądowego modelu 2D). W przypadku modeli semantycznych, w których wydziela się obiekty i opisuje atrybutami [33], dane źródłowe 3D wymagają dość złożonego przetworzenia (identyfikacja obiektów, poprawa topologii, wprowadzenie atrybutów opisowych).", "Przykłady usług wirtualnych wykorzystujących dane fotogrametryczne:", "W niektórych zastosowaniach zdjęcia wykonuje się smartfonami [40, 41, 45], a do opracowania modeli jest wykorzystywana Metoda SfM.", "Gdy obiekt pomiaru jest płaski, wówczas można zastosować rozwiązanie określane jako Fotogrametria 2D (też fotogrametria jednoobrazowa). Podstawa teoretyczna fotogrametrii zasadza się na transformacji perspektywicznej pomiędzy płaszczyznami czyli zdjęciem i płaskim obiektem, która jest wyrażona wzorem: (2). Współczynniki transformacji oblicza się na podstawie 4 fotopunktów, których współrzędne na obiekcie mają charakter 2D, jak na zdjęciu. Transformację można wykorzystać w procesie podobnym ideowo do ortorektyfikacji ale prostszym algorytmicznie (zob. Praktyczne aspekty opracowania ortofoto), gdyż nie nie są wykorzystane Równania kolinearności i elementy orientacji zewnętrznej i zbędny jest NMT.", "Założone w 1930 r. przedsiębiorstwo \"Fotolot\" wykonało zakrojone na szeroką skalę mapowanie Polesia dla potrzeb melioracji, w dużej części w postaci fotoplanów (map fotograficznych o analogicznym jak ortfotomapa sposobie przekazu treści) [46]. Transformacja perspektywiczna była wtedy realizowana na przyrządach analogowych [47]. Współcześnie wykorzystuje się fotogrametrię 2D w inwentaryzacji zabytków jako wsparcie innych metod. Fotogrametria 2D jest dalej efektywna przy wykonywania fotoplanów płaskich malowideł, murów, elewacji."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "", "subject_id": 1080, "subject": "Informacja o e-podręczniku \"Klasyczna i izogeometryczna metoda elementów skończonych\"", "paragraphs": ["E-podręcznik opracowano w ramach Zintegrowanego Programu Rozwoju Akademii Górniczo-Hutniczej w Krakowie. Projekt współfinansowany ze środków Europejskiego Funduszu Społecznego w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014-2020. Oś III Szkolnictwo wyższe dla gospodarki i rozwoju, Działanie 3.5 Kompleksowe programy szkół wyższych."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "", "subject_id": 682, "subject": "Wprowadzenie do podręcznika o metodzie elementów skończonych", "paragraphs": ["Podręcznik ten przedstawia obszerne wprowadzenie do metody elementów skończonych, z uwzględnieniem metod analizy izogeometrycznej. Rozdziały uzupełnione są o przykładowe kody MATLABa (możliwe do uruchomienia w darmowej wersji Octave). Autorem tekstu jest prof. dr hab. Maciej Paszyński.", "Autorami kodów MATLABa są dr inż. Marcin Łoś oraz dr inż. Maciej Woźniak z Katedry Informatyki z mojego zespołu Algorytmów i Systemów Adaptacyjnych. Chciałbym bardzo podziękować Panom Maćkowi i Marcinowi za zaawansowane implementacje w MATLABie.", "Chciałbym również bardzo podziękować mojej żonie, dr hab. Annie Paszyńskiej z Uniwersytetu Jagiellońskiego za pomoc w przygotowaniu wielu rysunków do podręcznika. Chciałbym bardzo serdecznie podziękować recenzentom, prof. Maciejowi Pietrzykowi i prof. Krzysztofowi Banasiowi za bardzo wnikliwe przeczytanie książki i szczegółowe recenzje, których uwzględnienie znacznie podniosło poziom podręcznika.", "Podręcznik mój adresowany jest dla studentów studiów technicznych i informatycznych i z tego względu koncentruje się na aspektach praktycznych i implementacyjnych poszczególnych zagadnień związanych z metodą elementów skończonych. Podręcznik mój natomiast nie porusza zagadnień matematycznej teorii zbieżności metody elementów skończonych. Czytelników których interesują matematyczne podstawy metody elementów skończonych zachęcam do przeczytania rozdziału \"Matematyczne sformułowanie metody elementów skończonych\". Czytelników bardziej zainteresowanych aspektami implementacji i ogólnym wprowadzeniem do metody elementów skończonych zachęcam do pominięcia tego rozdziału przy pierwszym czytaniu i rozpoczęcia lektury od rozdziału \"Przykładowy problem dwuwymiarowej projekcji bitmapy\".", "Podręcznik ten opisuję zarówno klasyczną metodę elementów skończonych oraz izogeometryczną metodę elementów skończonych. Pierwsze prace naukowe na temat metody elementów skończonych pochodzą z roku 1940 od Richarda Couranta (profesor matematyki, urodzony w Lublińcu w Polsce w roku 1888 na ówczesnym terytorium niemieckim, wyemigrował do USA) i Alexandra Hrennikoffa (profesor inżynierii lądowej, urodzony w Rosji, wyemigrował do Kanady), oraz Feng Kanga w Chinach w roku 1950 [1][2][3]. Metoda ta nabrała impetu w latach 1960-1970 dzięki pracy Olgierda Ziemkiewicza (profesor inżynierii lądowej, żyjącą w Wielkiej Brytanii, o Polskich korzeniach) [4]. W ostatnich latach rosnącą popularnością cieszy się izogeometryczna metoda elementów skończonych, propagowana przez zespół prof. T. J. R. Hughes'a, stosująca funkcje bazowe z rodziny B-spline, cechujące się ciągłością wyższego stopnia \\( C^k \\) [5]. Równolegle do metod analizy izogeometrycznej rozwijane są metody adaptacyjne, korzystające z klasycznej metody elementów skończonych, stosujące hierarchiczne funkcje bazowe. Algorytmy \\( hp \\) adaptacyjne pozwalające na eksponencjalną zbieżność dokładności rozwiązania względem rozmiaru siatki obliczeniowej, rozwijane są przez grupę prof. Leszka Demkowicza (polski matematyk i profesor mechaniki, pracujący na Uniwersytecie Teksańskim w Austin) [6][7]. Obserwuje się również próby łączenia metod adaptacyjnych z analizą izogeometryczną, poprzez tworzenie nowych rodzin wielomianów, możliwych do definiowania na siatkach adaptacyjnych, umożliwiających mieszanie wielomianów z rodziny B-spline różnego stopnia [8].", "Klasyczna metoda elementów skończonych na siatkach regularnych jest szczególnym przypadkiem izogeometrycznej metody elementów skończonych. Jedyna różnica, polega na tym, iż funkcje bazowe używane w klasycznej metodzie elementów skończonych są wielomianami stopnia p o ciągłości \\( C^{p-1} \\) we wnętrzu elementów, natomiast na granicy elementów skończonych są one klasy \\( C^0 \\). Izogeometryczna metoda elementów skończonych uogólnia funkcje bazowe na wielomiany stopnia p które mogą być klasy \\( C^k \\) na całym obszarze obliczeniowym. Mogą one być również klasy \\( C^{p-1} \\) tylko we wnętrzach elementów oraz klasy \\( C^0 \\) na granicy elementów. W szczególności funkcje B-spline używane w izogeometrycznej metodzie elementów skończonych definiowane są przez tzw. wektory węzłów. Poprzez powtórzenie węzłów na granicy elementów uzyskuje się funkcje B-spline równoważne klasycznym wielomianom Lagrange'a.", "Izogeometryczna metoda elementów skończonych stosowana jest zazwyczaj na siatkach będących obrazem regularnych (kwadratowych lub sześciennych) grup elementów, natomiast klasyczna metoda elementów skończonych może używać elementów kwadratowych lub trójkątnych w 2D, oraz sześciennych, czworościennych, pryzm i piramid w 3D. Istnieją natomiast nowoczesne metody definiowania funkcji B-spline na elementach trójkątnych i czworościennych, i wówczas ta równoważność (fakt iż izogeometryczna metoda elementów skończonych zwiększa ciągłość funkcji bazowych) jest zachowana.", "Klasyczna metoda elementów skończonych aproksymuje pola skalarne i wektorowe występujące w obliczeniach inżynierskich w sposób kawałkami ciągły, a izogeometryczna metoda elementów skończonych w sposób globalnie ciągły. Istnieją oczywiście problemy obliczeniowe, dla których metoda izogeometryczna daje lepsze przybliżenie, oraz problemy obliczeniowe, dla których klasyczna metoda elementów skończonych daje lepsze przybliżenia.", "Jakie elementy w moim przekonaniu powinien zawierać podręcznik o klasycznej metodzie elementów skończonych?", "Ad.1) Definicje formalne klasycznej metody elementów skończonych opisane zostały w modułach rozdziału \"Matematyczne sformułowanie metody elementów skończonych\". Książka zawiera również szereg nieformalnych definicji. W szczególności elementy trójkątne opisane zostały w rozdziale \"Siatki nieregularne\"; wielomiany Lagrange'a na elementach prostokątnych i sześciennych zdefiniowane zostały poprzez powtórzenie węzłów w wektorze węzłów definiujących funkcje bazowe B-spline (pamiętając że wielomiany Lagrange'a zawierają się w funkcjach B-spline) w rozdziale \"Dyskretyzacja za pomocą różnych funkcji bazowych\"", "Ad.2) Algorytmy generacji siatek są obszernie opisane w rozdziale \"Przetwarzanie siatek obliczeniowych\",", "Ad.3) Formy słabe i formy silne nie zależą od sposobu dyskretyzacji. W rozdziale \"Sformułowania wariacyjne dla różnych problemów i metod\" podanych jest szereg sformułowań wariacyjnych niezależnych od tego czy używamy metody klasycznej czy izogeometrycznej. Mamy w szczególności równania transportu ciepła, równania konwekcji-dyfuzji, problem Stokesa, oraz równania problemu liniowej sprężystości. Rozdziały te zawierają również dyskretyzację zazwyczaj wykonaną z pomocą izogeometrycznej metody elementów skończonych, jednakże w części ogólnej dotyczącej sformułowań silnych i wariacyjnych są one niezależne od metody dyskretyzacji.", "Ad.4) Zagadnienie generacji układów równań wynikających z dyskretyzacji klasyczną metodą elementów skończonych zostało zilustrowane w rozdziale \"Transport ciepła za pomocą tradycyjnej metody elementów skończonych\" dla przypadku dwuwymiarowego. Odpowiednie algorytmy dla klasycznej metody elementów skończonych umieszczono w rozdziale \"Formalne matematyczne sformułowanie metody elementów skończonych\". Umieszczono tam również przykład jednowymiarowej klasycznej metody elementów skończonych.", "Ad.5) Algorytmy solwerów opisane są w rozdziale \"Solwery układów równań liniowych generowanych podczas obliczeń MES\", w modułach \"Algorytm eliminacji Gaussa\", \"Algorytm eliminacji Gaussa z pivotingiem\", \"Algorytm LU faktoryzacji\", \"Algorytm solwera frontalnego\", \"Algorytm solwera wielo-frontalnego\", \"Algorytm solwera zmienno-kierunkowego\", \"Preconditioner\".", "Ad.6) W rozdziale \"Sformułowania wariacyjne dla różnych problemów i metod\", w module \"Transport ciepła za pomocą tradycyjnej metody elementów skończonych\" podany jest przykład sformułowania słabego i silnego dla dwuwymiarowego problemu transportu ciepła z wykorzystaniem klasycznej metody elementów skończonych, oraz szereg algorytmów dotyczących generacji układu równań. W rozdziale \"Formalne matematyczne sformułowanie metody elementów skończonych\" umieszczono przykład jednowymiarowej klasycznej metody elementów skończonych, oraz szereg przydatnych algorytmów. Ad.7) Metoda stabilizacji DG została opisana w rozdziale \"Metody Stabilizacji\" w module \"Stabilizacja równań Stokesa za za pomocą metody Discontinuous Galerkin (DG)\". W module \"Stabilizacja równań adwekcji-dyfuzji\" opisano metodę Streamline Upwind Petrov-Galerkin (SUPG) która działa zarówno dla klasycznej jak i izogeometrycznej metody metody elementów skończonych", "Jakie elementy w moim przekonaniu powinien zawierać podręcznik o izogemetrycznej metodzie elementów skończonych?", "Ad.1) Ten aspekt został szczegółowo opisany w rozdziale \"Dyskretyzacja za pomocą różnych funkcji bazowych\", moduły \"Liniowe funkcje bazowe\", \"Funkcje bazowe wyższego stopnia rzędu Ck w 1D\", \"Ulepszona analiza izogeometryczna w 1D\", \"Uogólnienie funkcji bazowych poprzez iloczyn tensorowy na 2D\", \"Uogólnienie funkcji bazowych poprzez iloczyn tensorowy na 3D\"", "Ad.2) Aspekt obliczeń adaptacyjnych w metodzie izogeometrycznej jest pokrótce opisany w rozdziale \"Przetwarzanie siatek obliczeniowych\" moduł \"Analiza izogeometryczna na siatkach adaptacyjnych\". Aspekt mapowania obiektów CAD na grupy elementów został w podręczniku pominięty ze względu na swoją obszerność i przynależność do pokrewnej (ale innej) tematyki związanej z modelowaniem geometrii w systemach informatycznych.", "Ad.3) Zagadnienie to zilustrowane zostało w rozdziale \"Przykładowy problem dwuwymiarowej projekcji bitmapy\" moduły \"Aproksymacja za pomocą funkcji bazowych B-spline\", \"Wyprowadzenie układu równań liniowych\", \"Wygenerowanie układu równań linowych za pomocą obliczeń analitycznych\", \"Rozwiązanie układu równań linowych\", \"Interpretacja rozwiązania\". Ad.4) Algorytmy te zostały opisane w rozdziale \"Solwery układów równań liniowych generowanych podczas obliczeń MES\", moduły \"Algorytm eliminacji Gaussa\", \"Algorytm eliminacji Gaussa z pivotingiem\", \"Algorytm LU faktoryzacji\", \"Algorytm solwera frontalnego\", \"Algorytm solwera wielo-frontalnego\", \"Algorytm solwera zmienno-kierunkowego\", \"Preconditioner\". Wszystkie te algorytmy jako takie są niezależne od faktu czy używamy klasycznej czy izogeometrycznej metody elementów skończonych. Dodatkowo moduły \"Algorytm solwera iteracyjnego\" oraz \"Wybór solwera w zależności od rodzaju problemu\" dotyczą przypadku izogeometrycznej metody elementów skończonych.", "Ad.5) Algorytmy solwerów opisane są w rozdziale \"Solwery układów równań liniowych generowanych podczas obliczeń MES\", w modułach \"Algorytm eliminacji Gaussa\", \"Algorytm eliminacji Gaussa z pivotingiem\", \"Algorytm LU faktoryzacji\", \"Algorytm solwera frontalnego\", \"Algorytm solwera wielo-frontalnego\", \"Algorytm solwera zmienno-kierunkowego\", \"Preconditioner\".", "Ad.6) W rozdziale \"Przykładowy problem dwuwymiarowej projekcji bitmapy\" i \"Sformułowania wariacyjne dla różnych problemów i metod\" znajdują się obszerne przykłady obliczeniowe dla izogeometrycznej metody elementów skończonych.", "Ad.7) Metoda stabilizacji izogeometrycznej metody elementów skończonych została opisana w rozdziale \"Metody Stabilizacji\" w modułach \"Stabilizacja równań Stokesa za za pomocą metody minimalizacji reziduum\" , oraz \"Stabilizacja równań adwekcji-dyfuzji za pomocą metody Streamline Upwind Petrov-Galerkin (SUPG)\".", "Dodatkowo podręcznik zawiera rozdział opisujący rozszerzenie metody elementów skończonych na problemy niestacjonarne (modelujące stan systemów zmieniający się w czasie) oraz wspomniany wcześniej rozdział wprowadzający do matematycznych podstaw metody elementów skończonych.", "Wszelkie uwagi oraz pytania dotyczące treści książki proszę kierować na adres maciej.paszynski o agh.edu.pl.", "Marcin Łoś i Maciej Woźniak są autorami kodów w MATLABie w rozdziałach:"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 1. Wstęp do metody elementów skończonych", "subject_id": 683, "subject": "Przykładowy problem dwuwymiarowej projekcji bitmapy", "paragraphs": ["W rozdziale tym zajmiemy się przykładowym problemem projekcji, który posłuży nam do zbudowania intuicji leżącej u podstaw metody elementów skończonych."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 1. Wstęp do metody elementów skończonych", "subject_id": 684, "subject": "Aproksymacja za pomocą funkcji bazowych B-spline", "paragraphs": ["Żeby napisać program komputerowy obliczający takie ciągłe przybliżanie terenu, musimy wykonać następujące czynności. Po pierwsze, musimy opisać nasz problem w sposób formalny, matematyczny. W szczególności musimy wybrać matematyczną definicję obiektu - bitmapy, oraz matematyczną definicje naszego ciągłego opisu terenu reprezentowanego przez bitmapę. Rozsądnym rozwiązaniem wydaje się powiedzenie iż bitmapa jest funkcją określoną na obszarze \\( \\Omega = [1,maxx]\\times[1,maxy] \\ni (x,y) \\rightarrow BITMAP(x,y) \\in [0,255] \\) gdzie poprzez \\( \\Omega \\) oznaczamy cały obszar, na którym rozpięta jest nasza bitmapa. Z kolei nasza ciągła reprezentacja świata będzie reprezentowana przez funkcję \\( u \\) o wartościach rzeczywistych. \\( \\Omega = [1,maxx]\\times[1,maxy] \\ni (x,y) \\rightarrow u(x,y) \\in [0,255] \\) Chcemy by nasza funkcja była \"smukła\" i ciągła. Matematycznie zapisujemy warunek że nasza funkcja będzie klasy \\( C^1 \\), oznacza to że w każdym punkcie będzie na tyle smukła żeby dało się policzyć jej pochodne w kierunkach prostopadłych do brzegów naszego obszaru. Oznacza to praktycznie iż w każdym punkcie możemy do wykresu naszej funkcji przyłożyć \"linijkę\" prostopadle do jednego z brzegów naszego obszaru, i zmierzyć kąt pomiędzy tą linijką a podstawą (powierzchnią płaską rozpostartą na wysokości zerowej). Pochodna to przecież nic innego jak tangens tego kąta. Innymi słowy nasza funkcja nie będzie miała \"załamań\" ani przerw, na których nie byłoby wiadomo jak przykładać naszą linijkę. Na załamaniach linijka ta przeskakiwała by z jednej pozycji na drugą, a w przypadku dziury w ogóle nie byłoby wiadomo jak ją przyłożyć. Oczywiście możliwość mierzenia pochodnej (przykładania linijki) w dwóch kierunkach prostopadłych do brzegu obszaru oznacza również możliwość przykładania linijki i mierzenia pochodnych kierunkowych w dowolnych innych kierunkach nie prostopadłych do brzegu. Możemy więc gładko przemieszczać się po powierzchni wykresu takiej smukłej funkcji, w dowolnych kierunkach. Jak uzyskać taką ciągłą smukłą funkcję? Musimy zdecydować jak nasza funkcja zostanie skonstruowana. Na przykład, możemy obszar, na którym rozpięta jest bitmapa podzielić na pewne elementy, i na tych elementach zdefiniować zbiór wielu smukłych funkcji, z których następnie \"skleimy\" naszą funkcję \\( u \\). Wyobraźmy sobie że na wysokości odpowiadającej wysokości zerowej (takiej której odpowiada wartość piksela zero) budujemy płaską dwuwymiarową siatkę, której liczba kwadratowych elementów jest dowolna. Oczka te zgodnie z przyjętą nomenklaturą nazwiemy elementami skończonymi, ponieważ każdy z tych elementów posiada ograniczony skończony obszar. Elementów tych może być mniej niż pikseli w bitmapie, i wtedy nad każdym takim elementem rozpiętych będzie kilka pikseli. Granice pomiędzy naszymi elementami nie muszą zgadzać się z granicami pikseli. Mogą one być dowolnie zdefiniowane na płaskiej powierzchni. Może również być tak, że naszych elementów jest więcej niż pikseli, i wtedy w każdym pikselu znajdować się będzie wiele takich elementów. Załóżmy jednak że naszych elementów jest mniej niż pikseli. Tworzą one regularną siatkę o \\( N_x*N_y \\) elementach skończonych. Teraz, na każdym takim elemencie definiujemy smukłą funkcję. Możemy w tym celu posłużyć się funkcjami B-spline. Funkcje te zostały po raz pierwszy wprowadzone przez amerykańskiego matematyka rumuńskiego pochodzenia Isaaka Jakuba Schoenberga [1]. Funkcje B-spline są powszechnie stosowane w modelowaniu i symulacjach komputerowych dzięki rosnącej popularności dziedziny zwanej analizą izogeometryczną rozpowszechnianej przez prof. T.J.R. Hughesa.[2]. Ideą tych metod jest zastosowanie rodzin funkcji B-spline do obliczeń za pomocą metody elementów skończonych. Funkcje te oznaczamy \\( B_{i,j;2}(x,y) \\), gdzie \\( i \\) oraz \\( j \\) oznaczają numeracje naszych funkcji, a 2 oznacza iż są to wielomiany kawałkami drugiego stopnia, klasy \\( C^1 \\).", "Rys. 1 przedstawia trzy przykładowe dwuwymiarowe funkcje B-spline rozpięte na dwuwymiarowej siatce. Każda taka dwuwymiarowa funkcja B-spline powstaje poprzez wybranie i przemnożenie przez siebie dwóch jednowymiarowych funkcji B-spline, jednej wybranej ze zbioru jednowymiarowych funkcji B-spline rozpiętych wzdłuż poziomego brzegu siatki, i drugiej wybranej ze zbioru jednowymiarowych funkcji B-spline rozpiętych wzdłuż pionowego brzegu siatki. Zbiory te nazywamy bazami jednowymiarowych funkcji B-spline. Te jednowymiarowe funkcje B-spline oznaczamy z kolei \\( B^x_{i;2}(x) \\) oraz \\( B^y_{j;2}(y) \\) gdzie zmienne \\( x \\) oraz \\( y \\) identyfikują kierunki (osie układu współrzędnych) wzdłuż których określone są nasze B-spline'y (oś pozioma \\( x \\) oraz oś pionowa \\( y \\)), \\( i \\) oraz \\( j \\) oznaczają numeracje tych funkcji (którą kolejną jednowymiarową funkcję B-spline wybieramy z takiej jednowymiarowej bazy), oraz 2 oznacza ponownie że są to wielomiany kawałkami drugiego stopnia, klasy \\( C^1 \\) (czyli że umiemy z nich liczyć pierwsze pochodne). Następnie wybrane funkcje jednowymiarowe są przemnażane przez siebie, co daje nam smukłą dwumymiarową funkcję B-spline. Taką metodę tworzenia dwuwymiarowych funkcji przez przemnażanie stosownych jednowymiarowych funkcji nazywa się iloczynem tensorowym funkcji. \\( B_{i,j;2}(x,y)=B^x_{i;2}(x)B^y_{j;2}(y) \\) Jest to zilustrowane na Rysunku. Uzyskane w ten sposób dwuwymiarowe funkcje B-spline mają kształt smukłego \"pagórka\", określonego na dziewięciu sąsiadujących elementach. Najwyższy punkt takiej funkcji - pagórka znajduje się w centrum środkowego elementu. Funkcje te schodzą gładko do wartości zerowej, przyjmowanej na brzegach kwadratu zdefiniowanego przez dziewięć elementów, na których funkcja ta jest określona. Funkcje te zgodnie z przyjętą nomenklaturą nazwiemy funkcjami bazowymi.", "Naszą ciągłą aproksymacje terenu uzyskamy w ten sposób, że zsumujemy ze sobą wiele takich smukłych pagórków - B-spline'ów. Każdy z nich zostanie przeskalowany (podniesiony do góry lub dół) tak by w sumie otrzymać ciągłą aproksymację terenu. Jeśli poprawnie dobierzemy wysokości poszczególnych pagórków, dostaniemy wówczas smukłe przybliżenia naszego terenu tak jak przedstawiono to na Przykładowy problem dwuwymiarowej projekcji bitmapy-Rys. 2. Powstaje teraz pytanie, w jaki sposób dobrać wysokości, do których wyciągniemy nasze funkcje bazowe. Pierwsza metoda, która przychodzi nam do głowy to wybrać wartość piksela z \\( BITMAP(x,y) \\) znajdującego się dokładnie w najwyższym punkcie B-spline (na środku pagórka). Niestety metoda ta ma kilka wad. Po pierwsze, jeśli naszych funkcji bazowych B-spline jest mniej niż pikseli, to wówczas ignorujemy wszystkie sąsiednie piksele znajdujące się w obszarze naszego B-spline'a, wybierając jedynie jedną wartość ze środka obszaru. Możliwe że nasza bitmapa posiada pewne zaburzenia i że trafimy akurat na lokalny odskok będący błędem pomiaru, lub że trafimy akurat w lokalną dziurę w ukształtowaniu terenu, lub w lokalne drzewo lub budynek który akurat zakłócił pomiar ukształtowania terenu. Po drugie, zauważmy że nasze funkcje bazowe rozpościerają się na kwadracie dziewięciu elementów. Skoro każdą taką funkcję B-spline skojarzyć można ze środkiem swojego elementu, oraz każda z tych funkcji rozpościera się na dziewięć sąsiednich elementów, oznacza to iż na każdym elemencie rozpostartych jest w sumie dziewięć takich funkcji, oraz że sąsiadujące funkcje zachodzą na siebie. Jeśli więc rozciągalibyśmy funkcje tak aby ich punkt maksymalny pokrywał się z centralnym pikselem, oraz zsumowalibyśmy te wszystkie funkcje razem w celu uzyskania naszej globalnej funkcji \\( u \\), to wówczas na każdym elemencie, nawet w punkcie centralnym, nasza wynikowa aproksymacja (suma tych funkcji) byłaby wyżej niż nasz centralny piksel, dlatego iż sąsiednie osiem funkcji również byłyby niezerowe na danym elemencie i podnosiłyby one wartość naszej aproksymacji w tym punkcie do góry."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 1. Wstęp do metody elementów skończonych", "subject_id": 685, "subject": "Wyprowadzenie układu równań liniowych", "paragraphs": ["Problem doboru współczynników kombinacji liniowej funkcji B-spline służących do aproksymacji bitmapy (problem skalowania poszczególnych B-spline'ów) jest problemem globalnym, i należy rozwiązać go biorąc pod uwagę wszystkie współczynniki równocześnie. W tym celu przeprowadzamy następujące rozumowanie, które jest podstawą intuicji leżących u podstaw metody elementów skończonych."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 1. Wstęp do metody elementów skończonych", "subject_id": 686, "subject": "Wygenerowanie układu równań linowych za pomocą obliczeń analitycznych", "paragraphs": ["Następny etap to wygenerowanie układu równań liniowych oraz jego rozwiązanie. Oczywiście zależy nam na tym żeby wybrane algorytmy generacji oraz rozwiązywania układów równań były najszybsze możliwe. W pierwszej kolejności generujemy macierz zawierającą całki z iloczynów dwuwymiarowych funkcji B-spline. Możemy dla uproszczenia przyjąć, że wektory węzłów są równoodległe, oraz, że jednostką odległości wzdłuż danej osi układu współrzędnych jest odległość pomiędzy dwoma węzłami w wektorze węzłów. Zauważmy najpierw, że \\( \\int B^x_{i,p}B^y_{j,p}B^x_{k,p}B^y_{l,p}dxdy = \\int B^x_{i,p}B^x_{k,p}dx \\int B^y_{j,p}B^y_{l,p}dy \\) Innymi słowy dzięki temu, że nasze dwuwymiarowe B-spline'y powstają poprzez przemnożenie jednowymiarowych B-spline'ów, możemy rozdzielić nasze dwuwymiarowe całki na iloczyn dwóch jednowymiarowych całek, w których przemnażamy i całkujemy pary jednowymiarowych B-spline'ów. Musimy więc wygenerować następującą macierz", "Zauważmy, że macierz ta ma następującą strukturę. W wierszach zmieniają się pierwsze B-spline'y w obu całkach pojedynczych (całce po $x$ i całce po $y$). Wiersze zmieniają się tak, że najpierw mamy kolejno B-spline'y \\( B^x_{1,p},B^x_{2,p},...,B^x_{N_x,p} \\) dla ustalonego \\( B^y_{1,p} \\). Następnie powtarzamy wszystkie \\( B^x_{1,p},B^x_{2,p},...,B^x_{N_x,p} \\) dla ustalonego \\( B^y_{2,p} \\), i tak dalej, występują bloki wszystkich kolejnych B-spline'ów względem \\( x \\) dla kolejnych ustalonych B-spline'ów \\( B^y_{j,p} \\) aż do ostatniego bloku, w którym występują kolejno \\( B^x_{1,p},B^x_{2,p},...,B^x_{N_x,p} \\) dla ustalonego ostatniego \\( B^y_{N_y,p} \\) W kolumnach sytuacja jest podobna, dotyczy ona natomiast drugich B-spline'ów w każdej całce pojedynczej. Kolumny zmieniają się więc tak, że najpierw mamy kolejno B-spline'y \\( B^y_{1,p},B^y_{2,p},...,B^y_{N_y,p} \\) dla ustalonego \\( B^x_{1,p} \\). Następnie powtarzamy wszystkie \\( B^y_{1,p},B^y_{2,p},...,B^y_{N_y,p} \\) dla ustalonego \\( B^x_{2,p} \\), i tak dalej, występują bloki wszystkich kolejnych B-spline'ów względem \\( y \\) dla kolejnych ustalonych B-spline'ów \\( B^x_{i,p} \\) aż do ostatniego bloku, w którym występują kolejno \\( B^y_{1,p},B^y_{2,p},...,B^y_{N_y,p} \\) dla ustalonego ostatniego \\( B^x_{N_x,p} \\) Macierz, która ma taką strukturę jest iloczynem Kroneckera dwóch mniejszych macierzy, jednej, w której występują same wyrazy z pierwszych całek pojedynczych (pary B-spline'ów względem \\( x \\)), i drugiej, w której występują same wyrazy z drugich całek pojedynczych (pary B-spline'ów względem \\( y \\)). Matematyczny zapis takiego iloczynu Kroneckera to symbol \\( \\otimes \\) pomiędzy dwoma wspomnianymi macierzami. Symbol \"=\" z przodu oznacza iż iloczyn Kroneckea tych macierzy daje naszą dużą macierz. \\( \t=\\begin{bmatrix} \\int{B^x_{1,p}B^x_{1,p}}dx & \\int{B^x_{1,p}B^x_{2,p}}dx & \\cdots & \\int{B^x_{1,p}B^x_{N_x,p}}dx \\\\ \\int{B^x_{2,p}B^x_{1,p}}dx & \\int{B^x_{2,p}B^x_{2,p}}dx & \\cdots & \\int{B^x_{2,p}B^x_{N_x,p}}dx\\\\ \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\int{B^x_{N_x,p}B^x_{1,p}}dx & \\int{B^x_{N_x,p}B^x_{2,p}}dx & \\cdots & \\int{B^x_{N_x,p}B^x_{N_x,p}}dx \\\\ \\end{bmatrix} \\otimes \\\\ \\begin{bmatrix} \\int{B^y_{1,p}B^y_{1,p}}dy & \\int{B^y_{1,p}B^y_{1,p}}dy & \\cdots & \\int{B^y_{1,p}B^y_{N_y,p}}dy\\\\ \\int{B^y_{1,p}B^y_{1,p}}dy & \\int{B^y_{1,p}B^y_{1,p}}dy & \\cdots & \\int{B^y_{1,p}B^y_{N_y,p}}dy \\\\ \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\int{B^y_{N_y,p}B^y_{1,p}}dy & \\int{B^y_{N_y,p}B^y_{1,p}}dy & \\cdots & \\int{B^y_{N_y,p}B^y_{N_y,p}}dy \\\\ \\end{bmatrix} \\) Zapis \\( \\otimes \\) oznacza, iż przemnażamy przez siebie odpowiednie wyrazy dwóch macierzy tak żeby dostać oryginalną macierz ( 1 ).", "Musimy teraz obliczyć całki z iloczynów par jednowymiarowych B-spline'ów, przedstawionych na Rys. 1. Zauważmy najpierw, że jeśli przemnożymy przez siebie dwa jednowymiarowe B-spline'y, których wykresy nie nachodzą na siebie (matematycy powiedzą \"które nie mają wspólnego suportu\"), na przykład \\( N_{1;2} \\) oraz \\( B_{4;2} \\) z Rys. 1, wówczas całka \\( \\int_{[t_0,t_6]} B_{1;2}(x)B_{4;2}(x)dx = 0 \\) Dzieje się tak dlatego ponieważ na każdym przedziale przedstawionym na Rys. 1 jeden z B-spline'ów jest równy zeru, czyli \\( \\int_{[t_0,t_6]} B_{1;2}(x)B_{4;2}(x)dx = \\\\ \\int_{[t_0,t_1]} B_{1;2}(x)B_{4;2}(x)dx + \\int_{[t_1,t_2]} B_{1;2}(x)B_{4;2}(x)dx + \\int_{[t_2,t_3]} B_{1;2}(x)B_{4;2}(x)dx +\\\\ \\int_{[t_3,t_4]} B_{1;2}(x)B_{4;2}(x)dx + \\int_{[t_4,t_5]} B_{1;2}(x)B_{4;2}(x)dx + \\int_{[t_5,t_6]} B_{1;2}(x)B_{4;2}(x)dx =\\\\ \\int_{[t_0,t_1]} B_{1;2}(x)*0dx + \\int_{[t_1,t_2]} B_{1;2}(x)*0dx + \\int_{[t_2,t_3]} B_{1;2}(x)*0dx + \\\\ \\int_{[t_3,t_4]} 0*B_{4;2}(x)dx + \\int_{[t_4,t_5]} 0*B_{4;2}(x)dx + \\int_{[t_5,t_6]} 0*B_{4;2}(x)dx = \\\\ 0+0+0+0+0+0=0 \\) Następnie, możemy przyjąć jako jednostkę długości średnicę elementu, wówczas każdy przedział \\( [t_i,t_{i+1}] \\) będzie miał średnicę równą jeden. Następnie musimy wprowadzić wzory na poszczególne segmenty B-spline'a (przedstawione na prawym panelu Rys. 1 ). Segmenty te oznaczamy \\( B_1,B_2,B_3 \\). \\( B_1 (x)=\\frac{1}{2} x^2 \\\\ B_2 (x)=-x^2+x+\\frac{1}{2} \\\\ B_3 (x)=\\frac{1}{2}(1-x)^2 \\) Ponieważ jedynie całki z nachodzących na siebie B-spline'ów dają niezerowe wartości, nad każdym przedziałem \\( [t_i,t_{i+1}] \\) musimy tak naprawdę obliczyć następujące całki, występujące w macierzy elementowej, w których nachodzą na siebie poszczególne segmenty B-spline'ów. Ponieważ podane wzory na segmenty obowiązują nad przedziałem 0,1, a całka nie zmienia się podczas przesunięcia (podobnie jak objętość pod stołem nie zmieni się jeśli przesuniemy stół na inne miejsce na płaskiej podłodze), możemy dla uproszczenia policzyć nasze całki właśnie w przedziale 0,1. \\( \\begin{bmatrix} \\int_0^1 B_1(x)B_1(x)dx & \\int_0^1 B_1(x)B_2(x)dx & \\int_0^1 B_1(x)B_3(x)dx \\\\ \\int_0^1 B_2(x)B_1(x)dx & \\int_0^1 B_2(x)B_2(x)dx & \\int_0^1 B_2(x)B_3(x)dx \\\\ \\int_0^1 B_3(x)B_1(x)dx & \\int_0^1 B_3(x)B_2(x)dx & \\int_0^1 B_3(x)B_3(x)dx \\\\ \\end{bmatrix} \\) Innymi słowy mamy tylko 9 możliwości nachodzenia na siebie poszczególnych segmentów. Ponieważ segmenty \\( B_1 \\) i \\( B_3 \\) są symetryczne, dodatkowo mamy symetrię macierzy, czyli tak naprawdę musimy policzyć sześć całek \\( \\begin{bmatrix} \\int_0^1 B_1(x)B_1(x)dx & \\int_0^1 B_1(x)B_2(x)dx & \\int_0^1 B_1(x)B_3(x)dx \\\\ == & \\int_0^1 B_2(x)B_2(x)dx & \\int_0^1 B_2(x)B_3(x)dx \\\\ == & == & \\int_0^1 B_3(x)B_3(x)dx \\\\ \\end{bmatrix} \\) Z symetrii segmentów wynika również iż segment \\( B_3 \\) ma kształt odwróconego segmentu \\( B_1 \\), i dlatego \\( \\int_0^1 B_1(x)B_1(x)dx =\\int_0^1 B_3(x)B_3(x)dx \\), innymi słowy odwrócenie funkcji nie zmienia wartości całki (podobnie jak przekręcenie stołu o 180 stopni nie zmienia objętości znajdującej się pod stołem), oraz \\( \\int_0^1 B_2(x)B_3(x)dx = \\int_0^1 B_1(x)B_2(x)dx \\), tak naprawdę musimy więc policzyć jedynie cztery całki \\( \t\\begin{bmatrix} \\int_0^1 B_1(x)B_1(x)dx & \\int_0^1 B_1(x)B_2(x)dx & \\int_0^1 B_1(x)B_3(x)dx \\\\ == & \\int_0^1 B_2(x)B_2(x)dx & == \\\\ == & == & == \\\\ \\end{bmatrix} \\) Obliczamy jednowymiarowe całki z wielomianów \\( \\int_0^1{B_1(x)B_1(x)dx} = \\int_0^1 (\\frac{1}{2} x^2)(\\frac{1}{2} x^2)dx = \\int_0^1 \\frac{1}{4}x^4)dx = \\frac{1}{4} (\\frac{x^5}{5})|^1_0=\\frac{1}{20} \\) \\( \\int_0^1{B_2(x)B_2(x)dx} = \\int_0^1 (-x^2+x+\\frac{1}{2})(-x^2+x+\\frac{1}{2}) dx= \\int_0^1 (x^4-2x^3+x+\\frac{1}{4}) dx = \\\\ (\\frac{x^5}{5})|^1_0-2(\\frac{x^4}{4})^1_0+(\\frac{x^2}{2})^1_0+(\\frac{1}{4}x)|^1_0=\\frac{1}{5}+\\frac{1}{4}=\\frac{9}{20} \\) \\( \\int_0^1{B_1(x)B_2(x)dx} = \\int_0^1 (\\frac{1}{2} x^2)(-x^2+x+\\frac{1}{2})dx = \\int_0^1 (-\\frac{x^4}{2}+\\frac{x^3}{2}+\\frac{x^2}{4})dx = \\\\ (-\\frac{x^5}{10})|^1_0+(\\frac{x^4}{8})|^1_0 +(\\frac{x^3}{12})|^1_0=-\\frac{1}{10}+\\frac{1}{8}+\\frac{1}{12}=\\frac{13}{120} \\) \\( \\int_0^1{B_1(x)B_3(x)dx} = \\int_0^1 (\\frac{1}{2} x^2)(\\frac{1}{2}(1-x)^2)dx = \\int_0^1 (\\frac{x^4}{4}-\\frac{x^3}{2}+\\frac{x^2}{4})dx = \\\\ (\\frac{x^5}{20})|^1_0 -(\\frac{x^4}{8})|^1_0 +(\\frac{x^3}{12})|^1_0=\\frac{1}{20}-\\frac{1}{8}+\\frac{1}{12}=\\frac{1}{120} \\) Uwzględniając symetrie obliczonych całek, wpisujemy je w stosowne miejsca w naszej matrycy i dostajemy \\( \t\\begin{bmatrix} \\int_0^1{B_1(x)B_1(x)dx} & \\int_0^1{B_1(x)B_2(x)dx } & \\int_0^1{B_1(x)B_3(x)dx} \\\\ \\int_0^1{B_2(x)B_1(x)dx} & \\int_0^1{B_2(x)B_2(x)dx } & \\int_0^1{B_2(x)B_3(x)dx } \\\\ \\int_0^1{B_3(x)B_1(x)dx} & \\int_0^1{B_3(x)B_2(x)dx} & \\int_0^1{B_3(x)B_3(x)dx } \\\\ \\end{bmatrix} = \\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} \\\\ \\frac{13}{120} & \\frac{9}{20} & \\frac{13}{120} \\\\ \\frac{1}{120} & \\frac{13}{120} & \\frac{1}{20} \\\\ \\end{bmatrix} \\) Sumując teraz wygenerowane w ten sposób kawałki macierzy dostaniemy dwie macierze tworzące nasz układ równań w postaci produktu Kroneckera macierzy. Sumowanie przeprowadzamy w następujący sposób: \\( \t\\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} & \\cdots \\\\ \\frac{13}{120} & \\frac{9}{20} +\\color{red}{\\frac{1}{20}}& \\frac{13}{120} + \\color{red}{\\frac{13}{120}} & \\color{red}{\\frac{1}{120}} & \\cdots \\\\ \\frac{1}{120} & \\frac{13}{120} +\\color{red}{\\frac{13}{120}} & \\frac{1}{20} +\\color{red}{\\frac{9}{20}} +\\color{blue}{\\frac{1}{20}} & \\color{red}{\\frac{13}{120}} +\\color{blue}{\\frac{13}{120}} & \\color{blue}{\\frac{1}{120}} & \\cdots \\\\ \\cdots & \\color{red}{\\frac{1}{120}} & \\color{red}{\\frac{13}{120}} +\\color{blue}{\\frac{13}{120}} & \\color{red}{\\frac{1}{20}}+\\color{blue}{\\frac{9}{20}} +\\color{green}{\\frac{1}{20}} & \\color{blue}{\\frac{13}{120}} +\\color{green}{\\frac{13}{120}} & \\color{green}{\\frac{1}{120}} & \\cdots \\\\ \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots \\\\ & \\cdots & \\color{green}{\\frac{1}{120}} & \\color{blue}{\\frac{13}{120}} +\\color{green}{\\frac{13}{120}} & \\color{red}{\\frac{1}{20}}+\\color{blue}{\\frac{9}{20}} +\\color{green}{\\frac{1}{20} } & \\color{red}{\\frac{13}{120}}+\\color{blue}{\\frac{13}{120}} & \\color{red}{\\frac{1}{120}} \\\\ & & \\cdots &\t\\color{blue}{\\frac{1}{120}} & \\color{red}{\\frac{13}{120}}+\\color{blue}{\\frac{13}{120}} & \\frac{1}{20} +\\color{red}{\\frac{9}{20}} +\\color{blue}{\\frac{1}{20}} & \\frac{13}{120} +\\color{red}{\\frac{13}{120}} & \\frac{1}{120} \\\\ & & & \\cdots & \\color{red}{\\frac{1}{120}} & \\frac{13}{120} +\\color{red}{\\frac{13}{120}} & \\frac{9}{20} +\\color{red}{\\frac{1}{20}} & \\frac{13}{120} \\\\ & & & & \\cdots & \\frac{1}{120} & \\frac{13}{120} & \\frac{1}{20} \\\\ \\end{bmatrix} \\) Poza wypisanymi wyrazami macierzy umieszczonymi na pięciu przekątnych, pozostałe wyrazy macierzy są równe 0. Innymi słowy naszą matrycę przesuwamy wzdłuż przekątnej od lewego górnego rogu macierzy do prawego dolnego rogu, i sumujemy nakładające się na siebie wyrazy. W ten sposób uzyskamy dwie macierze, które tworzą za pomocą tak zwanego produktu Kroneckera naszą macierz ( 1 ). Kolejny problem do rozwiązania to policzenie całek prawej strony. Całka prawej strony to próbkowanie bitmapy przemnożonej przez poszczególne funkcje testujące (B-spline'y używane do uśredniania bitmapy w obszarze na którym są określone). Używamy od teraz nowej notacji, w której wprowadzamy dwuwymiarową funkcję B-spline, funkcję zmiennych \\( (x,y) \\), będącą iloczynem dwóch jednowymiarowych funkcji B-spline \\( B_{k,l;2}(x,y)=B^x_{k;2}(x)B^y_{l;2}(y) \\). Zauważmy że przemnożenie bitmapy przez B-spline'a \\( v(x,y)=B_{k,l;2}(x,y) \\) oznacza iż całkę tą musimy policzyć jedynie po dziewięciu elementach na których określony jest B-spline \\( B_{k,l;2}(x,y) \\). Musimy rozwiązać teraz dwa problemy. Pierwszy problem to jaki wzór ma dziewięć fragmentów naszego B-spline'a na tych dziewięciu elementach, na których jest on określony. Drugi problem, to jak policzyć całkę z bitmapy przemnożonej przez wielomian. Zauważmy że jednowymiarowe B-spline'y składają się z trzech segmentów opisanych zgodnie z ( 1 ). W związku z tym, nasz dwuwymiarowy B-spline testujący na dziewięciu elementach na których jest określony składa się z odpowiednich iloczynów tych segmentów. \\( B_1(x)B_1(y), B_2(x)B_1(y), B_3(x)B_1(y) \\\\B_1(x)B_2(y), B_2(x)B_2(y), B_3(x)B_2(y) \\\\ B_1(x)B_3(y), B_2(x)B_3(y), B_3(x)B_3(y) \\). Jest to zilustrowane na Rys. 2.", "Tak więc problem liczenia całki bitmapy przemnożonej przez funkcję testującą B-spline sprowadza się do problemu policzenia dziewięciu całek. Na przykład, jeśli chcemy przeliczyć całkę dla B-spline'a testującego \\( B_{k,l;2}(x,y) \\), wówczas musimy policzyć następujące dziewięć całek: \\( \\int^1_0 \\int^1_0 B_1(x)B_1(y) BITMAP((k-1+x)*maxx/N_x,(l-1+y)*maxy/N_y) dxdy, \\\\ \\int^1_0 \\int^1_0 B_2(x)B_1(y) BITMAP((k+x)*maxx/N_x,(l-1+y)*maxy/N_y) dxdy, \\\\ \\int^1_0 \\int^1_0 B_3(x)B_1(y) BITMAP((k+1+x)*maxx/N_x,(l-1+y)*maxy/N_y) dxdy, \\\\ \\int^1_0 \\int^1_0 B_1(x)B_2(y) BITMAP((k-1+x)*maxx/N_x,(l+y)*maxy/N_y) dxdy, \\\\ \\int^1_0 \\int^1_0 B_2(x)B_2(y) BITMAP((k+x)*maxx/N_x,(l+y)*maxy/N_y) dxdy, \\\\ \\int^1_0 \\int^1_0 B_3(x)B_2(y) BITMAP((k+1+x)*maxx/N_x,(l+y)*maxy/N_y) dxdy, \\\\ \\int^1_0 \\int^1_0 B_1(x)B_3(y)BITMAP((k-1+x)*maxx/N_x,(l+1+y)*maxy/N_y) dxdy, \\\\ \\int^1_0 \\int^1_0 B_2(x)B_3(y)BITMAP((k+x)*maxx/N_x,(l+1+y)*maxy/N_y) dxdy, \\\\ \\int^1_0 \\int^1_0 B_3(x)B_3(y)BITMAP((k+1+x)*maxx/N_x,(l+1+y)*maxy/N_y) dxdy. \\) W powyższych wzorach wyrażenia typu \\( (k-1+x)*maxx/N_x \\) oznaczają przeliczanie współrzędnych B-spline'a, którego całkujemy na indeksy pikseli bitmapy, na których on się rozpościera. Zmienne x i y zmieniają się od 0 do 1. W obrębie jednego elementu, mamy \\( maxx/N_x \\) pikseli w kierunku \\( x \\) oraz \\( maxy/N_y \\) pikseli w kierunku \\( y \\) , gdzie \\( maxx,maxy \\) oznacza rozmiar bitmapy (całkowitą liczbę pikseli w kierunku \\( x \\) i \\( y \\)) natomiast \\( N_x,N_y \\) oznacza liczbę elementów siatki w kierunku \\( x \\) i \\( y \\). Tak więc \\( x*maxx/N_x \\) zmienia się od 0 do \\( maxx/N_x \\), czyli obejmuje liczbę pikseli bitmapy w kierunku \\( x \\) na pojedyńczym elemencie, natomiast \\( y*maxy/N_y \\) zmienia się od 0 do liczby pikseli bitmapy w kierunku \\( y \\) na pojedynczym elemencie. Dodatkowo przesuwamy nasz zakres tak żeby przeglądać piksele odpowiednich elementów, na których rozpięty jest nasz B-spline testujący. Na przykład wyrażenie \\( (k-1+x)*maxx/N_x \\) oznacza że przesuwamy się po pikselach elementu numer \\( k \\) w kierunku \\( x \\), \\( (k+x)*maxx/N_x \\) oznacza, że przesuwamy się po pikselach elementu numer \\( k+1 \\) w kierunku \\( x \\), \\( (k+1+x)*maxx/N_x \\) oznacza, że przesuwamy się po pikselach elementu numer \\( k+2 \\) w kierunku \\( x \\). Podobnie \\( (l-1+y)*maxy/N_y \\) oznacza, że przesuwamy się po pikselach elementu numer \\( l \\) w kierunku \\( y \\), \\( (l+y)*maxy/N_y \\) oznacza, że przesuwamy się po pikselach elementu numer \\( l+1 \\) w kierunku \\( y \\), oraz \\( (l+1+y)*maxy/N_y \\) oznacza, że przesuwamy się po pikselach elementu numer \\( +2l \\) w kierunku \\( y \\). Jak więc policzyć takie całki po pikselach? Musimy rozbić całkę na sumę całek po poszczególnych pikselach, na przykład dla pierwszej całki \\( \\int^1_0 \\int^1_0 B_1(x)B_1(y) BITMAP((k-1+x)*maxx/N_x,(l-1+y)*maxy/N_y) dxdy = \\\\ \\color{red}{\\sum_{i=1,maxx/N_x;j=1,maxy/N_y}}BITMAP((k-1)*maxx/N_x+i,(l-1)*maxy/N_y+j) \\\\ \\color{blue}{\\int_{(i-1,i)*\\frac{1}{maxx/N_x}}} B_1(x)dx \\color{blue}{ \\int_{(j-1,j)*\\frac{1}{maxy/N_y}}} B_1(y)dy \\) gdzie suma zaznaczona na czerwono rozpościera się po wszystkich pikselach z pojedynczego elementu (jest ich \\( maxx/N_x * maxy/N_y \\)), bitmapa jest próbkowana w punktach pikseli rozpostartych na danym elemencie, a całki zaznaczone na niebiesko, liczone są z funkcji B-spline po pojedynczych pikselach. Wystarczy teraz, że policzymy pojedyncze całki z trzech segmentów \\( \\int B_1(x) dx = \\int \\frac{1}{2} x^2 dx = \\frac{1}{2}\\frac{x^3}{3}, \\\\ \\int B_2(x) dx = \\int (-x^2+x+\\frac{1}{2}) dx = -\\frac{x^3}{3}+\\frac{x^2}{2}+\\frac{1}{2}x, \\\\ \\int B_3(x) dx = \\int \\frac{1}{2}(1-x)^2 dx = \\int(1-2x+x^2)=x-x^2+\\frac{x^3}{3} \\) i wstawimy je do wzorów na całki, na przykład \\( \\color{blue}{ \\int_{(i-1,i)*\\frac{1}{maxx/N_x}} B_1(x)dx} = \\left(\\frac{1}{2}\\frac{x^3}{3}\\right)|^{ \\frac{i}{maxx/N_x} }_{\\frac{i-1}{maxx/N_x} } = \\frac{1}{2} \\left( \\frac{ \\left( \\frac{i-1}{maxx/N_x} \\right)^3- \\left( \\frac{i}{maxx/N_x}\\right)^3 }{3} \\right) \\\\ \\color{blue}{\\int_{(j-1,j)*\\frac{1}{maxy/N_y}}B_1(y)dy } = \\left( \\frac{1}{2}\\frac{x^3}{3} \\right)|^{ \\frac{j }{ maxy/N_y} }_{ \\frac{j-1}{maxy/N_y} }= \\frac{1}{2} \\left( \\frac{ \\left( \\frac{j-1} { maxy/N_y } \\right)^3-\\left(\\frac{j}{maxy /N_y }\\right)^3}{3}\\right) \\) Liczenie całek funkcji testujących z bitmapy zrobiło się trochę skomplikowane. Podsumujmy, musimy policzyć wiele całek z bitmapy, przemnożone przez różne dwuwymiarowe B-spliny, tak zwane funkcje testujące. Każdą z tych całek liczymy tak że rozbijamy ją na całkę po dziewięciu elementach na których rozpięty jest B-spline testujący, i sumujemy te wynikowe dziewięć całek, wpisując otrzymaną liczbę do jednego wiersza wektora prawej strony. Z kolei żeby policzyć całkę po każdym z tych dziewięciu elementów na których rozpięty jest nasz B-spline testujący, całki te rozbijamy na poszczególne piksele które leża na tym elemencie, próbkujemy naszą bitmapę po tych pikselach i liczymy całkę z naszych segmentów B-spline'ów po wszystkich pikselach. Wszystko to razem sumujemy (suma po dziewięciu elementach na których leży B-spline testujący, suma po pikselach elementów)."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 1. Wstęp do metody elementów skończonych", "subject_id": 687, "subject": "Rozwiązanie układu równań linowych", "paragraphs": ["W wyniku generacji układu równań dostaliśmy macierz zapisaną w postaci produktu Kroneckera dwóch macierzy pięcio-przekątniowych, oraz prawą stronę policzoną z mozołem dla poszczególnych B-spline'ów testujących. Musimy teraz rozwiązać uzyskany w ten sposób układ równań. \\( \\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} & \\cdots \\\\ \\frac{13}{120} & \\frac{1}{2} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\vdots & \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\\\ & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} \\\\ & & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{1}{2} & \\frac{13}{120} \\\\ & & & \\cdots & \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} \\\\ \\end{bmatrix} \\otimes \t\\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} & \\cdots \\\\ \\frac{13}{120} & \\frac{1}{2} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\vdots & \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\\\ & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} \\\\ & & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{1}{2} & \\frac{13}{120} \\\\ & & & \\cdots & \\frac{1}{120} & \\frac{13}{120} & \\frac{1}{20} \\\\ \\end{bmatrix} \\begin{bmatrix} u_{1,1} \\\\ u_{2,1} \\\\ u_{3,1} \\\\ \\vdots \\\\ u_{k,l} \\\\ \\vdots \\\\ u_{N_{x-2},N_y} \\\\ u_{N_{x-1},N_y} \\\\ u_{N_x,N_y} \\\\ \\end{bmatrix} \\\\ = \\begin{bmatrix} \\int BITMAP(x,y) B^x_1(x)*B^y_1(y) dxdy \\\\ \\int BITMAP(x,y) B^x_2(x)*B^y_1(y) dxdy \\\\ \\int BITMAP(x,y) B^x_3(x)*B^y_1(y) dxdy \\\\\\vdots \\\\ \\int BITMAP(x,y) B^x_k(x)*B^y_l(y) dxdy \\\\\\vdots \\\\\\int BITMAP(x,y) B^x_{N_x-2}(x)*B^y_{N_y}(y) dxdy \\\\\\int BITMAP(x,y) B^x_{N_x-1}(x)*B^y_{N_y}(y) dxdy \\\\\\int BITMAP(x,y) B^x_{N_x}(x)*B^y_{N_y}(y) dxdy \\\\ \\end{bmatrix} \\) Rozwiązanie układu równań, w którym macierz ma strukturę produktu Kroneckera jest możliwe w bardzo krótkim czasie. Co to znaczy w bardzo krótkim czasie? Koszt obliczeniowy wyraża się liczbą operacji takich jak mnożenie czy dodawanie liczb, koniecznych do rozwiązania układu równań. W przypadku układu równań, w którym macierz ma strukturę produktu Kroneckera możliwe jest rozwiązanie układu równań za pomocą algorytmu, w którym liczba operacji wynosi \\( const*N \\) gdzie \\( N \\) to jest liczba niewiadomych (liczba współczynników aproksymacji bitmapy na siatce, wyrażona dokładnie poprzez \\( N=N_x*N_y \\), gdzie \\( N_x,N_y \\) to rozmiary siatki, natomiast \\( const \\) oznacza pewną stałą liczbę. Algorytm stosowany w tym przypadku nazywany jest algorytmem solwera zmiennokierunkowego. Rozważamy dwa etapy procesu rozwiązania. Pierwszy etap polega na wzięciu pierwszej z podmacierzy, oraz poukładaniu wektora niewiadomych i wektora prawych stron w wiele podwektorów, po jednym wektorze dla każdej kolumny elementów siatki obliczeniowej. Zostało to zilustrowane na Rys. 1, oraz we wzorze poniżej. \\( \\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} & \\cdots \\\\ \\frac{13}{120} & \\frac{1}{2} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\vdots & \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\\\ & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} \\\\ & & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{1}{2} & \\frac{13}{120} \\\\ & & & \\cdots & \\frac{1}{120} & \\frac{13}{120} & \\frac{1}{20} \\\\ \\end{bmatrix} \\begin{bmatrix} w_{1,1} & w_{1,2} & \\cdots & w_{1,N_{y-1}} & w_{1,N_y} \\\\ w_{2,1} & w_{2,2} & \\cdots & w_{2,N_{y-1}} & w_{2,N_y} \\\\ w_{3,1} & w_{3,2} & \\cdots & w_{3,N_{y-1}} & w_{3,N_y} \\\\ \\vdots & \\vdots & \\cdots & \\vdots & \\vdots \\\\ w_{N_{x-2},1} & w_{N_{x-2},2} & \\cdots & w_{N_{x-2},N_{y-1}} & w_{N_{x-2},N_y} \\\\ w_{N_{x-1},1} & w_{N_{x-1},2} & \\cdots & w_{N_{x-1},N_{y-1}} & w_{N_{x-1},N_y} \\\\ w_{N_x,1} & w_{N_x,2} & \\cdots & w_{N_x,N_{y-1}} & w_{N_x,N_y} \\\\ \\end{bmatrix} \\\\ = \\begin{bmatrix} \\int BITMAP(x,y) B^x_1(x)*B^y_1(y) dxdy & \\cdots & \\int BITMAP(x,y) B^x_1(x)*B^y_{N_y}(y)dxdy \\\\ \\int BITMAP(x,y) B^x_2(x)*B^y_1(y) dxdy & \\cdots & \\int BITMAP(x,y) B^x_2(x)*B^y_{N_y}(y)dxdy \\\\ \\int BITMAP(x,y) B^x_3(x)*B^y_1(y) dxdy & \\cdots & \\int BITMAP(x,y) B^x_3(x)*B^y_{N_y}(y)dxdy \\\\ \\vdots \\\\ \\int BITMAP(x,y) B^x_{N_x-2}(x)*B^y_1(y) dxdy & \\cdots & \\int BITMAP(x,y) B^x_{N_x-2}(x)*B^y_{N_y}(y)dxdy \\\\ \\int BITMAP(x,y) B^x_{N_x-1}(x)*B^y_1(y) dxdy & \\cdots & \\int BITMAP(x,y) B^x_{N_x-1}(x)*B^y_{N_y}(y) dxdy \\\\ \\int BITMAP(x,y) B^x_{N_x}(x)*B^y_1(y) dxdy & \\cdots & \\int BITMAP(x,y) B^x_{N_x}(x)*B^y_{N_y}(y)dxdy \\\\ \\end{bmatrix} \\) Wprowadziliśmy tutaj pomocnicze niewiadome, \\( w* \\) które służą do rozwiązania pierwszego układu równań. Oryginalne niewiadome \\( u* \\) dostaniemy po rozwiązaniu drugiego układu równań, w którym prawą stronę stanowić będą niewiadome pomocnicze \\( w* \\). Dostaliśmy więc układ równań z macierzą pięcio-przekątniową, o wielu prawych stronach. Każdy podwektor, każda prawa strona, odpowiada jednej kolumnie na siatce elementów, ma więc ustaloną współrzędną \\( y \\), oraz współrzędną \\( x \\) zmieniającą się od 1 do \\( N_x \\). Podobnie uporządkowane są niewiadome \\( u* \\), w których to wierszami zmieniają się drugie indeksy, na przykład \\( w_{1,1}, w_{1,2}, ..., w_{1,N_y} \\) natomiast w kolumnach zmieniają się pierwsze indeksy. Rozwiązujemy ten układ równań (jak to zrobić o tym za chwilę), dostajemy rozwiązania \\( w* \\) i przechodzimy do drugiego kroku algorytmu solwera zmiennokierunkowego.", "Drugi etap polega więc na wzięciu analogicznej drugiej macierzy produktu Kroneckera, wzięciu rozwiązań \\( w* \\) z pierwszego układu równań, poukładaniu ich zgodnie z wierszami elementów z siatki (porównaj Rys. 1, poukładaniu w podobny sposób poszukiwanych niewiadomych \\( u* \\) i na rozwiązaniu otrzymanego układu równań o wielu prawych stronach. \\( \\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} & \\cdots \\\\ \\frac{13}{120} & \\frac{1}{2} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\vdots & \\vdots & \\vdots & \\vdots & \\vdots \\\\\\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\\\ & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} \\\\ & & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{1}{2} & \\frac{13}{120} \\\\ & & & \\cdots & \\frac{1}{120} & \\frac{13}{120} & \\frac{1}{20} \\\\ \\end{bmatrix} \\begin{bmatrix} u_{1,1} & u_{2,1} & \\cdots & u_{N_{x-1},1} & u_{N_x,1} \\\\ u_{1,2} & u_{2,2} & \\cdots & u_{N_{x-1},2} & u_{N_x,2} \\\\ u_{1,3} & u_{2,3} & \\cdots & u_{N_{x-1},3} & u_{N_x,3} \\\\ \\vdots & \\vdots & \\cdots & \\vdots & \\vdots \\\\ u_{1,N_{y-2}} & u_{2,N_{y-2}} & \\cdots & u_{N_{x-1},N_{y-2}} & u_{N_{x},N_{y-2}} \\\\ u_{1,N_{y-1}} & u_{2,N_{y-1}} & \\cdots & u_{N_{x-1},N_{y-1}} & u_{N_{x},N_{y-1}} \\\\ u_{1,N_y} & u_{2,N_y} & \\cdots & u_{N_{x-1},N_{y}} & u_{N_x,N_y} \\\\ \\end{bmatrix} \\\\ = \\begin{bmatrix} w_{1,1} & w_{2,1} & \\cdots & w_{N_{x-1},1} & w_{N_x,1} \\\\ w_{1,2} & w_{2,2} & \\cdots & w_{N_{x-1},2} & w_{N_x,2} \\\\ w_{1,3} & w_{2,3} & \\cdots & w_{N_{x-1},3} & w_{N_x,3} \\\\ \\vdots & \\vdots & \\cdots & \\vdots & \\vdots \\\\ w_{1,N_{y-2}} & w_{2,N_{y-2}} & \\cdots & w_{N_{x-1},N_{y-2}} & w_{N_{x},N_{y-2}} \\\\ w_{1,N_{y-1}} & w_{2,N_{y-1}} & \\cdots & w_{N_{x-1},N_{y-1}} & w_{N_{x},N_{y-1}} \\\\ w_{1,N_y} & w_{2,N_y} & \\cdots & w_{N_{x-1},N_{y}} & w_{N_x,N_y} \\\\ \\end{bmatrix} \\) W tym drugim układzie równań, każdy podwektor, każda prawa strona, odpowiada jednemu wierszowi na siatce elementów, ma więc ustaloną współrzędną \\( x \\), oraz współrzędną \\( y \\) zmieniającą się od 1 do \\( N_y \\). Podobnie uporządkowane są niewiadome \\( u* \\), w których to wierszami zmieniają się pierwsze indeksy, na przyklad \\( w_{1,1}, w_{2,1}, ..., w_{N_x,1} \\) natomiast w kolumnach zmieniają się drugie indeksy. Każdy z tych dwóch układów równań o wielu prawych stronach rozwiążemy używając algorytmu eliminacji Gaussa dla macierzy pasmowej, który ma liniowy koszt obliczeniowy."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 1. Wstęp do metody elementów skończonych", "subject_id": 688, "subject": "Interpretacja rozwiązania", "paragraphs": ["W wyniku rozwiązania układu równań liniowych otrzymujemy wektor współczynników \\( u_{1,1} \\\\ u_{2,1} \\\\ u_{3,1} \\\\ \\vdots \\\\ u_{k,l} \\\\ \\vdots \\\\ u_{N_{x-2},N_y} \\\\ u_{N_{x-1},N_y} \\\\ u_{N_x,N_y} \\\\ \\) Pamiętamy teraz że nasze rozwiązanie (projekcja bitmapy) reprezentowana jest przez kombinacje liniową dwuwymiarowych funkcji B-spline \\( u(x,y) = \\sum_{i=1}^{N_x} \\sum_{j=1}^{N_y} u_{i,j} B^x_{i}(x) B^y_{j}(y) \\) W celu uzyskania wartości rozwiązania w punkcje \\( (x,y) \\) należącym do obszaru \\( \\Omega \\), na którym zdefiniowana jest nasza bitmapa, nie musimy oczywiście sumować wartości wszystkich funkcji B-spline. Musimy zlokalizować element w którym leży punkt \\( (x,y) \\) oraz wszystkie \\( (p+1)^2 \\) funkcje B-spline określone na tym elemencie. Pozostałe funkcje B-spline są równe zero w tym miejscu. W naszym przypadku, \\( \\Omega = [1,maxx]\\times[1,maxy] \\), oraz mamy równo rozłożone \\( N_x \\) funkcji B-spline stopnia \\( p \\) wzdłuż osi \\( x \\) oraz \\( N_y \\) funkcji B-spline stopnia \\( p \\) wzdłuż osi \\( y \\). Mamy więc \\( N_x-p \\) elementów wzdłuż osi \\( x \\) oraz \\( N_y-p \\) elementów wzdłuż osi \\( y \\). Każdy element ma rozmiar \\( [maxx / (N_x-p)]\\times [maxy / (N_y-p)] \\). Żeby dostać więc numer elementu wzdłuż osi \\( x \\), wykonujemy dzielenie \\( ne_x = int (\\frac{x} {maxx/(N_x-p) }) \\), i analogicznie żeby obliczyć numer elementu wzdluż osi \\( y \\), wykonujemy dzielenie \\( ne_z=int(\\frac{y}{maxy/(N_y-p) } ) \\), gdzie int oznacza wartość całkowitą (zaokrąglenie w dół). Wówczas, na naszym elemencie \\( [ne_x,ne_y] \\) określone są funkcje \\( \\{B^x_{i,p}(x)B^y_{j,p}\\}_{ i=ne_x-p+1,ne_x+p-1,j=ne_y-p+1,ne_y-p-1 } \\). W celu obliczenia wartości rozwiązania w punkcie \\( (x,y) \\) wystarczy więc, że obliczymy \\( u(x,y) = \\sum_{ i=ne_x-p+1,ne_x+p-1,j=ne_y-p+1,ne_y-p-1 } u_{i,j} B^x_{i}(x) B^y_{j}(y) \\)"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 1. Wstęp do metody elementów skończonych", "subject_id": 689, "subject": "Implementacja w MATLABie problemu projekcji bitmapy", "paragraphs": ["W module tym przedstawiamy dwa kody MATLABa obliczające izogeometryczną L2 projekcję bitmapy. Kody używają izogeometrycznej metody elementów skończonych, w której to bitmapa aproksymowana jest za pomocą kombinacji liniowej wielomianów B-spline. Wykonanie kodu\\ów możliwe jest również w darmowym środowisku Octave.", "Pobierz kod 1 lub zob. Załącznik 1.", "Pobierz kod 2 lub zob. Załącznik 1.", "W celu uruchomienia kodów zapisujemy je w katalogu roboczym Octave. Ustawiamy zmienne ze ścieżką do pliku wejściowego w formacie tif \\( filename = 'C://Users/Maciej/Dropbox/bitmapa.tif' \\) następnie podajemy ilość elementów siatki w kierunku osi x i y oraz stopnie funkcji B-spline w tych kierunkach \\( nx=4 \\) \\( ny=4 \\) \\( px=2 \\) \\( py=2 \\) Następnie uruchamiamy pierwszą procedurę \\( bitmap\\_param(filename,nx,ny,px,py) \\). Kod po zbudowaniu układu równań i rozwiązaniu go rysuje projekcje bitmapy w otwartym okienku. Pierwszy kod oblicza izogeometryczną L2 projekcję bitmapy, generuje wartości funkcji B-spline zgodnie z rekurencyjnej definicji. Podczas całkowania, oblicza on kwadratury Gaussa na \\( (Ne_x+px)(Ne_y+py) \\) elementach, próbkując wartości funkcji B-spline. Woła on funkcje rekurencyjne wiele razy dla wielu punktów kwadratury Gaussa. Przez to jest on bardzo wolny. Nawet dla 4*4=16 elementów działa ona stosunkowo długo, a zwiększenie liczby elementów zwiększa czas działania programu tak, jak funkcja kwadratowa liczby elementów. Dlatego zaproponowaliśmy drugą procedurę \\( bitmap\\_fast(filename,nx,ny,px,py) \\), w której w tablicy umieszczono przeliczone wcześniej wartości funkcji B-spline, w kierunku osi poziomej i pionowej. Zamiast liczyć je na \\( (Ne_x+px)(Ne_y+py) \\) elementach, czytamy ich wartości z tablicy. Operacja ta przyspiesza działanie kodu o 2 rzędy wielkości. Żeby bardziej przyspieszyć kod konieczne jest zastąpienie MATLABowej procedury backslash (\\ stosowanej do rozwiązania wygenerowanego układu równań) solwerem zmienno-kierunkowym."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 2. Dyskretyzacja za pomocą różnych funkcji bazowych", "subject_id": 732, "subject": "Liniowe funkcje bazowe", "paragraphs": ["Zarówno liniowe funkcje bazowe jak i funkcje bazowe wyższego rzędu opisać można w nowoczesny sposób za pomocą konwencji przyjętej w izogeometrycznej metodzie elementów skończonych, odwołującej się do funkcji B-spline oraz notacji tak zwanego wektora węzłów (po angielsku knot-vector). Rozważmy jednowymiarowy obszar \\( [0,N] \\) podzielony na \\( N \\) przedziałów zwanych elementami skończonymi. Przyjmijmy dla uproszczenia naszej prezentacji że mamy pięć takich przedziałów, czyli \\( N=5 \\). Wprowadzamy notacje wektora węzłów, który stanowi sekwencję nie malejących współrzędnych punktów. Z reguły dla uproszczenia przyjmuje się punkty o współrzednych będących liczbami całkowitymi. Na przykład wektor węzłów \\( [0 \\quad 0 \\quad 1 \\quad 2 \\quad 3 \\quad 4 \\quad 5 \\quad 5] \\) definiuje nam liniowe funkcje bazowe na przedziale \\( [0,5] \\) podzielonym na pięć elementów \\( [0,1], [1,2], [2,3], [3,4] i [4,5] \\). W celu zilustrowania funkcji bazowych wynikających z różnych wektorów węzłów polecamy załączony kod MATLABa. Jak interpretować zapis wektora węzłów? W pierwszej kolejności określić musimy stopień i ciągłość funkcji bazowych. Robimy to w sposób następujący. Stopień funkcji bazowych równy jest liczbie powtórzeń pierwszego (lub ostatniego) punktu w wektorze węzłów, minus jeden. Innymi słowy, patrzymy ile razy powtórzony jest pierwszy i ostatni punkt w wektorze węzłów. Jeśli punkt ten powtórzony jest dwa razy (u nas 0 0 oraz 5 5) oznacza to, że stopień funkcji bazowych wynosi jeden (dwa minus jeden), czyli wprowadzamy liniowe funkcje bazowe. Jakie są wzory na liniowe funkcje bazowe określone za pomocą wektora węzłów. Określa to tak zwana reguła Cox-de-Boor'a, której oryginalną formułę przyczatam poniżej [1]: \\( B_{i,0}(\\xi)=1 \\textrm{ jeśli } \\xi_i \\leq \\xi \\leq \\xi_{i+1} \\textrm{ lub 0 w pozostałych przypadkach } \\) \\( B_{i,p}(\\xi)=\\frac{\\xi-\\xi_i}{\\xi_{i+p}-\\xi_i}B_{i,p-1}(\\xi)+\\frac{\\xi_{i+p+1}-\\xi}{\\xi_{i+p+1}-\\xi_{i+1}}B_{i+1,p-1}(\\xi) \\) Jak należy rozumieć tą regułę? Wektor \\( N \\) węzłów koduje nam \\( N+p \\) funkcji B-spline, gdzie \\( p \\) oznacza stopień funkcji B-spline (w naszym przypadku rozważamy liniowe funkcje B-spline, więc \\( p=1 \\)). Funkcje B-spline oznaczane są \\( B_{i,p} \\), gdzie \\( i=1,...N+p \\) oznacza numer (indeks) funkcji B-spline, natomiast \\( p \\) oznacza stopień funkcji B-spline."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 2. Dyskretyzacja za pomocą różnych funkcji bazowych", "subject_id": 690, "subject": "Funkcje bazowe wyższego stopnia rzędu Ck w 1D", "paragraphs": [], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 2. Dyskretyzacja za pomocą różnych funkcji bazowych", "subject_id": 691, "subject": "Wielomiany Lagrange’a", "paragraphs": ["W rozdziale tym wyprowadzimy funkcje bazowe zwane klasycznymi wielomianami Lagrange'a. Wielomiany Lagrange'a pierwszego stopnia są równoważne funkcjom B-spline pierwszego stopnia, mają dokładnie takie same wzory. Wielomiany Lagrange'a drugiego stopnia można wyprowadzić z ogólnego wzoru na B-spline'y stosując wektor węzłów generujący B-spline'y drugiego stopnia, w którym powtórzono wszystkie wewnętrze węzły \\( p \\) razy, czyli \\( [0 \\quad 0 \\quad 0 \\quad 1 \\quad 1 \\quad 2 \\quad 2 \\quad 3 \\quad 3 \\quad 4 \\quad 4 \\quad 5 \\quad 5 \\quad 5] \\) Tak zdefiniowany wektor węzłów wygeneruje nam funkcje bazowe równoważne wielomianom Lagrange'a drugiego stopnia (wielomianom kwadratowym) używanym w tradycyjnej metodzie elementów skończonych. W celu zilustrowania funkcji bazowych wynikających z różnych wektorów węzłów polecamy załączony kod MATLABa. Jak wyglądają takie funkcje bazowe? Musimy wygenerować krok po kroku wszystkie wielomiany zerowego stopnia, oraz wielomiany pierwszego i drugiego stopnia, używając wzoru Cox-de-Boor'a. Zacznijmy od wielomianów zerowego stopnia. Mamy teraz \\( \\xi_1=\\xi_2=\\xi_3=0, \\xi_4=\\xi_5=1, \\xi_6=\\xi_7=2, \\xi_8=\\xi_9=3, \\xi_{10}=\\xi_{11}=4 \\textrm{ oraz } \\xi_{12}=\\xi_{13}=\\xi_{14}=5 \\) \\( B_{1,0}=1\\textrm{ dla }x\\in[\\xi_1,\\xi_2=[0,0]=\\{0\\} \\), 0 w pozostałych punktach, \\( B_{2,0}=1\\textrm{ dla }x\\in[\\xi_2,\\xi_3]=[0,0]=\\{0\\} \\), 0 w pozostałych punktach, \\( B_{3,0}=1\\textrm{ dla }x\\in[\\xi_3,\\xi_4]=[0,1] \\), 0 w pozostałych punktach, \\( B_{4,0}=1\\textrm{ dla }x\\in[\\xi_4,\\xi_5]=[1,1]=\\{1\\} \\), 0 w pozostałych punktach, \\( B_{5,0}=1\\textrm{ dla }x\\in[\\xi_5,\\xi_6]=[1,2] \\), 0 w pozostałych punktach, \\( B_{6,0}=1\\textrm{ dla }x\\in[\\xi_6,\\xi_7]=[2,2]=\\{2\\} \\), 0 w pozostałych punktach, \\( B_{7,0}=1\\textrm{ dla }x\\in[\\xi_7,\\xi_8]=[2,3] \\), 0 w pozostałych punktach, \\( B_{8,0}=1\\textrm{ dla }x\\in[\\xi_8,\\xi_9]=[3,3]=\\{3\\} \\), 0 w pozostałych punktach, \\( B_{9,0}=1\\textrm{ dla }x\\in[\\xi_{10},\\xi_{11}]=[3,4] \\), 0 w pozostałych punktach, \\( B_{10,0}=1\\textrm{ dla }x\\in[\\xi_{11},\\xi_{12}]=[4,4]=\\{4\\} \\), 0 w pozostałych punktach, \\( B_{11,0}=1\\textrm{ dla }x\\in[\\xi_{12},\\xi_{13}]=[4,5] \\), 0 w pozostałych punktach, \\( B_{12,0}=1\\textrm{ dla }x\\in[\\xi_{13},\\xi_{14}]=[5,5]=\\{5\\} \\), 0 w pozostałych punktach, \\( B_{13,0}=1\\textrm{ dla }x\\in[\\xi_{14},\\xi_{15}]=[5,5]=\\{5\\} \\), 0 w pozostałych punktach. Podobnie, musimy wygenerować funkcje bazowe pierwszego stopnia dla nowego wektora węzłów. Przypominamy sobie wzór dla \\( p=1 \\) \\( B_{i,1}(\\xi)=\\frac{\\xi-\\xi_i}{\\xi_{i+1}-\\xi_i}B_{i,0}(\\xi)+\\frac{\\xi_{i+2}-\\xi}{\\xi_{i+2}-\\xi_{i+1}}B_{i+1,0}(\\xi) \\), do którego wstawiamy kolejne węzły: \\( B_{1,1}(\\xi)=\\frac{\\xi-\\xi_1}{\\xi_{2}-\\xi_1}B_{1,0}(\\xi)+\\frac{\\xi_{3}-\\xi}{\\xi_{3}-\\xi_{2}}B_{2,0}(\\xi)={\\color{red}{\\frac{\\xi-0}{0-0}B_{1,0}(\\xi)+\\frac{0-\\xi}{0-0}B_{2,0}(\\xi)}} =0 \\), \\( B_{2,1}(\\xi)=\\frac{\\xi-\\xi_2}{\\xi_{3}-\\xi_2}B_{2,0}(\\xi)+\\frac{\\xi_{4}-\\xi}{\\xi_{4}-\\xi_{3}}B_{3,0}(\\xi)={\\color{red}{\\frac{\\xi-0}{0-0}B_{2,0}(\\xi)}}+\\frac{1-\\xi}{1-0}B_{3,0}(\\xi)=1-\\xi \\textrm{ dla } \\xi\\in[0,1] \\), \\( B_{3,1}(\\xi)=\\frac{\\xi-\\xi_3}{\\xi_{4}-\\xi_3}B_{3,0}(\\xi)+\\frac{\\xi_{5}-\\xi}{\\xi_{5}-\\xi_{4}}B_{4,0}(\\xi) = \\frac{\\xi-0}{1-0}B_{3,0}(\\xi)+{\\color{red}{\\frac{1-\\xi}{1-1}B_{4,0}(\\xi)}} = \\xi \\textrm{ dla } \\xi\\in[0,1] \\), \\( B_{4,1}(\\xi)=\\frac{\\xi-\\xi_4}{\\xi_{5}-\\xi_4}B_{4,0}(\\xi)+\\frac{\\xi_{6}-\\xi}{\\xi_{6}-\\xi_{5}}B_{5,0}(\\xi) = {\\color{red}{\\frac{\\xi-1}{1-1}B_{4,0}(\\xi)}}+\\frac{2-\\xi}{2-1}B_{5,0}(\\xi) =2-\\xi \\textrm{ dla } \\xi\\in[1,2] \\), \\( B_{5,1}(\\xi)=\\frac{\\xi-\\xi_5}{\\xi_{6}-\\xi_5}B_{5,0}(\\xi)+\\frac{\\xi_{7}-\\xi}{\\xi_{7}-\\xi_{6}}B_{6,0}(\\xi) = \\frac{\\xi-1}{2-1}B_{5,0}(\\xi)+{\\color{red}{\\frac{2-\\xi}{2-2}B_{6,0}(\\xi)}} =\\xi-1 \\textrm{ dla } \\xi\\in[1,2] \\), \\( B_{6,1}(\\xi)=\\frac{\\xi-\\xi_6}{\\xi_{7}-\\xi_{6}}B_{6,0}(\\xi)+\\frac{\\xi_{8}-\\xi}{\\xi_{8}-\\xi_{7}}B_{7,0}(\\xi) = {\\color{red}{\\frac{\\xi-2}{2-2}B_{6,0}(\\xi)}}+\\frac{3-\\xi}{3-2}B_{7,0}(\\xi) =3-\\xi \\textrm{ dla } \\xi\\in[2,3] \\), \\( B_{7,1}(\\xi)=\\frac{\\xi-\\xi_7}{\\xi_{8}-\\xi_7}B_{7,0}(\\xi)+\\frac{\\xi_{9}-\\xi}{\\xi_{9}-\\xi_{8}}B_{8,0}(\\xi) = \\frac{\\xi-2}{3-2}B_{7,0}(\\xi)+{\\color{red}{\\frac{3-\\xi}{3-3}B_{9,0}(\\xi)}} =\\xi-2 \\textrm{ dla } \\xi\\in[2,3] \\), \\( B_{8,1}(\\xi)=\\frac{\\xi-\\xi_8}{\\xi_{9}-\\xi_8}B_{8,0}(\\xi)+\\frac{\\xi_{10}-\\xi}{\\xi_{10}-\\xi_{9}}B_{9,0}(\\xi) = {\\color{red}{\\frac{\\xi-3}{3-3}B_{8,0}(\\xi)}}+\\frac{4-\\xi}{4-3}B_{9,0}(\\xi) =4-\\xi \\textrm{ dla } \\xi\\in[3,4] \\), \\( B_{9,1}(\\xi)=\\frac{\\xi-\\xi_9}{\\xi_{10}-\\xi_9}B_{9,0}(\\xi)+\\frac{\\xi_{11}-\\xi}{\\xi_{11}-\\xi_{10}}B_{10,0}(\\xi) = \\frac{\\xi-4}{4-3}B_{9,0}(\\xi)+{\\color{red}{\\frac{4-\\xi}{4-4}B_{10,0}(\\xi)}} = \\xi-3 \\textrm{ dla } \\xi\\in[3,4] \\), \\( B_{10,1}(\\xi)=\\frac{\\xi-\\xi_{10}}{\\xi_{11}-\\xi_{10}}B_{10,0}(\\xi)+\\frac{\\xi_{12}-\\xi}{\\xi_{12}-\\xi_{11}}B_{11,0}(\\xi) ={\\color{red}{\\frac{\\xi-4}{4-4}B_{10,0}(\\xi)}}+\\frac{5-\\xi}{5-4}B_{11,0}(\\xi) 5-\\xi \\textrm{ dla } \\xi\\in[4,5] \\), \\( B_{11,1}(\\xi)=\\frac{\\xi-\\xi_{11}}{\\xi_{12}-\\xi_{11}}B_{11,0}(\\xi)+\\frac{\\xi_{13}-\\xi}{\\xi_{13}-\\xi_{12}}B_{12,0}(\\xi) =\\frac{\\xi-4}{5-4}B_{11,0}(\\xi)+{\\color{red}{\\frac{5-\\xi}{5-5}B_{12,0}(\\xi)}} =\\xi-4 \\textrm{ dla } \\xi\\in[4,5] \\), \\( B_{12,1}(\\xi)=\\frac{\\xi-\\xi_{12}}{\\xi_{13}-\\xi_{12}}B_{12,0}(\\xi)+\\frac{\\xi_{14}-\\xi}{\\xi_{14}-\\xi_{13}}B_{13,0}(\\xi) ={\\color{red}{\\frac{\\xi-5}{5-5}B_{11,0}(\\xi)+\\frac{5-\\xi}{5-5}B_{12,0}(\\xi)}}=0 \\). Możemy teraz wygenerować wszystkie funkcje B-spline drugiego stopnia ponownie używając wzoru dla \\( p=2 \\), przy założeniu że kolejne węzły wsadzane do mianownika muszą być różne, a jeśli nie są różne, wówczas dany człon zamieniamy na zero. Człony które znikają zaznaczamy ponownie na czerwono. W końcowym etapie wyprowadzenia wstawiamy obliczone przed chwilą wzory na \\( B_{1,1}(\\xi)=0 \\), \\( B_{2,1}=1-\\xi \\textrm{ dla } \\xi\\in[0,1] \\), \\( B_{3,1}=\\xi \\textrm{ dla } \\xi\\in[0,1] \\), \\( B_{4,1}=2-\\xi \\textrm{ dla } \\xi\\in[1,2] \\), \\( B_{5,1}=\\xi-1 \\textrm{ dla } \\xi\\in[1,2] \\), \\( B_{6,1}=3-\\xi \\textrm{ dla } \\xi\\in[2,3] \\), \\( B_{7,1}=\\xi-2 \\textrm{ dla } \\xi\\in[2,3] \\), \\( B_{8,1}=4-\\xi \\textrm{ dla } \\xi\\in[3,4] \\), \\( B_{9,1}=\\xi-3 \\textrm{ dla } \\xi\\in[3,4] \\), \\( B_{10,1}=5-\\xi \\textrm{ dla } \\xi\\in[4,5] \\), \\( B_{11,1}=\\xi-4 \\textrm{ dla } \\xi\\in[4,5] \\), \\( B_{12,1}=0 \\). Uzyskujemy \\( B_{1,2}(\\xi)=\\frac{\\xi-\\xi_1}{\\xi_{3}-\\xi_1}B_{1,1}(\\xi)+\\frac{\\xi_{4}-\\xi}{\\xi_{4}-\\xi_{2}}B_{2,1}(\\xi) ={\\color{red}{\\frac{\\xi-0}{0-0}B_{1,1}(\\xi)}}+\\frac{1-\\xi}{1-0}B_{2,1}(\\xi) = (1-\\xi)^2 \\textrm{ dla } \\xi\\in[0,1] \\). \\( B_{2,2}(\\xi)=\\frac{\\xi-\\xi_2}{\\xi_{4}-\\xi_2}B_{2,1}(\\xi)+\\frac{\\xi_{5}-\\xi}{\\xi_{5}-\\xi_{3}}B_{3,1}(\\xi) = \\frac{\\xi-0}{1-0}B_{2,1}(\\xi)+\\frac{1-\\xi}{1-0}B_{3,1}(\\xi) = \\\\ = \\frac{\\xi-0}{1-0}\\left[1-\\xi \\textrm{ dla } \\xi\\in[0,1]\\right]+\\frac{1-\\xi}{1-0}\\left[ \\xi \\textrm{ dla } \\xi\\in[0,1] \\right] = \\xi (1-\\xi) + (1-\\xi)\\xi \\textrm{ dla } \\xi\\in[0,1] =2 \\xi(1-\\xi) \\textrm{ dla } \\xi\\in[0,1] \\). \\( B_{3,2}(\\xi)=\\frac{\\xi-\\xi_3}{\\xi_{5}-\\xi_3}B_{3,1}(\\xi)+\\frac{\\xi_{6}-\\xi}{\\xi_{6}-\\xi_{4}}B_{4,1}(\\xi) =\\frac{\\xi-0}{1-0}B_{3,1}(\\xi)+\\frac{2-\\xi}{2-1}B_{4,1}(\\xi) = \\\\ =\\frac{\\xi-0}{1-0}\\left[\\xi \\textrm{ dla } \\xi\\in[0,1]\\right]+\\frac{1-\\xi}{1-0}\\left[2-\\xi \\textrm{ dla } \\xi\\in[1,2] \\right] = \\xi^2 \\textrm{ dla } \\xi\\in[0,1]+ (1-\\xi)(2-\\xi) \\textrm{ dla } \\xi\\in[1,2] \\). \\( B_{4,2}(\\xi)= \\frac{\\xi-\\xi_4}{\\xi_{6}-\\xi_4}B_{4,1}(\\xi)+\\frac{\\xi_{7}-\\xi}{\\xi_{7}-\\xi_{5}}B_{5,1}(\\xi) = \\frac{\\xi-1}{2-1}B_{4,1}(\\xi)+\\frac{2-\\xi}{2-1}B_{5,1}(\\xi) = \\\\ = \\frac{\\xi-1}{2-1}\\left[ 2-\\xi \\textrm{ dla } \\xi\\in[1,2] \\right]+\\frac{2-\\xi}{2-1}\\left[ \\xi-1 \\textrm{ dla } \\xi\\in[1,2] \\right] = \\\\ = (\\xi-1)(2-\\xi)+(2-\\xi)(\\xi-1) \\textrm{ dla } \\xi\\in[1,2] =2(\\xi-1)(2-\\xi) \\textrm{ dla } \\xi\\in[1,2] \\). \\( B_{5,2}(\\xi)=\\frac{\\xi-\\xi_5}{\\xi_{7}-\\xi_5}B_{5,1}(\\xi)+\\frac{\\xi_{8}-\\xi}{\\xi_{8}-\\xi_{6}}B_{6,1}(\\xi) = \\frac{\\xi-1}{2-1}B_{5,1}(\\xi)+\\frac{3-\\xi}{3-2}B_{6,1}(\\xi) = \\\\ =\\frac{\\xi-1}{2-1}\\left[ \\xi-1 \\textrm{ dla } \\xi\\in[1,2] \\right]+\\frac{3-\\xi}{3-2}\\left[ 3-\\xi \\textrm{ dla } \\xi\\in[2,3] \\right] = (\\xi-1)^2 \\textrm{ dla } \\xi\\in[1,2] + (3-\\xi)^2 \\textrm{ dla } \\xi\\in[2,3] \\). \\( B_{6,2}(\\xi)=\\frac{\\xi-\\xi_6}{\\xi_{8}-\\xi_6}B_{6,1}(\\xi)+\\frac{\\xi_{9}-\\xi}{\\xi_{9}-\\xi_{7}}B_{7,1}(\\xi) =\\frac{\\xi-2}{3-2}B_{6,1}(\\xi)+\\frac{3-\\xi}{3-2}B_{7,1}(\\xi) = \\\\ =\\frac{\\xi-2}{3-2}\\left[ 3-\\xi \\textrm{ dla } \\xi\\in[2,3] \\right]+\\frac{3-\\xi}{3-2}\\left[ \\xi-2 \\textrm{ dla } \\xi\\in[2,3] \\right] = \\\\ = (\\xi-2)(3-\\xi)+(3-\\xi)(\\xi-2) \\textrm{ dla } \\xi\\in[2,3] =2(\\xi-2)(3-\\xi) \\textrm{ dla } \\xi\\in[2,3] \\). \\( B_{7,2}(\\xi)=\\frac{\\xi-\\xi_7}{\\xi_{9}-\\xi_7}B_{7,1}(\\xi)+\\frac{\\xi_{10}-\\xi}{\\xi_{10}-\\xi_{8}}B_{8,1}(\\xi) = \\frac{\\xi-2}{3-2}B_{7,1}(\\xi)+\\frac{4-\\xi}{4-3}B_{8,1}(\\xi) = \\\\ =\\frac{\\xi-2}{3-2}\\left[ \\xi-2 \\textrm{ dla } \\xi\\in[2,3] \\right]+\\frac{4-\\xi}{4-3}\\left[ 4-\\xi \\textrm{ dla } \\xi\\in[3,4] \\right] = (\\xi-2)^2 \\textrm{ dla } \\xi\\in[2,3] +(4-\\xi)^2 \\textrm{ dla } \\xi\\in[3,4] \\). \\( B_{8,2}(\\xi)=\\frac{\\xi-\\xi_8}{\\xi_{10}-\\xi_8}B_{8,1}(\\xi)+\\frac{\\xi_{11}-\\xi}{\\xi_{11}-\\xi_{9}}B_{9,1}(\\xi) =\\frac{\\xi-3}{4-3}B_{8,1}(\\xi)+\\frac{4-\\xi}{4-3}B_{9,1}(\\xi) = \\\\ =\\frac{\\xi-3}{4-3}\\left[ 4-\\xi \\textrm{ dla } \\xi\\in[3,4] \\right]+ \\frac{4-\\xi}{4-3}\\left[ \\xi-3 \\textrm{ dla } \\xi\\in[3,4] \\right] = \\\\ = (\\xi-3)(4-\\xi)+(4-\\xi)(\\xi-3) \\textrm{ dla } \\xi\\in[3,4] =2(\\xi-3)(4-\\xi) \\textrm{ dla } \\xi\\in[3,4] \\). \\( B_{9,2}(\\xi)=\\frac{\\xi-\\xi_9}{\\xi_{11}-\\xi_9}B_{9,1}(\\xi)+\\frac{\\xi_{12}-\\xi}{\\xi_{12}-\\xi_{10}}B_{10,1}(\\xi) = \\frac{\\xi-3}{4-3}B_{9,1}(\\xi)+\\frac{6-\\xi}{5-4}B_{9,1}(\\xi) = \\\\ =\\frac{\\xi-3}{4-3}\\left[ \\xi-3 \\textrm{ dla } \\xi\\in[3,4] \\right]+\\frac{5-\\xi}{5-4}\\left[ 5-\\xi \\textrm{ dla } \\xi\\in[4,5] \\right] = (\\xi-3)^2 \\textrm{ dla } \\xi\\in[3,4] +(5-\\xi)^2 \\textrm{ dla } \\xi\\in[4,5] \\). \\( B_{10,2}(\\xi)=\\frac{\\xi-\\xi_{10}}{\\xi_{12}-\\xi_{10}}B_{10,1}(\\xi)+\\frac{\\xi_{13}-\\xi}{\\xi_{13}-\\xi_{11}}B_{11,1}(\\xi) = \\frac{\\xi-4}{5-4}B_{10,1}(\\xi)+\\frac{5-\\xi}{5-4}B_{11,1}(\\xi) = \\\\ = \\frac{\\xi-4}{5-4}\\left[ 5-\\xi \\textrm{ dla } \\xi\\in[4,5] \\right]+ \\frac{5-\\xi}{5-4}\\left[ \\xi-4 \\textrm{ dla } \\xi\\in[4,5] \\right] = \\\\ = (\\xi-4)(5-\\xi)+(5-\\xi)(\\xi-4) \\textrm{ dla } \\xi\\in[4,5] =2(\\xi-4)(5-\\xi) \\textrm{ dla } \\xi\\in[4,5] \\). \\( B_{11,2}(\\xi)=\\frac{\\xi-\\xi_{11}}{\\xi_{12}-\\xi_{11}}B_{11,1}(\\xi)+\\frac{\\xi_{14}-\\xi}{\\xi_{14}-\\xi_{12}}B_{12,1}(\\xi) = \\frac{\\xi-4}{5-4}B_{11,1}(\\xi)+{\\color{red}{\\frac{8-\\xi}{5-5}B_{11,1}(\\xi)}} = \\\\ = \\frac{\\xi-4}{5-4}\\left[ \\xi-4 \\textrm{ dla } \\xi\\in[4,5] \\right]= (\\xi-4)^2 \\textrm{ dla } \\xi\\in[4,5] \\). Wyprowadziliśmy właśnie funkcje bazowe rozpięte na wektorze węzłów z powtórzonymi węzłami pomiędzy każdym elementem. Można udowodnić matematycznie że wyprowadzone tutaj funkcje \\( B_{1,2},...,B_{11,2} \\) stanowią bazę równoważną bazie tak zwanych wielomianów Lagrange'a. Można więc używać notacji wektora węzłów żeby wyprowadzać funkcje bazowe B-spline używane w izogeometrycznej metodzie elementów skończonych, lub w celu wyprowadzenia bazy równoważnej bazie Lagrange'a używanej w klasycznej metodzie elementów skończonych."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 2. Dyskretyzacja za pomocą różnych funkcji bazowych", "subject_id": 692, "subject": "Ulepszona analiza izogeometryczna w 1D", "paragraphs": ["W rozdziale tym przyjrzymy się jakie macierze generują opisane powyżej funkcje bazowe B-spline, i oszacujemy koszt faktoryzacji wynikającego z nich układu równań. W ten sposób możemy wskazać funkcje bazowe, które dają szybsze obliczenia za pomocą izogeometrycznej metody elementów skończonych. Ustalmy dla uproszczenia że rozwiązujemy problem projekcji jednowymiarowej. Szczegóły na temat obliczeń dwuwymiarowej projekcji zostały opisane w rozdziale pierwszym. Mamy wówczas następujące macierze zwane macierzami masowymi. Załóżmy, że chcemy rozwiązać jednowymiarowy problem projekcji. \\( u(x) \\approx BITMAP(x) \\) Szczegóły na temat obliczeń dwuwymiarowej projekcji zostały opisane w rozdziale pierwszym. Tutaj, dla uproszczenia załóżmy, że rozwiązujemy jednowymiarowy problem projekcji, nasza bitmapa (którą aproksymujemy w rozdziale pierwszym) jest teraz jednowymiarową płaską bitmapą. Nasza jednowymiarowa bitmapa jest aproksymowana przez kombinację liniową funkcji B-spline \\( u = \\sum_{i=1,...,N_x} u_{i} B^x_{i;p }(x) \\) Załóżmy, że mamy 16 elementów skończonych (16 przedziałów). Oczywiście nie oznacza to że \\( N_x=16 \\), ponieważ \\( N_x \\) to liczba funkcji bazowych. To, ile będzie funkcji bazowych, zależy od tego jak wyglądać będzie nasz wektor węzłów, innymi słowy od tego jakiego stopnia będą nasze funkcje bazowe, oraz czy i w których miejscach powtórzymy węzły pomiędzy elementami. W celu wygenerowania układu równań z naszą macierzą do problemu projekcji, przemnażamy nasze równanie przez poszczególne B-spliny, które służą do uśredniania naszej relacji \\( u(x)=BITMAP(x) \\) zgodnie z rozkładem opisanym przez B-spline'y, i całkujemy żeby policzyć średnią \\( \\int{\\color{red}{u(x)}}B^x_{1;p}(x)dx=\\int BITMAP(x)B^x_{1;p }(x)dx \\\\ \\int{\\color{red}{u(x)}}B^x_{2;p}(x)dx=\\int BITMAP(x)B^x_{2;p}(x)dx \\\\ \\vdots \\\\ \\int{\\color{red}{u(x)}}B^x_{N_x-1;p}(x)dx=\\int BITMAP(x)B^x_{N_x-1;p}(x)dx \\\\\\int{\\color{red}{u(x)}}B^x_{N_x;p}(x)dx=\\int BITMAP(x)B^x_{N_x;p }(x)dx \\) Wstawiamy naszą aproksymację w miejsce \\( {\\color{red}{u(x)}}=\\sum_{i=1,...,N_x} u_{i} B^x_{i;p }(x) \\) i dostajemy układ równań: \\( \\int{\\color{red}{\\sum_{i=1,...,N_x} u_{i} B^x_{i;p}(x)} }B^x_{1;p}(x)dx=\\int BITMAP(x)B^x_{1;p}(x) dx \\\\ \\int{\\color{red}{\\sum_{i=1,...,N_x} u_{i} B^x_{i;p}(x)} }B^x_{2;p}(x)dx=\\int BITMAP(x)B^x_{2;p}(x) dx \\\\ \\vdots \\\\ \\int{\\color{red}{\\sum_{i=1,...,N_x} u_{i} B^x_{i;p}(x)} }B^x_{N_x-1;p}(x)dx=\\int BITMAP(x)B^x_{N_x-1;p}(x) dx \\\\ \\int{\\color{red}{\\sum_{i=1,...,N_x} u_{i} B^x_{i;p}(x)} }B^x_{N_x;p}(x)dx=\\int BITMAP(x)B^x_{N_x;p}(x) dx \\) Wyciągamy sumę przed całkę \\( \\sum_{i=1,...,N_x}\\int{\\color{red}{ u_{i} B^x_{i;p}(x)} }B^x_{1;p}(x)dx=\\int BITMAP(x)B^x_{1;p}(x) dx \\\\ \\sum_{i=1,...,N_x} \\int{\\color{red}{u_{i} B^x_{i;p}(x)} }B^x_{2;p}(x)dx=\\int BITMAP(x)B^x_{2;p}(x) dx \\\\ \\vdots \\\\ \\sum_{i=1,...,N_x} \\int{\\color{red}{u_{i} B^x_{i;p}(x)} }B^x_{N_x-1;p}(x)dx=\\int BITMAP(x)B^x_{N_x-1;p}(x) dx \\\\ \\sum_{i=1,...,N_x} \\int{\\color{red}{ u_{i} B^x_{i;p}(x) } }B^x_{N_x;p}(x)dx=\\int BITMAP(x)B^x_{N_x;p}(x) dx \\) Możemy zapisać nasz układ równań w następującej postaci \\( \\begin{bmatrix}\\int B^x_{1;p}(x)B^x_{1;p}(x)dx & \\int B^x_{1;p}(x)B^x_{2;p}(x)dx & \\cdots & \\int B^x_{1;p}(x)B^x_{N_x;p}(x)dx \\\\ \\int B^x_{2;p}(x)B^x_{2;p}(x)dx & \\int B^x_{2;p}(x)B^x_{2;p}(x)dx & \\cdots & \\int B^x_{2;p}(x)B^x_{N_x;p}(x)dx \\\\ \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\int B^x_{N_x-1;p}(x)B^x_{1;p}(x)dx & \\int B^x_{N_x-1;p}(x)B^x_{2;p}(x)dx & \\cdots & \\int B^x_{N_x-1;p}(x)B^x_{N_x;p}(x)dx \\\\ \\int B^x_{N_x;p}(x)B^x_{N_x;p}(x)dx & \\int B^x_{N_x;p}(x)B^x_{2;p}(x)dx & \\cdots & \\int B^x_{N_x;p}(x)B^x_{N_x;p}(x)dx \\\\ \\end{bmatrix} \\begin{bmatrix} u_{1} \\\\ u_{2} \\\\ \\vdots \\\\ u_{N_x-1}\\\\ u_{N_x}\\\\ \\end{bmatrix} = \\) \\( \\begin{bmatrix} \\int BITMAP(x)B^x_1(x)dx \\\\ \\int BITMAP(x)B^x_2(x)dx \\\\ \\vdots \\\\ \\int BITMAP(x)B^x_{N_x}-1(x)dx \\\\ \\int BITMAP(x)B^x_{N_x}(x)dx \\\\ \\end{bmatrix} \\)", "Zauważmy, że układ równań jest rzadki ponieważ całki z iloczynów jednowymiarowych funkcji B-spline są niezerowe jedynie wtedy gdy funkcje bazowe występujące w całce nachodzą na siebie.", "Dlaczego tak jest?", "Całka to suma próbek wartości funkcji, które całkujemy. Nasza próbka to iloczyn dwóch funkcji \\( i \\)-tej oraz \\( j \\)-tej, \\( B^x_{i;p}(x)B^x_{j;p}(x) \\). Jeśli więc dla danego punktu w którym próbkujemy jedna z funkcji, na przykład \\( i \\) -ta jest równa zero, mamy więc \\( 0*B^x_{j;p}(x)=0 \\). Podobnie jeśli druga funkcja \\( j \\)-ta jest równa zero w miejscu próbkowania, mamy wówczas \\( B^x_{i;p}(x)*0=0 \\).", "Załóżmy teraz, że na naszych szesnastu elementach rozpinamy wektor węzłów [0 0 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 16 16 16]. Uzyskujemy w ten sposób funkcje B-spline trzeciego stopnia, stosowane w izogeometrycznej metodzie elementów skończonych. Są one przedstawione na Rys. 2. Rysunek ten ilustruje również fakt, iż kolejne wiersze i kolumny w macierzy związane są z kolejnymi funkcjami B-spline, określonymi w wektorze węzłów. Zauważmy, że każda jednowymiarowa funkcja B-spline stopnia \\( p \\) nachodzi na \\( 2p+1 \\) innych jednowymiarowych funkcji B-spline. Na przykład B-spline'y stopnia trzeciego \\( p=3 \\) nachodzą na \\( 2*3+1=7 \\) sąsiednich B-spline'ów. Niezerowe wartości w macierzy występują w tych wierszach i kolumnach, dla których odpowiadające im funkcje bazowe \"nachodzą\" na siebie (mają nie zerowe przecięcie dziedzin). Nasz układ równań jest więc rzadki, oraz zawiera on siedem przekątnych. W szczególności dla naszego przypadku szesnastu elementów skończonych mamy \\( N=16+3=19 \\) funkcji bazowych B-spline trzeciego stopnia (w ogólności jest ich \\( N_e+p \\)). Nasza macierz ma więc rozmiar \\( 19 \\times 19 \\) i zawiera 7 gęstych przekątnych. Jest to zilustrowane na Rys. 2.", "Oszacujmy teraz koszt faktoryzacji macierzy dla bazy B-spline'ów trzeciego stopnia używanych w izogeometrycznej metodzie elementów skończonych, przedstawionej na Rys. 2. Uruchamiamy algorytm eliminacji Gaussa, który omija wszystkie zera w macierzy. Jest on opisany w rozdziale czwartym. Koszt ten równy jest kosztowi faktoryzacji pojedynczego wiersza na podmacierzy o rozmiarze \\( 4\\times 4 \\) przemnożony przez wiele wierszy macierzy, czyli 4 (koszt skalowania wiersza o czterech kolumnach) plus 3*3*2 (koszt odejmowania pierwszego wiersza od pozostałych, wraz z mnożeniem przez wartość z przekątnej). Operację tę powtarzamy dla 16 bloków macierzy (odpowiadających 16 elementom), a dla ostatniego bloku dokańczamy faktoryzację co ma koszt 2*2*2 (koszt odejmowania drugiego wiersza od pozostałych, wraz z mnożeniem przez wartość z przekątnej) + 2*1 (koszt odejmowania trzeciego wiersza od czwartego, wraz z mnożeniem przez wartość z przekątnej) + 1 (skalowanie ostatniego wiersza).Koszt całkowity to 4*16+3*3*2*16+2*2*2+2*1+1=64+18*16+8+2+1=363.", "Rozważmy teraz przypadek, w którym powtarzamy węzły pomiędzy poszczególnymi elementami skończonymi. W ogólności jeśli chcemy uzyskać funkcje bazowe równoważne wielomianom Lagrange'a używanym w klasycznej metodzie elementów skończonych, musimy powtórzyć węzły \\( p-1 \\) razy, gdzie \\( p \\) to stopień bazy B-spline'ów. Jeśli więc stosujemy B-spliny trzeciego stopnia, musimy powtórzyć węzły 2 razy: [0 0 0 0 1 1 1 2 2 2 3 3 3 4 4 4 5 5 5 6 6 6 7 7 7 8 8 8 9 9 9 10 10 10 11 11 11 12 12 12 13 13 13 14 14 14 15 15 15 16 16 16 16]", "Jak wygląda macierz naszego układu równań? Każda funkcja bazowa trzeciego stopnia rozpościera się na czterech przedziałach (używa pięciu węzłów, począwszy od 0 0 0 0 1 do 15 16 16 16 16. Ile mamy takich podprzedziałów w naszym wektorze węzłów? Jest ich 16*3+1=49. Nasza macierz ma więc wymiar \\( 49 \\times 49 \\), i jest przedstawiona na Rys. 3. Różnica macierzy właśnie uzyskanej dla bazy równoważnej wielomianom Lagrange'a w stosunku do macierzy uzyskanej wcześniej dla funkcji B-spline jest następująca. Macierz dla funkcji B-spline jest mniejsza, ale posiada gęstsze przekątne. Macierz uzyskana dla bazy równoważnej bazie Lagrange'a jest większa, ale za to posiada rzadsze przekątne.", "Oszacujmy teraz koszt faktoryzacji macierzy dla bazy równoważnej bazie Lagrange'a używanej w standardowej metodzie elementów skończonych, przedstawionej na Rys. 3. Koszt ten równy jest kosztowi faktoryzacji pojedynczej podmacierzy o rozmiarze \\( 49 \\times 49 \\) przez pełny algorytm eliminacji Gaussa, czyli 4+3+2 (koszt skalowania pierwszego, drugiego, trzeciego i czwartego wiersza od przekątnej do końca wiersza) plus 3*3*2 (koszt odejmowania pierwszego wiersza od pozostałych, wraz z mnożeniem przez wartość z przekątnej) plus 2*2*2 (koszt odejmowania drugiego wiersza od pozostałych, wraz z mnożeniem przez wartość z przekątnej) + 1*2 (koszt odejmowania trzeciego wiersza od czwartego, wraz z mnożeniem przez wartość z przekątnej). Koszt całkowity dla jednego bloku to 4+3+2+3*3*2+2*2*2+2*1=9+18+8+2=36. Mamy 16 elementów, więc koszt całkowity to 36*16=576.", "Zobaczmy teraz co stanie się jeśli pomieszamy wielomiany Lagrange'a z funkcjami B-spline. Wprowadźmy wektor węzłów [0 0 0 0 1 2 3 4 4 4 5 6 7 8 8 8 9 10 11 12 12 12 13 14 15 16 16 16 16], w którym powtórzyliśmy węzły na grupach co cztery elementy. Uzyskamy wtedy funkcje bazowe i macierz przedstawioną na Rys. 4. W tym przypadku mamy 25 funkcji bazowych. Nasza macierz ma więc rozmiar \\( 25\\times 25 \\), i posiada gęste bloki na przekątnych o rozmiarze 7 na 7. Bloki te poprzedzielane są separatorami. Jaki jest koszt faktoryzacji w tym przypadku? Koszt ten równy jest kosztowi faktoryzacji pojedynczego wiersza na podmacierzy o rozmiarze \\( 4\\times 4 \\) przemnożony przez wiersze macierzy w pojedynczym bloku, czyli 4 (koszt skalowania wiersza o czterech kolumnach) plus 3*3*2 (koszt odejmowania pierwszego wiersza od pozostałych, wraz z mnożeniem przez wartość z przekątnej). Operacje tą powtarzamy dla 4 podmacierzy w bloku (odpowiadających 4 elementom), i całość powtarzamy 4 razy (ponieważ mamy 4 bloki w macierzy). Całkowity koszt wynosi więc (4+3*3*2*4)*4=76*4=304.", "Podsumujmy. Klasyczna metoda elementów skończonych dla 16. elementów i bazy równoważnej bazie Lagrange'a trzeciego stopnia wymaga 576 operacji zmienno-przecinkowych żeby sfaktoryzować macierz (mnożeń i dodawań / odejmowań). Izogeometryczna metoda elementów skończonych dla 16 elementów bazy równoważnej bazie B-spline'ów trzeciego stopnia wymaga 363 operacji zmienno-przecinkowych. Hybryda wymaga 304 operacji zmienno-przecinkowych.", "Widzimy więc że nawet w prostym jednowymiarowym przykładzie hybryda pomiędzy bazą funkcji B-spline oraz bazą równoważną bazie Lagrange'a wygrywa w sensie kosztu obliczeniowego z czystą bazą B-spline'ów oraz z czystą bazą równoważną bazie Lagrange'a. Różnica ta będzie dużo większa (do dwóch rzędów wielkości) dla problemów dwuwymiarowych oraz trójwymiarowych.", "Obliczenia za pomocą metody elementów skończonych, w których używa się baz mieszanych, w których stosuje się powtarzanie węzłów w wektorze węzłów nazywane są ulepszoną analizą izogeometryczną (ang. refined isogeometric analysis) [1] Zauważmy również, iż wsadzając \\( C^0 \\) separatory (redukując ciągłość na granicach elementów) niejako zwiększamy moc aproksymacyjną używanej bazy funkcji. Tak więc dodawanie nowych funkcji i redukowanie ciągłości zwiększa dokładność aproksymacji."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 2. Dyskretyzacja za pomocą różnych funkcji bazowych", "subject_id": 693, "subject": "Uogólnienie funkcji bazowych poprzez iloczyn tensorowy na 2D", "paragraphs": ["W poprzednich rozdziałach zdefiniowaliśmy funkcje bazowe na przedziale jednowymiarowym. Pokażemy teraz w jaki sposób definicje tą można uogólnić na problemy dwuwymiarowe. Rozważmy najpierw siatkę prostokątną, na której rozpinamy \\( N_x \\times N_y=16 \\times 16 \\) elementów, której jeden brzeg jest równoległy do osi \\( x \\), a drugi brzeg jest równoległy do osi \\( y \\). Mamy więc \\( N_x=16 \\) elementów wzdłuż osi \\( x \\) i \\( N_y=16 \\) elementów wzdłuż osi \\( y \\).", "Rozważmy problem aproksymacji bitmapy opisany szczegółowo w rozdziale pierwszym. Definiujemy następnie wektor węzłów wzdłuż osi \\( x \\) [0 0 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 16 16 16] oraz wektor węzłów wzdłuż osi \\( y \\) [0 0 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 16 16 16]. Wektory te definiują funkcje bazowe B-spline trzeciego stopnia o ciągłości dwa, co oznacza, że jeśli policzymy projekcje bitmapy przy użyciu takich funkcji B-spline, nasza aproksymacja będzie bardzo smukła, i możemy policzyć pierwszą i drugą pochodną w każdym punkcje bitmapy. To tak jakbyśmy zrobili bardzo smukły plastikowy odlew naszej bitmapy.", "Nasz wektor węzłów wzdłuż osi \\( x \\) definiuje następujące funkcje bazowe \\( B^x_{1;3}(x),...,B^x_{19;3}(x) \\), których wzór może zostać wyprowadzony zgodnie ze wzorem Cox-de Boora, ale wyprowadzając B-spline trzeciego stopnia, które rozpościerają się na czterech kolejnych przedziałach. W szczególności będzie ich \\( N_x+p=N_x+3=16+3=19 \\). Podobnie wyprowadzamy funkcje B-spline dla wektora węzłów wzdłuż osi \\( y \\), i dostajemy 19 B-spline'ów trzeciego stopnia \\( B^y_{1;3}(x),...,B^y_{19;3}(x) \\) zgodnie z formułą . Następnie nasze dwuwymiarowe funkcje bazowe uzyskujemy przemnażając przez siebie wybraną jedną funkcję bazową z pierwszego zbioru, rozpiętego wzdłuż osi \\( x \\), oraz jedną funkcję bazową z drugiego zbioru, rozpiętego wzdłuż osi \\( y \\). Możemy je uporządkować wierszami (równoległymi do osi \\( x \\)). \\( B^x_{1;3}B^y_{1,3}, B^x_{2;3}B^y_{1,3}, ..., B^x_{N_x-1;3}B^y_{1,3}, B^x_{N_x;3}B^y_{1,3} \\), \\( B^x_{1;3}B^y_{2,3}, B^x_{2;3}B^y_{2,3}, ..., B^x_{N_x-1;3}B^y_{2,3}, B^x_{N_x;3}B^y_{2,3} \\), \\( \\cdots \\), \\( B^x_{1;3}B^y_{N_y-1,3}, B^x_{2;3}B^y_{N_y-1,3}, ..., B^x_{N_x-1;3}B^y_{N_y-1,3}, B^x_{N_x;3}B^y_{N_y-1,3} \\), \\( B^x_{1;3}B^y_{N_y,3}, B^x_{2;3}B^y_{N_y,3}, ..., B^x_{N_x;3}B^y_{N_y,3}, B^x_{N_x;3}B^y_{N_y,3} \\). W ten sposób uzyskujemy bazę dwuwymiarowych funkcji bazowych \\( \\{B_{i,j;3}(x,y)\\}_{i=1,...,N_x,j=1,...,N_y}=\\{B^x_{i;3}(x)B^y_{j;3}\\}_{i=1,...,N_x,j=1,...,N_y}=\\{B^x_{i;3}(x)B^y_{j;3}\\}_{i=1,...,19,j=1,...,19 } \\) rozpiętych na prostokątnej siatce obliczeniowej zbudowanej z 16*16=256 elementów. Są one przedstawione na Rys. 1.", "Możemy rozpiąć na nich aproksymację bitmapy \\( u(x,y) = \\sum_{i=1,j=1}^{16,16} u_{i,j} B^x_{i}(x) B^y_{j}(y) \\) obliczając współczynniki \\( u_{i,j} \\) w sposób opisany w rozdziale pierwszym. W szczególności będziemy musieli wygenerować całki z iloczynów par funkcji B-spline \\( \\int_{\\Omega} {\\color{red}{B^x_{i}(x) B^y_{j}(y)}} {\\color{blue}{B^x_{k}(x)B^y_{l}(y)}} dx dy \\) dla \\( i=1,..,19, j=1,...,19 \\). W przypadku funkcji bazowych rozpiętych na płaskiej siatce, całki te możemy rozbić na iloczyn dwóch całek z par B-spline'ów w poszczególnych kierunkach. \\( \\int_{\\Omega_x} {\\color{red}{B^x_{i}(x)B^y_{j}(y)}} {\\color{blue}{B^x_{k}(x)B^y_{l}(y)}} dx dy =\\int_{\\Omega_y} {\\color{red}{B^x_{i}(x)}} {\\color{blue}{B^x_{k}(x)}} dx {\\color{red}{ B^y_{j}(y)}} {\\color{blue}{B^y_{l}(y)}} dy \\) gdzie \\( \\Omega \\) to nasza siatka prostokątna, \\( \\Omega_x \\) to brzeg siatki prostokątnej wzdłuż osi \\( x \\), \\( \\Omega_y \\) to brzeg siatki prostokątnej wzdłuż osi \\( y \\).", "Zajmijmy się teraz ciekawym przypadkiem, w którym nasza siatka obliczeniowa nie jest regularnym prostokątem, tylko rozpięta jest na przykład na rozmaitości, tak jak pokazano na Rys. 2.", "W przypadku tym mamy funkcje B-spline liniowe (pierwszego stopnia) w kierunku osi \\( x \\) oraz funkcje B-spline drugiego stopnia w kierunku osi \\( y \\). Ilustracją może być tutaj wykres przedstawiony na Rys. 2 to \\( y(y-1)(1-x) \\). Wówczas definiujemy nasze wektory węzłów w taki sam sposób, definiujemy jednowymiarowe funkcje bazowe w taki sam sposób, i następnie musimy określić transformacje z siatki prostokątnej na siatkę rozpiętą na brzegu rozmaitości. Wówczas całki, które musimy wygenerować muszą zostać policzone po brzegu rozmaitości \\( \\Omega_S \\) i musimy inaczej nazwać nasze osie \\( \\hat{x} \\) i \\( \\hat{y} \\) rozpięte na brzegu rozmaitości. \\( \\int_{\\Omega_S} {\\color{red}B^{\\hat{x}}_{i;3}(\\hat{x}) B^{\\hat{y}}_{j;3}(\\hat{y})} {\\color{blue}B^{\\hat{x}}_{k;3}(\\hat{x})B^{\\hat{y}}_{l;3}(\\hat{y})} d\\hat{x} d\\hat{y} \\) i musimy zmienić zmienne w całkach z prostokąta rozpiętego na brzegu rozmaitości na prostokącie \\( \\int_{\\Omega_S} {\\color{red}{B^x_{i}(\\hat{x}) B^y_{j}(\\hat{y})}} {\\color{blue}{B^x_{k}(\\hat{x})B^y_{l}(\\hat{y})}} d\\hat{x} d\\hat{y} = \\int_{\\Omega} {\\color{red}{B^x_{i}(x) B^y_{j}(y)}} {\\color{blue}{B^x_{k}(x)B^y_{l}(y)}} |Jac Map(x,y)|dx dy \\) i tutaj pojawia się jakobian odwzorowania \\( Map(x,y) \\), które przerzuca płaski prostokąt na prostokąt rozpięty na brzegu rozmaitości. Zauważmy, że żeby zastosować algorytm szybkiego solwera zmienno-kierunkowego, jakobian tej mapy musi zostać rozdzielony na iloczyn jakobianów będących funkcją \\( x \\) i funkcją \\( y \\), czyli \\( Jac Map(x,y)=Jac Map^x(x)Jac Map^y(y) \\). W przeciwnym wypadku nie rozdzielimy całek \\( \\int_{\\Omega_S} {\\color{red}B^x_{i}(\\hat{x}) B^y_{j}(\\hat{y})} {\\color{blue}B^x_{k}(\\hat{x})B^y_{l}(\\hat{y})} d\\hat{x} d\\hat{y} = \\int_{\\Omega} {\\color{red}B^x_{i}(x) B^y_{j}(y)} {\\color{blue}B^x_{k}(x)B^y_{l}(y)} |Jac Map(x,y)|dx dy =\\\\= \\int_{\\Omega} {\\color{red}B^x_{i}(x) } {\\color{blue}B^x_{k}(x)}|Jac Map^x(x)|dx \\int_{\\Omega} {\\color{red}B^y_{j}(y)} {\\color{blue}B^y_{l}(y)} |Jac Map^y(y)| dy \\). Nie jest to zawsze możliwe, i wówczas zamiast solwera zmienno-kierunkowego należy stosować solwer wielo-frontalny lub iteracyjny."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 2. Dyskretyzacja za pomocą różnych funkcji bazowych", "subject_id": 694, "subject": "Uogólnienie funkcji bazowych poprzez iloczyn tensorowy na 3D", "paragraphs": ["Pokażemy teraz w jaki sposób definicje funkcji bazowych można uogólnić na problemy trójwymiarowe. Rozważmy najpierw siatkę prostopadłościenną, na której rozpinamy \\( N_x \\times N_y \\times N_z=16 \\times 16 \\times 16 \\) elementów, której jeden brzeg jest równoległy do osi \\( x \\), drugi brzeg jest równoległy do osi \\( y \\), a trzeci brzeg jest równoległy do osi \\( z \\). Mamy więc \\( N_x=16 \\) elementów wzdłuż osi \\( x \\) i \\( N_y=16 \\) elementów wzdłuż osi \\( y \\) oraz \\( N_z=16 \\) elementów wzdłuż osi \\( z \\). Rozważmy ponownie problem aproksymacji bitmapy opisany szczegółowo w rozdziale pierwszym. Tym razem jednak musimy skupić się na trójwymiarowej bitmapie. Bitmapy takie są generowane na przykład podczas tomografii komputerowych głowy .", "Definiujemy następnie wektor węzłów wzdłuż osi \\( x \\) [0 0 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 16 16 16] oraz identyczny wektor węzłów wzdłuż osi \\( y \\) [0 0 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 16 16 16] i wzdłuż osi \\( z \\) [0 0 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 16 16 16]. Wektory te definiują funkcje bazowe B-spline trzeciego stopnia o ciągłości dwa. Nasze wektory węzłów definiują następujące funkcje bazowe \\( B^x_{1;3}(x),...,B^x_{19;3}(x)\\textrm{ wzdłuż osi }x \\), \\( B^y_{1;3}(y),...,B^y_{19;3}(y)\\textrm{ wzdłuż osi }y \\), oraz \\( B^z_{1;3}(z),...,B^z_{19;3}(z)\\textrm{ wzdłuż osi }z \\), Wzory tych jednowymiarowych funkcji B-spline mogą zostać wyprowadzone zgodnie z formułą Cox-de Boor'a. Jest ich 19 w każdym kierunku, ponieważ \\( N_x+p=N_y+p=N_z+p=16+3=19 \\). Następnie nasze trójwymiarowe funkcje bazowe uzyskujemy przemnażając przez siebie wybraną jedną funkcję bazową z pierwszego zbioru, rozpiętego wzdłuż osi \\( x \\), jedną funkcję bazową z drugiego zbioru, rozpiętego wzdłuż osi \\( y \\), oraz jedną funkcję bazową z drugiego zbioru, rozpiętego wzdłuż osi \\( z \\). Możemy je uporządkować poziomami (równolegle do płaszczyzny \\( OXY \\)) i wierszami (równoległymi do osi \\( x \\)). \\( B^x_{1;3}B^y_{1,3}B^z_{1,3}, B^x_{2;3}B^y_{1,3}B^z_{1,3}, ..., B^x_{N_x-1;3}B^y_{1,3}B^z_{1,3}, B^x_{N_x;3}B^y_{1,3}B^z_{1,3} \\), \\( B^x_{1;3}B^y_{2,3}B^z_{1,3}, B^x_{2;3}B^y_{2,3}B^z_{1,3}, ..., B^x_{N_x-1;3}B^y_{2,3}B^z_{1,3}, B^x_{N_x;3}B^y_{2,3}B^z_{1,3} \\), \\( \\cdots \\), \\( B^x_{1;3}B^y_{N_y-1,3}B^z_{1,3}, B^x_{2;3}B^y_{N_y-1,3}B^z_{1,3}, ..., B^x_{N_x-1;3}B^y_{N_y-1,3}B^z_{1,3}, B^x_{N_x;3}B^y_{N_y-1,3}B^z_{1,3} \\), \\( B^x_{1;3}B^y_{N_y,3}B^z_{1,3}, B^x_{2;3}B^y_{N_y,3}B^z_{1,3}, ..., B^x_{N_x;3}B^y_{N_y,3}B^z_{1,3}, B^x_{N_x;3}B^y_{N_y,3}B^z_{1,3} \\), \\( \\cdots \\), \\( B^x_{1;3}B^y_{1,3}B^z_{2,3}, B^x_{2;3}B^y_{1,3}B^z_{2,3}, ..., B^x_{N_x-1;3}B^y_{1,3}B^z_{2,3}, B^x_{N_x;3}B^y_{1,3}B^z_{2,3} \\), \\( B^x_{1;3}B^y_{2,3}B^z_{2,3}, B^x_{2;3}B^y_{2,3}B^z_{2,3}, ..., B^x_{N_x-1;3}B^y_{2,3}B^z_{2,3}, B^x_{N_x;3}B^y_{2,3}B^z_{2,3} \\), \\( \\cdots \\), \\( B^x_{1;3}B^y_{N_y-1,3}B^z_{2,3}, B^x_{2;3}B^y_{N_y-1,3}B^z_{2,3}, ..., B^x_{N_x-1;3}B^y_{N_y-1,3}B^z_{2,3}, B^x_{N_x;3}B^y_{N_y-1,3}B^z_{2,3} \\), \\( B^x_{1;3}B^y_{N_y,3}B^z_{2,3}, B^x_{2;3}B^y_{N_y,3}B^z_{2,3}, ...,B^x_{N_x;3}B^y_{N_y,3}B^z_{2,3}, B^x_{N_x;3}B^y_{N_y,3}B^z_{2,3} \\), \\( \\cdots \\), \\( B^x_{1;3}B^y_{1,3}B^z_{N_z,3}, B^x_{2;3}B^y_{1,3}B^z_{N_z,3}, ..., B^x_{N_x-1;3}B^y_{1,3}B^z_{N_z,3},B^x_{N_x;3}B^y_{1,3}B^z_{N_z,3} \\), \\( B^x_{1;3}B^y_{2,3}B^z_{N_z,3}, B^x_{2;3}B^y_{2,3}B^z_{N_z,3}, ..., B^x_{N_x-1;3}B^y_{2,3}B^z_{N_z,3}, B^x_{N_x;3}B^y_{2,3}B^z_{N_z,3} \\), \\( \\cdots \\), \\( B^x_{1;3}B^y_{N_y-1,3}B^z_{N_z,3}, B^x_{2;3}B^y_{N_y-1,3}B^z_{N_z,3}, ..., B^x_{N_x-1;3}B^y_{N_y-1,3}B^z_{N_z,3}, B^x_{N_x;3}B^y_{N_y-1,3}B^z_{N_z,3} \\), \\( B^x_{1;3}B^y_{N_y,3}B^z_{N_z,3}, B^x_{2;3}B^y_{N_y,3}B^z_{N_z,3}, ..., B^x_{N_x;3}B^y_{N_y,3}B^z_{N_z,3}, B^x_{N_x;3}B^y_{N_y,3}B^z_{N_z,3} \\). W ten sposób uzyskujemy bazę trójwymiarowych funkcji bazowych \\( \\{B_{i,j,k;3}(x,y,z)\\}_{i=1,...,N_x,j-1,...,N_y,k=1,...,N_z}=\\{B^x_{i;3}(x)B^y_{j;3}\\}_{i=1,...,N_x,j-1,...,N_y} =\\\\=\\{B^x_{i;3}(x)B^y_{j;3}\\}_{i=1,...,19,j-1,...,19}, \\{B^x_{i;3}(x)B^z_{j;3}\\}_{i=1,...,19,j-1,...,19,k=1,...,19 } \\) rozpiętych na prostopadłościennej siatce obliczeniowej zbudowanej z 16*16*16=4096 elementów. Możemy rozpiąć na nich aproksymację trójwymiarowej bitmapy \\( u(x,y,z) = \\sum_{i=1,j=1,k=1}^{16,16,16} u_{i,j,k} B^x_{i}(x) B^y_{j}(y) B^y_{k}(z) \\) obliczając współczynniki \\( u_{i,j,k} \\) w sposób opisany w rozdziale pierwszym. W szczególności będziemy musieli wygenerować całki z iloczynów trójek funkcji B-spline \\( \\int_{\\Omega} {\\color{red}B^x_{i}(x) B^y_{j}(y) B^z_{k}(z)} {\\color{blue}B^x_{l}(x)B^y_{m}(y)B^z_{n}(z)} dx dy dz \\) dla \\( i=1,..,19, j=1,...,19, k=1,...,19 \\). W przypadku funkcji bazowych rozpiętych na płaskiej siatce, całki te możemy rozbić na iloczyn trzech całek z trójek B-spline'ów w poszczególnych kierunkach. \\( \\int_{\\Omega_x} {\\color{red}B^x_{i}(x) B^y_{j}(y) B^y_{k}(z)} {\\color{blue}B^x_{l}(x)B^y_{m}(y)B^z_{n}(z)} dx dy dz= \\int_{\\Omega_y} {\\color{red}B^x_{i}(x) } {\\color{blue}B^x_{l}(x)} dx {\\color{red}B^y_{j}(y)} {\\color{blue}B^y_{m}(y)} dy {\\color{red} B^z_{k}(z)} {\\color{blue}B^z_{n}(z)} dz \\) gdzie \\( \\Omega \\) to nasza siatka prostopadłościenna, \\( \\Omega_x, \\Omega_y, \\Omega_z \\) to osie rozpięte wzdłuż brzegów siatki prostopadłościennej.", "Zauważmy, że jeśli chcemy używać innych funkcji bazowych, na przykład bazy równoważnej wielomianom Lagrange'a, cała konstrukcja pozostaje niezmieniona, jedynie definiujemy inne wektory węzłów, które dają nam inną liczbę funkcji bazowych. Na przykład w celu wygenerowania bazy równoważnej wielomianom Lagrange'a, rozpinamy wektor węzłów [0 0 0 0 1 1 1 2 2 2 3 3 3 4 4 4 5 5 5 6 6 6 7 7 7 8 8 8 9 9 9 10 10 10 11 11 11 12 12 12 13 13 13 14 14 14 15 15 15 16 16 16 16] wzdłuż osi \\( x \\) oraz drugi wektor węzłów [0 0 0 0 1 1 1 2 2 2 3 3 3 4 4 4 5 5 5 6 6 6 7 7 7 8 8 8 9 9 9 10 10 10 11 11 11 12 12 12 13 13 13 14 14 14 15 15 15 16 16 16 16] wzdłuż osi \\( y \\) i trzeci wektor węzłów [0 0 0 0 1 1 1 2 2 2 3 3 3 4 4 4 5 5 5 6 6 6 7 7 7 8 8 8 9 9 9 10 10 10 11 11 11 12 12 12 13 13 13 14 14 14 15 15 15 16 16 16 16] wzdłuż osi \\( z \\). Następnie generujemy funkcje bazowe zgodnie ze wzorem , i przemnażamy je przez siebie (tworzymy iloczyn tensorowy). Możemy również na przykład wygenerować wielomiany B-spline trzeciego stopnia [0 0 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 16 16 16] wzdłuż osi \\( x \\), wielomiany równoważne wielomianom Lagrenge'a [0 0 0 0 1 1 1 2 2 2 3 3 3 4 4 4 5 5 5 6 6 6 7 7 7 8 8 8 9 9 9 10 10 10 11 11 11 12 12 12 13 13 13 14 14 14 15 15 15 16 16 16 16] wzdłuż osi \\( y \\), oraz wielomiany \"hybrydowe\" [0 0 0 0 1 2 3 4 4 4 5 6 7 8 8 8 9 10 11 12 12 12 13 14 15 16 16 16 16] wzdłuż osi \\( z \\). Następnie podobnie, generujemy funkcje bazowe zgodnie ze wzorem , i przemnażamy je przez siebie (tworzymy iloczyn tensorowy). Możliwe jest również konstruowanie siatek, w których mieszane są grupy elementów (po angielsku \"patches\") różnego rozmiaru i o różnej liczbie elementów i tworzone wektory węzłów dla każdej grupy elementów oddzielnie. Przykład pokazany został na Rys. 2."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 2. Dyskretyzacja za pomocą różnych funkcji bazowych", "subject_id": 695, "subject": "Siatki nieregularne", "paragraphs": ["Podczas obliczeń metodą elementów skończonych stosuje się również siatki nieregularne zbudowane z elementów trójkątnych w dwóch wymiarach lub z elementów czworościennych w trzech wymiarach. Niestety metoda tworzenia funkcji bazowych poprzez wektory węzłów nie działa na siatkach trójkątnych lub siatkach czworościennych. Przed powstaniem analizy izogeometrycznej była to najczęściej stosowana wersja metody elementów skończonych.", "Obecnie, obliczenia metodą elementów skończonych często integruje się z obiektami geometrycznymi tworzonymi w systemach CAD, i wówczas konieczność wygenerowania siatki elementów nieregularnych na obiektach geometrycznych opisanych już za pomocą funkcji B-spline i NURBS, wymaga dodatkowego narzutu pacy, oraz konieczności uzgadniania elementów na sąsiadujących obiektach geometrycznych. Na siatkach nieregularnych nie definiuję się funkcji B-spline o wyższej regularności, ze względu na fakt, iż funkcje B-spline zdefiniowane są na wielu sąsiadujących elementach prostokątnych. Na elementach trójkątnych i czworościennych definiuje się wielomiany rozpięte na elementach sąsiadujących z danym wierzchołkiem lub krawędzią. Przykładem takich funkcji są wielomiany Lagrange'a lub wielomiany hierarchiczne.", "Metoda definiowania funkcji bazowych na takich elementach jest dobrze opisana w książkach prof. Leszka Demkowicza [1][2]", "Na każdym elemencie trójkątnym zdefiniować można wielomiany pierwszego stopnia lub wielomiany wyższych stopni. Popularny sposób definiowana tych wielomianów przedstawiony jest na Rys. 1. Zaznaczony na nim trójkąt definiuję orientację trzech swoich krawędzi, co ma znaczenie przy formalnym definiowaniu funkcji bazowych i elementu skończonego.", "Mamy więc teraz następujące możliwości", "W tym celu na dowolnym elemencie trójkątnym definiujemy dwie osie układu współrzędnych \\( \\xi_1 \\) wzdłuż jednego boku trójkąta oraz \\( \\xi_2 \\) wzdłuż drugiego boku trójkąta. Definiujemy trzy funkcje tworzące tak zwany barycentryczny układ współrzędnych rozpięty na trójkącie \\( \\lambda_1(\\xi_1,\\xi_2)=1-\\xi_1-\\xi_2 \\quad \\lambda_2(\\xi_1,\\xi_2)=\\xi_1 \\quad \\lambda_3(\\xi_1,\\xi_2)=\\xi_2 \\) osiągające maksimum równe 1 w poszczególnych wierzchołkach trójkąta, oraz 0 w pozostałych. Funkcja \\( \\lambda_1 \\) związana jest pierwszym wierzchołkiem w punkcie (0,0) w układzie współrzędnych rozpiętym przez osie \\( \\xi_i \\textrm{ i } \\xi_2 \\).", "Funkcja \\( \\lambda_2 \\) związana jest z drugim wierzchołkiem na osi \\( \\xi_1 \\). Funkcja \\( \\lambda_3 \\) związana jest z trzecim wierzchołkiem na osi \\( \\xi_2 \\). Funkcje te pozwalają nam definiować nasze funkcje bazowe, które oznaczamy \\( \\psi_i \\). Zaczynamy od funkcji bazowych związanych z wierzchołkami trójkąta \\( \\psi_1(\\xi_1,\\xi_2)=\\lambda_1(\\xi_1,\\xi_2)=1-\\xi_1-\\xi_2 \\\\ \\psi_2(\\xi_1,\\xi_2)=\\lambda_2(\\xi_1,\\xi_2)=\\xi_1 \\\\ \\psi_3(\\xi_1,\\xi_2)=\\lambda_2(\\xi_1,\\xi_2)=\\xi_2 \\) Mamy więc oczywiście funkcję bazową \\( \\psi_1 \\) związaną z pierwszym wierzchołkiem w punkcie (0,0) w układzie współrzędnych rozpiętym przez osie \\( \\xi_1 \\textrm{ i } \\xi_2 \\), funkcję bazową \\( \\psi_2 \\) związaną z drugim wierzchołkiem na osi \\( \\xi_1 \\), oraz funkcje bazową \\( \\psi_3 \\) związaną z trzecim wierzchołkiem na osi \\( \\xi_2 \\)", "Zbudowanie funkcji bazowych drugiego stopnia na trójkącie wymaga przemnażania przez siebie funkcji bazowych określonych na wierzchołkach. Budujemy funkcje \\( \\psi_4(\\xi_1,\\xi_2)=\\lambda_1(\\xi_1,\\xi_2)\\lambda_2(\\xi_1,\\xi_2)=(1-\\xi_1-\\xi_2)\\xi_1 \\\\ \\psi_5(\\xi_1,\\xi_2)=\\lambda_2(\\xi_1,\\xi_2)\\lambda_3(\\xi_1,\\xi_2) =\\xi_1\\xi_2 \\\\ \\psi_6(\\xi_1,\\xi_2)=\\lambda_3(\\xi_1,\\xi_2)\\lambda_1(\\xi_1,\\xi_2)= \\xi_2(1-\\xi_1-\\xi_2) \\) Widać więc, że przemnożenie przez siebie dwóch funkcji wierzchołkowych związanych z pierwszym i drugim wierzchołkiem, \\( \\lambda_1 \\) i \\( \\lambda_2 \\) daje nam możliwość zdefiniowana funkcji kwadratowej rozpiętej na krawędzi pomiędzy tymi wierzchołkami.", "Przemnożenie przez siebie dwóch funkcji wierzchołkowych związanych z drugim i trzecim wierzchołkiem, \\( \\lambda_2 \\) i \\( \\lambda_3 \\) daje nam możliwość zdefiniowana funkcji kwadratowej rozpiętej na krawędzi pomiędzy tymi wierzchołkami. Z kolei przemnożenie przez siebie funkcji wierzchołkowych związanych z pierwszym i trzecim wierzchołkiem, \\( \\lambda_1 \\), i \\( \\lambda_3 \\) daje nam możliwość zdefiniowana funkcji kwadratowej rozpiętej na trzeciej krawędzi trójkąta.", "Funkcji bazowa nad wnętrzem elementu definiowana jest jako iloczyn wszystkich funkcji \\( \\lambda_1 \\), \\( \\lambda_2 \\), \\( \\lambda_3 \\). \\( \\psi_7(\\xi_1,\\xi_2)=\\lambda_1(\\xi_1,\\xi_2)\\lambda_2(\\xi_1,\\xi_2)\\lambda_3(\\xi_1,\\xi_2) \\)", "Jak to wygląda w trzech wymiarach, gdzie elementy mają kształt czworościenny? W przypadku trzech wymiarów musimy rozpiąć trzy osie układu współrzędnych \\( \\xi_1, \\xi_2, \\xi_3 \\) wzdłuż trzech krawędzi czworościanu. Następnie definiujemy analogiczne cztery funkcje \\( \\lambda_1(\\xi_1,\\xi_2,\\xi_3)=1-\\xi_1-\\xi_2 \\xi_3 \\\\ \\lambda_2(\\xi_1,\\xi_2,\\xi_3)=\\xi_1 \\\\ \\lambda_3(\\xi_1,\\xi_2,\\xi_3)=\\xi_2 \\\\ \\lambda_4(\\xi_1,\\xi_2,\\xi_3)=\\xi_3 \\) osiągające maksimum równe 1 w poszczególnych wierzchołkach trójkąta, oraz 0 w pozostałych.", "Definiujemy funkcje bazowe związane z wierzchołkami czworościanu \\( \\psi_1(\\xi_1,\\xi_2,\\xi_3)=\\lambda_1(\\xi_1,\\xi_2,\\xi_3)=1-\\xi_1-\\xi_2-\\xi_4 \\\\ \\psi_2(\\xi_1,\\xi_2,\\xi_3)=\\lambda_2(\\xi_1,\\xi_2,\\xi_3)=\\xi_1 \\\\ \\psi_3(\\xi_1,\\xi_2,\\xi_3)=\\lambda_2(\\xi_1,\\xi_2,\\xi_3)=\\xi_2 \\\\ \\psi_4(\\xi_1,\\xi_2,\\xi_3)=\\lambda_2(\\xi_1,\\xi_2,\\xi_3)=\\xi_3 \\)", "Mamy więc oczywiście funkcję bazową \\( \\psi_1 \\) związaną z pierwszym wierzchołkiem w punkcie (0,0,0) w układzie współrzędnych rozpietym przez osie \\( \\xi_1, \\xi_2, \\xi_3 \\), funkcję bazową \\( \\psi_2 \\) związaną z drugim wierzchołkiem na osi \\( \\xi_1 \\), funkcję bazową \\( \\psi_3 \\) związaną z trzecim wierzchołkiem na osi \\( \\xi_2 \\), oraz funkcję bazową \\( \\psi_4 \\) związaną z trzecim wierzchołkiem na osi \\( \\xi_3 \\).", "Zbudowanie funkcji bazowych drugiego stopnia na czworościanie wymaga przemnażania przez siebie funkcji bazowych określonych na wierzchołkach. Budujemy funkcje krawędziowe przemnażając dwie funkcje wierzchołkowe \\( \\psi_4(\\xi_1,\\xi_2,\\xi_3)=\\lambda_1(\\xi_1,\\xi_2,\\xi_3)\\lambda_2(\\xi_1,\\xi_2,\\xi_3)=(1-\\xi_1-\\xi_2-\\xi_3)\\xi_1 \\\\ \\psi_5(\\xi_1,\\xi_2,\\xi_3)=\\lambda_2(\\xi_1,\\xi_2,\\xi_3)\\lambda_3(\\xi_1,\\xi_2,\\xi_3)=\\xi_1\\xi_2 \\\\ \\psi_6(\\xi_1,\\xi_2,\\xi_3)=\\lambda_3(\\xi_1,\\xi_2,\\xi_3)\\lambda_4(\\xi_1,\\xi_2,\\xi_3)=\\xi_2\\xi_3 \\\\ \\psi_7(\\xi_1,\\xi_2,\\xi_3)=\\lambda_4(\\xi_1,\\xi_2,\\xi_3)\\lambda_1(\\xi_1,\\xi_2,\\xi_3)=\\xi_1(1-\\xi_1-\\xi_2-\\xi_3) \\) Widać więc że przemnożenie przez siebie dwóch funkcji wierzchołkowych związanych z pierwszym i drugim wierzchołkiem, \\( \\lambda_1 \\) i \\( \\lambda_2 \\) daje nam możliwość zdefiniowana funkcji - wielomianu drugiego stopnia - rozpiętej na krawędzi pomiędzy tymi wierzchołkami (stopień wielomianu to suma wszystkich wykładników potęg niezerowego jednomianu).", "Przemnożenie przez siebie dwóch funkcji wierzchołkowych związanych z drugim i trzecim wierzchołkiem, \\( \\lambda_2 \\) i \\( \\lambda_3 \\) daje nam możliwość zdefiniowania funkcji - wielomianu drugiego stopnia - rozpiętej na krawędzi pomiędzy tymi wierzchołkami. Przemnożenie przez siebie dwóch funkcji wierzchołkowych związanych z trzecim i czwartym wierzchołkiem, \\( \\lambda_3 \\)i \\( \\lambda_4 \\) daje nam możliwość zdefiniowana funkcji - wielomianu drugiego stopnia - rozpiętej na krawędzi pomiędzy tymi wierzchołkami. Z kolei przemnożenie przez siebie funkcji wierzchołkowych związanych z pierwszym i czwartym wierzchołkiem, \\( \\lambda_1 \\), i \\( \\lambda_5 \\) daje nam możliwość zdefiniowana funkcji - wielomianu drugiego stopnia - rozpiętej na trzeciej krawędzi trójkąta.", "Funkcje bazowe na ścianach elementów uzyskuje się mnożąc odpowiednie trzy funkcje bazowe z wierzchołków otaczających ścianę \\( \\psi_8(\\xi_1,\\xi_2,\\xi_3)=\\lambda_1(\\xi_1,\\xi_2,\\xi_3)\\lambda_2(\\xi_1,\\xi_2,\\xi_3)\\lambda_3(\\xi_1,\\xi_2,\\xi_3)=(1-\\xi_1-\\xi_2-\\xi_3)\\xi_1\\xi_2 \\\\ \\psi_9(\\xi_1,\\xi_2,\\xi_3)=\\lambda_2(\\xi_1,\\xi_2,\\xi_3)\\lambda_3(\\xi_1,\\xi_2,\\xi_3)\\lambda_4(\\xi_1,\\xi_2,\\xi_3)=\\xi_1\\xi_2 \\xi_3 \\\\ \\psi_{10}(\\xi_1,\\xi_2,\\xi_3)=\\lambda_1(\\xi_1,\\xi_2,\\xi_3)\\lambda_3(\\xi_1,\\xi_2,\\xi_3)\\lambda_4(\\xi_1,\\xi_2,\\xi_3)=(1-\\xi_1-\\xi_2-\\xi_3) \\xi_2\\xi_3 \\\\ \\psi_{11}(\\xi_1,\\xi_2,\\xi_3)=\\lambda_1(\\xi_1,\\xi_2,\\xi_3)\\lambda_2(\\xi_1,\\xi_2,\\xi_3)\\lambda_4(\\xi_1,\\xi_2,\\xi_3)=(1-\\xi_1-\\xi_2-\\xi_3)\\xi_1 \\xi_3 \\) Przemnożenie przez siebie trzech funkcji wierzchołkowych związanych z pierwszym, drugim i trzecim wierzchołkiem, \\( \\lambda_1 \\), \\( \\lambda_3 \\) i \\( \\lambda_3 \\) daje nam możliwość zdefiniowana funkcji - wielomianu trzeciego stopnia \\( \\psi_8 \\) - rozpiętej na ścianie pomiędzy tymi wierzchołkami.", "Podobnie przemnożenie przez siebie trzech funkcji wierzchołkowych związanych z drugim, trzecim i czwartym wierzchołkiem, \\( \\lambda_1, \\lambda_3, \\lambda_4 \\) daje nam możliwość zdefiniowana funkcji - wielomianu trzeciego stopnia \\( \\psi_9 \\)- rozpiętej na ścianie pomiędzy tymi wierzchołkami. Przemnożenie przez siebie trzech funkcji wierzchołkowych związanych z pierwszym, trzecim i czwartym wierzchołkiem, \\( \\lambda_1, \\lambda_3, \\lambda_4 \\) daje nam możliwość zdefiniowana funkcji - wielomianu trzeciego stopnia \\( \\psi_10 \\) - rozpiętej na ścianie pomiędzy tymi wierzchołkami.", "W końcu przemnożenie przez siebie trzech funkcji wierzchołkowych związanych z pierwszym, drugim i czwartym wierzchołkiem, \\( \\lambda_1, \\lambda_2, \\lambda_4 \\) daje nam możliwość zdefiniowana funkcji - wielomianu trzeciego stopnia \\( \\psi_11 \\)- rozpiętej na ścianie pomiedzy tymi wierzchołkami. Ostatnią funkcją bazową do zdefiniowania jest funkcja związana z wnętrzem elementu. Można ją uzyskać przemnażając przez siebie cztery funkcje bazowe wierzchołkowe \\( \\psi_{12}(\\xi_1,\\xi_2,\\xi_3)=\\lambda_1(\\xi_1,\\xi_2,\\xi_3)\\lambda_2(\\xi_1,\\xi_2,\\xi_3)\\lambda_3(\\xi_1,\\xi_2,\\xi_3)\\lambda_4(\\xi_1,\\xi_2,\\xi_3)=(1-\\xi_1-\\xi_2-\\xi_3)\\xi_1 \\xi_2 \\xi_3 \\)"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 2. Dyskretyzacja za pomocą różnych funkcji bazowych", "subject_id": 696, "subject": "Implementacja w MATLABie generacji funkcji bazowych na podstawie wektora węzłów", "paragraphs": ["W module tym prezentujemy kod w MATLABie obliczający i rysujący funkcje bazowe B-spline na podstawie zadanego wektora węzłów. Możliwym alternatywnym darmowym środowiskiem do uruchomienia kodu jest Octave.", "Po zainstalowaniu Octave otwieramy plik (pobierz kod lub zob. Załącznik 2 ). Uruchomienie kodu rozpoczyna się od procedury spline(), która ustawia przykładowy wektor węzłów knot_vector=[1,1,1,2,3,3,4,5,6,7,7,7], następnie oblicza liczbę funkcji bazowych używając procedury compute_nr_basis_functions(), oblicza stopień funkcji bazowych (jednorodny dla całego wektora węzłów) używając procedury compute_p, oraz wektor punktów x, w których policzone zostaną funkcje bazowe używając procedury mesh().", "Kod generuje wartości funkcji bazowych w tych punktach, używając procedury compute_spline() i następnie rysuje funkcje używając w pętli komendy plot. Możliwa jest modyfikacja wektora węzłów w celu generacji różnych baz."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 3. Sformułowania wariacyjne dla różnych problemów i metod", "subject_id": 697, "subject": "Transport ciepła za pomocą izogeometrycznej metody elementów skończonych", "paragraphs": ["W poprzednim rozdziale wprowadziliśmy sformułowanie metody elementów skończonych, bazując na przykładzie przybliżenia bitmapy za pomocą funkcji B-spline. Nasze równanie wyglądało więc w wersji, którą nazwijmy sformułowaniem silnym w sposób następujący \\( u(x,y) \\approx BITMAP(x,y) \\) gdzie \\( u(x,y) \\) oznaczało przybliżenie bitmapy za pomocą kombinacji liniowej funkcji B-spline \\( u(x,y)=\\sum_{i=1,...,N_x;j=1,...,N_y} u_{i,j } B^x_i(x)B^y_j(y) \\), a \\( BITMAP(x,y) \\) oznaczało mapę bitową.", "Następnie pokazaliśmy, że nasze sformułowanie silne przerobić można za pomocą mechanizmu uśredniania na postać zwaną sformułowaniem słabym lub sformułowaniem wariacyjnym: \\( \\int_{\\Omega} u(x,y) v(x,y) dxdy= \\int_{\\Omega} BITMAP(x,y) v(x,y) dxdy \\)", "W sformułowaniu słabym nasze sformułowanie silne uśredniamy w wybranych fragmentach obszaru bitmapy. W tym celu przemnażamy sformułowanie silne przez tak zwane funkcje testujące, które określają sposób liczenia średniej (na całkowujemy przykład jeśli użyjemy do tego celu funkcji B-spline, to dostaniemy rozkłady zbliżone kształtem do rozkładów Gaussa, czyli wartości ze środka obszaru będą miały największe znaczenie, a obszary coraz bardziej oddalone od punktu środkowego będą miały coraz mniejszy wpływ aż do zera) oraz całkujemy całe równanie (pamiętając o tym, że całka intuicyjnie reprezentuje próbkowanie w poszczególnych punktach z uwzględnieniem wartości i pola próbkowanego obszaru, i sumowanie wyniku).", "W module tym podamy inne przykłady zastosowań metody elementów skończonych, w których zamiast projekcji bitmapy obliczać będziemy rozwiązania różnych równań różniczkowych cząstkowych, przybliżających różne zjawiska fizyczne. W taki sam sposób jak przekształciliśmy nasze silne sformułowanie problemu projekcji bitmapy na sformułowanie słabe całkując i przemnażając przez funkcje uśredniające, tak samo zrobimy z różnymi równaniami różniczkowymi."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 3. Sformułowania wariacyjne dla różnych problemów i metod", "subject_id": 698, "subject": "Transport ciepła za pomocą tradycyjnej metody elementów skończonych", "paragraphs": ["W module tym podam przykład zastosowania tradycyjnej metody elementów skończonych pracującej na siatkach nieregularnych do rozwiązania problemu transportu ciepła w obszarze w kształcie litery L, opisanym w module Transport ciepła za pomocą izogeometrycznej metody elementów skończonych. Główna różnica polega na zastosowaniu elementów trójkątnych oraz wielomianów Lagrange'a rozpiętych na elementach trójkątnych. Z punktu widzenia faktoryzacji układów równań, tradycyjna metoda elementów skończonych generuje układ równań, który posiada więcej niewiadomych niż metoda izogeometryczna. Ponadto na granicy elementów skończonych wielomiany Lagrange'a stosowane w tradycyjnej metodzie elementów skończonych są jedynie klasy \\( C^0 \\), co oznacza, że jak policzymy pochodne z rozwiązania to na krawędziach elementów pochodne te będą nieciągłe.", "Metoda izogeometryczna daje bardziej \"smukłe\" i gładkie rozwiązania, dla których układy równań mają mniej niewiadomych, i generalnie koszt faktoryzacji jest niższy, szczególnie w przypadku gdy stosujemy tak zwaną poprawioną analizę izogeometryczną (\"refined isogeometric analysis\") i rozpinamy wielomiany B-spline na grupach elementów (po angielsku taka grupa elementów nazywa się \"isogeometric patch\"), natomiast na granicy grup elementów umieszczamy \\( C^0 \\) separatory.", "Algorytm metody elementów skończonych opisać można w sposób następujący", "Zauważmy, że w algorytmie obliczamy całki po poszczególnych elementach z funkcjonału lewej i prawej strony. Innymi słowy w linii 6 liczymy \\( L(i1)+= l(\\psi^i_k)|_{E_k}=\\int_{ \\partial \\Omega_N \\cap E_k } g(x,y) v(x,y) dS \\) czyli całki po elemencie \\( E_k \\) z funkcji \\( g(x,y) v(x,y) \\) określonej na brzegu elementu \\( E_k \\) przecinającego brzeg Neumanna. Musimy więc sprawdzić 3 krawędzie elementu \\( E_k \\) oraz sprawdzić czy któraś z tych krawędzi nie leży na brzegu Neumanna, czyli czy \\( \\partial E_k \\cap \\Gamma_N \\neq \\emptyset \\) gdzie \\( \\Gamma_N = \\{(x,y):x=-1 \\cup x=1 \\cup y=1 \\cup y=-1 \\} \\). Jeśli fragment brzegu elementu leży na brzegu Neumanna, należy policzyć całkę używając jednowymiarowej kwadratury Gaussa na tym brzegu, tak jak opisano to w module \"Sformułowanie wariacyjne a całkowanie numeryczne\". Ponadto w linii 9 musimy policzyć całkę po elemencie z formy lewej strony \\( B(i1,j1)+= a(\\psi^i_k,\\psi^j_k)|_{E_k} = \\\\ \\int_{E_k} \\left(\\frac{\\partial u }{\\partial x }\\frac{\\partial v }{\\partial x } + \\frac{\\partial u }{\\partial y } \\frac{ \\partial v}{\\partial y } \\right)v(x,y) dxdy \\) Całkę tą należy policzyć, używając dwuwymiarowych kwadratur Gaussa na elemencie trójkątnym \\( E_k \\). Po wygenerowaniu układu równań i zastosowaniu solwera dokładnego dostajemy rozwiązanie przedstawione na Rys. 4."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 3. Sformułowania wariacyjne dla różnych problemów i metod", "subject_id": 699, "subject": "Równania konwekcji-dyfuzji", "paragraphs": ["Przyglądnijmy się teraz innej klasie problemów obliczeniowych, tak zwanemu problemowi konwekcji-dyfuzji. W problemie tym równanie różniczkowe w tak zwanej formie silnej dane jest wzorem \\( \\beta_x\\frac{\\partial u}{\\partial x }+\\beta_y\\frac{\\partial u }{\\partial y }-\\epsilon \\left(\\frac{\\partial^2 u }{\\partial x^2 }+\\frac{\\partial^2 u }{\\partial y^2 }\\right)=f(x,y) \\) Szukamy pola koncentracji, np. zanieczyszczeń \\( \\Omega\\in (x,y) \\rightarrow u(x,y) \\in R \\) na obszarze \\( \\Omega \\). Wartość \\( u(x,y) \\) oznacza koncentracje zanieczyszczeń w punkcie \\( (x,y) \\). Człon \\( \\beta_x(x,y)\\frac{\\partial u }{\\partial x }+\\beta_y(x,y)\\frac{\\partial u }{\\partial y } \\) oznacza tutaj adwekcje, czyli roznoszenie zanieczyszczeń przez wiatr. Składowe \\( (\\beta_x(x,y),\\beta_y(x,y)) \\) oznaczają składowe pola prędkości wiatru, czyli w punkcie \\( (x,y) \\) wiatr wieje w kierunku równoległym do osi \\( x \\) z prędkością \\( \\beta_x(x,y) \\) a w kierunku równoległym do osi \\( y \\) z prędkością \\( \\beta_y(x,y) \\). Z drugiej strony człon \\( \\epsilon \\left(\\frac{\\partial^2 u }{\\partial x^2 }+\\frac{\\partial^2 u }{\\partial y^2 }\\right) \\) oznacza dyfuzję, czyli roznoszenie zanieczyszczeń na zasadzie dyfuzji. Jeśli zostanę zamknięty w pokoju z palaczem, to nawet jeśli nie będzieprzeciągu, dym papierosu dotrze do mojego nosa na zasadzie mechanizmu dyfuzji. Za prędkość tej dyfuzji odpowiada współczynnik \\( \\epsilon \\). Jeśli dodatkowo w pokoju było by otwarte okna i drzwi, to dym papierosowy byłby również popychany przez wiatr wiejący z prędkością na przykład \\( (1,0) \\) (jeśli okno-drzwi leżą w płaszczyźnie równoległe do osi \\( x \\) i przeciąg wieje z prędkością 1 m/s). Prawa strona, czyli funkcja \\( f(x,y) \\) oznacza źródło zanieczyszczeń, czyli jeśli w punkcje \\( (x,y) \\) znajduje się komin który emituje zanieczyszczenie, wówczas \\( f(x,y)>0 \\), jeśli natomiast w punkcie \\( (x,y) \\) znajduje się zasysacz zanieczyszczeń (ostatnio takie zasysasze zanieczyszczeń konstrują Chińczycy w miastach) wówczas \\( f(x,y)<0 \\). Z koleji \\( f(x,y)=0 \\) oznacza że w punkcie \\( (x,y) \\) nie pojawia się ani nie ubywa zanieczyszczeń. Zauważmy że człon dyfuzji zawiera Laplasjan, a człon adwekcji, iloczyn skalarny wektora \\( \\beta \\) i wektora prędkości wiatru. Możemy więc nasz problem przepisać tak: \\( \\beta(x,y) \\cdot \\nabla u(x,y) - \\epsilon \\Delta u(x,y) = f(x,y) \\) Sformułowanie słabe uzyskuje się w sposób następujący. Całkujemy i przemnażamy nasze równanie przez wybrane funkcje \\( v(x,y) \\) zwane funkcjami testującymi których używać będziemy do uśredniania naszego równania w obszarze na którym funkcje te są określone \\( \\int_{\\Omega} \\beta(x,y) \\cdot \\nabla u(x,y) -\\int_{\\Omega} \\epsilon \\Delta u (x,y) v(x,y) dxdy = \\int_{\\Omega} f(x,y) v(x,y) dxdy \\) W podobny sposób jak miało to miejsce w przypadku problemu projekcji bitmapy, każdy wybór funkcji testującej \\( v(x,y) \\) służącej do uśredniania naszego problemu w obszarze w którym funkcja testująca jest określona, daje nam jedno równanie. Różne wybory funkcji testującej \\( v(x,y) \\) dadzą nam więc różne równania . Nasz problem który chcemy rozwiązać wygląda więc tak: Szukamy koncentracji zanieczyszczeń, funkcji \\( \\Omega \\ni (x,y) \\leftarrow u(x,y) \\in R \\) takiej że \\( \\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y) }{\\partial x } dxdy \\int_{\\Omega } \\beta_y(x,y) \\frac{\\partial u(x,y) }{\\partial y } dxdy \\\\ -\\int_{\\Omega } \\frac{\\partial^2 u(x,y) }{\\partial x^2 } v(x,y) dxdy -\\int_{\\Omega } \\frac{\\partial^2 u(x,y) }{\\partial y^2 } v(x,y) dxdy = \\\\ \\int_{\\Omega } f(x,y) v(x,y) dxdy \\) dla dowolnych funkcji testujących \\( \\Omega \\ni (x,y) \\rightarrow v(x,y) \\in R \\) (oczywiście nasza koncentracja zanieczyszczeń oraz funkcja testująca muszą być na tyle regularne, żeby dało się policzyć całki). Oznaczamy nasz problem: Znajdź \\( \\Omega \\ni (x,y) \\rightarrow u(x,y) \\in R \\) takie że \\( a(u,v)=l(v) \\\\ a(u,v) = \\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y)}{\\partial x} dxdy+ \\int_{\\Omega } \\beta_y(x,y) \\frac{\\partial u(x,y)}{\\partial y } dxdy \\\\ -\\int_{\\Omega}\\epsilon \\frac{\\partial^2 u(x,y)}{\\partial x^2 } v(x,y) dxdy -\\int_{\\Omega} \\epsilon\\frac{\\partial^2 u(x,y)}{\\partial y^2 } v(x,y) dxdy \\\\ l(v) = \\int_{\\Omega} f(x,y) v(x,y) dxdy \\) Względem członu dyfuzji stosujemy wzór na całkowanie przez części, podobnie jak dla równań transportu ciepła. Robimy to dlatego żeby zredukować stopień pochodnych operujących na polu koncentracji zanieczyszczeń. \\( a(u,v) = \\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y)}{\\partial x } dxdy + \\int_{\\Omega} \\beta_y(x,y) \\frac{\\partial u(x,y)}{\\partial y } dxdy \\\\ -\\int_{\\Omega} \\epsilon \\frac{\\partial^2 u(x,y)}{\\partial x^2 } v(x,y) dxdy -\\int_{\\Omega} \\epsilon \\frac{\\partial^2 u(x,y)}{\\partial y^2 } v(x,y) dxdy \\\\ = \\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y) }{\\partial x } dxdy +\\int_{\\Omega} \\beta_y(x,y) \\frac{\\partial u(x,y)}{\\partial y } dxdy \\\\ +\\int_{\\Omega} \\epsilon \\frac{\\partial u(x,y) }{\\partial x} \\frac{\\partial v(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\epsilon \\frac{\\partial u(x,y)}{\\partial y } \\frac{\\partial v(x,y)}{\\partial y } dxdy -\\int_{\\partial \\Omega } \\frac{\\partial u }{\\partial n } v dS \\) Zwyczajowo nasz problem adwekcji-dyfuzji, podobnie jak problem transportu ciepła, należy wyposażyć w warunki brzegowe. Dzielimy brzeg \\( \\partial \\Omega = \\Gamma_D \\cup \\Gamma_N \\) i wprowadzamy warunek brzegowy Dirichleta, na \\( \\Gamma_D \\) części brzegu \\( \\partial \\Omega \\), który mówi mi o koncentracji zanieczyszczeń na brzegu obszaru \\( u(x,y)=p(x,y) \\textrm{ dla }(x,y) \\in \\Gamma_D \\) gdzie \\( p(x,y) \\) to zadana pochodna koncentracji zanieczyszczeń w kierunku normalnym do brzegu obszaru. Ponadto wprowadzamy warunek brzegowy Neumanna, który opisuje nam prędkość zmian zanieczyszczeń na \\( \\Gamma_N \\) fragmencie brzegu \\( \\frac{\\partial u(x,y)}{\\partial n}=g(x,y) \\textrm{ dla }(x,y) \\in \\Gamma_N \\) gdzie \\( g(x,y) \\) to strumień stężenia zanieczyszczeń na brzegu. Równania konwekcji dyfuzji dla dużej różnicy wartości pomiędzy wektorem adwekcji a współczynnikiem dyfuzji (np. dwa rzędy wielkości lub więcej, czyli np. \\( \\beta=(1,0), \\epsilon=10^{-2} \\)) wymagają specjalnych metod stabilizacji opisanych w rozdziale piątym. Dla małych różnic wartości tradycyjna lub izogeometryczna metoda elementów skończonych działa poprawnie."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 3. Sformułowania wariacyjne dla różnych problemów i metod", "subject_id": 700, "subject": "Problem modelowy przepływu laminarnego (problem Stokesa)", "paragraphs": ["Przyglądnijmy się teraz innej klasie problemów obliczeniowych, tak zwanemu problemowi Stokes'a. Równania te opisują przepływ cieczy [1], [2]. Spróbujmy najpierw zrozumieć sens tych rówńań. W jaki sposób można opisać przepływ cieczy na obszarze dwuwymiarowym? Załóżmy że szukamy rozwiązania problemu Stokesu (problemu przepływu cieczy) na obszarze w kształcie kwadratu \\( \\Omega = [0,1]^2 \\). W każdym punkcie \\( (x,y)\\in \\Omega \\) naszego obszaru chcemy znać prędkość przepływu cieczy, która jest wektorem i każdemu punktowi przypisuje dwie współrzędne pola prędkości (prędkości w kierunku dwóch osi układu współrzędnych w tym punkcie) \\( \\Omega \\ni (x,y) \\rightarrow {\\bf u(x,y) }=(u_1(x,y),u_2(x,y))\\in R^2 \\) (gdzie pogrubione \\( {\\bf u } \\). oznacza wektor dwóch składowych) oraz pole skalarne ciśnienia, które każdemu punktowi przypisuje jedną wartość ciśnienia w tym punkcie \\( \\Omega \\ni (x,y) \\rightarrow p(x,y)\\in R \\). Mamy więc trzy niewiadome w każdym punkcie, dwie składowe prędkości oraz jedną składową ciśnienia. Potrzebujemy więc co najmniej trzech równań żeby rozwiązać nasz problem. Równanie Stokesa w ogólnej formie zapisuje się w postaci \\( - \\Delta {\\bf u } + \\nabla p = f \\). Pamiętając że pole prędkości ma dwie składowe, oraz przypominając sobie co oznacza Laplasjan oraz gradient, dostajemy dwa równania w tak zwanej formie silnej \\( -\\frac{\\partial^2 u_1(x,y)}{\\partial x^2} -\\frac{\\partial^2 u_1(x,y)}{\\partial y^2} + \\frac{\\partial p(x,y)}{\\partial x } = f_1(x,y) \\) \\( -\\frac{\\partial^2 u_2(x,y)}{\\partial x^2} -\\frac{\\partial^2 u_2(x,y)}{\\partial y^2} + \\frac{\\partial p(x,y)}{\\partial y } = f_2(x,y) \\) Dodatkowe trzecie równanie dostajemy zakładając pewne dodatkowe własności cieczy której przepływ chcemy obliczyć. Tradycyjnie, w równaniu Stokesa zakłada się że ciecz jest nieściśliwa, oraz że nie mamy źródeł ani ubytków cieczy w obszarze. Matematycznie zapisuje się ten warunek w postaci tak zwanej dywergencji, piszemy konkretnie że dywergencja jest zerowa \\( \\displaystyle{div} {\\bf u}=0 \\) gdzie \\( \\displaystyle{div} {\\bf u} = \\nabla \\cdot {\\bf u} = \\left( \\frac{\\partial }{\\partial x}, \\frac{\\partial }{\\partial y } \\right) \\cdot \\left(u_1,u_2 \\right) = \\frac{\\partial u_1(x,y)}{\\partial x} +\\frac{\\partial u_2(x,y)}{\\partial y } =0 \\) Mamy więc następujący układ równań do rozwiązania \\( -\\frac{\\partial^2 u_1}{\\partial x^2} -\\frac{\\partial^2 u_1}{\\partial y^2} + \\frac{\\partial p}{\\partial x } = f_1 \\) \\( -\\frac{\\partial^2 u_2}{\\partial x^2} -\\frac{\\partial^2 u_2}{\\partial y^2} + \\frac{\\partial p}{\\partial y } = f_2 \\) \\( \\frac{\\partial u_1}{\\partial x} +\\frac{\\partial u_2}{\\partial y } =0 \\) Żeby rozwiązać równanie różniczkowe cząstkowe które spełnione jest na danym obszarze, musimy dodatkowo określić co dzieje się na brzegu tego obszaru. W ten sposób sprecyzujemy problem który chcemy rozwiązać. Każde inne warunki brzegowe dają nam inny problem i w konsekwencji inne rozwiązanie. W naszym przypadku wprowadzamy tak zwane warunki brzegowe Dirichleta na prędkość przepływu, które to mówią nam jakie są wartości pola prędkości na brzegu obszaru. Załóżmy że nasz obszar jest to zatoka na brzegu rzeki, która płynie jednostajnie z lewej strony na prawą, wzdłuż górnej granicy naszego obszaru \\( \\Omega \\). Zakładamy że prędkość przepływu na górnym brzegu obszaru wynosi \\( {\\bf u}(x,y) = (1,0) \\textrm{ dla } x \\in (0,1), y=1 \\). Na pozostałej częśi brzegu zakładamy że prędkość przepływu wynosi zero \\( {\\bf u}(x,y) = (0,0) \\textrm{ dla } x \\in \\{0,1\\}, y\\in (0,1) \\cup x\\in(0,1),y=0 \\). Mamy więc określone warunki brzegowe definiujące wartości pola prędkości na brzegu obszaru. Warunki takie nazywamy warunkami brzegowymi Dirichleta. W problemie Stokesa obliczamy jeszcze ciśnienie, musimy więc przyjąć jakieś założenie o ciśnieniu. Przyjmujemy warunek iż sumarycznie ciśnienie na całym obszarze jest równoważone (ciśnienie próbkowane w różnych miejscach poprzez przemnożenie przez funkcję testującą oraz odcałkowanie, daje w sumie zero) \\( \\int_{\\Omega} p(x,y) dxdy = 0 \\). Możemy teraz skonstruować tak zwane sformułowanie słabe naszego problemu, które będzie nadawać się do symulacji metodą elementów skończonych. Sformułowanie słabe uzyskuje się w sposób następujący. Całkujemy i przemnażamy nasze równanie przez wybrane funkcje zwane funkcjami testującymi których używać będziemy do uśredniania naszego równania w obszarze na którym funkcje te są określone. Główna różnica w stosunku do problemu projekcji jest taka że mamy teraz układ trzech równań, potrzebujemy więc trzech funkcji testujących, po jednej do każdego równania, oznaczamy je \\( v_1(x,y), v_2(x,y), q(x,y) \\). Przemnażamy równania i całkujemy po obszarze \\( -\\int_{\\Omega} \\frac{\\partial^2 u_1(x,y)}{\\partial x^2}v_1(x,y) dxdy -\\int_{\\Omega} \\frac{\\partial^2 u_1(x,y)}{\\partial y^2}v_1(x,y) dxdy + \\int_{\\Omega} \\frac{\\partial p(x,y)}{\\partial x }v_1(x,y) dxdy = \\int_{\\Omega} f_1(x,y) v_1(x,y) dxdy \\) \\( -\\int_{\\Omega} \\frac{\\partial^2 u_2(x,y)}{\\partial x^2}v_2(x,y) dxdy -\\int_{\\Omega} \\frac{\\partial^2 u_2(x,y)}{\\partial y^2}v_2(x,y) dxdy + \\int_{\\Omega} \\frac{\\partial p(x,y)}{\\partial y } v_2(x,y) dxdy= \\int_{\\Omega} f_2(x,y) v_2(x,y) dxdy \\) \\( \\int_{\\Omega} \\frac{\\partial u_1(x,y)}{\\partial x}q(x,y) +\\int_{\\Omega} \\frac{\\partial u_2(x,y)}{\\partial y }q(x,y) dxdy =0 \\) W podobny sposób jak miało to miejsce w przypadku problemu projekcji bitmapy, każdy wybór funkcji testującej \\( v(x,y) \\) służącej do uśredniania naszego problemu w obszarze w którym funkcja testująca jest określona, daje nam jedno równanie. Różne wybory funkcji testującej \\( v(x,y) : v_1(x,y),v_2(x,y),q(x,y) \\) dadzą nam więc różne równania \\( \\int_{\\Omega} \\frac{\\partial u_1(x,y)}{\\partial x}\\frac{\\partial v_1(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\frac{\\partial u_1(x,y)}{\\partial y}\\frac{\\partial v_1(x,y)}{\\partial y} dxdy +\\int_{\\partial \\Omega} \\frac{\\partial u_1(x,y)}{\\partial n} v_1(x,y) dS + \\int_{\\Omega} \\frac{\\partial p(x,y)}{\\partial x }v_1(x,y) dxdy = \\int_{\\Omega} f_1(x,y) v_1(x,y) dxdy \\) \\( \\int_{\\Omega} \\frac{\\partial u_2(x,y)}{\\partial x}\\frac{\\partial v_2(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\frac{\\partial u_2(x,y)}{\\partial y}\\frac{\\partial v_2(x,y)}{\\partial y} dxdy + \\int_{\\partial \\Omega} \\frac{\\partial u_2(x,y)}{\\partial n} v_2(x,y) dS + \\int_{\\Omega} \\frac{\\partial p(x,y)}{\\partial y }v_1(x,y) dxdy = \\int_{\\Omega} f_2(x,y) v_2(x,y) dxdy \\) \\( \\int_{\\Omega} \\frac{\\partial u_1(x,y)}{\\partial x}q(x,y) +\\int_{\\Omega} \\frac{\\partial u_2(x,y)}{\\partial y }q(x,y) dxdy =0 \\) gdzie po całkowaniu przez części pojawiają się nowe człony - całki brzegowe liczone w kierunku prostopadłym do brzegu. W naszym problemie Stokesa związanym z obliczaniem przepływu w zatoce sąsiadującej z rzeką zakłada się że siły \\( f_1(x,y)=f_2(x,y)=0 \\). W warunku brzegowym mamy założone że prędkość na górnej krawędzi wynosi \\( {\\bf u}(x,y) = (1,0) \\textrm{ dla } x \\in (0,1), y=1 \\). Innymi słowy wprowadzamy tutaj warunek brzegowy Dirichleta na prędkość przepływu. Ze sformułowaniem tym wiąże się jeden techniczny problem. Otóż pole przepływu na górnym brzegu jest niezerowe (skierowane w prawo) natomiast na bocznych brzegach (na lewym i prawym brzegu) pole przepływu przyjmujemy równe zero. Mamy więc przeskok z zera do jeden na pierwszej współrzędnej pola prędkości. Przeskok taki po pierwsze nie jest fizyczny (nie może być tak że woda w jednym punkcie nie płynie a zaraz obok płynie całkiem szybko, przejście z \"nie płynięcia\" do \"płynięcia\" odbywa się w gładki regularny sposób. Po drugie, jeśli chcielibyśmy rozwiązanie numeryczne przybliżać za pomocą metody elementów skończonych, rozwiązanie takie jest przedstawiane jako kombinacja liniowa wielomianów ciągłych. Nie ma takich wielomianów które przeskakują z zera do jeden. Postawienie problemu w taki sposób spowoduje powstanie osobliwości numerycznych w lewym górnym i prawym górnym brzegu obszaru. Żeby tego uniknąć, w tym przypadku wykonuje się następujący trick. Przyjmuje się \\( g(x,y) = 1 \\textrm{ dla } x \\in (\\epsilon, 1-\\epsilon), y=1 \\) \\( g(x,y) = \\frac{x}{\\epsilon} \\textrm{ dla } x \\in (0,\\epsilon), y=1 \\) \\( g(x,y) = \\frac{(1-x)}{\\epsilon} \\textrm{ dla } x \\in (1-\\epsilon, 1), y=1 \\) \\( {\\bf u}(x,y)=(g(x,y),0) \\textrm{ dla } x \\in (0,1), y=1 \\) Wówczas faktycznie w rogach obszaru mamy zerową prędkość i nie ma osobliwości numerycznych w obliczeniach metodą elementów skończonych. Dokonujemy następnie tak zwanego \"przesunięcia\" naszego problemu. Poszukiwane rozwiązanie dzielimy na dwie składowe \\( {\\bf u}(x,y) = (h(x,y)+w(x,y),u_2(x,y)) \\) gdzie \\( h(x,y)=g(x,y)(1-y) \\) jest tak zwanym rozszerzeniem naszego niezerowego warunku brzegowego Dirichleta na cały obszar \\( \\Omega \\). Naszego przesunięcia dokonujemy więc tak naprawdę jedynie względem pierwszej składowej pola prędkości (ponieważ druga składowa jest równa zero). Wówczas pierwsze równanie zmienia się \\( \\int_{\\Omega} \\frac{\\partial (h(x,y)+w(x,y))}{\\partial x}\\frac{\\partial v_1(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\frac{\\partial (h(x,y)+w(x,y))}{\\partial y}\\frac{\\partial v_1(x,y)}{\\partial y} dxdy +\\int_{\\partial \\Omega} \\frac{\\partial (h(x,y)+w(x,y))}{\\partial n} v_1(x,y) dS + \\int_{\\Omega} \\frac{\\partial p(x,y)}{\\partial x }v_1(x,y) dxdy = 0 \\) Człon z zadaną funkcją \\( h(x,y) \\) jest znany i możemy przenieść go na prawą stronę \\( \\int_{\\Omega} \\frac{\\partial w(x,y)}{\\partial x}\\frac{\\partial v_1(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\frac{\\partial w(x,y)}{\\partial y}\\frac{\\partial v_1(x,y)}{\\partial y} dxdy +\\int_{\\partial \\Omega} \\frac{\\partial w(x,y)}{\\partial n} v_1(x,y) dS + \\int_{\\Omega} \\frac{\\partial p(x,y)}{\\partial x }v_1(x,y) dxdy = \\\\ = \\int_{\\Omega} \\frac{\\partial h(x,y)}{\\partial x}\\frac{\\partial v_1(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\frac{\\partial h(x,y)}{\\partial y}\\frac{\\partial v_1(x,y)}{\\partial y} dxdy +\\int_{\\partial \\Omega} \\frac{\\partial h(x,y)}{\\partial n } v_1(x,y) dS \\) Wszystkie człony znajdujące się po prawej stronie potrafimy obliczyć. Z koleji niewiadomą \\( w(x,y) \\) wprowadzoną na lewej stronie możemy z powrotem oznaczyć jako \\( u_1(x,y) \\) musimy jednak pamiętać po rozwiązaniu naszego problemu Stokesa że należy do niej później dodać z powrotem człon z rozszerzeniem warunku brzegowego. Wprowadzamy oznaczenia na naszą lewą i prawą stronę \\( a({\\bf u}, {\\bf v}) =\\int_{\\Omega} \\nabla {\\bf u} : \\nabla {\\bf v}dxdy \\) gdzie \\( : \\) oznacza sumowanie wszystkich składowych \\( =\\int_{\\Omega} \\frac{\\partial u_1}{\\partial x}\\frac{\\partial v_1}{\\partial x}dxdy + \\int_{\\Omega} \\frac{\\partial u_1}{\\partial y}\\frac{\\partial v_1}{\\partial y}dxdy + \\int_{\\Omega} \\frac{\\partial u_2}{\\partial x}\\frac{\\partial v_2}{\\partial x}dxdy + \\int_{\\Omega} \\frac{\\partial u_2}{\\partial y }\\frac{\\partial v_2}{\\partial y }dxdy \\) \\( b(p, {\\bf v}) = \\int_{\\Omega} p div {\\bf v} dxdy \\) \\( = \\int_{\\Omega}p \\frac{\\partial v_1}{\\partial x} dxdy+ \\int_{\\Omega} p \\frac{\\partial v_2}{\\partial y } dxdy \\) \\( f({\\bf v} )= \\int_{\\Omega} \\frac{\\partial h(x,y)}{\\partial x}\\frac{\\partial v_1(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\frac{\\partial h(x,y)}{\\partial y}\\frac{\\partial v_2(x,y)}{\\partial y} dxdy +\\int_{\\partial \\Omega} \\frac{\\partial h(x,y)}{\\partial n } v_1(x,y) dS \\) Nasz problem można teraz zapisać w następującej postaci \\( a({\\bf u},{\\bf v}) + b(p,{\\bf v }) = f({\\bf v}) \\quad \\forall {\\bf v} \\) \\( b(q,{\\bf u } ) = 0 \\quad \\forall q \\) Zauważmy że zastąpiliśmy układ trzech równań układem dwóch równań. Nasze dwa równania są \"zakodowane\" w pierwszym równaniu. Teraz, możemy przyjąć funkcje testujące \\( {\\bf v }=(v_1,0) \\) żeby dostać pierwsze równanie, oraz \\( {\\bf v }=(0,v_2) \\) żeby dostać drugie równanie. Mając w ten sposób opisany nasz problem, możemy teraz przyjąć że nasze poszukiwane rozwiązanie \\( ({\\bf u },p)= (u_1(x,y),u_2(x,y),p(x,y)) \\) ma człony prędkości równe zero na brzegu \\( u_1(x,y)=u_2(x,y)=0\\textrm{ dla }(x,y)\\textrm{ na }\\partial \\Omega \\). Podobnie możemy przyjąć że nasze funkcje testujące, są również równe zero na brzegu \\( v_1(x,y)=v_2(x,y)=0\\textrm{ dla }(x,y)\\textrm{ na }\\partial \\Omega \\) Określamy teraz funkcje używane do aproksymacji rozwiązania oraz do testowania. Precyzujemy jak wyglądać będzie nasza grupa elementów, oraz nasze funkcje bazowe B-spline rozpięte na elementach, podając wektor węzłów wzdluż osi \\( x \\) oraz wektor węzłów wzdłuż osi \\( y \\). Odsyłamy tutaj do rozdziału trzeciego w którym opisany jest sposób definiowania funkcji bazowych za pomocą wektorów węzłów i wielomianów B-spline. Wzdłuż osi \\( x \\) wprowadzamy wektor węzłów [0 0 0 1 2 3 4 4 4], podobnie wzdłuż osi \\( y \\) wprowadzamy wektor węzłów [0 0 0 1 2 3 4 4 4]. Uzyskaliśmy dwie bazy jednowymiarowych funkcji B-spline \\( \\{ B_{i,2}(x) \\}_{i=1,...,6 } \\) oraz \\( \\{B_{j,2}(y)\\}_{j=1,...,6 } \\). Następnie utworzymy z nich iloczyny tensorowe \\( B_{i,j;2}(x,y)=B_{i,2}(x)B_{j,2}(y),i,j=1,...,6 \\). Zauważmy że nasz obszar \\( \\Omega \\) rozpięty jest na kwadracie \\( [0,1]^2 \\), podobnie jak nasze 6*6=36 funkcji bazowych co wynika z definicji wektora węzłów [0 0 0 1 2 2 3 4 4 4]. Przyjmujemy teraz naszą aproksymację pól prędkości \\( u_1(x,y) \\approx \\sum_{i,j=1,...,6} u_1^{i,j } B_{i,2}(x)B_{j,2}(y) \\) \\( u_2(x,y) \\approx \\sum_{i,j=1,...,6} u_2^{i,j } B_{i,2}(x)B_{j,2}(y) \\) oraz ciśnienia \\( p(x,y) \\approx \\sum_{i,j=1,...,6} p^{i,j } B_{i,2}(x)B_{j,2}(y) \\) Do testowania używamy również kombinacji liniowych funkcji B-spline \\( v_1(x,y) \\approx \\sum_{k,l=1,...,6} v_1^{k,l } B_{k,2}(x)B_{l,2}(y) \\) \\( v_2(x,y) \\approx \\sum_{k,l=1,...,6} v_2^{k,l } B_{k,2}(x)B_{l,2}(y) \\) oraz ciśnienia \\( q(x,y) \\approx \\sum_{k,l=1,...,6} q^{k,l } B_{k,2}(x)B_{l,2}(y) \\) Przyjmujemy teraz najpierw funkcje bazowe \\( ({\\bf v },q) = (v_1,0,0)=(B_{k,2}(x)B_{l,2}(y),0,0) \\textrm{ dla }k=l,...,6 \\) oraz wstawiamy do równania . Dostajemy macierze \\( \tA1_{i,j=1,...,6;k,l=1,...,6} \\int_{\\Omega} \\frac{B_{i,2}(x)}{\\partial x}B_{j,2}(y)\\frac{\\partial B_{k,2}(x) }{\\partial x}B_{l,2 }(y)dxdy + \\int_{\\Omega} B_{i,2}(x)\\frac{\\partial B_{j,2}(y)}{\\partial y}B_{k,2}(x)\\frac{\\partial B_{l,2}(y)}{\\partial y }dxdy \\) \\( \tB1_{i,j=1,...,6;k,l=1,...,6} = \\int_{\\Omega} \\frac{\\partial B_{i,2}(x) }{\\partial x } B_{j,2}(y) B_{k,2}(x)B_{l,2}(y) d,6) \\) Następnie przyjmujemy funkcje bazowe \\( ({\\bf v },q) = (0,v_1,0)=(0,B_{k,2}(x)B_{l,2}(y),0) \\textrm{ dla }k=l,...,6 \\) oraz wstawiamy do równania . Dostajemy macierze \\( \tA2_{i,j=1,...,6;k,l=1,...,6}=\\int_{\\Omega} \\frac{\\partial B_{i,2}(x)}{\\partial x} B_{j,2}(y)\\frac{\\partial B_{k,2}(x)}{\\partial x}B_{l,2}(y)dxdy + \\int_{\\Omega} B_{i,2}(x)\\frac{\\partial B_{j,2}(y)}{\\partial y }B_{k,2}(y)\\frac{\\partial B_{l,2}(x)}{\\partial y }dxdy \\) \\( \tB2_{i,j=1,...,6;k,l=1,...,6} =\\int_{\\Omega} B_{i,2}(x)B_{j,2}(y) B_{k,2}(x)\\frac{\\partial B_{l,2}(y)}{\\partial y } dxdy \\) Dodatkowo przyjmując funkcje bazowe \\( ({\\bf v },q) = (0,0,q)=(0,0,B_{k,2}(x)B_{l,2}(y)) \\textrm{ dla }k=l,...,6 \\) oraz wstawiamy do równania . Dostajemy macierze \\( Q1_{i,j=1,...,6;k,l=1,...,6} =\\int_{\\Omega } \\frac{\\partial B_{i,2}(x)}{\\partial x} B_{j,2}(y) B_{k,2}(x) B_{l,2}(y) dxdy \\) \\( Q2_{i,j=1,...,6;k,l=1,...,6} =\\int_{\\Omega} B_{i,2}(x)\\frac{\\partial B_{j,2}(y)}{\\partial y}B_{k,2 }(x)B_{l,2 }(y) dxdy \\) oraz prawą stronę \\( F1_{k,l=1,...,6}= \\int_{\\Omega} \\frac{\\partial h(x,y)}{\\partial x}\\frac{\\partial B_{k,2}(x)}{\\partial x } B_{l,2}(y)dxdy +\\int_{\\partial \\Omega} \\frac{\\partial h(x,y)}{\\partial n } B_{k,2}(x)B_{l,2}(y)dS \\) \\( F2_{k,l=1,...,6}= \\int_{\\Omega} \\frac{\\partial h(x,y)}{\\partial y}B_{k,2}(x)\\frac{\\partial B_{l,2}(y)}{\\partial y} dxdy +\\int_{\\partial \\Omega} \\frac{\\partial h(x,y)}{\\partial n } B_{k,2}(x)B_{l,2}(y)dS \\) Nasz układ równań wygląda następująco \\( \\left( \\begin{matrix} A1 & 0 & B1 \\\\ 0 & A2 & B2 \\\\ Q1 & Q2 & 0 \\end{matrix} \\right) \\left( \\begin{matrix} u_1 \\\\ u_2 \\\\ p \\end{matrix} \\right) =\\left( \\begin{matrix} F1 \\\\ F2 \\\\ 0 \\end{matrix} \\right) \\) Dokładne rozwiązanie równania Stokesa wymaga dodatkowej stabilizacji równania. W kolejnych modułach omówione zostaną dwie metody stabilizacji, jedna oparta na metodzie minimalizacji reziduum, druga oparta na metodzie DG (Discontinuous Galerkin)."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 3. Sformułowania wariacyjne dla różnych problemów i metod", "subject_id": 701, "subject": "Równania liniowej sprężystości", "paragraphs": ["W module tym przedstawimy sformułowanie silne i słabe dla równań liniowej teorii sprężystości, bardzo powszechnie używanych podczas obliczeń za pomocą metody elementów skończonych naprężeń w różnych konstrukcjach. Rozważmy dla przykładu trójwymiarową platformę podpartą pięcioma podporami stojącą na płaszczyźnie OXY, przedstawioną na rysunku 1. Platforma ta posiada swój ciężar i pojawiają się na niej pewne naprężenia wynikające z oddziaływania pola grawitacyjnego ziemi. Dla wygodniejszego sformułowania równań różniczkowych cząstkowych opisujących przemieszczenie platformy, będziemy teraz używać oznaczenia \\( (x_1,x_2,x_3) \\) w dowolnym punkcie platformy. Poszukiwanym rozwiązaniem będzie tym razem pole wektorowe przemieszczeń \\( \\Omega \\ni (x_1,x_2,x_3) \\rightarrow (u_1(x_1,x_2,x_3),u_2(x_1,x_2,x_3),u_3(x_1,x_2,x_3)) \\) Oznacza to w szczególnosci że przemieszczenia punktów platformy pod jej ciężarem, w kierunku osi \\( z \\), wynoszą \\( u_3(x_1,x_2,x_3) \\) w punkcie \\( (x_1,x_2,x_3) \\). Oczywiście pole grawitacyjne działa jedynie w kierunku osi Z, ale punkty platformy są ze sobą \"sklejone\" i jeśli punkt platformy przemieszcza się w kierunku osi Z pod wpływem ciężaru platformy, często związane jest to z przesunięciem punktu w kierunkach Y oraz Z, co opisują składowe \\( u_1(x_1,x_2,x_3) \\) oraz \\( u_2(x_1,x_2,x_3) \\). Oczywiście przewidzenie jak będą odkształcać się te punkty nie jest rzeczą prostą, i w szczególności wymaga rozwiązania skomplikowanych równań liniowej teorii sprężystości. Dla uproszczenia zapisu oraz ze względu na stosowanie tradycyjnego zapisu wprowadzamy oznaczenie na pochodne cząstkowe poszczególnych współrzędnych wektora przemieszczeń \\( u_{i,j}=\\frac{\\partial u_i}{\\partial x_j } \\) oznacza to pochodną w kierunku \\( j \\)-tym ze składowej pola wektorowego \\( i \\)-tego. W celu wyprowadzenia równań liniowej teorii sprężystości wprowadza się tak zwany tensor prędkości odkształceń \\( \\epsilon_{ij}=\\frac{\\frac{\\partial u_i}{\\partial x_j}+\\frac{\\partial u_j}{\\partial x_i}}{2}=\\frac{u_{i,j}+u_{j,i } }{2 } \\) oraz tensor naprężeń \\( \\sigma_{ij}=c_{ijkl}\\epsilon_{kl} \\) Używamy tutaj tak zwanej konwencji sumacyjnej Einsteina, w której zduplikowanie indeksów we wzorze oznacza iż sumujemy po tych indeksach czyli na przykład w równaniu spreżystości \\( \\sigma_{ij}=c_{ijkl}\\epsilon_{kl } \\) powtórzenie indeksów \\( k,l \\) oznacza sumowanie po tych indeksach \\( \\sigma_{ij}=\\sum_{k=1,...,3;l=1,...,3} c_{ijkl}\\epsilon_{kl } \\). Mamy tutaj czterowymiarową macierz współczynników \\( c_{ijkl},i=1,...,3;j=1,...,3,k=1,...,3;l=1,..,3 \\). Określenie tych 3*3*3*3 liczb definiuje mi jednoznacznie materiał z którego zbudowana jest analizowana przeze mnie konstrukcja (w naszym przykładzie platforma). Większość tych współczynników na szczęście będzie równa zero. Tak zwane sformułowanie silne problemu liniowej teorii sprężystości formułuje się następująco: \\( \\sigma_{ij,j}+f_i=0 \\) dla i=1,2,3, w obszarze \\( \\Omega \\). Wyraz \\( f_i \\) oznacza 3 współrzędne wektora siły działającej na naszą konstrukcję, na przykłąd będzie to siła grawitacji \\( f=(g_1(x_1,x_2,x_3),g_2(x_1,x_2,x_3),g_3(x_1,x_2,x_3)) \\) Wprowadzamy tutaj następującą konwencję. Indeksy powtórzone po przecinku \\( ij,j \\) oznaczają obliczanie pochodnej pochodne cząstkowej po indeksowanej zmiennej. Zapis \\( \\sigma_{ij,j}=\\frac{\\partial \\sigma_{ij} }{\\partial x_j } \\) oznacza więc sumę pochodnych cząstkowych z tensora naprężeń. Ponadto mamy defacto trzy równania (co ma sens ponieważ szukamy trzech współrzędnych wektora przemieszczeń). \\( \\sum_{j=1,2,3}\\frac{\\partial \\sigma_{1j}}{\\partial x_j}+f_1=0 \\\\ \\sum_{j=1,2,3}\\frac{\\partial \\sigma_{2j}}{\\partial x_j }+f_2=0 \\\\ \\sum_{j=1,2,3}\\frac{\\partial \\sigma_{3j}}{\\partial x_j }+f_3=0 \\) czyli uwzględniając defincje tensora naprężeń \\( \\sum_{j=1,2,3}\\frac{\\partial (\\sum_{k=1,...,3;l=1,...,3} c_{1jkl}\\epsilon_{kl})}{\\partial x_j}+f_1=0 \\\\ \\sum_{j=1,2,3}\\frac{\\partial (\\sum_{k=1,...,3;l=1,...,3} c_{2jkl}\\epsilon_{kl})}{\\partial x_j}+f_2=0 \\\\ \\sum_{j=1,2,3}\\frac{\\partial (\\sum_{k=1,...,3;l=1,...,3} c_{3jkl}\\epsilon_{kl})}{\\partial x_j }+f_3=0 \\) czyli uwzględniając definicje tensora prędkości odkształceń \\( \\sum_{j=1,2,3}\\frac{\\partial (\\sum_{k=1,...,3;l=1,...,3} c_{1jkl}(\\frac{u_{k,l}+u_{l,k}}{2}))}{\\partial x_j }+f_1=0 \\\\ \\sum_{j=1,2,3}\\frac{\\partial (\\sum_{k=1,...,3;l=1,...,3} c_{2jkl}(\\frac{u_{k,l}+u_{l,k}}{2}))}{\\partial x_j }+f_2=0 \\\\ \\sum_{j=1,2,3}\\frac{\\partial (\\sum_{k=1,...,3;l=1,...,3} c_{3jkl}\\frac{u_{k,l}+u_{l,k}}{2})}{\\partial x_j }+f_3=0 \\) Nasze niewiadome tutaj to pole wektorowe przemieszczeń: Szukamy \\( \\Omega \\ni (x_1,x_2,x_3) \\rightarrow (u_1(x_1,x_2,x_3),u_2(x_1,x_2,x_3),u_3(x_1,x_2,x_3)) \\) Żeby rozwiązać równania liniowej teorii sprężystości na danej konstrukcji, konieczne jest zdefiniowanie warunków brzegowych, czyli określenie tego co się dzieje na brzegu konstrukcji. Na części brzegu możemy wprowadzić warunek Dirichleta, na przykład określając że podstawa konstrukcji jest przymocowana do podłoża, i dlatego przemieszczenie podstawy konstrukcji jest zerowe \\( u_1(x_1,x_2,x_3)=0, u_2(x_1,x_2,x_3)=0, u_3(x_1,x_2,x_3)=0, \\textrm{ dla } (x_1,x_2,x_3)\\in \\Gamma_D \\) Możliwe jest również określenie warunku brzegowego Neumanna \\( \\sigma_{ij}n_j = h_i \\textrm{ dla } (x_1,x_2,x_3)\\in \\Gamma_N \\) gdzie \\( n(x_1,x_2,x_3)=(n_1(x_1,x_2,x_3),n_2(x_1,x_2,x_3),n_3(x_1,x_2,x_3)) \\) oznacza wersor prostopadły do brzegu w punkcie \\( (x_1,x_2,x_3) \\), oraz \\( h=(h_1(x_1,x_2,x_3),h_2(x_1,x_2,x_3),h_3(x_1,x_2,x_3)) \\) oznacza zadaną funkcję na brzegu Neumanna \\( \\Gamma_N \\), czyli uwzględniając konwencje sumacyjną Einsteina \\( \\sigma_{11}n_2+\\sigma_{12}n_2+\\sigma_{13}n_3 = h_1 \\\\ \\sigma_{21}n_2+\\sigma_{22}n_2+\\sigma_{23}n_3 = h_2 \\\\ \\sigma_{31}n_2+\\sigma_{32}n_2+\\sigma_{33}n_3 = h_3 \\) czyli uwzględniając definicje tensora naprężeń \\( (\\sum_{k=1,...,3;l=1,...,3} c_{11kl}\\epsilon_{kl})n_2+ (\\sum_{k=1,...,3;l=1,...,3} c_{12kl}\\epsilon_{kl})n_2+ (\\sum_{k=1,...,3;l=1,...,3} c_{13kl}\\epsilon_{kl})n_3 = h_1 \\\\ (\\sum_{k=1,...,3;l=1,...,3} c_{21kl}\\epsilon_{kl})n_2+(\\sum_{k=1,...,3;l=1,...,3} c_{22kl}\\epsilon_{kl})n_2+ (\\sum_{k=1,...,3;l=1,...,3} c_{23kl}\\epsilon_{kl})n_3 = h_2 \\\\ (\\sum_{k=1,...,3;l=1,...,3} c_{31kl}\\epsilon_{kl})n_2+ (\\sum_{k=1,...,3;l=1,...,3} c_{32kl}\\epsilon_{kl})n_2+ (\\sum_{k=1,...,3;l=1,...,3} c_{33kl}\\epsilon_{kl })n_3 = h_3 \\). Warunek Neumanna określa siły w równaniach teorii sprężystości Sformułowanie słabe (zwane też wariacyjnym) które nadawać się będzie do implementacji za pomocą metody elementów skończonych podajemy na podstawie książki [1] Sformułowanie słabe (wariacyjne) podane poniżej obowiązuje dla pewnej szerokiej klasy materiałów dla której własności mechaniczne da się opisać za pomocą dwóch parametrów, modułu Younga \\( E \\) oraz współczynnika Poissona \\( \\mu \\). Dla zadanego pola sił \\( \\Omega \\ni (x_1,x_2,x_3) \\rightarrow f=(g_1(x_1,x_2,x_3),g_2(x_1,x_2,x_3),g_3(x_1,x_2,x_3)) \\) oraz zadanej funkcji warunku brzegowego Neumanna \\( \\Omega \\ni (x_1,x_2,x_3) \\rightarrow h=(h_1(x_1,x_2,x_3),h_2(x_1,x_2,x_3),h_3(x_1,x_2,x_3)) \\) oraz zadanego tensora (macierzy czterowymiarowej) współczynników materiałowych \\( c_{ijkl} \\) obliczyć pole przemieszczeń materiału konstrukcji \\( \\Omega \\ni (x_1,x_2,x_3) \\rightarrow (u_1(x_1,x_2,x_3),u_2(x_1,x_2,x_3),u_3(x_1,x_2,x_3)) \\) spełniające równania liniowej sprężystości \\( a(w,u)=(w,f)+(w,h)_{\\Gamma} \\) dla dowolnych funkcji testujących \\( w=(w_1(x_1,x_2,x_3),w_2(x_1,x_2,x_3),w_3(x_1,x_2,x_3)) \\), gdzie \\( (w,f)=\\int_{\\Omega}w_1(x_1,x_2,x_3)f_1(x_1,x_2,x_3)dx+\\int_{\\Omega}w_2(x_1,x_2,x_3)f_2(x_1,x_2,x_3)dy+\\int_{\\Omega}w_3(x_1,x_2,x_3)f_3(x_1,x_2,x_3)dz \\\\ (w,h)=\\int_{\\Gamma}w_1(x_1,x_2,x_3)h_1(x_1,x_2,x_3)dS+\\int_{\\Gamma}w_2(x_1,x_2,x_3)h_2(x_1,x_2,x_3)dS+\\int_{\\Gamma}w_3(x_1,x_2,x_3)f_3(x_1,x_2,x_3)dS \\\\a(w,u)=\\int_{\\Omega}\\epsilon(w)^T D \\epsilon(u) dxdydz \\), gdzie \\( \\epsilon(u) = \\begin{bmatrix} u_{1,1} \\\\ u_{2,2} \\\\ u_{3,3} \\\\ u_{2,3}+u_{3,2} \\\\ u_{1,3}+u_{3,1} \\\\ u_{1,2}+u_{2,1} \\\\ \\end{bmatrix}, \\epsilon(w) = \\begin{bmatrix} w_{1,1} \\\\ w_{2,2} \\\\ w_{3,3} \\\\ w_{2,3}+w_{3,2} \\\\ w_{1,3}+w_{3,1} \\\\ w_{1,2}+w_{2,1} \\\\ \\end{bmatrix} \\) natomiast \\( D = \\frac{E}{(1+2\\mu)(1-2\\mu) } \\begin{bmatrix} 1-\\mu & \\mu & \\mu & 0 & 0 & 0 \\\\ \\mu & 1-\\mu & \\mu & 0 & 0 & 0 \\\\ \\mu & \\mu & 1-\\mu & 0 & 0 & 0 \\\\ 0 & 0 & 0& \\frac{1-2\\mu}{2} & 0 & 0 \\\\ 0 & 0 & 0& 0 & \\frac{1-2\\mu}{2} & 0 \\\\ 0 & 0 & 0& 0 & 0& \\frac{1-2\\mu}{2} \\\\ \\end{bmatrix} \\) wyprowadzona jest przy założeniu że ogólny tensor własności materiału \\( c_{ijkl} \\) da się opisać za pomocą dwóch parametrów modułu Younga \\( E \\) oraz współczynnika Poissona \\( \\mu \\). Podane sformułowanie wariacyjne jest stosunkowo wygodne do implementacji. Można w tym celu zastosować izogeometryczną metodę elementów skończonych, lub klasyczną metodę elementów skończonych. Rozważmy następujący przykład."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 3. Sformułowania wariacyjne dla różnych problemów i metod", "subject_id": 733, "subject": "Sformułowania wariacyjne a całkowanie numeryczne", "paragraphs": ["Dla wszystkich wymienionych powyżej sformułowań wariacyjnych w celu rozwiązania ich metodą elemntów skończonych konieczne jest wygenerowanie układu równań liniowych. W szczególności konieczne jest wygenerowanie całek do układu równań liniowych. Pamiętając, że wiersze i kolumny w globalnym układzie równań odpowiadają poszczególnym funkcjom bazowym, w naszym przykładzie odpowiadają one funkcjom B-spline, generujemy następujący układ równań \\( \\begin{bmatrix} & \\color{red}{B^x_{1,p} B^y_{1,p}} & \\cdots &\\color{red}{ B^x_{N_x,p}B^y_{1,p}} \\\\ \\color{blue}{ B^x_{1,p}B^y_{1,p}}& a(\\color{blue}{ B^x_{1,p}B^y_{1,p}}, \\color{red}{ B^x_{1,p}B^y_{1,p}}) & \\cdots & a(\\color{blue}{ B^x_{1,p}B^y_{1,p}},\\color{red}{ B^x_{N_x,p}B^y_{N_y,p}}) \\\\ \\color{blue}{ B^x_{2,p}B^y_{1,p}} & a(\\color{blue}{ B^x_{2,p}B^y_{1,p}},\\color{red}{ B^x_{1,p}B^y_{1,p}}) & \\cdots & a(\\color{blue}{ B^x_{2,p}B^y_{1,p}},\\color{red}{ B^x_{N_x,p}B^y_{N_y,p}}) \\\\ \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\color{blue}{ B^x_{N_x,p}B^y_{N_y,p} } & a(\\color{blue}{ B^x_{N_x,p}B^y_{N_y,p}}, \\color{red}{ B^x_{1,p}B^y_{1,p}}) & \\cdots & a(\\color{blue}{ B^x_{N_x,p}B^y_{N_y,p}},\\color{red}{ B^x_{N_x,p}B^y_{N_y,p}}) \\\\ \\end{bmatrix} \\begin{bmatrix} u_{1,1} \\\\ u_{2,1} \\\\ \\vdots \\\\ u_{N_x,N_y } \\\\ \\end{bmatrix} \\) \\( = \\begin{bmatrix} l(B^x_1(x)*B^y_1(y)) \\\\ l(B^x_1(x)*B^y_2(y)) \\\\ \\vdots \\\\ l(B^x_{N_x}(x)*B^y_{N_y}(y)) \\\\ \\end{bmatrix} \\) Funkcje B-spline które nie mają wspólnej dziedziny (które znajdują się daleko od siebie na siatce) generują zerowe całki, czyli zerowa wartości macierzy. Podczas generacji macierzy nie należy więc iterować po wierszach i kolumnach macierzy, za to należy iterować po elementach siatki obliczeniowej, oraz po funkcjach bazowych które są określone na danym elemencie. Wynikowe fragmenty całek należy dopisywać do globalnej macierzy. Wówczas to nasza generacja całek omijać będzie wszystkie niezerowe wyrazy macierzy. Algorytm zawiera sześć zagnieżdżonych pętli: 1 for \\( nex=1,N_x \\) (pętla po elementach wzdłuż osi \\( x \\)) 2 for \\( ney=1,N_y \\) (pętla po elementach wzdłuż osi \\( y \\)) 3 for \\( ibx1=1,p+1 \\) (pętla po \\( p+1 \\) B-spline elementu wzdłuż osi \\( x \\)) 4 for \\( iby1=1,p+1 \\) ( pętla po \\( p+1 \\) B-spline elementu wzdłuż osi \\( y \\)) 5 \\( i = f(nex,ibx1) \\) ( oblicz indeks B-spline wzdłuż osi \\( x \\)) 6 \\( j = f(ney,iby1) \\) ( oblicz indeks B-spline wzdłuż osi \\( y \\)) 7 \\( irow = g(nex,ibx1,ney,iby1) \\)(globalny indeks 2D B-spline'a) 8 \\( l(irow)+= l(B^x_{i,p}B^y_{j,p}) \\) 9 for \\( ibx2=1,p+1 \\) ( pętla po \\( p+1 \\) B-spline elementu wzdłuż osi \\( x \\)) 10 for \\( iby2=1,p+1 \\) (pętla po \\( p+1 \\) B-spline elementu wzdłuż osi \\( y \\)) 11 \\( k = f(nex,ibx2) \\) (oblicz indeks B-spline wzdłuż osi \\( x \\)) 12 \\( l = f(ney,iby2) \\) (oblicz indeks B-spline wzdłuż osi \\( y \\)) 13 \\( irow = g(nex,ibx2,ney,iby2) \\) (globalny indeks 2D B-spline'a) 14 \\( M(irow,icol)+= a(B^x_{i,p}B^y_{j,p},B^x_{k,p}B^y_{l,p}) \\) Funkcje \\( f(nex,ibx) \\) obliczają indeks funkcji \\( ibx \\)-tej B-spline rozpiętej na elemencie wzdłuż osi \\( x \\) numer \\( nex \\). Dla jednorodnych B-spline'ów stopnia \\( p \\) indeks ten wynosi \\( nex+ibx-1 \\). Funkcje \\( g(nex,ibx,ney,iby) \\) obliczają globalny indeks dwuwymiarowego B-spline'a. W przypadku jednorodnych funkcji B-spline wzór ten wynosi \\( irow = i*j \\) gdzie \\( i=f(nex,ibx) \\) oraz \\( j=f(ney,iby) \\). Z koleji obliczanie całek realizowane jest w ogólnym przypadku przez całkowanie numeryczne z wykorzystaniem punktów i wag kwadratury, na przykład kwadratury Gaussa. Całkę jednowymiarowaz wielomianu na przedziale da się obliczyć dokładnie jako suma wartości tego wielomianu w wybranych punktach kwadrtury rozpostartych na przedziale, przemnożonych przez odpowiednie wagi. Wyprowadzenie i teoria kwadratur numerycznych wykracza poza zakres tego podręcznika. Nazwa kwadratur Gaussa pochodzi od nazwiska niemieckiego matematyka który wynalazł tą metodę całkowania w 1826 roku. [1] Wybór kwadratury zależy od rodzaju funkcji bazowych, i możliwa jest redukcja liczby punktów kwadratury stosując specjalne kwadratury dedykowane poszczególnym funkcjom bazowym. W ogólnym przypadku na pojedynczym elemencie funkcje bazowe są wielomianami i stosowanie kwadratur Gaussa jest uzasadnione. Poniższy przykład ilustruje tworzenia punktów i wag kwadratury Gaussa na przedziale \\( [0,1] \\) gwarantującej dokładne policzenie całki z funkcji dwuwymiarowych B-spline stopnia nie większego niż 10. m_points[1]= (1.0-0.973906528517171720077964)*0.5; m_points[2]= (1.0-0.8650633666889845107320967)*0.5; m_points[3]= (1.0-0.6794095682990244062343274)*0.5; m_points[4]= (1.0-0.4333953941292471907992659)*0.5; m_points[5]= (1.0-0.1488743389816312108848260)*0.5; m_points[6]= (1.0+0.1488743389816312108848260)*0.5; m_points[7]= (1.0+0.4333953941292471907992659)*0.5; m_points[8]= (1.0+0.6794095682990244062343274)*0.5; m_points[9]= (1.0+0.8650633666889845107320967)*0.5; m_points[10]= (1.0+0.9739065285171717200779640)*0.5; m_weights[1]=0.0666713443086881375935688*0.5; m_weights[2]=0.1494513491505805931457763*0.5; m_weights[3]=0.2190863625159820439955349*0.5; m_weights[4]=0.2692667193099963550912269*0.5; m_weights[5]=0.2955242247147528701738930*0.5; m_weights[6]=0.2955242247147528701738930*0.5; m_weights[7]=0.2692667193099963550912269*0.5; m_weights[8]=0.2190863625159820439955349*0.5; m_weights[9]=0.1494513491505805931457763*0.5; m_weights[10]=0.0666713443086881375935688*0.5; Kwadratury oryginalnie tablicowane są dla przedziału \\( [-1,1] \\) tak więc tutaj przeskalowujemy je do przedziału \\( [0,1] \\) dodając 1 do współrzędnej punktów oraz dzieląc współrzędne punktow przez 2 (czyli mnożąc przez 0.5). Wówczas całkowanie numeryczne wykonywane w linii 14 (i kolejnych) w powżzszym kodzie wymaga dwóch dodatkowych pętli po punktach i wagach kwadratury Gassua i wygląda ono następująco: 15 for \\( m=1,p/2+1 \\) (pętla po punktach kwadratury Gaussa wzdłuż osi \\( x \\) dla B-spline'ów stopnia \\( p \\)) 16 for \\( n=1,p/2+1 \\) (pętla po punktach kwadratury Gaussa wzdłuż osi \\( y \\) dla B-spline'ów stopnia \\( p \\)) 17 \\( M(irow,icol)+=\\\\ a(B^x_{i,p}(m\\_points[m])B^y_{j,p}(m\\_points[n]), B^x_{k,p}(m\\_points[m])B^y_{l,p}(m\\_points[n])) \\\\ *m\\_weights[m]*m\\_weights[n]*area \\) W szczególności dla naszego przykładowego problemu transportu ciepła na obszarze w ksztalcie litery L mamy \\( M(u,v) = \\left(\\frac{\\partial B^x_{i,p} }{\\partial x }(m\\_points[m])\\frac{\\partial B^x_{k,p} }{\\partial x }(m\\_points[m])\\right)*m\\_weights[m] \\\\ + \\left(\\frac{\\partial B^y_{j,p} }{\\partial y }(m\\_points[n]) \\frac{\\partial B^y_{l,p} }{\\partial y }(m\\_points[n]) \\right)*m\\_weights[n] \\) W powyższym wzorze obliczamy wartości pochodnych z jednowymiarowych funkcji B-spline w punktach kwadratury Gaussa \\( (m\\_points[m],m\\_points[n]) \\) przemnożone przez wagi kwadratury Gaussa \\( *m\\_weights[m]*m\\_weights[n] \\)."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 3. Sformułowania wariacyjne dla różnych problemów i metod", "subject_id": 702, "subject": "Implementacja w MATLABie problemu transportu ciepła", "paragraphs": ["Poniżej przedstawiam kod MATLABa obliczający problem transportu ciepła na obszarze w kształcie litery L.", "Pobierz kod lub zob. Załącznik 3.", "Kod może zostać uruchomiony w darmowym środowisku Octave. Kod uuchamia się otwierając go w Octave oraz wpisując komendę \\( heat' \\) Po chwili obliczeń kod otwiera dodatkowe okienko i rysuje w nim rozwiązanie. W linii 641 \\( knot = [0, 0, 0, 1, 2, 2, 2]; \\) znajduje się zapisany wektor węzłów [0 0 0 1 2 2 2] który używany będzie na każdym z trzech grup elementów (patchów) stosowanych do rozwiązania problemu transportu ciepła.", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 3. Sformułowania wariacyjne dla różnych problemów i metod", "subject_id": 703, "subject": "Implementacja w MATLABie problemu adwekcji-dyfuzji metodą Galerkina", "paragraphs": ["Poniżej przedstawiam kod MATLABa obliczający problem adwekcji-dyfuzji metodą Galerkina, dla modelowego problemu Erikksona-Johnsona. Przypomnijmy najpierw problem adwekcji-dyfuzji, problem modelowy Erikksona-Johnsona (opisany na przykład w dokumencie [1]) zdefiniowany na obszarze kwadratowym \\( \\Omega = [0,1]^2 \\) w następujący sposób: Szukamy funkcji \\( u \\) takiej że \\( a(u,v)=l(v) \\forall v \\) gdzie \\( a(u,v) =\\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y) }{\\partial x } dxdy + \\int_{\\Omega} \\beta_y(x,y) \\frac{\\partial u(x,y)}{\\partial y } dxdy \\\\ +\\epsilon \\int_{\\Omega} \\frac{\\partial u(x,y) }{\\partial x} \\frac{\\partial v(x,y)}{\\partial x } dxdy +\\epsilon \\int_{\\Omega} \\frac{\\partial u(x,y)}{\\partial y } \\frac{\\partial v(x,y)}{\\partial y } dxdy \\) \\( l(v) = \\int_{\\partial \\Omega } f(x,y) v dxdy \\) \\( f(x,y)=sin(\\pi y)(1-x) \\) jest rozszerzeniem warunku brzegowego Dirichleta na cały obszar, natomiast \\( \\beta = (1,0) \\) reprezentuje prędkość wiatru wiejącego z lewej strony na prawą, natomiast \\( \\epsilon = 10^{-2} \\) oznacza współczynnik dyfuzji. Wielkość \\( Pe=1/ \\epsilon = 100 \\) nazywa sie liczbą Pecleta, i definiuje ona wrażliwość problemu adwekcji-dyfuzji. Przedstawiona tutaj definicja liczby Pecleta obowiązuje w przypadku jednostkowej prędkości wiatru \\( \\| \\beta \\|_2=\\sqrt{\\beta_x^2+\\beta^2_y}=1 \\). W ogólnym przypadku rozważa się liczbę Pecleta zdefiniowaną na poszczególnych elementach siatki zgodnie ze wzorem \\( Pe=\\| \\beta \\|_2*h/(2*\\epsilon) \\). Tak zdefiniowaną liczbę Pecleta użyć można do badania stabilności symulacji, liczba Pecleta mniejsza od jeden daje nam warunek stabilności symulacji na elemencie.", "Kod można uruchomić w darmowym środowisku Octave.", "Pobierz kod lub zob. Załącznik 3A.", "W linii 835 tworzony jest knot vector zbudowany z 5 elementów dla wielomianów kwadratowych \\( knot = simple\\_knot(5, 2); \\) W linii 836 ustawiany jest współczynnik dyfuzji (dla współczynnika adwekcji równego 1). \\( epsilon = 2e-2; \\) Kod może zostać uruchomiony w darmowym środowisku Octave. Kod uruchamia się otwierając go w Octave oraz wpisując komendę \\( advection' \\) Po chwili obliczeń kod otwiera dodatkowe okienko i rysuje w nim rozwiązanie numeryczne oraz dokładne. Kod oblicza również normę L2 i H1 z rozwiązania \\( Error: L2 24.00 procent, H1 72.08 procent \\) i porównuje do normy L2 i H1 z projekcji rozwiazania dokładnego na przestrzeń funkcji B-spline rozpiętych na danej siatce. \\( Best possible: L2 1.56 procent, H1 53.16 procent \\) Zauważmy że norma te nie będzie równa zero, ponieważ rozwiązanie dokładne nie jest dane funkcjami B-spline, i nawet jeśli znamy rozwiązanie dokładne, to nie jest ona zadane funkcjami B-spline, i jego projekcja na przestrzeń funkcji B-spline również jest przybliżeniem rozwiązania dokładnego. Porównanie to pokazuje jaki bład popełnia nasza metoda numeryczna, i jakie normy mogła by osiągnąć na aktualnej siatce z funkcjami B-spline. Widać że metoda Galerkina nie daje dokładnego rozwiązania.", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 704, "subject": "Algorytm eliminacji Gaussa", "paragraphs": ["Algorytm eliminacji Gaussa jest podstawowym najszerzej znanym algorytmem rozwiązywania układów równań liniowych. Algorytm eliminacji, zwany algorytmem Gaussa został wynaleziony w Chinach w roku 179. W Europie algorytm zaczął być używany w roku 1771 przez Leonarda Eulera, który nazywał go najbardziej naturalnym sposobem rozwiązywania układów równań. Jest on niesłusznie nazywany algorytmem eliminacji Gaussa, od matematyka Carla Friedricha Gaussa (1777-1855), który nie żył jeszcze w roku 1771 [1].", "Algrorytm który wykonywaliśmy krok po kroku podsumować można w następujący sposób:", "Ostatni krok to uruchomienie algorytmu podstawiania wstecz, który rozwiąże nasz układ równań począwszy od ostatniego równania.", "Algorytm eliminacji Gaussa jest kosztowny. Oznacza to że dla macierzy o rozmiarze \\( N \\) wierszy i kolumn, wykona on około \\( N^3 \\) operacji. Jaką więc największą macierz możemy przetworzyć algorytmem eliminacji Gaussa w ciągu 24 godzin? Na dzień dzisiejszy (styczeń 2019) zegary procesorów mają około 3 GHz. Oznacza to iż w ciągu każdej sekundy procesor potrafi wykonać \\( 3\\times 10^9 \\) dodawań lub mnożeń. Doba ma \\( 24*60*60=86400 \\) sekund. Procesor potrafi więc wykonać \\( 86400*10^9=86400000000000 \\) operacji dodawania i mnożenia wciągu doby. Pierwiastek trzeciego stopnia z tej liczby to \\( (86400000000000)^{\\frac{1}{3}}\\approx44208 \\) tak więc największa macierz którą potrafimy przetworzyć ma rozmiar 44208. Reprezentuje ona siatkę obliczeniową o 210 elementach w każdym kierunku. Jest to więc względnie mała siatka obliczeniowa. Potrzebujemy lepszych algorytmów. Co więcej wszystkie nasze szacowania przeprowadziliśmy przy założeniu że procesor nie czeka na dane, tylko cały czas je przetwarza, oraz że posiadamy wystarczająco dużo pamięci RAM oraz optymalną strukturę cache'a procesora. Zazwyczaj sytuacji nie jest tak idealna, w praktyce więc trudno jest przetworzyć eliminacją Gaussa macierze o rozmiarze większym niż 10000 co odpowiada siatce 100 na 100.", "W przypadku wielu prawych stron, dla każdej prawej strony konieczne jest wykonywanie eliminacji Gaussa ponownie. Możliwe jest zapamiętanie liczb przez które przemnażamy prawą stronę, tak żeby wykonować eliminację tylko raz, i dla każdej nowej prawej strony wykonać jedynie update. Wykonuje to algorytm LU faktoryzacji.", "Algorytm eliminacji Gaussa nie opuszcza zer. Przemnażanie zer przez liczby niezerowe nie ma generalnie sensu, jest stratą czasu. Algorytm elimiancji Gaussa można przyspieszyć opuszczając wszystkie zera. Jeśli będziemy wiedzieć apriori gdzie w macierzy znajdują się zera, możemy je opuścić i przyspieszyć elimiancję Gaussa. To będzie przedmiotem algorytmu frontalnego i wielo-frontalnego.", "Jeśli macierz posiada strukturę produktu Kroneckera dwóch mniejszych macierzy (co miało miejsce w przykładzie z rozdziału pierwszego) wówczas możliwe jest zastosowanie algorytmu solwera zmienno-kierunkowego, o liniowej złożoności obliczeniowej.", "Jeśli zadowala nas wynik z pewną dokładnością, np. 0.0001, możliwe jest obliczenie rozwiązania przybliżonego stosując tak zwane algorytmy iteracyjne. Jednakże algorytmy te nie działają dla wszystkich rodzajów macierzy."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 706, "subject": "Algorytm eliminacji Gaussa z pivotingiem", "paragraphs": ["Zacznijmy ponownie eliminacje Gaussa dla naszego przykładu, tym razem z zaminą wierszy (zwaną również \"pivotingiem\" w dosłownym tłumaczeniu z języka angielskiego).", "Algorytm elimiancji Gaussa należy wzbogacić o zamianę wierszy"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 705, "subject": "Algorytm LU faktoryzacji", "paragraphs": ["Algorytm LU faktoryzacji został wynaleziony przez polskiego matematyka Tadeusza Banachiewicza w roku 1938, co opisano w pracy [1] Zauważmy iż algorytm eliminacji Gaussa generuje macierz trójkątną górną \\( U \\). Możliwe jest również wygenerowanie macierzy trójkątnej dolnej \\( L \\) takiej że oryginalna macierz naszego problemu \\( A=LU \\). Jaka jest zaleta w posiadaniu takiej dekompozycji? Załóżmy że chcemy rozwiązać dwa problemy dla dwóch prawych stron \\( b_1, b_2 \\). Załóżmy również że na początku znamy prawą stronę \\( b_1 \\) a że drugą prawą stronę \\( b_2 \\) poznamy dopiero po rozwiązaniu problemu dla pierwszej prawej strony. Czy da się w jakiś sposób wykorzystać faktoryzację macierzy \\( A \\) wykonaną dla poprzedniej prawej strony \\( b_1 \\)? Najpierw obliczamy LU faktoryzację macierzy \\( A=LU \\) następnię mamy równanie \\( LUx=b_1 \\). Obliczamy najpierw \\( z \\) wykonując podstawianie w przód na podstawie równania \\( Lz=b_1 \\). Następnie obliczamy x rozwiązując równanie \\( Ux=z \\) przez podstawianie wstecz."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 1085, "subject": "Algorytm LU faktoryzacji z pivotingiem", "paragraphs": ["Jak przerobić algorytm eliminacji Gaussa z pivotingiem na algorytm LU faktoryzacji z pivotingiem? Należy wprowadzić dodatkową macierz \\( {\\bf P} \\) która będzie odpowiadać za pivoting."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 707, "subject": "Algorytm solwera frontalnego", "paragraphs": ["Algorytm solwera frontalnego był pierwszym algorytmem modyfikującym eliminację Gaussa wykorzystującym dodatkową wiedzę o metodzie elementów skończonych. Celem modfikacji algorytmu było omijanie zer w macierzy wynikających z interakcji pomiędzy funkcjami bazowymi rozpiętymi na siatce obliczeniowej, znajdującymi się daleko od siebie. Algorytm ten został zaproponowany przez Bruce'a Irons'a w 1970 roku. Bruce Irons zdobył szeroką sławę po wynalezieniu tego algorytmu [1]. Jego wyniki naukowe tym bardziej zasługują na uznanie, ponieważ zmagał się z nieuleczalną chorobą jaką było stwardnienie rozsiane. Idea algorytmu polega na generowaniu lokalnych macierzy wynikających z interakcji funkcji bazowych na poszczególnych elementach skończonych. Zamiast generować całą macierz, cały układ równań, układamy elementy skończone w wybranej kolejności. Generujemy fragment macierzy wynikający z interakcji funkcji bazowych na pierwszym elemencie. Wiersze i kolumny macierzy elementowych odpowiadają poszczególnym funkcjom bazowym rozpostartym na danym elemencie. Wyrazy macierzy oznaczają interakcję funkcji bazowych z wiersza i kolumny (całkę z iloczynu funkcji bazowych policzoną na danym elemencie). Niektóre wiersze macierzy mogą zostać w pełni wygenerowane, niektóre jedynie częściowo, ponieważ brakować będzie pewnych kolumn wynikających z faktu iż funkcje bazowe występujące na danym elemencie rozpościerają się na sąsiednich elementach, i oddziaływują (mając wspólne nośniki dziedziny) z funkcjami bazowymi z kolejnych elementów (z kolejnych kolumn macierzy).", "Zróbmy teraz następujące obserwacje. Algorytm solwera frontalnego w przedstawionej powyżej formie pozwala jedynie na pivoting w ramach wierszy które zostały w pełni zsumowane. Jeśli macierz nie jest symetryczna i dodatnio określona stanowi to problem, i uzyskane rozwiązanie może nie być poprawne. Algorytm solwera frontalnego można uogólnić na dowolne siatki wielowymiarowe, jednakże główną jego wadą jest fakt iż rozmiar macierzy frontalnej (do której dokładamy poszczególne elementy) może rosnąć i koszt tego solwera jest duży. Rozmiar macierzy frontalnej związany jest z rozmiarem interfejsu pomiędzy dodawanymi i eliminowanymi elementami, a całą resztą siatki obliczeniowej. Interfejs ten nazywa się frontem solwera. W ogólnym przypadku rozmiar frontu zależy od rozmiaru i ksztaltu siatki obliczeniowej. Podczas przeglądania elementów siatki dwuwymiarowej wiersz po wierszu, wiersze których funkcje rozpościerają się również na kolejnych wierszach będą musiały poczekać z eliminacją do momentu w którym włączymy do macierzy frontalnej kolejny wiersz. Dlatego też rozmiar macierzy frontalnej będzie równy liczbie funkcji bazowych na przekroju siatki, co w dwóch wymiarach wynosi \\( N^{0.5} \\) gdzie \\( N \\) to liczba funkcji bazowych na siatce."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 708, "subject": "Algorytm solwera wielo-frontalnego", "paragraphs": ["Algorytm solwera wielo-frontalnego zaproponowany został w 1987 roku jako modyfikacja algorytmu solwera frontalnego przez Iain'a Duff'a i Johna Reida [1]. Ideą algorytmu wielo-frontalnego jest wykonywanie eliminacji tak jak w algorytmie solwera frontalnego ale jednocześnie nad wieloma elementami."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 709, "subject": "Algorytm solwera zmienno-kierunkowego", "paragraphs": ["Algorytm solwera zmiennokierunkowego został po raz pierwszy zaproponowany przez Jima Douglasa w 1956 roku w kontekście symulacji niestacjonarnych za pomocą metody różnic skończonych [1]. Wersję stacjonarną dla izogeometrycznej metody elementów skończonych zaproponował Longfei Gao w rozprawie doktorskiej pod kierunkiem prof. Victora Manuela Calo [2]. Rozważmy układ równań który dostaliśmy w rozdziale pierwszym (związany z problemem projekcji bitmapy). W wyniku generacji układu równień dostaliśmy tam macierz zapisaną w postaci produktu Kroneckera dwóch macierzy pięcio-przekątniowych, oraz prawą stronę policzoną z mozołem dla poszczególnych B-spline'ów testujących. \\( \t\\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} & \\cdots \\\\ \\frac{13}{120} & \\frac{1}{2} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\vdots & \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\\\ & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} \\\\ & & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{1}{2} & \\frac{13}{120} \\\\ & & & \\cdots & \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} \\\\ \\end{bmatrix} \\otimes \t\\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} & \\cdots \\\\ \\frac{13}{120} & \\frac{1}{2} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\vdots & \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\\\ & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} \\\\ & & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{1}{2} & \\frac{13}{120} \\\\ & & & \\cdots & \\frac{1}{120} & \\frac{13}{120} & \\frac{1}{20} \\\\ \\end{bmatrix} \\begin{bmatrix} u_{1,1} \\\\ u_{2,1} \\\\ u_{3,1} \\\\ \\vdots \\\\ u_{k,l} \\\\ \\vdots \\\\ u_{N_{x-2},N_y} \\\\ u_{N_{x-1},N_y} \\\\ u_{N_x,N_y} \\\\ \\end{bmatrix} \\\\ = \\begin{bmatrix} \\int BITMAP(x,y) {\\color{blue}B^x_1(x)*B^y_1(y)} dxdy \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_2(x)*B^y_1(y)} dxdy \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_3(x)*B^y_1(y)} dxdy \\\\ \\vdots \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_k(x)*B^y_l(y)} dxdy \\\\ \\vdots \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_{N_x-2}(x)*B^y_{N_y}(y)} dxdy \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_{N_x-1}(x)*B^y_{N_y}(y)} dxdy \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_{N_x}(x)*B^y_{N_y}(y)} dxdy \\\\ \\end{bmatrix} \\) Rozwiązanie układu równań w którym macierz ma strukturę produktu Kroneckera jest możliwe w bardzo krótkim czasie. Co to znaczy w bardzo krótkim czasie? Koszt obliczeniowy wyraża się liczbą operacji takich jak mnożenie czy dodawanie liczb, koniecznych do rozwiązania układu równań. W przypadku układu równań w którym macierz ma strukturę produktu Kroneckera możliwe jest rozwiązanie układu równań za pomocą algorytmu w którym liczba operacji wynosi \\( const*N \\) gdzie N to jest liczba niewiadomych (liczba współczynników aproksymacji bitmapy na siatce, wyrażona dokładnie poprzez \\( N=N_x*N_y \\) gdzie \\( N_x,N_y \\) to rozmiary siatki, natomiast \\( const \\) oznacza pewną stałą liczbę. Algorytm stosowany w tym przypadku nazywany jest algorytmem solwera zmiennokierunkowego. Rozważamy dwa etapy procesu rozwiązania. Pierwszy etap polega na wzięciu pierwszej z podmacierzy, oraz poukładaniu wektora niewiadomych i wektora prawych stron w wiele podwektorów, po jednym wektorze dla każdej kolumny elementów siatki obliczeniowej. Zostało to zilustrowane na Rys. 1, oraz we wzorze poniżej. \\( \t\\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} & \\cdots \\\\ \\frac{13}{120} & \\frac{1}{2} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\vdots & \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\\\ & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} \\\\ & & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{1}{2} & \\frac{13}{120} \\\\ & & & \\cdots & \\frac{1}{120} & \\frac{13}{120} & \\frac{1}{20} \\\\ \\end{bmatrix} \\begin{bmatrix} w_{1,1} & w_{1,2} & \\cdots & w_{1,N_{y-1}} & w_{1,N_y} \\\\ w_{2,1} & w_{2,2} & \\cdots & w_{2,N_{y-1}} & w_{2,N_y} \\\\ w_{3,1} & w_{3,2} & \\cdots & w_{3,N_{y-1}} & w_{3,N_y} \\\\ \\vdots & \\vdots & \\cdots & \\vdots & \\vdots \\\\ w_{N_{x-2},1} & w_{N_{x-2},2} & \\cdots & w_{N_{x-2},N_{y-1}} & w_{N_{x-2},N_y} \\\\ w_{N_{x-1},1} & w_{N_{x-1},2} & \\cdots & w_{N_{x-1},N_{y-1}} & w_{N_{x-1},N_y} \\\\ w_{N_x,1} & w_{N_x,2} & \\cdots & w_{N_x,N_{y-1}} & w_{N_x,N_y} \\\\ \\end{bmatrix} \\\\ = \\begin{bmatrix} \\int BITMAP(x,y) {\\color{blue}B^x_1(x)*B^y_1(y)} dxdy & \\cdots & \\int BITMAP(x,y) {\\color{blue}B^x_1(x)*B^y_{N_y}(y)}dxdy \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_2(x)*B^y_1(y)} dxdy & \\cdots & \\int BITMAP(x,y) {\\color{blue}B^x_2(x)*B^y_{N_y}(y)}dxdy \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_3(x)*B^y_1(y)} dxdy & \\cdots & \\int BITMAP(x,y) {\\color{blue}B^x_3(x)*B^y_{N_y}(y)}dxdy \\\\ \\vdots \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_{N_x-2}(x)*B^y_1(y)} dxdy & \\cdots & \\int BITMAP(x,y) {\\color{blue}B^x_{N_x-2}(x)*B^y_{N_y}(y)}dxdy \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_{N_x-1}(x)*B^y_1(y)} dxdy & \\cdots & \\int BITMAP(x,y) {\\color{blue}B^x_{N_x-1}(x)*B^y_{N_y}(y)}dxdy \\\\ \\int BITMAP(x,y) {\\color{blue}B^x_{N_x}(x)*B^y_1(y)} dxdy & \\cdots & \\int BITMAP(x,y) {\\color{blue}B^x_{N_x}(x)*B^y_{N_y}(y)}dxdy \\\\ \\end{bmatrix} \\) Wprowadziliśmy tutaj pomocnicze niewiadome \\( w* \\) które służą do rozwiązania pierwszego układu równań. Oryginalne niewiadome \\( u* \\) dostaniemy po rozwiązaniu drugiego układu równań, w którym prawą stronę stanowić będą niewiadome pomocnicze \\( w* \\). Dostaliśmy więc układ równań z macierzą pięcio-przekątniową, o wielu prawych stronach. Każdy podwektor, każda prawa strona, odpowiada jednej kolumnie na siatce elementów, ma więc ustaloną współrzędną \\( y \\), oraz współrzędną \\( x \\) zmieniającą się od 1 do \\( N_x \\). Podobnie uporządkowane są niewiadome $u*$, w których to wierszami zmieniają się drugie indeksy, na przyklad \\( w_{1,1}, w_{1,2}, ..., w_{1,N_y} \\) natomiast w kolumnach zmieniają się pierwsze indeksy. Rozwiązujemy ten układ równań (jak to zrobić o tym za chwilę), dostajemy rozwiązania \\( w* \\) i przechodzimy do drugiego kroku algorytmu solwera zmiennokierunkowego. Drugi etap polega więc na wzięciu analogicznej drugiej macierzy produktu Kroneckera, wzięciu rozwiązań \\( w* \\) z pierwszego układu równań, poukładaniu ich zgodnie z wierszami elementów z siatki (porównaj Rys. 1, poukładaniu w podobny sposób poszukiwanych niewiadomych \\( u* \\) i na rozwiązaniu otrzymanego układu równań o wielu prawych stronach.", "\\( \t\\begin{bmatrix} \\frac{1}{20} & \\frac{13}{120} & \\frac{1}{120} & \\cdots \\\\ \\frac{13}{120} & \\frac{1}{2} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ \\vdots & \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} & \\cdots \\\\ & \\vdots & \\vdots & \\vdots & \\vdots & \\vdots & \\\\ & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{11}{20} & \\frac{13}{60} & \\frac{1}{120} \\\\ & & \\cdots & \\frac{1}{120} & \\frac{13}{60} & \\frac{1}{2} & \\frac{13}{120} \\\\ & & & \\cdots & \\frac{1}{120} & \\frac{13}{120} & \\frac{1}{20} \\\\ \\end{bmatrix} \\begin{bmatrix} u_{1,1} & u_{2,1} & \\cdots & u_{N_{x-1},1} & u_{N_x,1} \\\\ u_{1,2} & u_{2,2} & \\cdots & u_{N_{x-1},2} & u_{N_x,2} \\\\ u_{1,3} & u_{2,3} & \\cdots & u_{N_{x-1},3} & u_{N_x,3} \\\\ \\vdots & \\vdots & \\cdots & \\vdots & \\vdots \\\\ u_{1,N_{y-2}} & u_{2,N_{y-2}} & \\cdots & u_{N_{x-1},N_{y-2}} & u_{N_{x},N_{y-2}} \\\\ u_{1,N_{y-1}} & u_{2,N_{y-1}} & \\cdots & u_{N_{x-1},N_{y-1}} & u_{N_{x},N_{y-1}} \\\\ u_{1,N_y} & u_{2,N_y} & \\cdots & u_{N_{x-1},N_{y}} & u_{N_x,N_y} \\\\ \\end{bmatrix} \\\\ = \\begin{bmatrix} w_{1,1} & w_{2,1} & \\cdots & w_{N_{x-1},1} & w_{N_x,1} \\\\ w_{1,2} & w_{2,2} & \\cdots & w_{N_{x-1},2} & w_{N_x,2} \\\\ w_{1,3} & w_{2,3} & \\cdots & w_{N_{x-1},3} & w_{N_x,3} \\\\ \\vdots & \\vdots & \\cdots & \\vdots & \\vdots \\\\ w_{1,N_{y-2}} & w_{2,N_{y-2}} & \\cdots & w_{N_{x-1},N_{y-2}} & w_{N_{x},N_{y-2}} \\\\ w_{1,N_{y-1}} & w_{2,N_{y-1}} & \\cdots & w_{N_{x-1},N_{y-1}} & w_{N_{x},N_{y-1}} \\\\ w_{1,N_y} & w_{2,N_y} & \\cdots & w_{N_{x-1},N_{y}} & w_{N_x,N_y} \\\\ \\end{bmatrix} \\) W tym drugim układzie równań, każdy podwektor, każda prawa strona, odpowiada jednemu wierszowi na siatce elementów, ma więc ustaloną współrzędną \\( x \\), oraz współrzędną \\( y \\) zmieniającą się od 1 do \\( N_y \\). Podobnie uporządkowane są niewiadome \\( u* \\), w których to wierszami zmieniają się pierwsze indeksy, na przyklad \\( w_{1,1}, w_{2,1}, ..., w_{N_x,1} \\) natomiast w kolumnach zmieniają się drugie indeksy. Każde z powyższych równań może zostać rozwiązany teraz algorytmem LU faktoryzacji dla macierzy pasmowej."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 710, "subject": "Preconditioner", "paragraphs": ["Kiedy nasz układ równań \\( Ax=b \\) jest trudny do rozwiązania, wówczas skonstruować możemy preconditioner \\( M \\) (inną macierz) taki że jeśli przemnożymy nasze równanie z lewej strony przez \\( M^{-1} \\) czyli \\( M^{-1}Ax=M^{-1}b \\) oraz dodatkowo pomiędzy \\( Ax \\) wsadzimy \\( M^{-1}M \\) (możemy to zrobić bo \\( M^{-1}M \\) jest macierzą identycznościową), wówczas nowy układ równań \\( M^{-1} A M^{-1} M x = M^{-1} b \\) może być łatwiejszy do rozwiązania. Oczywiście wszystko zależy od sprytnej konstrukcji macierzy \\( M \\). Przykład podano w rozdziałe Solwer iteracyjny. Preconditionery dla algorytmów iteracyjnych opisane są w rodziałe 8 podręcznika Józefa Saada [1]."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 711, "subject": "Algorytm solwera iteracyjnego", "paragraphs": ["Algorytmy solwerów iteracyjnych opisane zostały są w bardzo obszerny sposób w podręczniku Józefa Saada [1]. Prawdopodobnie pierwszym solwerem iteracyjnym była metoda rozwiązywania układu równań 4 na 4 zaproponowana przez Gaussa. Omawianie ogólnej rodziny algorytmów solwerów iteracyjnych wybiega poza ramy tego podręcznika. W module tym omówimy solwer iteracyjny mający zastosowanie w problemie projekcji w którym obszar ma dowolny kształt, nie będący regularnym kwadratem.", "Niech naszym przykładowym problemem do rozwiązania będzie problem projekcji dwuwymiarowej zdefiniowany na obszarze który nie ma kształtu kwadratu (na przykład problem projekcji bitmapy na pofałdowany obszar). Wówczas nasz układ równań do rozwiązania wygląda następująco \\( \t\\begin{bmatrix} \\int_{\\Omega}{B^x_{1,p}B^y_{1,p}}{B^x_{1,p}B^y_{1,p}} & \\int_{\\Omega}{B^x_{1,p}B^y_{1,p}}{B^x_{2,p}B^y_{1,p}} & \\cdots & \\int_{\\Omega}{B^x_{1,p}B^y_{1,p}}{B^x_{N_x,p}B^y_{N_y,p}} \\\\ \\int_{\\Omega}{B^x_{2,p}B^y_{1,p}}{B^x_{1,p}B^y_{1,p}} & \\int_{\\Omega}{B^x_{2,p}B^y_{1,p}}{B^x_{2,p}B^y_{1,p}} & \\cdots & \\int_{\\Omega}{B^x_{2,p}B^y_{1,p}}{B^x_{N_x,p}B^y_{N_y,p}} \\\\ \\vdots & \\vdots & \\vdots & \\vdots \\\\ \\int_{\\Omega}{B^x_{N_x,p}B^y_{N_y,p}}{B^x_{1,p}B^y_{1,p}} & \\int_{\\Omega}{B^x_{N_x,p}B^y_{N_y,p}}{B^x_{2,p}B^y_{1,p}} & \\cdots & \\int_{\\Omega}{B^x_{N_x,p}B^y_{N_y,p}}{B^x_{N_x,p}B^y_{N_y,p}} \\\\ \\end{bmatrix} \\begin{bmatrix} {\\color{red}u_{1,1}} \\\\ {\\color{red}u_{2,1}} \\\\ \\vdots \\\\ {\\color{red}u_{N_x,N_y}}\\\\ \\end{bmatrix} \\) \\( = \\begin{bmatrix} \\int_{\\Omega} BITMAP(x,y) {\\color{blue}B^x_1(x)*B^y_1(y)} \\\\ \\int_{\\Omega} BITMAP(x,y) {\\color{blue}B^x_1(x)*B^y_2(y)} \\\\ \\vdots \\\\ \\int_{\\Omega} BITMAP(x,y) {\\color{blue}B^x_{N_x}(x)*B^y_{N_y}(y)} \\\\ \\end{bmatrix} \\) gdzie \\( \\Omega \\) nie jest już kwadratem tylko naszym ``pofałdowanym'' obszarem. Wyprowadzenie tego układu równań przebiega w taki sam sposób jak opisano to w rozdziale pierwszym dla zadaniam projekcji bitmapy, jedyną różnicą jest fakt iż naszą projekcję wykonujemy teraz na \"pofałdowany\" obszar. Na przykład chcemy obliczyć i zwizualizować jak wyglądać będzie bitmapa nałożona na pofałdowany materiał (np. na zasłonę). Oczywiście dla każdej całki po obszarze \\( \\Omega \\) możemy dokonać zmiany zmiennych na obszar kwadratowy, i wtedy w całce znajdzie się jacobian tej transformacji \\( \\int_{\\Omega} {\\color{blue}B^x_{i}(x)B^y_{j}(y)} \\color{red}{B^x_{k}(x)B^y_{l}(y)} dxdy = \\int_{[0,1]^2} \\color{blue}{B^x_{i}(x)B^y_{j}(y)} \\color{red}{B^x_{k}(x)B^y_{l}(y)} |Jac(x,y)| dxdy \\) Chcielibyśmy użyć do faktoryzacji naszej macierzy solwera zmiennokierunkowego, jednakże nie jest to możliwe, ponieważ nie potrafimy rozdzielić zmiennych w Jacobianie, nie wiemy jak przetworzyć \\( |Jac(x,y)|=|Jac_x(x)|*|Jac_y(y)| \\). Na szczęście możemy zastosować następujący algorytm iteracyjny z preconditionerem"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 712, "subject": "Wybór solwera w zależności od rodzaju problemu", "paragraphs": ["Metoda elementów skończonych służyć może do rozwiązania wielu problemów inżynerskich. Ogólny schemat działania metody jest podobny, niezależnie od rozważanego problemu. W naszym przypadku dla uproszczenia wybieramy problem projekcji bitmapy. Podstawowe etapy metody elementów skończonych wymienione są poniżej. Ostatnim etapem jest wybór algorytmu służącego do rozwiązania wygenerowanego układu równań. Algorytm ten zależy od struktury macierzy, która pośrednio zależy od rozważanego problemu inżynierskiego.", "Dla problemów dla których macierze są symetryczne i dodatnio określone, często używane są algorytmy iteracyjne bazujące na metodach Krylova, na przykład algorytm gradientów sprzężonych. Istnieją również algorytmy iteracyjne dla szerszej klasy problemów, np. algorytm GMRES. Algorytmy solwerów iteracyjnych opisane zostały są w bardzo obszerny sposób w podręczniku Józefa Saada [1]. Liczba iteracji dla solwerów iteracyjnych zależy od rodzaju rozwiązywanego problemu, od struktury i własności macierzy po dyskretyzacji. W szczególności na zbieżność solwera typu gradientów sprzężonych wpływa współczynnik uwarunkowania macierzy, czyli iloczyn modułu z największej wartości własnej macierzy i modułu z największej wartości własnej macierzy odwrotnej. Jeśli współczynnik uwarunkowania macierzy jest za duży, wówczas tworzone są tak zwane preconditionery, czyli macierze przez które przemnaża się dodatkowo nasz układ równań w taki sposób żeby rozwiązanie było takie samo, ale współczynnik uwarunkowanie macierzy był lepszy. Niestety problem doboru preconditionera jest zaleźny od rozwiązywanego problemu (nie ma uniwersalnych zawsze skutecznych algorytmów).", "Solwery dokładne z koleji potafią rozwiązać każdy problem, potrafią sfaktoryzować każdą macierz, jednak ich koszt jest zazwyczaj większy od kosztu solwerów iteracyjnych. Dla jednorodnych siatek dwuwymiarowych koszt ten jest rzędu \\( {\\cal O } ( N^{1.5 }) \\). Dla jednorodnych siatek trójwymiarowych koszt ten jest rzędu \\( {\\cal O }(N^2) \\). Wyjątkiem jest algorytm solwera zmienno-kierunkowego, którego koszt jest liniowy \\( {\\cal O}(N) \\). Algorytm solwera zmienno-kierunkowego może być zastosowany wtedy, kiedy macierz ma strukturę produktu Kroneckera. Dzieje się tak na przykład w problemie projekcji, lub podczas symulacji niestacjonarnych za pomocą metody explicite. Algorytm solwera wielo-frontalnego, jest używany dla problemów dla których macierze nie są symetryczne lub nie są dodatnio określone. Algorytm solwera wielo-frontalnego jest szczególną implementacją algorytmu eliminacji Gaussa lub LU faktoryzacji. Wersja iteracyjna algorytmu zmienno-kierunkowego, opisana w tym podręczniku używana jest do symulacji explicite na nieregularnych geometriach."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 4. Solwery układów równań liniowych generowanych podczas obliczeń MES", "subject_id": 738, "subject": "Implementacja w MATLABie algorytmu solwera zmienno-kierunkowego dla problemu projekcji bitmapy", "paragraphs": ["W module tym przedstawiamy kod w MATLABie obliczający L2 projekcję bitmapy, stosując izogeometryczną metodę elementów skończonych. W szczególności kod ten posiada implementacje algorytmu solwera zmienno-kierunkowego. Wykonanie kodu\\ów możliwe jest również w darmowym środowisku Octave.", "Pobierz kod lub zob. Załącznik 4.", "W celu uruchomienia kodów, zapisujemy je w katalogu roboczym Octave. Ustawiamy zmienne ze ścieżką do pliku wejściowego w formacie tif \\( filename = 'C://Users/Maciej/Dropbox/bitmapa.tif' \\) następnie podajemy ilość elementów siatki w kierunku osi x i y, oraz stopnie funkcji B-spline w tych kierunkach \\( nx=4 \\) \\( ny=4 \\) \\( px=2 \\) \\( py=2 \\) Następnie uruchamiamy pierwszą procedure \\( bitmap\\_splitting(filename,nx,ny,px,py) \\). Kod po zbudowaniu układu równań i rozwiązaniu go rysuje projekcje bitmapy w otwartym okienku."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 5. Metody stabilizacji", "subject_id": 713, "subject": "Stabilizacja metody elementów skończonych", "paragraphs": ["Podczas wykonywania obliczeń metodą elementów skończonych wykonujemy następujące czynności", "W rozdziale tym skoncentrujemy się na zagadnieniu stabilności metody elementów skończonych. Najważniejsze twierdzenie matematyczne pozwalające badać stabilność metody elementów skończonych zostało niezależnie zaproponowane przez prof. Ivo Babuśke, prof. Franco Brezzi, oraz prof. Olga Ładyżenska [1] [2]. Odkryli oni mniej więcej w tym samym czasie, niezależnie od siebie, równoważne warunki, zwane obecnie warunkiem inf-sup (\"inf-sup condition\"). Warunek inf-sup jest do dzisiaj używany przez naukowców do badania stabilności metody elementów skończonych. Warunek ten zdefiniować można w abstrakcyjnych nieskończenie wymiarowych przestrzeniach matematycznych \\( \\inf_{u \\in U } \\sup_{v \\in V } \\frac{b_h(u,v)}{\\|u\\| \\|v\\| } = \\gamma > 0 \\) lub w przestrzeniach skończenie wymiarowych, wynikających z naszego przybliżenia rozwiązania za pomocą bazy funkcji B-spline, używanej do aproksymacji i testowani rozwiązania \\( \\inf_{u \\in U } \\sup_{v \\in V } \\frac{b_h(u,v)}{\\|u\\| \\|v\\| } = \\gamma > 0 \\) Może zdażyć się że nawet jeśli matematycy udowodnili spełnienie warunku inf-sup na przestrzeniach nieskończenie wymiarowych, to w momencie gdy zaczniemy rozwiązywać nasz problem w przestrzeniach skończenie wymiarowych, to warunek inf-sup nie będzie już spełniony. Na przykład, jeśli wybierzemy taką skończenie wymiarową przestrzeń testującą, że supremum z warunku inf-sup nie będzie spełnione, \\( \\inf_{u \\in U } \\sup_{v_h \\in V_h } \\frac{b_h(u,v_h)}{\\|u\\| \\|v_h\\| } = \\gamma > 0 \\) to wówczas nawet gdyby przestrzeń aproksymacyjna była nieskończenie wymiarowa, to i tak nasza symulacja będzie niestabilna. Problem którego dotyczy warunek inf-sup polega na tym, iż wybierając nasze skończenie wymiarowe zbiory (tak zwane bazy) funkcji do aproksymacji rozwiązania oraz do testowania naszych równań, nie mamy pewności czy rozwiązanie uzyskane za ich pomocą na komputerze będzie dostatecznie dokładne. Żeby to sprawdzić, należy zastosować bardzo zaawansowane narzędzia matematyczne, takie jak warunek inf-sup. Dla dużej klasy problemów rozwiązywanych na komputerach za pomocą metody elementów skończonych warunek ten jest spełniony, i uzyskujemy całkiem dokładne rozwiązania. Ale jest też dość duża klasa problemów dla których warunek inf-sup nie jest spełniony. Warunek ten napisać można w sposób następujący. Wybieramy wersję sformułowaną przez prof. Ivo Babuśkę (wszystkie wersje tego warunku opisane są w pracy Leszka Demkowicza, ICES Report 0608, 2006 \"Babuśka <=> Brezzi?\" ) [3]: \\( \\inf_{u_h \\in U_h } \\sup_{v_h \\in V_h } \\frac{b_h(u_h,v_h)}{\\|u_h\\| \\|v_h\\| } = \\gamma_h > 0 \\) Jeśli warunek ten jest spełniony, będzie dało się rozwiązać układ równań wygenerowany za pomocą metody elementów skończonych i rozwiązanie to będzie całkiem dobrym przybliżeniem idealnego rozwiązania \\( u \\approx u_h = \\sum_{i,j=1,...,6} u_{i,j} B^x_{i,2}(x)B^y_{j,2 }(x) \\). Jeśli warunek ten nie jest spełniony, wówczas albo wygenerowany układ równań nie będzie możliwy do rozwiązania (na przykład algorytm eliminacji Gaussa przewróci się ponieważ na przekątnej macierzy powstanie numeryczne zero (bardzo mała liczba przez którą nie będzie się dało podzielić wiersza w macierzy), albo uzyskane rozwiązanie układu równań będzie niepoprawnym rozwiązaniem naszego problemu, np. powstaną oscylacje numeryczne). W takiej sytuacji konieczna jest stabilizacja naszego problemu, która polega na", "Wszystkie te metody stabilizacji umożliwiają matematyczne udowodnienie spełnienia warunku inf-sup. Dowody spełniania tego warunku są dość zaawansowane matematycznie, tak więc ograniczymy się jedynie do podania kilku metod stabilizacji (SUPG, minimalizacji reziduum oraz metoda DG) które gwarantują spełnianie tego warunku, ale nie podamy wyjaśnienia dlaczego ten warunek jest spełniony, ponieważ wymagałoby to wprowadzenia zaawansowanych narzędzi matematycznych. Metoda minimalizacji reziduum leży również u podstaw metody Discontinuous Petrov-Galerkin (DPG) cieszącej się dużym powodzeniem metody stabilizacji adaptacyjnych obliczeń elementami skończonymi, zaproponowanej przez prof. Leszka Demkowicza. W metodzie DPG przestrzenie aproksymacyjne i testujące są połamane, w celu umożliwienia lokalnej statycznej kondensacji na poszczególnych elementach skończonych [4] [5] [6]."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 5. Metody stabilizacji", "subject_id": 714, "subject": "Stabilizacja równań adwekcji-dyfuzji za pomocą metody minimizalizacji reziduum", "paragraphs": ["Rozważmy dla ustalenia uwagi nasz problem adwekcji-dyfuzji (obliczenia propagacji zanieczyszczeń na danym obszarze za pomocą dyfuzji oraz wiatru) \\( b(u,v)=l(v) \\\\ b(u,v) = \\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y)}{\\partial x} dxdy \\int_{\\Omega } \\beta_y(x,y) \\frac{\\partial u(x,y)}{\\partial y } dxdy \\\\ \\int_{\\Omega} \\epsilon \\frac{\\partial u(x,y)}{\\partial x } \\frac{\\partial v(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\epsilon \\frac{\\partial u(x,y)}{\\partial y } \\frac{\\partial v(x,y)}{\\partial y } dxdy \\\\ l(v) = \\int_{\\Omega} f(x,y) v(x,y) dxdy \\) Oznaczamy przez \\( U \\) zbiór funkcji w którym zawiera się rozwiązanie problemu adwekcji-dyfuzji \\( u \\in U \\). Następnie przez \\( V \\) oznaczmy zbiór funkcji które używamy do testowania w naszym sformułowaniu wariacyjnym (zwanym też słabym). W rozdziale tym opiszemy za pomocą trochę abstrakcyjnego języka matematycznego jak wyprowadza się metodę minimalizacji reziduum [1]. Nasz oryginalny problem zapisać można tak: szukamy funkcji \\( u \\in U \\) takiej że \\( b(u,v)=l(v) \\) dla wszystkich funkcji testujących \\( v\\in V \\). Matematycznie można oznaczyć lewą stronę \\( Bu \\) a prawą stronę \\( l \\) wprowadzając pewne operatory matematyczne (matematycy powiedzą że \\( B : U \\rightarrow V' \\) oraz \\( \\langle Bu, v \\rangle = b(u,v) \\). Wówczas nasz problem sprowadza się do znalezienia pola skalarnego \\( u \\) takiego że \\( Bu-l=0 \\). Wyrażenie \\( r=Bu-l \\) nazywa się reziduum. Jeśli mamy jedynie rozwiązanie przybliżone, na przykład oznaczone \\( u_h \\) wówczas nasze reziduum będzie wyrażało błąd, im większe będzie reziduum tym błąd rozwiązania przybliżonego będzie większy \\( r_h=Bu_h-l \\). W jaki sposób zmierzyć błąd rozwiązania, czyli wielkość reziduum? Żeby zmierzyć jak duże jest reziduum musimy wprowadzić jakąś normę (czyli miarę wielkości) \\( r_h = \\| Bu_h-l \\| \\). Mogę teraz powiedzieć że szukamy takiego rozwiązania naszego problemu \\( u_h \\) żeby reziduum (czyli błąd) był jak najmniejszy. Matematycznie zapisuje się ten warunek w postaci minimalizacji normy \\( u_h = \\displaystyle{argmin}_{w_h \\in U } {1 \\over 2} \\| Bw_h - l \\|_{V' }^2 \\) Przed normą dopisuje się \\( 1\\over 2 \\) oraz podnosi się normę do kwadratu. Problem praktyczny jest taki że nie wiemy jak policzyć normę z różnicy \\( \\|Bw_h-l\\| \\). Norma ta mierzy bowiem odległości w abstrakcyjnej przestrzeni matematycznej \\( V' \\) (matematycy powiedzą że przestrzeń ta jest przestrzenią dualną do przestrzeni funkcji testujących). Żeby rozwiązać ten problem, wykonujemy trick matematyczny polegający na rzutowaniu normy z przestrzeni \\( V' \\) do przestrzeni testującej \\( V \\). Wprowadza się operator przerzucający przestrzeń \\( V \\) w przestrzeń \\( V' \\). Operator ten nazywamy operatorem Riesza \\( R_V \\colon V \\ni v \\rightarrow (v,.) \\in V' \\). Operator odwrotny natomiast przerzuca przestrzeń \\( V' \\) z powrotem w przestrzeń \\( V \\), czyli \\( R_V^{-1} \\colon V' \\ni (v,.) \\rightarrow v \\in V \\). Tak więc jeśli użyjemy odwrotnego operatora Riesza, przerzucimy nasz problem do przestrzeni funkcji testujących \\( V \\). Mamy więc \\( u_h = \\displaystyle{argmin}_{w_h \\in U_h} {1 \\over 2} \\| {\\color{red}{R_V^{-1}}} (Bw_h - l) \\|_{\\color{red}{V} }^2 \\). Szukamy więc punktu w którym funkcja osiąga minimum. Taki punkt osiągany jest wtedy kiedy pochodne tej funkcji są równe zero. Ponieważ mamy tutaj funkcjonał, matematycy powiedzą że szukamy takiego \\( u_h \\) w którym pochodne Gateaux są równe zero we wszystkich kierunkach \\( \\langle R_V^{-1} (Bu_h - l), R_V^{-1}(B\\, w_h) \\rangle_V = 0 \\quad \\forall \\, w_h \\in U_h \\) gdzie \\( w_h \\) oznacza wszystkie możliwe \"kierunki\" ze skończenie wymiarowej przestrzeni funkcji \\( U_h \\) (w której przy okazji szukamy rozwiązania naszego problemu adwekcji-dyfuzji). Formalnie rzecz ujmując, w tym miejscu musimy skonstruować skończenie wymiarową przestrzeń funkcji \\( U_h \\) w której będziemy szukać naszego rozwiązania. Robimy to oczywiście w naszym podręczniku stosując funkcje bazowe B-spline, rozpinając je zgodnie z wektorami węzłów wzdłuż osi x oraz wzdłuż osi y. Wzdłuż osi \\( x \\) wprowadzamy wektor węzłów [0 0 0 1 2 3 4 4 4], podobnie wzdłuż osi \\( y \\) wprowadzamy wektor węzłów [0 0 0 1 2 3 4 4 4]. Uzyskaliśmy dwie bazy jednowymiarowych funkcji B-spline \\( \\{ B_{i,2}(x) \\}_{i=1,...,6 } \\) oraz \\( \\{B_{j,2}(y)\\}_{j=1,...,6 } \\). Następnie utworzymy z nich iloczyny tensorowe \\( B_{i,j;2}(x,y)=B_{i,2}(x)B_{j,2}(y),i,j=1,...,6 \\). Zauważmy że nasz obszar \\( \\Omega \\) rozpięty jest na kwadracie \\( [0,1]^2 \\), podobnie jak nasze 6*6=36 funkcji bazowych co wynika z definicji wektora węzłów [0 0 0 1 2 2 3 4 4 4]. Nasza przestrzeń aproksymacyjna jest więc rozpięta przez iloczyny tensorowe naszych jednowymiarowych funkcji B-spline \\( U_h = gen \\{ B_{i,j;2}(x,y)=B_{i,2}(x)B_{j,2}(y),i,j=1,...,6 \\} \\). Jest więc ona przestrzenią 6*6=36 wymiarową, Mamy więc 36 kierunków (wielomianów bazowych B-spline) w których liczyć będziemy pochodne kierunkowe i będziemy je przyrównywać do zera. Oznaczamy \\( r=R_V^{-1}(Bu_h-l) \\) i wówczas nasz problem minimalizacji reziduum zapisać można w postaci \\( \\langle r , R_V^{-1} (B\\, w_h ) \\rangle = 0 \\quad \\forall \\, w_h \\in U_h \\) co jest równoznaczne \\( \\langle Bw_h, r \\rangle = 0 \\quad \\quad \\forall w_h \\in U_h. \\) Dorzucamy teraz drugie równanie, korzystając z definicji reziduum \\( r=Bu_h-l \\), przemnażam definicje reziduum przez funkcje testujące z przestrzeni funkcji testujących i dostaje równanie: \\( (r,v)_V=\\langle B u_h-l,v \\rangle \\quad \\forall v\\in V. \\) Mam więc układ równań: znajdź reziduum w nieskończenie wymiarowej przestrzeni funkcji testujących \\( r\\in V \\) oraz rozwiązania w skończenie wymiarowej przestrzeni funkcji \\( u_h \\in U_h \\) \\( (r,v)_V - \\langle Bu_h-l ,v \\rangle = 0 \\quad \\forall v\\in V \\\\ \\langle Bw_h,r\\rangle = 0 \\quad \\forall w_h \\in U_h \\) Gdybyśmy byli wstanie rozwiązać to równanie, to dostali byśmy najlepszą możliwą aproksymacje naszego problemu w przestrzei funkcji aproksymujących \\( U_h \\). Niestety nie jest to możliwe, ponieważ nieskończona przestrzeń funkcji testujących generuje nam nieskończenie wiele równań które należało by rozwiązać. Musimy więc wybrać drugą inną bazę do przybliżenia przestrzeni testowej. Tutaj pojawia się pierwsza istotna różnica metody minimalizacji reziduum z tradycyjną metodą elementów skończonych. Otóż w metodzie minimalizacji reziduum mamy dwie różne przestrzenie, jedną do aproksymacji rozwiązania, drugą do testowania.Oczywiście przestrzeń testującą również rozpinamy za pomocą funkcji B-spline. Na przykład możemy użyć takiego samego patcha elementów jak dla przestrzeni aproksymującej (ale nie jest to wymagane!), albo podnieść stopień funkcji B-spline. Precyzujemy jak wyglądać będzie nasz patch elementów oraz nasze funkcje bazowe B-spline rozpięte na elementach, podając wektor węzłów wzdluż osi \\( x \\) oraz wektor węzłów wzdłuż osi \\( y \\). Odsyłamy tutaj do rozdziału trzeciego w którym opisany jest sposób definiowania funkcji bazowych za pomocą wektorów węzłów i wielomianów B-spline. Wzdłuż osi \\( x \\) wprowadzamy wektor węzłów [0 0 0 0 11 2 2 3 3 4 4 4 4], podobnie wzdłuż osi \\( y \\) wprowadzamy wektor węzłów [0 0 0 0 1 1 2 2 3 3 4 4 4 4]. Generalnie przestrzenie testujące muszą być większe niż przestrzeń aproksymacyjna. Możemy uzyskać ten efekt zwiększając liczbę elementów lub podnosząc stopień funkcji B-spline, lub redukując ciągłość bazy funkcji B-spline, lub mieszając te trzy podejścia razem. Uzyskaliśmy dwie bazy jednowymiarowych funkcji B-spline \\( \\{ \\tilde{B}_{k,3}(x) \\}_{k=1,...,10 } \\) oraz \\( \\{\\tilde{B}_{l,3}(y)\\}_{l=1,...,10 } \\). Następnie utworzymy z nich iloczyny tensorowe \\( \\tilde{B}_{k,l;3}(x,y)=\\tilde{B}_{k,3}(x)B_{l,3}(y),k,l=1,...,10 \\). Nasza przestrzeń testujące to \\( V_h = gen \\{ \\tilde{B}_{k,l;3}(x,y)=\\tilde{B}_{k,3}(x)B_{l,3}(y),i,j=1,...,10 \\} \\). Mając dyskretną przestrzeń testującą, uzyskujemy wreszcie nasz dyskretny (czyli skończenie wymiarowy) układ równań który będziemy chcieli rozwiązać. Szukamy \\( ( r_m, u_h )_{ V_m \\times U_h } \\) \\( (r_m,v_m)_{V_m} - \\langle B u_h-l,v_m \\rangle = 0 \\quad \\forall v\\in V_m \\\\\\langle Bw_h,r_m\\rangle = 0 \\quad \\forall w_h \\in U_h \\) Pojawia się tutaj tak zwany iloczyn skalarny (wewnętrzny) w dyskretnej przestrzeni testującej \\( (*,*)_{V_m} \\). Żeby odgadnąć jaki iloczyn skalarny użyć w naszym problemie, musimy popatrzeć na nasze oryginalne równanie zapisane w formie słabej \\( b(u,v)=l(v) \\\\ b(u,v) = \\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y)}{\\partial x} v(x,y) dxdy+ \\int_{\\Omega } \\beta_y(x,y) \\frac{\\partial u(x,y)}{\\partial y }v(x,y) dxdy +\\\\ \\int_{\\Omega}\\epsilon \\frac{\\partial u(x,y)}{\\partial x } \\frac{\\partial v(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\epsilon \\frac{\\partial u(x,y)}{\\partial y } \\frac{\\partial v(x,y)}{\\partial y } dxdy \\\\ l(v) = \\int_{\\Omega} f(x,y) v(x,y) dxdy \\) i zobaczyć jakiej formy są funkcje testujące \\( v \\) w formie \\( b(u,v) \\). Widzimy że mamy tutaj doczynienia z pochodnymi cząstkowymi \\( \\frac{\\partial v(x,y)}{\\partial x } \\), \\( \\frac{\\partial v(x,y)}{\\partial y } \\) oraz z samą funkcją \\( v(x,y) \\). Nasz produkt wewnętrzny powinien więc zawierać pochodne i wartości funkcji \\( (u,v)_{V_m} = \\int_{\\Omega} u(x,y) v(x,y) dxdy + \\int_{\\Omega} \\frac{\\partial u(x,y)}{\\partial x } \\frac{\\partial u(y,y) }{\\partial x } dxdy + \\int_{\\Omega} \\frac{\\partial u(x,y)}{\\partial y } \\frac{\\partial u(y,y)}{\\partial y } dxdy \\) Podsumowując, w metodzie minimalizacji reziduum, musimy zdefiniować osobną przestrzeń aproksymacyjną, oraz osobną (większą) przestrzeń testującą, oraz wybrać iloczyn wewnętrzny przestrzeni testującej. Dostajemy wówczas układ równań w którym niewiadome to nasze rozwiązanie \\( u \\) oraz dodatkowo reziduum \\( r \\). To jak dobrze działać będzie metoda minimalizacja reziduum zależy w dużej mierze od naszego wyboru przestrzeni testującej oraz iloczynu wewnętrznego. Jeśli iloczyn wewnętrzny będzie dostatecznie dokładny, oraz przestrzeń testująca będzie dostatecznie duża, wszystko będzie idealnie działać, i dostaniemy najlepsze możliwe do uzyskania rozwiązanie w przestrzeni aproksymacyjnej \\( U_h \\) (ale nie lepsze niż pozwala na to przestrzeń aproksymacyjna). Matematyczne uzasadnienie jest takie, że problem minimalizacji reziduum z nieskończenie wymiarową przestrzenią testową realizuje warunek stabilności inf-sup ze stałą równą 1. Jeśli przestrzeń testującą zawęzimy do przestrzeni skończenie wymiarowej, to warunek inf-sup może nie być już idealnie realizowany w tej przestrzeni. Zwiększanie przestrzeni testującej będzie nam poprawiać realizowalność warunku stabilności inf-sup. Nasz układ równań do rozwiązania w metodzie minimalizacji reziduum wyglada następująco \\( \\left( \\begin{matrix} G & B \\\\ B^T & 0 \\\\ \\end{matrix} \\right) \\left( \\begin{matrix} r \\\\ u \\end{matrix} \\right)= \\left( \\begin{matrix} f \\\\ 0 \\end{matrix} \\right) \\) Zobaczmy jak wygląda nasz układ równań na przykładzie konkretnych przestrzeni aproksymacyjnej i testującej."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 5. Metody stabilizacji", "subject_id": 715, "subject": "Stabilizacja równań adwekcji-dyfuzji za pomocą metody Streamline Upwind Petrov-Galerkin (SUPG)", "paragraphs": ["W rozdziale tym opiszemy metodę stabilizacji równań adwekcji-dyfuzji zwaną Streamling Upwind Petrov-Galerkin (SUPG) wprowadzoną przez prof. T. J. R. Hughesa. Metoda ta opisana jest na przykład w pracy [1]. Przypomnijmy najpierw problem adwekcji-dyfuzji, problem modelowy Erikksona-Johnsona, opisany na przykład w pracy [2]. Problem zdefiniowany jest na obszarze kwadratowym \\( \\Omega = [0,1]^2 \\) w następujący sposób: Szukamy funkcji \\( u \\) takiej że \\( a(u,v)=l(v) \\forall v \\) gdzie \\( a(u,v) =\\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y) }{\\partial x } dxdy + \\int_{\\Omega} \\beta_y(x,y) \\frac{\\partial u(x,y)}{\\partial y } dxdy \\\\ +\\int_{\\Omega} \\epsilon \\frac{\\partial u(x,y) }{\\partial x} \\frac{\\partial v(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\epsilon \\frac{\\partial u(x,y)}{\\partial y } \\frac{\\partial v(x,y)}{\\partial y } dxdy \\) \\( l(v) = \\int_{\\partial \\Omega } f(x,y) v dxdy \\) \\( f(x,y)=sin(\\pi y)(1-x) \\) jest rozszerzeniem warunku brzegowego Dirichleta na cały obszar, natomiast \\( \\beta = (1,0) \\) reprezentuje wiatr wiejący z lewej strony na prawą, natomiast \\( \\epsilon = 10^{-6} \\) oznacza współczynnik dyfuzji. Metoda stabilizacji SUPG (Streamline Upwind Petrov-Galerkin) modyfikuje nasze równanie dodając pewne człony które nie zmieniają \"sensu\" równania, natomiast wymuszają spełnienie warunku inf-sup \\( a(u,v) +{ \\color{red}{\\sum_K (R(u)+f,\\tau \\beta\\cdot \\nabla v)_K } }=l(v)+ {\\color{blue}{\\sum_K (f,\\tau \\beta\\cdot \\nabla v)_K } } \\quad \\forall v\\in V \\) gdzie \\( R(u)=\\beta \\cdot \\nabla u + \\epsilon \\Delta u-f =\\frac{\\partial u}{\\partial x }+\\epsilon \\Delta u-f \\) reprezentuje reziduum naszego rozwiązania, czyli błąd pomiędzy lewą i prawą stroną, wynikający z dyskretyzacji naszego problemu. Innymi słowy, na poziomie ciągłym, w abstrakcyjnych nieskończenie wymiarowych przestrzeniach funkcyjnych (które teoretycznie pozwalają na dokładne przybliżenie rozwiązania) reziduum wynosi zero (w abstrakcyjnych przestrzeniach nieskończenie wymiarowych nie popełniamy błędu). Jednakże, ponieważ używamy siatki obliczeniowej i skończonej liczby funkcji aproksymacyjnych, reziduum na poziomie dyskretnym zmierzy nam błąd metody. \\( \\tau^{-1}=\\left(\\frac{\\beta_x}{h_x} + \\frac{\\beta_y}{h_y} \\right) + 3\\epsilon \\frac{1}{h_x^2+h_y^2} \\) \\( \\epsilon=10^{-6} \\) \\( \\beta = (1,0) \\) \\( h_x,h_y \\) to rozmiary elementu (nasze całki dzielimy na poszczególne elementy i na każdym elemencie liczymy całkę zmodyfikowaną z pomocą wzoru zawierającego średnicę elementu), oraz \\( (u,v)_K = \\int_K uvdx \\) oznacza iloczyn skalarny nad elementem \\( K \\)."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 5. Metody stabilizacji", "subject_id": 716, "subject": "Stabilizacja równań Stokesa za za pomocą metody minimalizacji reziduum", "paragraphs": ["Rozważmy problem Stokesa, który wymaga dodatkowej stabilizacji. Zapiszmy go w postaci pojedynczego funkcjonału \\( B(({\\bf u},p),({\\bf v},q)) = L({\\bf v }) \\) gdzie \\( B(({\\bf u},p),({\\bf v},q)) = \\left( \\begin{matrix} a({\\bf u}, {\\bf v}) + b(p, {\\bf v}) \\\\ b(q, {\\bf u} ) \\\\ \\end{matrix} \\right) \\) \\( L({\\bf v }) = \\left( \\begin{matrix} f({\\bf v} \\\\ 0 \\\\ \\end{matrix} \\right) \\) oraz \\( a({\\bf u}, {\\bf v }) =\\int_{\\Omega} \\frac{\\partial u_1}{\\partial x}\\frac{\\partial v_1}{\\partial x}dxdy + \\int_{\\Omega} \\frac{\\partial u_1}{\\partial y}\\frac{\\partial v_1}{\\partial y}dxdy + \\int_{\\Omega} \\frac{\\partial u_2}{\\partial x}\\frac{\\partial v_2}{\\partial x}dxdy + \\int_{\\Omega} \\frac{\\partial u_2}{\\partial y}\\frac{\\partial v_2}{\\partial y }dxdy \\) \\( b(p, {\\bf v }) = \\int_{\\Omega}p \\frac{\\partial v_1}{\\partial x} dxdy+ \\int_{\\Omega} p \\frac{\\partial v_2}{\\partial y } dxdy \\) Oznaczamy przez \\( {\\bf U} \\times P \\) przestrzeń funkcji w którym poszukujemy rozwiązanie problemu Stokesa \\( ({\\bf u},p) \\in {\\bf U } \\times P \\). Następnie oznaczamy przez \\( {\\bf V } \\times Q \\) przestrzeń funkcji których używamy do testowania w naszym sformułowaniu wariacyjnym (zwanym też słabym). W rozdziale tym opiszemy za pomocą trochę abstrakcyjnego języka matematycznego jak wyprowadza się metodę minimalizacji reziduum [1]. Nasz oryginalny problem zapisać można tak: szukamy funkcji \\( ({\\bf u},p) \\in {\\bf U } \\times P \\) takich że \\( B( ({\\bf u},p),({\\bf v},q) ) = L({\\bf v }) \\) dla wszystkich funkcji testujących \\( ({\\bf v },q) \\in V\\times Q \\). Matematycznie można oznaczyć lewą stronę \\( B(u,p) \\) a prawą stronę \\( L \\) wprowadzając pewne operatory matematyczne (matematycy powiedzą że \\( B : ({\\bf U}\\times P) \\rightarrow (V\\times Q)' \\) oraz \\( \\langle B({\\bf u},p), ({\\bf v},q) \\rangle =B(({\\bf u},p),({\\bf v },q)) \\). Wówczas nasz problem sprowadza się do znalezienia \\( ({\\bf u},p) \\) takiego że \\( B({\\bf u },p)-l=0 \\). Wyrażenie to nazywa się reziduum \\( r=B({\\bf u },p)-l \\). Jeśli mamy jedynie rozwiązanie przybliżone, na przykład oznaczone \\( ({\\bf u_h },p_h) \\) wówczas nasze reziduum będzie wyrażało błąd, im większe będzie reziduum tym błąd rozwiązania przybliżonego będzie większy \\( r_h=B({\\bf u_h },p_h)-l \\).W jaki sposób zmierzyć błąd rozwiązania, czyli wielkość reziduum? Żeby zmierzyć jak duże jest reziduum musimy wprowadzić jakąś normę (czyli miarę wielkości) \\( r_h = \\| B({\\bf u_h },p_h)-l \\| \\). Mogę teraz powiedzieć że szukamy takiego rozwiązania naszego problemu \\( ({\\bf u_h },p_h) \\) żeby reziduum (czyli błąd) był jak najmniejszy. Matematycznie zapisuje się ten warunek w postaci minimalizacji normy \\( ({\\bf u_h },p_h) = \\displaystyle{argmin}_{({\\bf w_h },s_h) \\in U\\times P } {1 \\over 2} \\| B({\\bf w_h},s_h) - l \\|_{({\\bf V},Q)' }^2 \\) Przed normą dopisuje się \\( 1\\over 2 \\) oraz podnosi się normę do kwadratu. Problem praktyczny jest taki że nie wiemy jak policzyć normę z różnicy \\( \\|B({\\bf w_h },s_h)-l\\| \\). Normę tą mierzy bowiem odległości w abstrakcyjnej przestrzeni matematycznej \\( (V\\times Q)' \\) (matematycy powiedzą że przestrzeń ta jest przestrzenią dualną do przestrzeni funkcji testujących). Żeby rozwiązać ten problem, wykonujemy trick matematyczny polegający na rzutowaniu normy z przestrzeni \\( (V\\times Q)' \\) do przestrzeni testującej \\( V\\times Q \\). Wprowadza się operator przerzucający przestrzeń \\( (V\\times Q) \\) w przestrzeń \\( (V\\times Q) ' \\). Operator ten nazywamy operatorem Riesza \\( R_{(V,Q)} \\colon (V\\times Q) \\ni (v,q) \\rightarrow ( ( v,q),.) \\in (V\\times Q)' \\). Operator odwrotny natomiast przerzuca przestrzeń \\( (V\\times Q)' \\) z powrotem w przestrzeń \\( V\\times Q \\), czyli \\( R_{(V,Q)}^{-1} \\colon V' \\ni (v,.) \\rightarrow v \\in V \\). Tak więc jeśli użyjemy odwrotnego operatora Riesza, przerzucimy nasz problem do przestrzeni funkcji testujących \\( V\\times Q \\). Mamy więc \\( ({\\bf u_h},p_h) = \\displaystyle{argmin}_{({\\bf w_h },s_h) \\in (U_h\\times P_h)} {1 \\over 2} \\| {R_{(V,Q)}^{-1}} (B({\\bf w_h},s_h) - l) \\|_{V\\times P }^2 \\). Szukamy więc punktu w którym funkcja osiąga minimum. Taki punkt osiągany jest wtedy kiedy pochodne tej funkcji są równe zero. Ponieważ mamy tutaj funkcjonał, matematycy powiedzą że szukamy takiego \\( ({\\bf u_h },p_h) \\) w którym pochodne Gateaux są równe zero we wszystkich kierunkach \\( \\langle R_{(V,Q) }^{-1} (B({\\bf u_h },p_h) - l), R_{(V,Q)}^{-1 }(B,({\\bf w_h },s_h) ) \\rangle_V = 0 \\quad \\forall ({\\bf w_h },s_h) \\in U_h \\times P_h \\) gdzie \\( ({\\bf w_h},s_h) \\) oznacza wszystkie możliwe \"kierunki\" ze skończenie wymiarowej przestrzeni funkcji \\( U_h \\times P_h \\) (w której przy okazji szukamy rozwiązania naszego problemu Stokesa). Formalnie rzecz ujmując, w tym miejscu musimy skonstruować skończenie wymiarową przestrzeń funkcji \\( U_h\\times P_h \\) w której będziemy szukać naszego rozwiązania. Robimy to oczywiście w naszym podręczniku stosując funkcje bazowe B-spline, rozpinając je zgodnie z wektorami węzłów wzdłuż osi x oraz wzdłuż osi y. Wzdłuż osi \\( x \\) wprowadzamy wektor węzłów [0 0 0 1 2 3 4 4 4], podobnie wzdłuż osi \\( y \\) wprowadzamy wektor węzłów [0 0 0 1 2 3 4 4 4]. Uzyskaliśmy dwie bazy jednowymiarowych funkcji B-spline \\( \\{ B_{i,2}(x) \\}_{i=1,...,6 } \\) oraz \\( \\{B_{j,2}(y)\\}_{j=1,...,6 } \\). Następnie utworzymy z nich iloczyny tensorowe \\( B_{i,j;2}(x,y)=B_{i,2}(x)B_{j,2}(y),i,j=1,...,6 \\). Zauważmy że nasz obszar \\( \\Omega \\) rozpięty jest na kwadracie \\( [0,1]^2 \\), podobnie jak nasze 6*6=36 funkcji bazowych co wynika z definicji wektora węzłów [0 0 0 1 2 2 3 4 4 4]. Nasza przestrzeń aproksymacyjna jest więc rozpięta przez iloczyny tensorowe naszych jednowymiarowych funkcji B-spline. Teraz mamy natomiast dwie współrzędne prędkości oraz jedną wartość skalarną ciśnienia, dostajemy więc \\( U_h \\times Q_h = gen \\{ B_{i,j;2}(x,y)=B_{i,2}(x)B_{j,2}(y),i,j=\\\\=1,...,6, B_{i,j;2}(x,y)=B_{i,2}(x)B_{j,2}(y),i,j=1,...,6, B_{i,j;2}(x,y)=B_{i,2}(x)B_{j,2}(y),i,j=1,...,6 \\} \\). Oznaczamy \\( r=R_{(V,Q)}^{-1}(B({\\bf u_h },p_h)-l) \\) i wówczas nasz problem minimalizacji reziduum zapisać można w postaci \\( \\langle r , R_{(V,Q)}^{-1} (B\\, ({\\bf w_h },s_h) ) \\rangle = 0 \\quad \\forall \\, (w_h,s_h ) \\in U_h\\times P_h \\) co jest równoznaczne \\( \\langle B({\\bf w_h },s_h), r \\rangle = 0 \\quad \\quad \\forall (w_h,s_h ) \\in U_h \\times P_h. \\) Dorzucamy teraz drugie równanie, korzystając z definicji reziduum \\( r=B({\\bf u_h },p_h)-l \\), przemnażam definicje reziduum przez funkcje testujące z przestrzeni funkcji testujących i dostaje równanie: \\( (r,v)_V=\\langle B({\\bf u_h },p_h)-l,(v,q) \\rangle \\quad \\forall( v,q )\\in V\\times Q. \\) Mam więc układ równań: znajdź reziduum w nieskończenie wymiarowej przestrzeni funkcji testujących \\( r\\in V\\times Q \\) oraz rozwiązania w skończenie wymiarowej przestrzeni funkcji \\( {\\bf u_h },p_h) \\in U_h\\times P_h \\) \\( (r,v)_V - \\langle B({\\bf u_h },p_h)-l ,(v,q) \\rangle = 0 \\quad \\forall (v,q) \\in V\\times Q \\\\ \\langle B({\\bf w_h },s_h),r\\rangle = 0 \\quad \\forall (w_h,s_h) \\in U_h\\times P_h \\) Gdybyśmy byli wstanie rozwiązać to równanie, to dostali byśmy najlepszą możliwą aproksymacje naszego problemu w przestrzei funkcji aproksymujących \\( U_h\\times P_h \\). Niestety nie jest to możliwe, ponieważ nieskończona przestrzeń funkcji testujących generuje nam nieskończenie wiele równań które należało by rozwiązać. Musimy więc wybrać drugą inną bazę do przybliżenia przestrzeni testowej. Tutaj pojawia się pierwsza istotna różnica metody minimalizacji reziduum z tradycyjną metodą elementów skończonych. Otóz w metodzie minimalizacji reziduum mamy dwie różne przestrzenie, jedną do aproksymacji rozwiązania, drugą do testowania. Oczywiście przestrzeń testującą również rozpinamy za pomocą funkcji B-spline. Na przykład możemy użyć takiego samego patcha elementów jak dla przestrzeni aproksymującej (ale nie jest to wymagane!), ale podnieść stopień funkcji B-spline. Precyzujemy jak wyglądać będzie nasz patch elementów oraz nasze funkcje bazowe B-spline rozpięte na elementach, podając wektor węzłów wzdluż osi \\( x \\) oraz wektor węzłów wzdłuż osi \\( y \\). Odsyłamy tutaj do rozdziału trzeciego w którym opisany jest sposób definiowania funkcji bazowych za pomocą wektorów węzłów i wielomianów B-spline. Wzdłuż osi \\( x \\) wprowadzamy wektor węzłów [0 0 0 1 2 3 4 4 4], podobnie wzdłuż osi \\( y \\) wprowadzamy wektor węzłów [0 0 0 1 2 3 4 4 4]. Używamy więc do aproksymacji przestrzeni kwadratowych B-spline'ów o ciągłości C1. Do testowania zwiększymy ich stopień, oraz pozostawimy ciągłość C1. Wzdłuż osi \\( x \\) wprowadzamy wektor węzłów [0 0 0 0 1 1 2 2 3 3 4 4 4 4], podobnie wzdłuż osi \\( y \\) wprowadzamy wektor węzłów [0 0 0 0 1 1 2 2 3 3 4 4 4 4]. Generalnie przestrzenie testujące muszą być większe niż przestrzeń aproksymacyjna. Możemy uzyskać ten efekt zwiększając liczbę elementów lub podnosząc stopień funkcji B-spline, lub redukując ciągłość bazy funkcji B-spline, lub mieszając te trzy podejścia razem. Przestrzeń aproksymacyjna powinna być podprzestrzenią przestrzeni testującej. Uzyskaliśmy dwie bazy jednowymiarowych funkcji B-spline stosowanych do testowania \\( \\{ \\tilde{B} _{k,3}(x) \\}_{k=1,...,10 } \\) oraz \\( \\{\\tilde{B}_{l,3}(y) \\}_{l=1,...,7 } \\). Następnie utworzymy z nich iloczyny tensorowe \\( \\tilde{B}_{k,l;3}(x,y)={\\tilde{B}}_{k,3}(x){\\tilde{B}}_{l,3}(y),k,l=1,...,10 \\). Nasza przestrzeń testujące, uwzględniająca dwie współrzędne funkcji testującej dla pola prędkości oraz jedną współrzedną funkcji testującej dla ciśnienia, to \\( V_h\\times Q_h = gen \\{ \\tilde{B}_{k,3}(x)\\tilde{B}_{l,3}(y),i,j=1,...,10; \\tilde{B}_{k,3}(x)\\tilde{B}_{l,3}(y),i,j=1,...,10; \\tilde{B}_{k,3}(x)B_{l,3}(y),i,j=1,...,10 \\} \\). Mając dyskretną przestrzeń testującą, uzyskujemy wreszcie nasz dyskretny (czyli skończenie wymiarowy) układ równań który będziemy chcieli rozwiązać, Szukamy \\( ( r_m, ({\\bf u_h },p_h) )_{ V_m \\times U_h \\times P_h } \\) \\( (r_m,({\\bf v_m }, q_h))_{V_m \\times Q_h } - \\langle B ({\\bf u_h },p_h)-l,({\\bf v_m }, q_m) \\rangle = 0 \\quad \\forall ({\\bf v_m },q_m) \\in V_m \\times Q_m \\\\ \\langle B({\\bf w_h }, q_h),r_m\\rangle = 0 \\quad \\forall ({\\bf w_h },q_h) \\in U_h\\times P_h \\) Pojawia się tutaj tak zwany iloczyn skalarny (wewnętrzny) w dyskretnej przestrzeni testującej \\( (*,*)_{V_m \\times Q_M } \\). Żeby odgadnąć jaki iloczyn skalarny użyć w naszym problemie, musimy popatrzeć na nasze oryginalne równanie zapisane w formie słabej \\( B( ({\\bf u}p),({\\bf v}, q)) = \\left( \\begin{matrix} a({\\bf u}, {\\bf v}) + b(p, {\\bf v}) \\\\ b(q, {\\bf u } ) \\\\ \\end{matrix} \\right) \\) i zobaczyć w jakiej formie są funkcje testujące \\( ({\\bf v },q) \\) w jej składowych \\( a({\\bf u}, {\\bf v }) =\\int_{\\Omega} \\frac{\\partial u_1}{\\partial x}\\frac{\\partial v_1}{\\partial x}dxdy + \\int_{\\Omega} \\frac{\\partial u_1}{\\partial y}\\frac{\\partial v_1}{\\partial y}dxdy + \\int_{\\Omega} \\frac{\\partial u_2}{\\partial x}\\frac{\\partial v_2}{\\partial x}dxdy + \\int_{\\Omega} \\frac{\\partial u_2}{\\partial y}\\frac{\\partial v_2}{\\partial y }dxdy \\) \\( b(p, {\\bf v }) = \\int_{\\Omega}p \\frac{\\partial v_1}{\\partial x} dxdy+ \\int_{\\Omega} p \\frac{\\partial v_2}{\\partial y } dxdy \\) Nasz produkt wewnętrzny powinien więc zawierać pochodne funkcji \\( v_1,v_2 \\) oraz wartości funkcji \\( q \\). \\( ( ({\\bf u },p), ({\\bf v },q))_{V_m\\times Q_m} =\\\\= \\int_{\\Omega} p(x,y) q(x,y) dxdy + \\int_{\\Omega} \\frac{\\partial u_1(x,y)}{\\partial x } \\frac{\\partial v_1(x,y) }{\\partial x }dxdy + \\int_{\\Omega} \\frac{\\partial u_1(x,y)}{\\partial y } \\frac{\\partial v_1(x,y)}{\\partial y } + \\int_{\\Omega} \\frac{\\partial u_2(x,y)}{\\partial x } \\frac{\\partial v_2(x,y)}{\\partial x }dxdy + \\int_{\\Omega} \\frac{\\partial u_2(x,y)}{\\partial y } \\frac{\\partial v_2(x,y)}{\\partial y }dxdy \\) Podsumowując, w metodzie minimalizacji reziduum, musimy zdefiniować osobną przestrzeń aproksymacyjną, oraz osobną (większą) przestrzeń testującą, oraz wybrać iloczyn wewnętrzny przestrzeni testującej. Dostajemy wówczas układ równań w którym niewiadome to nasze rozwiązanie \\( ({\\bf u },p) \\) oraz dodatkowo reziduum \\( r \\). To jak dobrze działać będzie metoda minimalizacja reziduum zależy w dużej mierze od naszego wyboru przestrzeni testującej oraz iloczynu wewnętrznego. Jeśli iloczyn wewnętrzny będzie dostatecznie dokładny, oraz przestrzeń testująca będzie dostatecznie duża, wszystko będzie idealnie działać, i dostaniemy najlepsze możliwe do uzyskania rozwiązanie w przestrzeni aproksymacyjnej \\( U_h \\) (ale nie lepsze niż pozwala na to przestrzeń aproksymacyjna). Matematyczne uzasadnienie jest takie, że problem minimalizacji reziduum z nieskończenie wymiarową przestrzenią testową realizuje warunek stabilności inf-sup ze stałą równą 1. Jeśli przestrzeń testującą zawęzimy do przestrzeni skończenie wymiarowej, to warunek inf-sup może nie być już idealnie realizowany w tej przestrzeni. Zwiększanie przestrzeni testującej będzie nam poprawiać realizowalność warunku stabilności inf-sup. Nasz układ równań do rozwiązania metodzie minimalizacji reziduum wyglada następująco \\( \\left( \\begin{matrix} G & B \\\\ B^T & 0 \\\\ \\end{matrix} \\right) \\left( \\begin{matrix} r \\\\ u \\end{matrix} \\right)= \\left( \\begin{matrix} f \\\\ 0 \\end{matrix} \\right) \\) Zobaczmy jak wygląda nasz układ równań na przykładzie konkretnych przestrzeni aproksymacyjnej i testującej."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 5. Metody stabilizacji", "subject_id": 717, "subject": "Stabilizacja równań Stokesa za za pomocą metody Discontinuous Galerkin (DG)", "paragraphs": ["Jedną z możliwych metod stabilizacji równań Stokesa jest metoda DG (Discontinuous Galerkin). W metodzie tej funkcje bazowe używane do aproksymacji i testowania rozwiązania \"rozcinane\" są nożyczkami na granicy poszczególnych elementów. Tak więc jeśli chcemy używać wielomianów B-spline, możemy je dalej używać, ale nad każdym elementem zostaną one rozcięte na lokalne kawałki. W rozdziale tym opieramy się na sformułowaniu DG równań Stokesa na podstawie książki [1] Używamy sformułowania wyprowadzonego w poprzednim rozdziale \\( a({\\bf u},{\\bf v}) + b(p,{\\bf v }) = f({\\bf v}) \\quad \\forall {\\bf v} \\) \\( b(q,{\\bf u } ) = 0 \\quad \\forall q \\) \\( a({\\bf u}, {\\bf v}) =\\int_{\\Omega} \\nabla {\\bf u} : \\nabla {\\bf v }dxdy = \\int_{\\Omega} \\frac{\\partial u_1}{\\partial x}\\frac{\\partial v_1}{\\partial x}dxdy + \\int_{\\Omega} \\frac{\\partial u_1}{\\partial y}\\frac{\\partial v_1}{\\partial y}dxdy + \\int_{\\Omega} \\frac{\\partial u_2}{\\partial x}\\frac{\\partial v_2}{\\partial x}dxdy + \\int_{\\Omega} \\frac{\\partial u_2}{\\partial y }\\frac{\\partial v_2}{\\partial y }dxdy \\) \\( b(p, {\\bf v}) = \\int_{\\Omega} p div {\\bf v} dxdy= \\int_{\\Omega}p \\frac{\\partial v_1}{\\partial x} dxdy+ \\int_{\\Omega} p \\frac{\\partial v_2}{\\partial y } dxdy \\) \\( f({\\bf v} )= \\int_{\\Omega} \\frac{\\partial h(x,y)}{\\partial x}\\frac{\\partial v_1(x,y)}{\\partial x } dxdy +\\int_{\\Omega} \\frac{\\partial h(x,y)}{\\partial y}\\frac{\\partial v_2(x,y)}{\\partial y} dxdy +\\int_{\\partial \\Omega} \\frac{\\partial h(x,y)}{\\partial n } v_1(x,y) dS \\) W przypadku sformułowania dla metody DG konieczne jest wprowadzenie dodatkowych członów opisujących skoki funkcji bazowych \\( [\\psi(x)]=\\psi|_{T_1}(x)-\\psi|_{T_2}(x) \\) gdzie \\( T_1 \\) i \\( T_2 \\) oznacza dwa sąsiednie elementy, i obliczamy tutaj różnce z wartości \"pociętej\" funkcji B-spline oznaczonej \\( \\psi \\) na elemencie z jednej strony i z drugiej strony. Dodatkowo wprowadza się średnią z wartości rozciętych funkcji bazowych na krawędziach dwóch sąsiednich elementów \\( \\{\\psi\\} = \\frac{\\psi|_{T_1}(x)+\\psi|_{T_2}(x)}{2} \\). Nasz funkcjonał \\( a({\\bf u },{\\bf v }) \\) należy zmodyfikować dla metody DG w następujący sposób \\( a_{DG}({\\bf u }, {\\bf v }) = \\sum_{K \\in \\Omega_h } \\int_K \\left( \\frac{\\partial u_1 }{\\partial x } \\frac{\\partial v_1}{\\partial x } + \\frac{\\partial u_1 }{\\partial y } \\frac{\\partial v_1 }{\\partial y } + \\frac{\\partial u_2 }{\\partial x } \\frac{\\partial v_1}{\\partial x } + \\frac{\\partial u_2 }{\\partial y } \\frac{\\partial v_1 }{\\partial y } \\right) \\) \\( + \\sum_{F\\in F_h} \\int_F \\frac{\\eta}{h_F} \\left( [\\frac{\\partial u_1}{\\partial x} ] [\\frac{\\partial v_1}{\\partial x}] + [\\frac{\\partial u_1}{\\partial y}] [\\frac{\\partial v_1}{\\partial y }] + [\\frac{\\partial u_2}{\\partial x} ] [\\frac{\\partial v_2}{\\partial x}] + [\\frac{\\partial u_2}{\\partial y}] [\\frac{\\partial v_2}{\\partial y }]\\right) \\) \\( -\\sum_{F\\in F_h} \\int_F \\left( \\{\\frac{\\partial u_1}{\\partial n_1} \\} [\\frac{\\partial v_1}{\\partial x}] + \\{ \\frac{\\partial u_1}{\\partial n_2} \\} [\\frac{\\partial v_1}{\\partial y } ] + \\{\\frac{\\partial u_2}{\\partial n_1} \\} [\\frac{\\partial v_2}{\\partial x}] + \\{ \\frac{\\partial u_2}{\\partial n_2} \\} [\\frac{\\partial v_2}{\\partial y } ]\\right) \\) \\( - \\sum_{F\\in F_h} \\int_F \\left( [\\frac{\\partial u_1}{\\partial x} ] \\{ \\frac{\\partial v_1}{\\partial n_1} \\} + [\\frac{\\partial u_1}{\\partial y} ] \\{\\frac{\\partial v_1}{\\partial n_2 } \\} + [\\frac{\\partial u_2}{\\partial x} ] \\{ \\frac{\\partial v_2}{\\partial n_1} \\} + [\\frac{\\partial u_2}{\\partial y} ] \\{\\frac{\\partial v_2}{\\partial n_2 } \\} \\right) \\) W powyższych wzorach, całki liczone są element po elemencie. Tak więc \\( \\Omega_h \\) oznacza zbiór wszystkich elementów z patcha na którym rozpięte są nasze funkcje B-spline, \\( K \\in \\Omega_h \\) oznacza pojedynczy element wybrany z rodziny elementów (tak więc sumujemy nasze całki elementowe po wszystkich elementach z patcha), \\( F_h \\) oznacza zbiór wszystkich krawędzi pomiędzy elementami patcha, \\( F\\in F_h \\) oznacza pojedynczą krawędź wybraną z tej rodziny (tak więc sumujemy nasze całki krawędziowe po wszystkich krawędziach z patcha), \\( h_F \\) oznacza dugość krawędzi \\( F \\), natomiast \\( \\eta \\) oznacza parametr którego wartość należy dobrać eksperymentalnie. Niestety wadą tej metody stabilizacji jest fakt, iż musimy uruchomić kilka obliczeń i znaleźć taką wartość parametru \\( \\eta \\) dla której symulacja da poprawne wyniki. Zazwyczaj eksperymentuje się z wielkościami różniącymi się o rząd wielkości np. 0.1, 1, 10, 100, 1000, 10000 etc. Symbol \\( {\\bf n }=(n_1,n_2) \\) oznacza wersor prostopadły do krawędzi \\( F \\). W naszym przypadku kiedy rozważamy funkcje bazowe B-spline rozpięte na regularnym patchu elementów w 2D, przyjmujemy \\( {\\bf n }=(1,0) \\) lub \\( {\\bf n }=(0,1) \\). Z kolei nasz funkcjonał \\( b(p ,{\\bf v }) \\) należy zmodyfikować dla metody DG w następujący sposób \\( b_{DG}(p, {\\bf v})= - \\sum_{K\\in \\Omega_h } \\int_K \\left ( p \\frac{\\partial v_1}{\\partial x}+ p \\frac{\\partial v_2}{\\partial y } \\right) \\) \\( + \\sum_{F \\in F_h } \\int_F\\left( [v_1] n_1 p+ [v_2] n_2 p \\right) \\) Znaczenie symboli w całkach jest podobne jak w przypadku funkcjonału \\( a({\\bf u },{\\bf v }) \\). Nasz stabilizowany problem Stokes'a wygląda teraz następująco: \\( a_{DG}({\\bf u},{\\bf v}) + b_{DG}(p,{\\bf v }) = f({\\bf v }) \\quad \\forall {\\bf v} \\) \\( b_{DG}(q,{\\bf u } ) + {\\color{red} {S_{DG}(p,q) }}= 0 \\quad \\forall q \\) Zgodnie z książką Daniele Antoni Di Pietro, Alexandre Ern, Mathematical Aspects of Discontinuous Galerkin Methods, w celu ustabilizowania równań Stokesa należy dodać tutaj człon \\( {\\color{red}{S_{DG}(p,q)}} = \\sum_{F\\in F_h^{internal} } h_F \\int_F [p][q] \\) w której \\( F_h^{internal} \\) oznacza wszystkie krawędzie wewnętrzne, tak więc sumujemy tutaj całki policzone po wszystkich krawędziach znajdujących się wewnątrz patcha elementów (omijamy krawędzie położone na brzegu). Podobnie jak poprzednio, \\( h_F \\) oznacza długość krawędzi. W celu rozwiązania równań Stokesa stabilizowanych za pomocą metody DG, generujemy w podobny sposób układ równań, uwzględniając powyższe modyfikacje. Możliwe jest również rozważanie różnych modyfikacji. Założymy następujące fakty o funkcjach aproksymujących i testujących. Załóżmy że funkcje testujące będą kawałkami ciągłe, w sensie że nad poszczególnymi przedziałami wektora węzłów w analizie izogeometrycznej, lub nad poszczególnymi elementami skończonymi w sensie klasycznej metody elementów skończonych będą ciągłe, ale pomiędzy elemetami lub pomiędzy przedziałami wektora węzłów będą nieciągłe. Mamy więc \"połamane\" wielomiany testujące. Załóżmy też że funkcje aprokszmaczjne są ciągłe. Wówczas wszystkie człony zawierające skoki i średnie z funkcji aproksymujące znikną, w szczególności dostaniemy zmodyfikowane wyrażenia \\( a_{DG}({\\bf u }, {\\bf v }) = \\sum_{K \\in \\Omega_h } \\int_K \\left( \\frac{\\partial u_1 }{\\partial x } \\frac{\\partial v_1}{\\partial x } + \\frac{\\partial u_1 }{\\partial y } \\frac{\\partial v_1 }{\\partial y } + \\frac{\\partial u_2 }{\\partial x } \\frac{\\partial v_1}{\\partial x } + \\frac{\\partial u_2 }{\\partial y } \\frac{\\partial v_1 }{\\partial y } \\right) \\) \\( -\\sum_{F\\in F_h} \\int_F \\left( \\{\\frac{\\partial u_1}{\\partial n_1} \\} [\\frac{\\partial v_1}{\\partial x}] + \\{ \\frac{\\partial u_1}{\\partial n_2} \\} [\\frac{\\partial v_1}{\\partial y } ] + \\{\\frac{\\partial u_2}{\\partial n_1} \\} [\\frac{\\partial v_2}{\\partial x}] + \\{ \\frac{\\partial u_2}{\\partial n_2} \\} [\\frac{\\partial v_2}{\\partial y } ]\\right) \\) \\( b_{DG}(p, {\\bf v})= - \\sum_{K\\in \\Omega_h } \\int_K \\left ( p \\frac{\\partial v_1}{\\partial x}+ p \\frac{\\partial v_2}{\\partial y } \\right) \\) \\( + \\sum_{F \\in F_h } \\int_F\\left( [v_1] n_1 p+ [v_2] n_2 p \\right) \\) \\( {\\color{red}{S_{DG}(p,q)}} = 0 \\) Założymy następujące fakty o funkcjach aproksymujących i testujących. Załóżmy że funkcje aproksymujące będą kawałkami ciągłe, w sensie że nad poszczególnymi przedziałami wektora węzłów w analizie izogeometrycznej, lub nad poszczególnymi elementami skończonymi w sensie klasycznej metody elementów skończonych będą ciągłe, ale pomiędzy elemetami lub pomiędzy przedziałami wektora węzłów będą nieciągłe. Mamy więc \"połamane\" wielomiany aproksymacyjne. Załóżmy też że funkcje testujące są ciągłe. Wówczas mamy \\( a_{DG}({\\bf u }, {\\bf v }) = \\sum_{K \\in \\Omega_h } \\int_K \\left( \\frac{\\partial u_1 }{\\partial x } \\frac{\\partial v_1}{\\partial x } + \\frac{\\partial u_1 }{\\partial y } \\frac{\\partial v_1 }{\\partial y } + \\frac{\\partial u_2 }{\\partial x } \\frac{\\partial v_1}{\\partial x } + \\frac{\\partial u_2 }{\\partial y } \\frac{\\partial v_1 }{\\partial y } \\right) \\) \\( - \\sum_{F\\in F_h} \\int_F \\left( [\\frac{\\partial u_1}{\\partial x} ] \\{ \\frac{\\partial v_1}{\\partial n_1} \\} + [\\frac{\\partial u_1}{\\partial y} ] \\{\\frac{\\partial v_1}{\\partial n_2 } \\} + [\\frac{\\partial u_2}{\\partial x} ] \\{ \\frac{\\partial v_2}{\\partial n_1} \\} + [\\frac{\\partial u_2}{\\partial y} ] \\{\\frac{\\partial v_2}{\\partial n_2 } \\} \\right) \\) \\( b_{DG}(p, {\\bf v})= - \\sum_{K\\in \\Omega_h } \\int_K \\left ( p \\frac{\\partial v_1}{\\partial x}+ p \\frac{\\partial v_2}{\\partial y } \\right) \\) \\( {\\color{red}{S_{DG}(p,q)}} = 0 \\) Jeśli do sformułowania DG wsadzimy ciągłe przestrzenie aproksymacyjne i testujące, dostaniemy wówczas takie samo oryginalne sformułowanie Stokesa bez stabilizacji. Różne warianty przestrzeni aproksymacyjnych i testujących mogą być pomocne podczas testowania różnych form stabilizacji oraz do samego debugowania kodu generującego macierz metody DG."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 5. Metody stabilizacji", "subject_id": 718, "subject": "Implementacja w MATLABie problemu adwekcji-dyfuzji ze stabilizacją metodą SUPG", "paragraphs": ["Poniżej przedstawiam kod MATLABa obliczający problem adwekcji-dyfuzji metodą elementów skończonych ze stabilizacją metodą Streamline Upwind Petrov-Galerkin (SUPG), dla modelowego problemu Erikksona-Johnsona. Przypomnijmy najpierw problem adwekcji-dyfuzji, problem modelowy Erikksona-Johnsona (opisany na przykład w dokumencie [1]), zdefiniowany na obszarze kwadratowym \\( \\Omega = [0,1]^2 \\) w następujący sposób: Szukamy funkcji \\( u \\) takiej że \\( a(u,v)=l(v) \\forall v \\) gdzie \\( a(u,v) =\\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y) }{\\partial x } dxdy + \\int_{\\Omega} \\beta_y(x,y) \\frac{\\partial u(x,y)}{\\partial y } dxdy \\\\ +\\epsilon \\int_{\\Omega} \\frac{\\partial u(x,y) }{\\partial x} \\frac{\\partial v(x,y)}{\\partial x } dxdy +\\epsilon \\int_{\\Omega} \\frac{\\partial u(x,y)}{\\partial y } \\frac{\\partial v(x,y)}{\\partial y } dxdy \\) \\( l(v) = \\int_{\\partial \\Omega } f(x,y) v dxdy \\) \\( f(x,y)=sin(\\pi y)(1-x) \\) jest rozszerzeniem warunku brzegowego Dirichleta na cały obszar, natomiast \\( \\beta = (1,0) \\) reprezentuje wiatr wiejący z lewej strony na prawą, natomiast \\( \\epsilon = 10^{-2} \\) oznacza współczynnik dyfuzji. Wielkość \\( Pe=1/ \\epsilon = 100 \\) nazywa sie liczbą Pekleta, i definiuje ona wrażliwość problemu adwekcji-dyfuzji.", "Kod można uruchomić w darmowym środowisku Octave.", "Pobierz kod lub zob. Załącznik 5.", "W linii 848 podawany jest współczynnik dyfuzji \\( \\epsilon = 10 ^{-2} \\). Jego odwrotnośc to tak zwana wartość Pekleta (Peclet number) \\( Pe=\\frac{1}{\\epsilon} \\). W liniach 849 i 850 zaszyte są stałe metody SUPG. Następnie tworzony jest wektor węzłów (zawsze liczby naturalne liczone od zera) \\( knot\\_x = [0 \\quad 0 \\quad 0 \\quad 1 \\quad 2 \\quad 2 \\quad 2] \\) dla przestrzeni aproksymacyjnej, oraz wektor odpowiadających im punktów wzdłuź osi x, z przedziału od 0 do 1, \\( points\\_x = [0 \\quad 0.5 \\quad 1] \\) w których umieszczana będzie baza funkcji B-spline służaca do aproksymacji rozwiązania problemu Erikksona-Johnsona. Wektory węzłów dla przestrzeni aproksymującej i punkty na których rozpinamy wektory węzłów, definiujemy osobno dla osi x oraz dla osi y. Kod może zostać uruchomiony w darmowym środowisku Octave. Kod uuchamia się otwierając go w Octave oraz wpisując komendę \\( advection\\_supg\\_adapt \\) Po chwili obliczeń kod otwiera dodatkowe okienko i rysuje w nim rozwiązanie numeryczne oraz dokładne. Kod oblicza błąd reziduum \\( Residual norm: L2 0.015808, H1 0.100417 \\) iKod oblicza również normę L2 i H1 z rozwiązania \\( Error: L2 31.41 procent, H1 38.74 procent \\) i porównuje do normy L2 i H1 z rozwiazania dokładnego. \\( Best possible: L2 2.06 procent, H1 28.73 procent \\) Widać że w celu poprawienia dokładności rozwiązania, konieczne jest zagęszczanie siatki."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 5. Metody stabilizacji", "subject_id": 734, "subject": "Implementacja w MATLABie problemu adwekcji-dyfuzji za stabilizacją metodą minimalizacji reziduum", "paragraphs": ["Poniżej przedstawiam kod MATLABa obliczający problem adwekcji-dyfuzji metodą elementów skończonych ze stabilizacją metodą minimalizacji reziduum, dla modelowego problemu Erikksona-Johnsona. Przypomnijmy najpierw problem adwekcji-dyfuzji, problem modelowy Erikksona-Johnsona (opisany na przykład w dokumencie [1] zdefiniowany na obszarze kwadratowym \\( \\Omega = [0,1]^2 \\) w następujący sposób: Szukamy funkcji \\( u \\) takiej że \\( a(u,v)=l(v) \\forall v \\) gdzie \\( a(u,v) =\\int_{\\Omega} \\beta_x(x,y) \\frac{\\partial u(x,y) }{\\partial x } dxdy + \\int_{\\Omega} \\beta_y(x,y) \\frac{\\partial u(x,y)}{\\partial y } dxdy \\\\ +\\epsilon \\int_{\\Omega} \\frac{\\partial u(x,y) }{\\partial x} \\frac{\\partial v(x,y)}{\\partial x } dxdy +\\epsilon \\int_{\\Omega} \\frac{\\partial u(x,y)}{\\partial y } \\frac{\\partial v(x,y)}{\\partial y } dxdy \\) \\( l(v) = \\int_{\\partial \\Omega } f(x,y) v dxdy \\) \\( f(x,y)=sin(\\pi y)(1-x) \\)jest rozszerzeniem warunku brzegowego Dirichleta na cały obszar, natomiast \\( \\beta = (1,0) \\) reprezentuje wiatr wiejący z lewej strony na prawą, natomiast \\( \\epsilon = 10^{-2} \\) oznacza współczynnik dyfuzji. Wielkość \\( Pe=1/ \\epsilon = 100 \\) nazywa sie liczbą Pekleta, i definiuje ona wrażliwość problemu adwekcji-dyfuzji. Kod można uruchomić w darmowym środowisku Octave.", "Pobierz kod lub zob. Załącznik 5A.", "W linii 830 podawany jest współczynnik dyfuzji \\( \\epsilon = 10 ^{-2} \\). Jego odwrotnośc to tak zwana wartość Pecleta \\( Pe=\\frac{1}{\\epsilon} \\). Następnie tworzony jest wektor węzłów (zawsze liczby naturalne liczone od zera) \\( knot\\_trial\\_x = [0 \\quad 0 \\quad 0 \\quad 1 \\quad 2 \\quad 2 \\quad 2] \\) dla przestrzeni aproksymacyjnej, oraz wektor odpowiadających im punktów wzdłuź osi x, z przedziału od 0 do 1, \\( points\\_x = [0 \\quad 0.5 \\quad 1] \\) w których umieszczana będzie baza funkcji B-spline służaca do aproksymacji rozwiązania problemu Erikksona-Johnsona. Podobnie definiujemy wektor węzłów dla przestrzeni testującej \\( knot\\_test\\_x = [0 \\quad 0 \\quad 0 \\quad 0 \\quad 1 \\quad 2 \\quad 2 \\quad 2 \\quad 2] \\). Zgodnie z ideą metody minimalizacji reziduum, funkcji testujących musi być więcej niż funkcji aproksymujących. W naszym przykładzie używamy funkcji B-spline stopnia kwadratowego o ciągłości C1 dla przestrzeni aproksymacyjnej (trial) oraz funkcji B-spline stopnia trzeciego o ciągłości C1 dla przestrzeni testującej (test). Wektory węzłów dla przestrzeni aproksymującej oraz testującej, i punkty na których rozpinamy wektory węzłów, definiujemy osobno dla osi x oraz dla osi y. Kod może zostać uruchomiony w darmowym środowisku Octave. Kod uuchamia się otwierając go w Octave oraz wpisując komendę \\( advection\\_igrm\\_adapt \\) Po chwili obliczeń kod otwiera dodatkowe okienko i rysuje w nim rozwiązanie numeryczne oraz dokładne. W drugim oknie kod rysuje reziduum, obliczane dodatkowo przez metodę minimalizacji reziduum, Jest ono miarą lokalnego błędu rozwiązania. Kod oblicza błąd reziduum \\( Residual norm: L2 0.015808, H1 0.100417 \\) iKod oblicza również normę L2 i H1 z rozwiązania \\( Error: L2 45.90 procent, H1 61.85 procent \\) i porównuje do normy L2 i H1 z rozwiazania dokładnego. \\( Best possible: L2 2.02 procent, H1 14.20 procent \\) Widać że w celu poprawienia dokładności rozwiązania, konieczne jest zwiększenie siatki.", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 6. Przetwarzanie siatek obliczeniowych", "subject_id": 719, "subject": "Generacja i adaptacja siatek obliczeniowych", "paragraphs": ["Celem obliczeń za pomocą metody elementów skończonych jest przeprowadzenie symulacji wybranego zjawiska fizycznego na zadanym obszarze. Ponadto, zadanie projekcji, takie jak to przedstawione w modułach wprowadzających w podręczniku, ma zastosowania w grafice komputerowej.", "Każda z tych symulacji wymaga wygenerowania siatki obliczeniowej pokrywającej określony obszar elementami skończonymi. Klasyczne generatory siatek obliczeniowych generują najczęściej siatki zbudowane z elementów trójkątnych w dwóch wymiarach, oraz siatki zbudowane z elementów czworościennych w trzech wymiarach. Stosuje się również siatki zbudowane z elementów prostokątnych w dwóch wymiarach oraz sześciennych w trzech wymiarach, oraz dodatkowo elementy pryzmatyczne i piramidy. Teoretycznie możliwe jest również tworzenie elementów skończonych zbudowanych z dowolnych wieloboków w dwóch wymiarach lub wielościanów w trzech wymiarach. Siatki obliczeniowe zbudowane z dowolnych elementów powinny posiadać określone właściwości.", "Jedną z często używanych metod generacji siatki obliczeniowej zbudowanej z elementów trójkątnych jest triangulacja Delauneya. Bazując na idei Delauneya aktualnie wciąż rozwija się całą szkołę generacji i adaptacji siatek obliczeniowych [1] [2]. Siatka obliczeniowa zbudowana za pomocą triangulacji Delauneya zbudowana jest z elementrów trójkątnych w dwóch wymiarach. Na każdym elemencie trójkątnym możemy rozpiąć okrąg (ponieważ możliwe jest rozpięcie okręgu na dowolyuch trzech punktach. Triangulacja Delauneya w dwóch wymiarach posiada następującą własność, okręgi opisane na trójątach triangulacji Delauneya nie zawierają punktów wierzchołków innych trójkątów.", "Możliwe jest również skonstruowanie triangulacji Delauneya w trzech wymiarach. Wówczas siatka obliczeniowa zbudowana jest z elementów czworościennych. Na wierzchołkach elementu czworościennego możemy rozpiąć kulę (do rozpięcia kuli potrzebujemy bowiem czterech punktów). Triangulacja Delauneya w trzech wymiarach posiada z koleji następującą własność, kule opisane na czworościanach Delauneya nie będą zawierały punktów wierzchołków innych czworościanów."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 6. Przetwarzanie siatek obliczeniowych", "subject_id": 1086, "subject": "Algorytm adaptacji siatek trójkątnych i czworościennych", "paragraphs": ["W przypadku siatek trójkątnych lub czworościennych możliwe jest zagęszczanie siatek w celu zwiększenia dokładności aproksymacji funkcji rozpiętych na tych siatkach. Algorytm zagęszczania siatek nazywa się algorytmem adaptacji. Musi on zostać skonstruowany w taki sposób, żeby nie zepsuć właściwości oryginalnej siatki, na przykład żeby elementy nie stawały się coraz bardziej \"wydłużone\" w wyniku adaptacji, co powodowało by zaburzenie proporcji między krawędziami siatki i możliwość wygenerowania długich cienkich elementów dla których policzenie całki dawało by bardzo małe liczby, rzędu 0.000001 lub mniej co z koleji powodowało by błedy numeryczne faktoryzacji układu równań metody elementów skończonych. Algorytm adaptacji siatek trójkątnych zachowujący proporcje elementów zaproponowany został przez Marie Rivare [1]. Jest on opisany w pseudokodzie, oraz zilustrowany na rysunku"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 6. Przetwarzanie siatek obliczeniowych", "subject_id": 720, "subject": "Algorytm h-adaptacji", "paragraphs": ["Celem algorytmu h adaptacji jest zwiększenie dokładności aproksymacji na siatkach obliczeniowych poprzez połamanie wybranych elementów na mniejsze. Algorytm h adaptacji możliwy jest do zaimplementowania dopiero wtedy kiedy skonstruujemy takie funkcje bazowe, które będzie można rozpinać na elementach skończonych różnego rozmiaru. W przypadku siatek niestrukturalnych, zbudowanych z elementów trójkątnych, możliwe jest zastosowanie algorytmu Rivary opisanego w innym rozdziale. W przypadku siatek strukturalnych, zbudowanych z elementów prostokątnych, na których rozpięto funkcje bazowe zgodnie z zadanymi wektorami węzłów, h adaptacja jest możliwa wtedy jeśli pomiędzy wszystkimi łamanymi elementami wsadzimy \\( C^0 \\) separatory. W rozdziale \"Aproksymacja z wiszącymi węzłami\" opisany został sposób łączenia ze sobą funkcji bazowych rozpiętych na sąsiadujących połamanych elementach różnego rozmiaru. Algorytm h-adaptacji może zostać zaimplementowany w formie algorytmu a priori lub a posteriori, oraz stosując adaptacje izotropowe lub anizotropowe. Algorytm adaptacyjny może używać jednej siatki obliczeniowej, tak zwanej siatki rzadkiej, lub dwóch siatek obliczeniowych rzadkiej i gęstej. W naszej klasyfikacji przez algorytm adaptacyjny a priori, rozumiemy algorytm który podejmuje decyzję przed skonstruowaniem i rozwiązaniem problemu na siatce gęstej, po rozwiązaniu problemu na aktualnej siatce rzadkiej. Z tego względu określenie \"a priori\" niejako \"z góry\" rozumiemy tutaj bez dodatkowych obliczeń związanych na przykład z rozwiązywaniem problemu na dodatkowej siatce gęstej. Przez algorytm adaptacyjny a posteriori rozumiemy algorytm który podejmuje decyzje o adaptacje po wykonaniu pewnych dodatkowych obliczeń (nie tylko rozwiązaniu problemu na siatce rzadkiej) na przykład po wygenerowaniu siatki gęstej i rozwiązywaniu problemu na siatce gęstej.", "Jak powiedział kiedyś prof. Zienkiewicz, jeden z twórców metody elementów skończonych, wystarczającą dokładność w wielu zagadnieniach inżynierskich dostaniemy stosując wielomiany kwadratowe i h-adaptację. Zakładamy więc że siatka początkowa to posklejane grupy elementów opisanych wektorami węzłów [0 0 0 1 1 1] i [0 0 0 1 1 1]. Algorytm h-adaptacji anioztropowej a priori w ogólnej postaci zapisać można w sposób następujący:", "Poprzez błąd w przykładowym zadaniu projekcji bitampy, rozumiemy tutaj błąd w normie \\( H^1 \\) reprezentujący różnicę pomiędzy aproksymacją ciągłą np. odlewu terenu którego wysokość w różnych punktacj opisana jest za pomocą odcieni pikseli bitmapy. Jeśli konieczne jest połamanie danego elementu (wykonanie h-adaptacji dla tego elementu), mamy do wyboru trzy scenariusze. Pierwsza możliwość to połamanie elementu na cztery mniejsze elementy. Druga możliwość to połamanie elementu na dwa nowe elementy w kierunku osi \\( x \\). Trzecia możliwość to połamanie danego elementu na dwa mniejsze elementy w kierunku osi \\( y \\). W algorytmie adaptacyjnym zazwyczaj nie wykonuje się adaptacji na wszystkich elementach siatki, ale jedynie na tych elementach na których błąd jest większy niż 33 procent błedu maksymalnego (liczonego po wszystkich elementach). Jest to oczywiście arbitrarnie przyjęta wartość, dobrana na podstawie doświadczeń numerycznych przez prof. Leszka Demkowicza. W zaproponowanej wersji algorytmu próbujemy najpierw wykonać adaptacje w obydwu kierunkach (połamać element w obydwu kierunkach), a następnie (jeśli nie jest to wskazane) próbujemy połamać element w jednym z dwóch kierunków. Jest to oczywiście pzykładowa wersja algorytmu, możliwe są różne modyfikacje. Najbardziej zaawansowaną wersją algorytmu adaptacyjnego jest algorytm hp adaptacji opisany w innym module. Generowanie nowych funkcji bazowych polega na generowaniu nowych lokalnych wektorów węzłów dla połamanych elementów. Na przykład, jeśli mamy element opisany wektorem węzłów [0 0 0 1 1 1] w kierunku osi \\( x \\) oraz wektorem węzłów [0 0 0 1 1 1] w kierunku osi \\( y \\), i połamiemy ten element na cztery nowe elementy, wówczas mamy wektor węzłów [0 0 0 0.5 0.5 1 1 1] w kierunku osi \\( x \\) oraz wektor węzłów [0 0 0 0.5 0.5 1 1 1] w kierunku osi \\( y \\). Jeśli połamiemy ten element na dwa nowe elementy w kierunku osi \\( x \\), wówczas mamy wektor węzłów [0 0 0 0.5 0.5 1 1 1] w kierunku osi \\( x \\) oraz wektor węzłów [0 0 0 0 1 1 1] w kierunku osi \\( y \\). Jeśli połamiemy ten element na dwa nowe elementy w kierunku osi \\( y \\), wówczas mamy wektor węzłów [0 0 0 1 1 1] w kierunku osi \\( x \\) oraz wektor węzłów [0 0 0 0.5 0.5 1 1 1] w kierunku osi \\( y \\). Scalając ze sobą wiele patchów (grup elementów) na których rozpięte są różne wielomiany B-spline, uzyskamy siatkę obliczeniową na której możliwe będą lokalne modyfikacje stopnia funkcji B-spline, na przykład stosując opisany algorytm p-adaptacji. Sposób scalania funkcji bazowych uzyskanych na dużych i małych połamanych elementach został opisany w rozdziale \"Aproksymacja z wiszącymi węzłami\". Algorytm automatycznej h-adaptacji aposteriori:", "Mamy więc trzy możliwości adaptacji pojedynczego elementu:", "W jaki sposób podejmowana jest decyzja o wyborze rodzaju adaptacji pojedynczego elementu? Decyzja podejmowana jest zgodnie z następującym algorytmem.", "Innymi słowy, wybieramy taki rodzaj adaptacji dla elementu, który pozwala uzyskać największy spadek błędu najmniejszym kosztem. Wielkość ta reprezentowana jest przez prędkość spadku błędu, która rośnie wraz ze spadkiem błędu, ale maleje wraz z poniesionym kosztem (z liczbą funkcji dodaną do elemetu, ponieważ koszt obliczenia na danym elemencie zależy od liczby niewiadomych, które są współczynnikami funkcji bazowych)."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 6. Przetwarzanie siatek obliczeniowych", "subject_id": 721, "subject": "Algorytm p-adaptacji", "paragraphs": ["Celem algorytmu p adaptacji jest zwiększenie dokładności aproksymacji na siatkach obliczeniowych poprzez zwiększenie stopnia wielomianów rozpiętych na siatce obliczeniowej. Algorytm p adaptacji możliwy jest do zaimplementowania dopiero wtedy kiedy skonstruujemy takie funkcje bazowe rozpięte na elementach skończonych, dla których możliwe jest podnoszenie stopnia wielomianów. W przypadku tradycyjnych funkcji B-spline, opisywanych szerzej w tym podręczniku, możliwe jest jedynie globalne podniesienie stopnia funkcji B-spline na lokalnym patchu elementów skończonych. Innymi słowy, załóżmy że mamy wektor węzłów opisujący bazę B-spline'ów drugiego stopnia o ciągłości C1 w kierunku osi \\( x \\) [0 0 0 1 2 3 4 4 4], oraz identyczny wektor węzłów opisujący bazę B-spline'ów drugiego stopnia w kierunku osi \\( y \\) [0 0 0 1 2 3 4 4 4]. Wektory te rozpinają dwie jednowymiarowe bazy funkcji B-spline w kierunku poszczególnych osi \\( B^x_{1;2}(x),...,B^x_{6;2}(x); B^y_{1;2}(y),...,B^y_{6;2}(y) \\) które poprzez iloczyn tensorowy definiują bazę dwuwymiarowych funkcji bazowych \\( \\{ B^x_{i;2}(x)B^y_{j;2}(y)\\}i=1,...,6;j=1,...,6 \\) Możliwe są następujące p adaptacje:", "Możemy oczywiście podnosić stopnie funkcji bazowych w jednym lub w drugim kierunku o dowolny stopień (o ile nasz program komputerowy potrafi wygenerować B-spline wyższego stopnia bez problemu). W przypadku funkcji B-spline nie ma możliwości mieszania stopni wielomianów bez umieszczania \\( C^0 \\) separatorów pomiędzy funkcjami B-spline. Możliwe jest natomiast mieszanie patchów (grup elementów) przedzielonych separatorami, na których wielomiany B-spline mają różną ciągłość. Na przykład załóżmy że mamy wektor węzłów opisujący bazę B-spline'ów drugiego stopnia o ciągłości C1 na 2 elementach w kierunku osi \\( x \\) oraz wektor węzłów opisujący bazę B-spline'ów trzeciego stopnia o ciągłości C2 na kolejnych 2 elementach w kierunku osi \\( x \\) czyli [0 0 0 1 2 2 2] [2 2 2 2 3 4 4 4 4]. Wektory te rozpinają razem bazę \\( B^x_{1;2}(x),...,B^x_{6;2}(x); B^y_{1;2}(y),...,B^y_{6;2}(y) \\) Wektory te możemy \"złożyć\" z bazą B-spline'ów drugiego stopnia w kierunku osi \\( y \\) [0 0 0 1 2 3 4 4 4], czyli \\( B^x_{1;2}(x),...,B^x_{6;2}(x); B^y_{1;2}(y),...,B^y_{6;2}(y) \\). Wektory te rozpinają bazę funkcji B-spline w kierunku osi \\( x \\) w następujący sposób \\( B^x_{1;2}(x),B^x_{2;2}(x),B^x_{3;2}(x),B^x_{4;2}(x),B^x_{5;3}(x),B^x_{6;3}(x),B^x_{7;3}(x),B^x_{8;3}(x),B^x_{9;3}(x) \\). Poprzez iloczyn tensorowy otrzymujemy bazę dwuwymiarowych funkcji bazowych \\( \\{ B^x_{i;2}(x)B^y_{j;2}(y)\\}i=1,...,4;j=1,...,6 \\} \\cup \\{ B^x_{i;2}(x)B^y_{j;2}(y)\\}i=5,...,9;j=1,...,6 \\} \\) Zauważmy że grupy elementów sklejone w ten sposób nie dają ciągłej aproksymacji w punkcie 2. Z lewej strony mamy jeden wielomian osiągający maksymalną wartość 1 w punkcie 2, z prawej strony mamy drugi inny wielomian osiągający maksymalną wartość 1 w punkcie 2. Para wektorów węzłów [0 0 0 1 2 2 2] [2 2 2 2 3 4 4 4 4] jest równoważna wektorowi [0 0 0 1 2 2 2 2 3 4 4 4 4]. Oczywiście algorytm interpretujący taki wektor węzłów musi zauważyć że począwszy od węzła 2 który powtórzony został 4 razy, zwiększa nam się stopień wielomianów o 1. Dodatkowo, ostatni wielomian w pierszej podgrupie elementów (wielomian \\( B^x_{4;2}(x) \\) należało by scalić z pierwszym wielomianem w drugiej podgrupie elementów \\( B^x_{5;3}(x) \\). Scalenie takie jest możliwe ponieważ pierwsze i ostatnie człony B-spline'ów są identycznymi wielomianami niezależnie od ich stopnia. Uzyskamy wtedy wielomian drugiego stopnia \\( B^x_{4;2}(x) \\) który rozpościera się na ostatni element w pierwszej podgrupie i na pierwszy element w drugiej podgrupie. Nasze bazy wyglądają więc teraz tak \\( B^x_{1;2}(x),B^x_{2;2}(x),B^x_{3;2}(x),B^x_{4;2}(x),B^x_{5;3}(x),B^x_{6;3}(x),B^x_{7;3}(x),B^x_{8;3}(x) \\). \\( B^x_{1;2}(x),...,B^x_{6;2}(x); B^y_{1;2}(y),...,B^y_{6;2}(y) \\) \\( \\{ B^x_{i;2}(x)B^y_{j;2}(y)\\}i=1,...,4;j=1,...,6 \\} \\cup \\{ B^x_{i;2}(x)B^y_{j;2}(y)\\}i=5,...,8;j=1,...,6 \\} \\)", "Jeśli dany element wymaga modyfikcji stopnia wielomianów w celu polepszenia jakości aproksymacji, możliwy jest jeden z trzech opisanych scenariuszy, podniesenie stopnia funkcji bazowych w kierunku osi \\( x \\), podniesienie stopnia funkcji bazowych w kierunku osi \\( y \\), lub podniesnie stopnia w obydwu kierunkach. W algorytmie adaptacyjnym zazwyczaj nie wykonuje się adaptacji na wszystkich elementach siatki, ale jedynie na tych elementach na których błąd jest większy niż 33 procent błedu maksymalnego (liczonego po wszystkich elementach). Jest to oczywiście arbitralnie przyjęta wartość. W zaproponowanej wersji algorytmu próbujemy najpierw wykonać adaptację w obydwu kierunkach (podnieść stopień wielomianu o 1 w obydwu kierunkach), a następnie (jeśli nie jest to wskazane) próbujemy podnieść stopień wielomianów w jednym z dwóch kierunków. Jest to oczywiście pzykładowa wersja algorytmu, możliwe są różne modyfikacje. Najbardziej zaawansowaną wersją algorytmu adaptacyjnego jest algorytm hp adaptacji opisany w innym module. Scalając ze sobą wiele patchów (grup elementów) na których rozpięte są różne wielomiany B-spline, uzyskamy siatkę obliczeniową na której możliwe będą lokalne modyfikacje stopnia funkcji B-spline, na przykład stosując opisany algorytm p-adaptacji. Gdy patch elementowy składa się z jednego elementu, funkcje bazowe rozpięte na tym elemencie odpowiadają klasycznemu algorytmowi p-adaptacji pracującemu na wielomianach Lagrange'a. Dzieje się tak dlatego, iż wektory węzłów w których każdy element oddzielony jest \\( C^0 \\) separatem, tak jak ma to miejsce w klasycznych wielomianach Lagrange'a. Obie bazy generują wówczas identyczną przestrzeń wielomianów. Matematyczne właściwości algorytmu p-adaptacji opisał po raz pierwszy prof. Ivo Babuśka z Uniwersytetu Teksańskiego w Austin [1]."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 6. Przetwarzanie siatek obliczeniowych", "subject_id": 722, "subject": "Algorytm hp-adaptacji", "paragraphs": ["Algorytm automatycznej hp adaptacji został po raz pierwszy szczegółowo opisany w książkach prof. Leszka Demkowicza, matematyka polskiego pochodzenia, pracującego na Uniwersytecie Teksańskim w Austin. Analizę właściwości matematycznych algorytmu hp-adaptacji dokonał prof. Ivo Babuška, amerykanin czeskiego pochodzenia, również pracujący na Uniwersytecie Teksańskim w Austin [1] [2] [3] [4].", "Algorytm hp-adaptacji zilustrowany jest na rysunkach Rys. 1 - Rys. 5. Konwencja przyjęta podczas rysowania siatek obliczeniowych jest następująca. Kolory na rysunkach Rys. 1, Rys. 3 i Rys. 5 oznaczają stopnie wielomianów rozpiętych na krawędziach i wnętrzach elementów. Na każdej krawędzi ustalony jest jeden stopień wielomianu, natomiast na każdym wnętrzu elementu ustalone są stopień w kierunku poziomym oraz stopień w kierunku pionowym. Na przykład, na rysunku Rys. 1 wszystkie wielomiany na wszystkich krawędziach mają stopień 2, oraz wszystkie wielomiany na wnętrzach wszystkich elementów mają stopień 2 w kierunku pionowym i poziomym. Na rysunku Rys. 3 wszystkie wielomiany na wszystkich krawędziach mają stopień 3, oraz wszystkie wielomiany na wnętrzach wszystkich elementów mają stopień 3 w kierunku pionowym i poziomym. Z koleji na rysunku Rys. 5 przeglądając elementy wierszami od lewej do prawej strony, w pierwszym wierszu na pierwszym elemencie wszystkie wielomiany na krawędziach mają stopień 2, z wyjątkiem wielomianu na dolnej krawędzi elementu, który ma stopień 1. Na pierwszym elemencie wielomiany we wnętrzu mają stopień 2 w kierunku pionowym i poziomym. Na drugim elemencie, na krawędziach lewej, górnej i dolnej, wielomiany mają stopień 2, natomiast we wnętrzu stopień 3 w kierunku pionowym i stopień 2 w kierunku poziomym. Na trzecim i czwartym elemencie wszystkie wielomiany na krawędziach mają stopień 3. Podobnie wielomiany we wnętrzach w kierunkach pionowym i poziomym. W drugim wierszu elementów, pierwszy element (czyli piąty globalnie) posiada wielomiany stopnia 3 na lewej i prawej krawędzi, wielomian stopnia 1 na górnej i dolnej krawędzi. We wnętrzu element ten posiada wielomiany stopnia 1 w kierunku poziomym i wielomiany stopnia 3 w kierunku pionowym. Drugi element w drugim wierszu posiada stopień wielomianu 2 w kierunku poziomym oraz stopień wielomianu 3 w kierunku pionowym. Na trzecim i czwartym elemncie wszystkie wielomiany na wszystkich krawędziach mają stopień 3, oraz wszystkie wielomiany na wnętrzach wszystkich elementów mają stopień 3 w kierunku pionowym i poziomym. Pozostałe elementy w trzecim i czwartym wierszu mają wielomiany rozłożone symetrycznie w stosunku do wielomianów w pierwszym i drugim wierszu na pierwszym i drugim elemencie. W jaki sposób dokonywany jest wybór optymalnego sposobu adaptacji pojedynczego elementu? Zauważmy że w przypadku algorytmu hp adaptacji mamy wiele możliwości modyfikacji pojedynczego elementu:", "Ponadto dla każdego połamanego elementu możliwa jest modyfikacja stopnia wielomianów we wnętrzu elementu", "Stopnie na krawędziach zmodyfikowanych elementów ustalane są na podstawie reguły minimum. Innymi słowy stopień wielomianu na krawędzi dzielonej przez dwa sąsiadujące elementy ustalany jest jako minimum stopni we wnętrzu elementów w odpowiednim kierunku. Dla krawędzi pionowej otoczonej przez dwa elementy \\( (p^1_h,p^2_v) \\) oraz \\( (p^2_h,p^2_v) \\) ustalamy stopień \\( p=\\textrm{min} \\{ p^1_v,p^2,v\\} \\). Dla krawędzi poziomej otoczonej przez dwa elementy \\( (p^1_h,p^2_v) \\) oraz \\( (p^2_h,p^2_v) \\) ustalamy stopień \\( p=\\textrm{min} \\{ p^1_h,p^2,h\\} \\). Mamy więc bardzo dużo możliwości adaptacji pojedynczego elementu (szacując na podstawie wymienionych możliwych rodzajów adaptacji mamy 4 (modyfikacje stopnia elementu bez łamania elementu) + 4*4 (połamanie elementu na dwa elementy w kierunku poziomym i po cztery możliwości modyfikacji stopnia każdego elementu) + 4*4 (połamanie elementu na dwa elementy w kierunku pionowym i po cztery możliwości modyfikacji stopnia każdego elementu) + 4*4*4*4 (połamanie elementu na cztery elementy i po cztery możliwości modyfikacji stopnia każdego elementu). W sumie 4+4*4+4*4+4*4*4*4=292 możliwości. W jaki sposób podejmowana jest decyzja o wyborze rodzaju adaptacji pojedynczego elementu? Decyzja podejmowana jest zgodnie z następującym algorytmem.", "Innymi słowy, wybieramy taki rodzaj adaptacji dla elementu, który pozwala uzyskać największy spadek błędu najmniejszym kosztem. Wielkość ta reprezentowana jest przez prędkość spadku błędu, która rośnie wraz ze spadkiem błędu, ale maleje wraz z poniesionym kosztym (z liczbą funkcji dodaną do elemetu, ponieważ koszt obliczenia na danym elemencie zależy od liczby niewiadomych, które są współczynnikami funkcji bazowych). Algorytm ten zilustrowany jest na rysunku Rys. 6", "Dla przykładowego problemu transportu ciepła na obszarze w kształcie litery L możliwe jest uzyskanie siatki hp adaptacyjnej która pozwala na rozwiązanie problemu z błędem względnym 0.0001. Siatka taka przedstawiona jest na rysunkach Rys. 7 - Rys. 13", "Algorytm automatycznej hp adaptacji jest więc bardzo skomplikowany i trudny do zaimplementowania. Dlaczego więc wart jest on naszego zainteresowania? Rozważmy możliwe różne algorytmy adaptacyjne dla przykładowego problemu transportu ciepła na obszarze w kształcie litery L, czyli", "Jeśli narysujemy wykres zbieżności tych algorytmów w taki sposób, że na osi poziomej umieścimy rozmiar siatki rozumiany jako liczbę funkcji bazowych na całej siatce, co odpowiada liczbie niewiadomych współczynników tych funkcji bazowych czyli rozmiarowi macierzy układu równań do rozwiązania, a na osi pionowej błąd wzgłędny liczony w normie H1 pomiędzy rozwiązaniem na siatce rzadkiej i siatce gęstej \\( \\|u_{h,p}-u_{h/2,p+1}\\|_{H^1}=\\frac{\\int_{\\Omega} (u_{h,p}-u_{h/2,p+1})^2+(\\frac{\\partial (u_{h,p}-u_{h/2,p+1}}{\\partial x})^2+(\\frac{\\partial (u_{h,p}-u_{h/2,p+1}}{\\partial x})^2 }{\\int_{\\Omega} (u_{h/2,p+1})^2+(\\frac{\\partial (u_{h/2,p+1}}{\\partial x})^2+(\\frac{\\partial (u_{h/2,p+1}}{\\partial x})^2 } \\) wówczas okaże się że jedynie algorytm automatycznej hp adaptacji posiada cechę zbieżności eksponencjalnej. Jest on zdecydowanie najszybszy, i potrafi rozwiązać zadany problem obliczeniowy z dokładnością niemożliwą do uzyskania przez inne algorytmy adaptacyjne.", "W praktyce większość problemów inżynieryjnych wymaga dokładności z zakresu 5 procent i wielomianów kwadratowych. Są jednak takie zadania obliczeniowe, gdzie wysoka dokładność rozwiązania jest niezbędna. Przykładem takich zadań obliczeniowych są na przykład symulacje przepływów wokół skrzydeł samolotów, które wymagają bardzo bardzo dużej dokładności w warstwie przyściennej na skrzydłach samolotu, lub symulacje propagacji fal elektromagnetzcznych w warstwach górotworu, w celu identyfikacji złóż ropy naftowej, które wymagają bardzo dużej dokładności w okolicy anteny odbiorczej."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 6. Przetwarzanie siatek obliczeniowych", "subject_id": 723, "subject": "Aproksymacja na siatce z wiszącymi węzłami", "paragraphs": ["Problem aproksymacji na siatce z wiszącymi węzłami został dokładnie przedstawiony w pracy [1]. Rozważmy teraz przypadek siatki, w której mamy jeden duży element \\( [0,2]\\times[1,3] \\) oraz dwa małe elementy \\( [0,1]\\times[0,1] \\) oraz \\( [0,1]\\times[1,2] \\). Najprostszy sposób skonstruowania funkcji bazowych na takich elementach to liniowe funkcje B-spline (które defakto odpowiadają liniowym wielomianom Lagrange'a). Uzyskujemy je poprzez rozpięcie wektorów węzłów [0 0 1 1 2 2] w kierunu osi \\( x \\) oraz [0 0 1 1] w kierunku osi \\( y \\)y, dla dwóch małych elementów oraz [0 0 2 2] w kierunku osi \\( x \\) oraz [1 1 3 3] w kierunku osi \\( y \\). Zauważmy że nasze wektory węzłów [0 0 1 1 2 2] oraz [0 0 1 1] rozpinają następujące funkcje bazowe \\( B^x_{1;1}(x),B^x_{2;1}(x), B^x_{3;1}(x); B^y_{1;1}(y),...,B^y_{1;2}(y) \\) na małych elementach, co poprzez ich przemnożenie (skonstruowanie iloczynu tensorowego) daje dwuwymiarowe funkcje bazowe \\( B^x_{1;1}(x)B^y_{1;1}(y), B^x_{1,1}(x)B^y_{1;2}(y), B^x_{2;1}(x)B^y_{1;1}(y), B^x_{2,1}(x)B^y_{1;2}(y) \\) na pierwszym małym elemencie, oraz \\( B^x_{2;1}(x)B^y_{1;1}(y), B^x_{2,1}(x)B^y_{1;2}(y), B^x_{3;1}(x)B^y_{1;1}(y), B^x_{3,1}(x)B^y_{1;2}(y) \\) na drugim małym elemencie. Ponadto, na dużym elemencie nasze wektory węzłów [0 0 2 2] i [1 1 3 3] rozpinają funkcje bazowe \\( B^x_{4;1}(x),B^x_{5;1}(x);B^y_{3;1}(y),...,B^y_{4;2}(y) \\). Iloczyn tensorowy tych jednowymiarowych funkcji bazowych daje następujące dwuwymiarowe funkcje bazowe \\( B^x_{4;1}(x)B^y_{3;1}(y), B^x_{4,1}(x)B^y_{4;2}(y), B^x_{5;1}(x)B^y_{3;1}(y), B^x_{5,1}(x)B^y_{4;2}(y) \\). Oznaczmy przez \\( B_1^{small1} \\) zawężenie funkcji bazowej \\( B^x_{1;1}(x)B^y_{2;1}(y) \\) do wspólnej krawędzi na pierwszym małym elemencie Rys. 1, oraz przez \\( B_1^{small2} \\) zawężenie funkcji bazowej \\( B^x_{2;1}(x)B^y_{2;1}(y) \\) do wspólnej krawędzi na drugim małym elemencie Rys. 1. Oznaczmy również przez \\( B_1^{big} \\) zawężenie funkcji bazowej \\( B^x_{4;1}(x)B^y_{3;1}(y) \\) do wspólnej krawędzi na dużym elemencie Rys. 1. Oznaczmy przez \\( B_2^{small1} \\) zawężenie funkcji bazowej \\( B^x_{2;1}(x)B^y_{2;1}(y) \\) do wspólnej krawędzi na pierwszym elemencie Rys. 2, oraz przez \\( B_2^{small2} \\) zawężenie funkcji bazowej \\( B^x_{3;1}(x)B^y_{2;1}(y) \\) do wspólnej krawędzi na drugim elemencie Rys. 2. Oznaczmy również przez \\( B_2^{big} \\) zawężenie funkcji bazowej \\( B^x_{5;1}(x)B^y_{3;1}(y) \\) do wspólnej krawędzi na dużym elemencie Rys. 2.", "Powstaje wówczas następujący problem. Jeśli chcemy aproksymować jakąś funkcję ciągłą (na przykład pole skalarne temperatury) nad taką siatką obliczeniową, nasza aproksymacja powinna być ciągła. W przypadku grup elementów jednorodnego rozmiaru, funkcje bazowe B-spline rozpinają się w sposób naturalny na wielu elementach, i aproksymacja na granicach elementów jest naturalnie ciągła. W przypadku elementów podzielonych na mniejsze elementy, które dzielą krawędzie z większym elementem, tak jak ma to miejsce w naszym przypadku, mamy szereg lokalnych funkcji na dużym i małych elementach, które nie dość że nie są ze sobą posklejane poprzez krawędź, to jeszcze jest ich różna liczba z jednej i z drugiej strony, i mają one inne wykresy nad współdzieloną krawędzią. Wierzchołek pomiędzy dwoma małymi elementami na wspólnej krawędzi, znajdujący się na środku dużego elementu nazywa się wiszącym węzłem (ang. hanging node) lub związanym węzłem (ang. constrained node). Jest tak dlatego, że funkcje bazowe które są nad nim rozpięte na małych elementach, muszą zostać użyte do dostosowania aproksymacji dla dużej funkcji bazowej na dużym elemencie. W jaki sposób wykonujemy takie \"dostosowanie\"? W naszym przypadku używamy lokalnych funkcji bazowych na małych elementach do zamapowania odpowiadających im dużych funkcji bazowych na dużych elementach. W naszym przypadku, wystarczy zamapować funkcje \\( B_1^{big}(x,y) \\) poprzez kombinację liniową funkcji \\( B_1^{small1}(x,y),B_1^{small2}(x,y),B_2^{small1}(x,y),B_2^{small2}(x,y) \\). Innymi słowy musimy znaleźć takie współczynniki \\( b_1^{small1},b_1^{small2},b_2^{small1},b_2^{small2} \\) żeby \\( B_1^big(x,y) =b_1^{small1}B_1^{small1}(x,y)+b_1^{small2}B_1^{small2}(x,y)+b_2^{small1}B_2^{small1}(x,y)+b_2^{small2}B_2^{small2}(x,y) \\), dla \\( x\\in(0,2)y=1 \\) czyli rozpiętych na wspólnej krawędzi.Proces ten zilustrowany jest na Rys. 3. Widać tutaj że kombinacja ta to \\( B_1^big(x,y) =1.0*B_1^{small1}(x,y)+0.5*B_1^{small2}(x,y)+0.5*B_2^{small1}(x,y) \\), czyli 1.0, 0.5, 0.5, 0.0. Ponadto musimy zamapować funkcje \\( B_2^{big}(x,y) \\) poprzez kombinację liniową funkcji \\( B_1^{small1}(x,y),B_1^{small2}(x,y),B_2^{small1}(x,y),B_2^{small2}(x,y) \\). Innymi słowy musimy znaleźć takie współczynniki \\( c_1^{small1},c_1^{small2},c_2^{small1},c_2^{small2} \\) żeby \\( B_2^big(x,y) =c_1^{small1}B_1^{small1}(x,y)+c_1^{small2}B_1^{small2}(x,y)+c_2^{small1}B_2^{small1}(x,y)+c_2^{small2}B_2^{small2}(x,y) \\), dla \\( x\\in(0,2)y=1 \\) czyli rozpiętych na wspólnej krawędzi. Proces ten zilustrowany jest na Rys. 4. Widać tutaj że kombinacja ta to \\( B_2^big(x,y) =0.5*B_1^{small2}(x,y)+0.5*B_2^{small1}(x,y)+1.0*B_2^{small2}(x,y)+ \\), czyli 0.0, 0.5, 0.5, 1.0."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 6. Przetwarzanie siatek obliczeniowych", "subject_id": 724, "subject": "Analiza izogeometryczna na siatkach adaptacyjnych", "paragraphs": ["Siatki adaptacyjne zbudowane z elementów prostokątnych o różnej wielkości również umożliwiają przeprowadzanie obliczeń za pomocą analizy izogeometrycznej. Po pierwsze, jeśli grupy elementów różnego rozmiaru zostaną przedzielone za pomocą \\( C^0 \\) separatorów, wówczas na każdym bloku elementów możemy wygenerować wektory węzłów opisujące funkcje bazowe, i scalić je tak jak opisano to w rozdziale Aproksymacja na siatkach z wiszącymi węzłami. Innym szeroko stosowanym podejściem jest stosowanie funkcji bazowych T-spline. Zostały one wynalezione w 2003 roku przez Thomasa Sederberga i innych autorów [1]. Doczekały się one nawet patentu w USA [2]. Funkcje T-spline stosuje się w analizie izogeometrycznej [3]. Są one modyfikacją funkcji B-spline która pozwala na rozpinanie ich na siatkach adaptacyjnych. Każda funkcja B-spline rozpina się na szeregu segmentów w kierunku poziomym i pionowym, które określają grupę elementów na których jest ona rozpięta (na których przyjmuje niezerowe wartości). Punkt w którym przyjmuje ona wartość maksymalną, znajduje się albo na środku elementu (w przypadku funkcji B-spline parzystego rzędu) lub na wierzchołku znajdującym się na granicy elementów (w przypadku funkcji B-spline nieparzystego rzędu). Możemy więc myśleć o funkcjach B-spline jako o funkcjach związanych ze środkami elementów lub wierzchołkami siatki (w zależności od stopnia funkcji B-spline). Funkcja B-spline rzędu \\( p \\) rozpina się na \\( 2p-1 \\) elementach. Na przyklad dla funkcji B-spline rzędu drugiego mamy \\( 2*2-1=3 \\) elementy, czyli 1 element na którym znajduje się środek (maksimum funkcji) oraz 1 element z lewej strony i 1 element z prawej strony. Gdyby narysować linię poziomą od środka funkcji B-spline w lewą i prawą, i znaleźć przecięcia tej linii z krawędziami elementów, wówczas dla B-spline'a drugiego stopnia musimy znaleźć 2 przecięcia z lewej i 2 przecięcia z prawej strony, i dostaniemy wszystkie segmentyy rozpięte na elementach na których rozpina się nasz B-spline. Ideą funkcji T-spline jest uogólnienie tej ideii na siatki adaptowalne. Rozważmy dla ustalenia uwagi parzysty stopień funkcji T-spline. Jeśli mamy siatkę adaptowaną, z elementami o różnym rozmiarze, wówczas możemy związać każdą funkcje T-spline ze środkiem jakiegoś elementu. Następnie wzdłuż linii w kierunku pionowym i poziomym znajdujemy przecięcia z krawędziami elementów. Dla T-spline'a drugiego stopnia musimy znaleźć 2 przecięcia w każdą stronę. W ten sposób dostajemy 3 segmenty w kierunku pionowym i poziomym, na których rozpinamy funkcje T-spline zgodnie ze wzorem na funkcje B-spline. Bierzemy po prostu 4 punkty i wsadzamy do wzoru na funkcje B-spline. Proces określania segmentów pionowych i poziomych dla funkcji T-spline zilustrowany jest na Rys. 1.", "Taki sposób definicji funkcji T-spline na siatce adaptowanej w kierunku punktu, tak jak przedstawiono to na Rys. 1 posiada jedną wadę. Zauważmy, że jeśli będziemy chcieli zastosować nasze funkcje T-spline do aproksymacji, będziemy musiei zbudować macierz w której wiersze i kolumny reprezentują poszczególne funkcje T-spline, natomiast wyrazy tej macierzy oznaczają całki z iloczynów tych funkcji i ich wartości. Całki te są niezerowe jeśli odpowiadające im funkcje T-spline przecinają się. Dla przykładowego zestawu funkcji T-spline wygenerowana macierz (na przykład dla problemu projekcji bitmapy lub dla problemu transportu ciepła) wygląda tak jak przestawiono to na Rys. 1. Widać że macierz ta jest stosunkowo gęsta. W celu zredukowania obszarów na których określone są funkcje T-spline, wprowadza się rozszerzenia przedłużające krawędzie na których wiszą węzły w siatce adaptacyjnej (po angielsku te przedłużenia nazywa się \"T-junction extensions\"). Jest to zilustrowane na Rys. 2. Po zmodyfikowaniu siatki, przez dodanie tych dodatkowych krawędzi, mówi się że siatka jest teraz \"odpowiednia do analizy\" (po angielsku \"analysis suitable\"). Idea algorytmu modyfikacji siatki pod funkcje T-spline opisana jest szczegółowo w pracy [4].", "Po zmodyfikowaniu siatki, generujemy nowe funkcje T-spline, patrz Rys. 3.", "Nowo wygenerowane funkcje T-splines generują siatkę obliczeniową która jest większa ale żadsza, tak jak przedstawiono to na Rys. 4."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 6. Przetwarzanie siatek obliczeniowych", "subject_id": 725, "subject": "Implementacja w MATLABie adaptacyjnego algorytmu projekcji bitmapy", "paragraphs": ["W module tym przedstawiamy kod w MATLABie obliczający L2 projekcję bitmapy, stosując adaptacyjną metodę elementów skończonych. W szczególności kod ten posiada implementacje algorytmu h-adaptacji w MATLABie. Wykonanie kodu możliwe jest również w darmowym środowisku Octave.", "Pobierz kod lub zob. Załącznik 6.", "W celu uruchomienia kodów, zapisujemy je w katalogu roboczym Octave. Ustawiamy zmienne ze ścieżką do pliku wejściowego w formacie tif \\( filename = 'C://Users/Maciej/Dropbox/bitmapa.tif' \\) następnie podajemy ilość elementów siatki w kierunku osi x i y, oraz stopnie funkcji B-spline w tych kierunkach \\( elementsx=4 \\), \\( elementsy=4 \\) oznaczają rozmiar początkowej siatki. Wpisujemy maksymalny błąd przybliżenia \\( maxerror=0.5 \\), maksymalną liczbę iteracji adaptacji \\( maxlevel=4 \\) oraz wskazujemy czy krawędzie siatki mają zostać narysowane \\( edges=1 \\). Następnie uruchamiamy pierwszą procedure \\( bitmap\\_h(filename,elementsx,elementsy,maxerror,maxlevel,edges) \\). Kod po wykonaniu sekwencji adaptacji rysuje bitmapę w otwartym okienku.", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 726, "subject": "Problemy niestacjonarne", "paragraphs": ["W przypadku problemów niestacjonarnych poszukiwane rozwiązanie zależy zarówno od czasu jak i przestrzeni. W ogólnej postaci silnej, w której problem obliczeniowy opisany jest równaniem różniczkowym cząstkowym \\( \\frac{\\partial u\\left(x,y;t\\right)}{\\partial t}-{\\cal L }\\left(u\\left(x,y;t\\right)\\right)=f(x,y;t) \\) pojawia się teraz pochodna względem czasu \\( \\frac{\\partial u\\left(x,y;t\\right)}{\\partial t } \\) reprezentująca zmiany w czasie poszukiwanego pola skalarnego \\( \\Omega\\times [0,t] \\ni \\left(x,t\\right)\\rightarrow u\\left(x,y;t\\right)\\in R \\) Znaczenie poszukiwanego pola zależy od rodzaju rozwiązywanego problemu. Rodzaj rozwiązywanego problemu \"zakodowany\" jest w operatorze \\( {\\cal L }\\left(u\\left(x,y;t\\right)\\right) \\), opisującym modelowane zjawisko fizyczne za pomocą operatorów różniczkowych. Podobnie jak podczas rozwiązywania problemów stacjonarnych (nie zmieniających się czasie) konieczne jest podanie warunków brzegowych (czyli podanie informacji o tym co dzieje się na brzegu symulowanego obszaru). Dodatkowo, w przypadku symulacji problemów niestacjonarnych, konieczne jest podanie warunku początkowego (czyli podanie informacji o tym jaki stan miało modelowane zjawisko na początku symulacji) \\( u(x,y;0)=u_0(x,y) \\) W równaniu występuje również prawa strona \\( f(x,y;t) \\) opisująca \"siłę\" dostarczającą energii (pędu, masy, etc. w zależności od modelowanego zjawiska) do układu. Istnieją dwie metodologie rozwiązywania zadań niestacjonarnych. W pierwszej najpierw dokonuje się dyskretyzacji względem czasu, a potem względem przestrzeni. W drugiej, najpierw dokonuje się dyskretyzacji w przestrzeni, a potem po czasie (metoda ta nazywa się metodą linii - method of lines). W naszych rozważaniach użyjemy pierwszej metody. W celu rozwiązania problemu niestacjonarnego, wprowadzamy kroki czasowe \\( t_0=0 < t_1 < t_2 < \\cdots t_{k-1} < t < t_{k+1}< \\cdots < t_N \\) oraz stany modelowanego zjawiska w poszczególnych krokach czasowych, reprezentowane przez pole skalarne \\( u(t) \\) \\( u_0=u(t_0), u_1=u(t_1), u_2=u(t_2), \\cdots, u_{k-1}=u(t_{k-1}), u_k=u(t_k), u_{k+1}=u(t_{k+1}), \\cdots, u_N=u(t_N) \\) Pochodną po czasie przybliżamy za pomocą metody różnic skończonych \\( \\frac{\\partial u}{\\partial t} \\approx \\frac{u_{t+1}-u_t}{dt } \\) Dostajemy więc równanie \\( \\frac{u_{t+1}-u_t}{dt} - \\mathcal{L}(u) = f \\) Powstaje teraz pytanie, w jakiej chwili czasowej wziąć stan modelowanego zjawiska, reprezentowany przez pole skalarne \\( u(t) \\). Mamy kilka możliwości:", "Pierwszy sposób daje nam metodę explicite, zwaną również metodą Eulera (forward Euler). \\( \\frac{u_{t+1}-u_t}{dt} - \\mathcal{L}(u_t) = f \\) Drugi sposób daje nam metodę implicite, zwaną również wstecznym Eulerem (backward Euler). \\( \\frac{u_{t+1}-u_t}{dt} - \\mathcal{L}(u_{t+1 }) = f \\) Trzeci sposób daje nam metodę implicite, w zależności od sposobu zdefiniowania kombinacji liniowej, będzie to metoda Cranka-Nicolson, lub metoda alpha. \\( \\frac{u_{t+1}-u_t}{dt} - \\mathcal{L}(\\alpha u_{t} + (1-\\alpha) u_{t+1}) = f \\)", "Metody explicite pozwalają zawsze na szybkie rozwiązanie w czasie liniowym, jednak można w nich stosować jedynie małe kroki czasowe (w przeciwnym wypadku symulacja zacznie zachowywać się niestabilnie). Metody implicite pozwalają na stosowanie większych kroków czasowych (jeśli są bezwzględnie stabilne, sprawdzenie czego wymaga zaawansowanej wiedzy matematycznej). Metody implicite zazwyczaj wymagają drogich solwerów. W podręczniku tym pokazuje jak uzyskać solwery o czasie liniowym do metod implicite. Metody te wywodzą się od całej rodziny metod zwanych metodami Rungego-Kutty [1]"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 1087, "subject": "Uogólnienie problemu izogeometrycznej L2 projekcji do rozwiązywania zadań niestacjonarnych", "paragraphs": ["Zauważmy, że zastosowane metody Eulera sprowadza się do wykonania sekwencji izogeometrycznych L2 projekcji, podobnie jak w przypadku obliczania projekcji bitmapy. Tym razem jednak naszą \"bitmapą\" jest stan ukłądu w poprzedniej chwili, plus zmiany wywołane przez \"fizykę\" modelowanego zjawiska w czasie kroku czasowego, plus zmiany wywołane siłą działającą na nasz system w czasie kroku czasowego. Sposób traktowania równania niestacjonarnego jako sekwencje izogeometrycznych projekcji został opisany w pracy \"IGA-ADS: Isogeometric analysis FEM using ADS solver\" [1]. Żeby opracować solwer wykorzystujący metodę Eulera w izogeometrycznej metodzie elementów skończonych, musimy przetransformować sformułowanie silne w sformułowanie słabe. Przemnażamy więc nasze równanie przez funkcje testujące \\( (u_{t+1},w) = (u_t + dt * \\mathcal{L}(u_t)+ dt* f_t,w) \\) Do aproksymacji stanu naszego systemu w danej chwili czasowej użyjemy kombinacji liniowej funkcji B-spline. W tym celu wybieramy bazę dwuwymiarowych funkcji B-spline, określając wektory węzłów w kierunku osi układu współrzędnych. Dla ustalenia uwagi możemy wybrać dwuwymiarową bazę funkcji B-spline drugiego stopnia \\( \\{B^x_{i,2}(x)B^y_{j,2}(y)\\}_{i=1,...,N_x;j=1,...,N_y} \\) Będą one stosowane do aproksymacja symulowanego pola skalarnego w aktualnej chwili czasowej \\( u(x,y;t+1)\\approx \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } B^x_i(x)B^y_j(y) \\) Podobnie do testowania użyjemy funkcji bazowych B-spline: \\( \\{ B^x_k(x)B^y_l(y) \\}_{k=1,...,N_x;l=1,...,N_y } \\) Nasze równanie wygląda teraz identycznie jak problem dwuwymiarowek izgeometrycznej L2 projekcji \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y))=RHS \\quad \\forall k=1,...,N_x; l=1,...,N_y \\) Nasza prawa strona nie jest jednak bitmapą, ale projekcją sumy trzech elementów:", "W metodzie explicite macierz układu to macierz masowa \\( \\{ M_x \\otimes M_y \\}_{i,j,k,l}= \\int B^x_i(x)B^x_k(x)B^y_j(y)B^y_l(y) = \\int B^x_i(x)B^y_j(y)B^x_k(x)B^y_l(y) = {\\bf M}_{i,j,k,l } \\) która posiada strukturę produktu Kroneckera i może ona zostać sfaktoryzowana w czasie liniowym przez solwer zmiennokierunkowy. Wadą metody explicite jest fakt, iż pojedynczy krok czasowy nie może być za długi, inaczej metoda będzie niestabilna. Objawiać się to będzie eksplozją symulacji numerycznej. Wynika to z tak zwanego warunku Courant'a–Friedrichs'a–Lewy'ego (CFL condition). W ogólnym przypadku mówi on że symulacja numeryczna w której modelujemy pole skalarne \\( u(x,t) \\) jest stabilna jeśli \\( C= \\frac{u * dt}{ h} < C_{max } \\) gdzie \\( u = max u(x,t) \\) oznacza maksymalną wartość symulowanego pola, \\( dt \\) oznacza długość kroku czasowego \\( h \\) oznacza rozmiar elementu siatki (co w przypadku analizy izogeometrycznej wynika z wartości punkt w wektorze węzłów), oraz \\( C_{max} \\) jest pewną stałą wynikającą z rozwiązywanego problemu. Praktyczne znaczenie tego warunku jest następujące. Jeśli będziemy zwiększać liczbę elementów siatki (zwiększać liczbę punktów w wektorze węzłów) wówczas \\( h \\) będzie się zmniejszać i żeby nasza symulacja nie \"eksplodowała\" musimy zmniejszać krok czasowy. Jest to duże ograniczenie, ponieważ oznacza to że zwiększanie dokładności w przestrzeni wymusza zmniejszanie rozmiarów kroków czasowych, co oznacza większy koszt symulacji. Pewnym rozwiązaniem tego problemu jest stosowanie symulacji implicite ze schematami umożliwiającymi stosowanie solwerów zmiennokierunkowych."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 735, "subject": "Przykłady operatorów różniczkowych i prawej strony dla różnych niestacjonarnych problemów fizycznych", "paragraphs": ["Żeby sformułować problem niestacjonarny, należy zdefiniować operator lewej strony oraz funkcję prawej strony \\( {\\cal L }\\left(u\\left(x,y;t\\right)\\right) = {\\cal F }(x,y,z) \\) Przykładowe operatory różniczkowe \\( {\\cal L }\\left(u\\left(x,y;t\\right)\\right) \\) w sformułowaniach niestacjonarnych opisują różne modelowane zjawiska fizyczne. Dodatkowo skomentujemy znaczenie fizyczne warunków brzegowych i początkowych. Wymieniamy tutaj przykłady operatorów liniowych i nieliniowych."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 727, "subject": "Metoda explicite", "paragraphs": ["W metodzie Eulera stosowanej do rozwiązywania problemów niestacjonarnych, operator różniczkowy opisujący \"fizykę\" symulowanego zjawiska obliczany jest w poprzedniej chwili czasowej \\( \\frac{u_{t+1}-u_t}{dt} - \\mathcal{L}({u_t}) = {f_{t+1}} \\) Tak więc wszystkie człony równania obliczane są na podstawie stanu w chwili poprzedniej, i wykonywana jest jedynie korekta stanu w chwili aktualnej: \\( u_{t+1} = u_t + dt * \\mathcal{L}(u_t)+ dt* f_{t+1} \\) Wybieramy tak zwane funkcje testujące \\( w \\) i przemnażamy nasze równanie \\( \\left(u_{t+1},w\\right) =\\left( u_t + dt * \\mathcal{L}(u_t)+ dt* f_{t+1},w\\right) \\) Symbol \\( \\left(u,w\\right) \\) oznacza tutaj iloczyn skalarny w przestrzeni \\( L^2 \\) czyli całkowanie (natomiast w następnym wzorze nawias oznacza \"zwyczajny\" nawias) \\( \\int_{\\Omega} ( u_{t+1} w ) dxdy =\\int_{\\Omega} ( u_t + dt * \\mathcal{L}(u_t)+ dt* f_{t+1}) w dxdy \\) Zauważmy że nasz problem ma podobną strukurę jak problem projekcji bitmapy \\( \\left(u_{t+1}(x,y),w(x,y)\\right) =\\left( BITMAPA(x,y),w(x,y)\\right) \\) i tak naprawdę możemy użyć tego samego kodu, który zamiast czytać piksele bitmapy, będzie próbkował prawą stronę \"piksel po pikselu\". Jak wygląda więc dokładnie nasze równanie i prawa strona? Do aproksymacji stanu naszego systemu w danej chwili czasowej użyjemy kombinacji liniowej funkcji B-spline. W tym celu wybieramy bazę dwuwymiarowych funkcji B-spline, określając wektory węzłów w kierunku osi układu współrzędnych, na przykład dwuwymiarową bazę funkcji B-spline drugiego stopnia \\( \\{B^x_{i,2}(x)B^y_{j,2}(y)\\}_{i=1,...,N_x;j=1,...,N_y} u_{i,j } \\) Będą one stosowane do aproksymacji symulowanego pola skalarnego aktualnej chwili czasowej \\( u(x,y;t+1)\\approx \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j} B^x_i(x)B^y_j(y) \\) i w poprzedniej chwili czasowej \\( u(x,y;t)\\approx \\sum_{i=1,...,N_x;j=1,...,N_y} u^t_{i,j } B^x_i(x)B^y_j(y) \\) Podobnie do testowania użyjemy funkcji bazowych B-spline: \\( w(x,y) \\in \\{ B^x_k(x)B^y_l(y) \\}_{k=1,...,N_x;l=1,...,N_y} w^{k,l } \\) Zakładając że operator różniczkowy \\( {\\cal L } \\) opisujący \"fizykę\" jest liniowy, nasze równanie wygląda teraz następująco: \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y))= \\) \\( = \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t}_{i,j } (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y))+ \\) \\( +dt * \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t}_{i,j } \\mathcal{L}(B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y))+dt*(f_{t+1}(x,y),B^x_k(x)B^y_l(y)) \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Nie ustalamy tutaj konkretnego problemu, wyprowadzenia zaprezentowane tutaj dotyczą dowolnego problemu fizycznego który da się zasymulować opisaną metodą. Na przykład dla problemu transportu ciepła mamy \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y))= \\) \\( = \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t}_{i,j } (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y))+ \\). \\( +dt *\\sum_{i=1,...,N_x;j=1,...,N_y}u^{t}_{i,j }\\left(\\left(\\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial x^2}+dt*\\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial y^2 }\\right),B^x_k(x)B^y_l(y)\\right)+ \\) \\( +(f_{t+1}(x,y),B^x_k(x)B^y_l(y)) \\quad \\forall k=1,...,N_x; l=1,...,N_y \\) czyli pamiętając że symbol \\( \\left(u,w\\right) \\) oznacza tutaj iloczyn skalarny w przestrzeni \\( L^2 \\) czyli całkowanie, mamy (w następnym wzorze nawias oznacza \"zwyczajny\" nawias) \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\int_{\\Omega} B^x_i(x)B^y_j(y) B^x_k(x)B^y_l(y) dxdy = \\) \\( = {\\color{blue} \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t}_{i,j } \\int_{\\Omega} B^x_i(x)B^y_j(y)B^x_k(x)B^y_l(y) dxdy}+ \\) \\( +dt *{\\color{red} \\sum_{i=1,...,N_x;j=1,...,N_y}u^{t}_{i,j } \\int_{\\Omega } \\left( \\frac{\\partial^2 (B^x_i(x)B^y_j(y))} {\\partial x^2 }+\\frac{\\partial^2 (B^x_i(x)B^y_j(y)) }{\\partial y^2 } \\right) B^x_k(x)B^y_l(y) dxdy}+ \\) \\( +dt*\\int_{\\Omega}(f_{t+1}(x,y)B^x_k(x)B^y_l(y))dxdy \\quad \\forall k=1,...,N_x; l=1,...,N_y \\) Wracając do analogii z bitmapą, mamy \\( \\int_{\\Omega} u_{t+1}(x,y) w(x,y) dxdy =\\int_{\\Omega} BITMAPA(x,y)w(x,y) dxdy \\) czyli nasza \"funkcja bitmapy\" dana jest \\( BITMAPA(x,y)={\\color{blue} \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t}_{i,j } B^x_i(x)B^y_j(y) } + \\) \\( +{\\color{red} \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t}_{i,j } dt \\left( \\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial x^2}+\\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial y^2 } \\right) } +dt*f_{t+1}(x,y) \\) i tak naprawdę możemy użyć tego samego kodu, który zamiast czytać piksele bitmapy, będzie próbkował powyższą prawą stronę \"piksel po pikselu\". Zazwczaj po prawej stronie możemy odcałkować przez części czerwony człon (zakładając że dziedzina jest na tyle duża że całka po brzegu może zostać zignorowana, ponieważ modelowane pole lub jej pochodne są tam zerowe) \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\int_{\\Omega} B^x_i(x)B^y_j(y) B^x_k(x)B^y_l(y) dxdy = \\) \\( ={\\color{blue} \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t}_{i,j } \\int_{\\Omega} B^x_i(x)B^y_j(y)B^x_k(x)B^y_l(y) dxdy}+ \\) \\( -dt *{\\color{red} \\sum_{i=1,...,N_x;j=1,...,N_y}u^{t}_{i,j } \\int_{\\Omega }\\left( \\frac{\\partial (B^x_i(x)B^y_j(y))}{\\partial x}+\\frac{\\partial (B^x_i(x)B^y_j(y))}{\\partial y } \\right) \\left( \\frac{\\partial (B^x_k(x)B^y_l(y))}{\\partial x}+\\frac{\\partial (B^x_k(x)B^y_l(y))}{\\partial y } \\right) dxdy}+ \\) \\( +dt*\\int_{\\Omega}(f_{t+1}(x,y)B^x_k(x)B^y_l(y))dxdy \\quad \\forall k=1,...,N_x; l=1,...,N_y \\)", "Zauważmy że człony (czerwony i niebieski) w których obliczamy wartości rozwiązania z chwili poprzedniej, oznaczają próbkowanie sumy wszystkich B-spline'ów przemnożonych przez współczynniki obliczone w poprzednim kroku czasowym. Całkowanie takie przeprowadza się zgodnie z rozdziałem \"Sformułowanie wariacyjne a całkowanie numeryczne\". W szczególności zauważmy, że całki te rozbić można na sumę całek po poszczególnych elementach siatki, i na danym elemencie siatki określonych jest jedynie \\( (p+1)^2 \\) funkcji bazowych B-spline, gdzie \\( p \\) oznacza stopień funkcji B-spine.", "Symulacje metodą explicite mają ograniczenie na rozmiar kroku czasowego. Zwiększanie dokładności przestrzennej (zwiększanie rozmiaru siatki metody elementów skończonych do rozwiązania problemu projekcji prawej strony na lewą stronę) wymaga zmniejszania rozmiaru kroku czasowego, w przeciwnym wypadku symulacja zacznie zachowywać się niestabilnie (mówiąc potocznie symulacja \"eksploduje\"). Jest to wyrażone przez warunek Courant'a-Friedrichsa-Lewiego (CFL). \\( \\frac{u dt}{dx} < C_{max } \\) gdzie \\( u \\) oznacza maksymalną wartość symulowanego zjawiska (tradycyjnie oznacza maksymalną prędkość dzięki temu warunek ma postać bezwymiarową co dotyczy tylko zadań z dominującą konwekcją i stałym lub zmiennym w czasie polem prędkości), \\( dt \\) oznacza długość kroku czasowego, \\( dx \\) oznacza rozmiar elementu (średnicę elementu). Warunek CFL został oryginalnie zaproponowany dla metody różnic skończonych, jednakże działa on również dla metody elementów skończonych. Stała \\( C_{max } \\) nie może zostać przekroczona przez iloraz \\( \\frac{u dt}{dx} \\).", "Jeśli tak się stanie (na przykład krok czasowy będzie za duży) wówczas symulacja zacznie zachowywać się niestabilnie (mówiąc potocznie \"eksploduje\") [1]", "Poniżej załączam przykłady dwóch symulacji propagacji fal dla materiału spręzystego policzone metodą explicite. W pierwszym przypadku warunek CFL nie jest spełniony, w drugim przypadku jest spełniony. Zostały one policzone kodem IGA-ADS [2]"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 728, "subject": "Metoda implicite", "paragraphs": ["W metodzie implicite zwanej \"backward Euler\", służącej do rozwiązywania problemów niestacjonarnych, operator różniczkowy opisujący \"fizykę\" modelowanego zjawiska obliczany jest w \"aktualnej\" chwili czasowej. \\( \\frac{u_{t+1}-u_t}{dt} - \\mathcal{L}({u_{t+1}}) = {f_{t+1}} \\) Tak więc w każdym kroku czasowym konieczne jest rozwiązanie równania na stan następny \\( u_{t+1} \\). Prześledźmy działanie metody backward Euler w przypadku stosowania izogeometrycznej metody elementów skończonych. Żeby opracować solwer wykorzystujący metodę implicite w izogeometrycznej metodzie elementów skończonych, musimy przetransformować sformułowanie silne w sformułowanie słabe. Przemnażamy więc nasze równanie przez funkcje testujące \\( (u_{t+1},w) - (dt * \\mathcal{L}(u_{t+1}),w) = (u_t+dt* f_{t+1},w) \\) Do aproksymacji stanu naszego systemu w danej chwili czasowej użyjemy kombinacji liniowej funkcji B-spline. W tym celu wybieramy bazę dwuwymiarowych funkcji B-spline, określając wektory węzłów w kierunku osi układu współrzędnych, na przykład dwuwymiarową bazę funkcji B-spline drugiego stopnia \\( \\{B^x_{i,2}(x)B^y_{j,2}(y)\\}_{i=1,...,N_x;j=1,...,N_y} u_{i,j } \\) Będą one stosowane do aproksymacji symulowanego pola skalarnego aktualnej chwili czasowej \\( u(x,y;t)\\approx \\sum_{i=1,...,N_x;j=1,...,N_y} u^t_{i,j } B^x_i(x)B^y_j(y) \\) Podobnie do testowania użyjemy funkcji bazowych B-spline: \\( w(x,y) \\in \\{ B^x_k(x)B^y_l(y) \\}_{k=1,...,N_x;l=1,...,N_y} w^{k,l } \\) Zakładając że operator różniczkowy \\( {\\cal L } \\) opisujący \"fizykę\" jest liniowy, nasze równanie wygląda teraz następująco: \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } (B^x_i(x)B^y_j(y)-dt * \\mathcal{L}(B^x_i(x)B^y_j(y)),B^x_k(x)B^y_l(y))=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Nie ustalamy tutaj konkretnego problemu, wyprowadzenia zaprezentowane tutaj dotyczą dowolnego problemu fizycznego który da się zasymulować opisaną metodą. Na przykład dla problemu transportu ciepła mamy \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\\\ (B^x_i(x)B^y_j(y)-dt *\\left(\\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial x^2}+\\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial y^2 }\\right),B^x_k(x)B^y_l(y))=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Dzięki sformułowaniu słabemu możemy scałkować przez części \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\\\ \\left( (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y)) - dt *(\\frac{\\partial (B^x_i(x)B^y_j(y))}{\\partial x},\\frac{\\partial (B^x_k(x)B^y_l(y))}{\\partial x}) -dt* (\\frac{\\partial (B^x_i(x)B^y_j(y))}{\\partial y},\\frac{\\partial (B^x_k(x)B^y_l(y))}{\\partial y }) \\right)=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Dzięki strukturze produktu tensorowego funkcji B-spline oraz dzięki temu że pochodna w kierunku y z funkcji B-spline w kierunku osi x daje 0 (ponieważ funkcje te są stałe w kierunku osi y) i podobnie dla pochodnej w kierunku y z funkcji B-spline w kierunku osi x mamy \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\\\ \\left( (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y)) - dt *(\\frac{\\partial B^x_i(x)}{\\partial x}B^y_j(y),\\frac{\\partial B^x_k(x)}{\\partial x}B^y_l(y)) -dt* (B^x_i(x)\\frac{\\partial B^y_j(y)}{\\partial y},B^x_k(x)\\frac{\\partial B^y_l(y)}{\\partial y }) \\right)=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Zauważmy że nasz układ równań do rozwiązania to \\( \\left(M_x \\otimes M_y-dt* S_x \\otimes M_y -dt* M_x \\otimes S_y\\right) u^{t+1} = F(t) \\) gdzie \\( \\{ M_x \\otimes M_y \\}_{i,j,k,l}= \\int B^x_i(x)B^x_k(x)B^y_j(y)B^y_l(y) = \\int B^x_i(x)B^y_j(y)B^x_k(x)B^y_l(y) = {\\bf M}_{i,j,k,l } \\) to macierz masowa będąca iloczynem Kroneckera dwóch jednowymiarowych macierzy masowych, \\( \\{ S_x \\otimes M_y\\}_{i,j,k,l} = \\int \\frac{\\partial B^x_i(x)}{\\partial x}\\frac{\\partial B^x_k(x)}{\\partial x}B^y_j(y)B^y_l(y) = \\int \\frac{\\partial B^x_i(x)}{\\partial x}B^y_j(y)\\frac{\\partial B^x_k(x)}{\\partial x }B^y_l(y) \\) to iloczyn Kronecker jednowymiarowej macierzy sztywności i jednowymiarowej macierzy masowej, oraz \\( \\{ M_x \\otimes S_y \\}_{i,j,k,l} = \\int B^x_i(x) B^x_k(x) \\frac{\\partial B^y_j(y)}{\\partial y} \\frac{\\partial B^y_l(y)}{\\partial y } = \\int B^x_i(x)\\frac{\\partial B^y_j(y)}{\\partial y}B^x_k(x)\\frac{\\partial B^y_l(y)}{\\partial y } \\) to iloczyn Kroneckera jednowymiarowej macierzy masowej i jednowymiarowej macierzy sztywności. Każdą z tych macierzy potrafimy sfaktoryzować w czasie liniowym stosując algorytm solwera zmienno-kierunkowego. Jednakże faktoryzacja ich sumy w czasie liniowym nie jest już możliwa. Jest to możliwe dopiero gdy wprowadzimy schemat kroków czasowych który umożliwia rozdzielenie macierzy na podmacierze w podkrokach czasowych tak aby koszt faktoryzacji pozostawał liniowy. Schemat Peaceman'a-Rachford'a pozwala na rozdzielenie kroku czasowego na dwa podkroki \\( \\left(M_x \\otimes M_y-dt* S_x \\otimes M_y\\right) u^{t+1/2} = F(t+1/2)+\\left(dt* M_x \\otimes S_y\\right) u^{t} \\) \\( \\left(M_x \\otimes M_y-dt* M_x \\otimes S_y\\right) u^{t+1} = F(t+1/2)+\\left(dt* S_x \\otimes M_y\\right) u^{t+1/2 } \\) gdzie możemy scalić macierze lewej strony w jedną macierz o strukturze produktu Kroneckera, która może zostać sfaktoryzowana w czasie liniowym za pomocą algorytmu solwera zmienno-kierunkowego \\( \\left(M_x-dt* S_x \\right)\\otimes M_y u^{t+1/2} = F(t+1/2)+\\left(dt* M_x \\otimes S_y\\right) u^{t} \\) \\( M_x \\otimes \\left( M_y-dt* S_y\\right) u^{t+1} = F(t+1/2)+\\left(dt* S_x \\otimes M_y\\right) u^{t+1/2 } \\) Funkcja prawej strony reprezentuje tutaj zmiany wywołane przez siłę działającą na system w czasie kroku czasowego. Jest ona sumą dwóch elementów:"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 729, "subject": "Schemat Cranka-Nicolson", "paragraphs": ["Wprowadzamy kroki czasowe \\( t_0=0 < t_1 < t_2 < \\cdots t_{k-1} < t < t_{k+1}< \\cdots < t_N \\) oraz stany modelowanego zjawiska w poszczególnych krokach czasowych, reprezentowane przez pole skalarne \\( u(t) \\) \\( u_0=u(t_0), u_1=u(t_1), u_2=u(t_2), \\cdots, u_{k-1}=u(t_{k-1}), u_k=u(t_k), u_{k+1}=u(t_{k+1}), \\cdots, u_N=u(t_N) \\) Pochodną po czasie przybliżamy za pomocą metody różnic skończonych \\( \\frac{\\partial u}{\\partial t} \\approx \\frac{u_{t+1}-u_t}{dt } \\) Dostajemy więc równanie \\( \\frac{u_{t+1}-u_t}{dt} - \\mathcal{L}(u) = f \\) Metoda implicite zwaną metodą Cranka-Nicolson (wynalezioną przez Panią Phyllis Nicolson, brytyjską matematyczkę i Johna Cranka, amerykańskiego matematyka i fizyka w roku 1947) (zwracamy uwagę iż Phyllis Nicolson była kobietą, i nazwa \"metoda Cranka-Nicolsona\" używana czasami w języku polskim nie jest poprawna) działa w sposób następujący [1]. W metodzie tej nasz operator różniczkowy stosujemy do średniej wartości stanu poprzedniego i następnego: \\( \\frac{u_{t+1}-u_t}{dt} - \\mathcal{L}(\\frac{1}{2}(u_t+u_{t+1})) = {f_{t+1}} \\). Jeśli operator różniczkowy jest liniowy, możemy wtedy rozdzialić go na dwa człony \\( u_{t+1} -dt \\frac{1}{2}\\mathcal{L}(u_{t+1}) = u_t+dt{f_{t+1}}+ dt\\frac{1}{2}\\mathcal{L}(u_t) \\) zostawiając po lewej stronie naszą \"niewiadomą\" \\( u_{t+1} \\). Następnie stosujemy solwer izogeometrycznej metody elementów skończonych. Żeby opracować solwer wykorzystujący metodę implicite w izogeometrycznej metodzie elementów skończonych, musimy przetransformować sformułowanie silne w sformułowanie słabe. Przemnażamy więc nasze równanie przez funkcje testujące \\( (u_{t+1},w) -dt \\frac{1}{2}(\\mathcal{L}(u_{t+1}),w) = (u_t,w)+dt({f_{t+1}},w)+ dt\\frac{1}{2}(\\mathcal{L}(u_t),w) \\) Do aproksymacji stanu naszego systemu w danej chwili czasowej użyjemy kombinacji liniowej funkcji B-spline. W tym celu wybieramy bazę dwuwymiarowych funkcji B-spline, określając wektory węzłów w kierunku osi układu współrzędnych. Na przykład możemy wybrać dwuwymiarową bazę funkcji B-spline drugiego stopnia \\( \\{B^x_{i,2}(x)B^y_{j,2}(y)\\}_{i=1,...,N_x;j=1,...,N_y} u_{i,j } \\) Będą one stosowane do aproksymacja symulowanego pola skalarnego w aktualnej chwili czasowej \\( u(x,y;t+1)\\approx \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } B^x_i(x)B^y_j(y) \\) Podobnie do testowania użyjemy funkcji bazowych B-spline: \\( w(x,y) \\in \\{ B^x_k(x)B^y_l(y) \\}_{k=1,...,N_x;l=1,...,N_y} w^{k,l } \\) Zakładając że operator różniczkowy opisujący \"fizykę\" jest liniowy, czyli \\( {\\cal L}(\\alpha u+\\beta w)=\\alpha {\\cal L}(u)+\\beta {\\cal L}(w) \\) nasze równanie wygląda teraz następująco: \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } (B^x_i(x)B^y_j(y)-dt \\frac{1}{2} \\mathcal{L}(B^x_i(x)B^y_j(y)),B^x_k(x)B^y_l(y))=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Na przykład dla problemu transportu ciepła mamy \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\\\ (B^x_i(x)B^y_j(y)-dt \\frac{1}{2} \\left(\\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial x^2}+\\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial y^2 }\\right),B^x_k(x)B^y_l(y))=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Dzięki sformułowaniu słabemu możemy scałkować przez części \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\\\ \\left( (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y)) - dt \\frac{1}{2}(\\frac{\\partial (B^x_i(x)B^y_j(y))}{\\partial x},\\frac{\\partial (B^x_k(x)B^y_l(y))}{\\partial x}) -dt* (\\frac{\\partial (B^x_i(x)B^y_j(y))}{\\partial y},\\frac{\\partial (B^x_k(x)B^y_l(y))}{\\partial y }) \\right)=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Dzięki strukturze produktu tensorowego funkcji B-spline oraz dzięki temu że pochodna w kierunku y z funkcji B-spline w kierunku osi x daje 0 (ponieważ funkcje te są stałe w kierunku osi y) i podobnie dla pochodnej w kierunku y z funkcji B-spline w kierunku osi x mamy \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\\\ \\left( (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y)) - dt \\frac{1}{2}(\\frac{\\partial B^x_i(x)}{\\partial x}B^y_j(y),\\frac{\\partial B^x_k(x)}{\\partial x}B^y_l(y)) -dt* (B^x_i(x)\\frac{\\partial B^y_j(y)}{\\partial y},B^x_k(x)\\frac{\\partial B^y_l(y)}{\\partial y }) \\right)=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Zauważmy że nasz układ równań do rozwiązania to \\( \\left(M_x \\otimes M_y-dt \\frac{1}{2} S_x \\otimes M_y -dt* M_x \\otimes S_y\\right) u^{t+1} = F(t) \\) gdzie \\( \\{ M_x \\otimes M_y \\}_{i,j,k,l}= \\int B^x_i(x)B^x_k(x)B^y_j(y)B^y_l(y) = \\int B^x_i(x)B^y_j(y)B^x_k(x)B^y_l(y) = {\\bf M}_{i,j,k,l } \\) to macierz masowa będąca iloczynem Kroneckera dwóch jednowymiarowych macierzy masowych, \\( \\{ S_x \\otimes M_y\\}_{i,j,k,l} = \\int \\frac{\\partial B^x_i(x)}{\\partial x}\\frac{\\partial B^x_k(x)}{\\partial x}B^y_j(y)B^y_l(y) = \\int \\frac{\\partial B^x_i(x)}{\\partial x}B^y_j(y)\\frac{\\partial B^x_k(x)}{\\partial x }B^y_l(y) \\) to iloczyn Kronecker jednowymiarowej macierzy sztywności i jednowymiarowej macierzy masowej, oraz \\( \\{ M_x \\otimes S_y \\}_{i,j,k,l} = \\int B^x_i(x) B^x_k(x) \\frac{\\partial B^y_j(y)}{\\partial y} \\frac{\\partial B^y_l(y)}{\\partial y } = \\int B^x_i(x)\\frac{\\partial B^y_j(y)}{\\partial y}B^x_k(x)\\frac{\\partial B^y_l(y)}{\\partial y } \\) to iloczyn Kroneckera jednowymiarowej macierzy masowej i jednowymiarowej macierzy sztywności. Każdą z tych macierzy potrafimy sfaktoryzować w czasie liniowym stosując algorytm solwera zmienno-kierunkowego. Jednakże faktoryzacja ich sumy w czasie liniowym nie jest już możliwa. Jest to możliwe dopiero gdy wprowadzimy schemat kroków czasowych który umożliwia rozdzielenie macierzy na podmacierze w podkrokach czasowych tak aby koszt faktoryzacji pozostawał liniowy. Schemat Peaceman'a-Reachford'a pozwala na rozdzielenie kroku czasowego na dwa podkroki \\( \\left(M_x \\otimes M_y-dt \\frac{1}{2} S_x \\otimes M_y\\right) u^{t+1/2} = F(t+1/2)+\\left(dt \\frac{1}{2} M_x \\otimes S_y\\right) u^{t} \\) \\( \\left(M_x \\otimes M_y-dt \\frac{1}{2} M_x \\otimes S_y\\right) u^{t+1} = F(t+1/2)+\\left(dt \\frac{1}{2} S_x \\otimes M_y\\right) u^{t+1/2 } \\) gdzie możemy scalić macierze lewej strony w jedną macierz o strukturze produktu Kroneckera, która może zostać sfaktoryzowana w czasie liniowym za pomocą algorytmu solwera zmienno-kierunkowego \\( \\left(M_x-dt \\frac{1}{2} S_x \\right)\\otimes M_y u^{t+1/2} = F(t+1/2)+\\left(dt \\frac{1}{2} M_x \\otimes S_y\\right) u^{t} \\) \\( M_x \\otimes \\left( M_y-dt \\frac{1}{2} S_y\\right) u^{t+1} = F(t+1/2)+\\left(dt \\frac{1}{2} S_x \\otimes M_y\\right) u^{t+1/2 } \\) Przyglądnijmy się na koniec jak wygląda operator prawej strony Funkcja prawej strony reprezentuje tutaj zmiany wywołane przez siłę działającą na system w czasie kroku czasowego, plus dodatkowo zmiany wywołane przez fizykę zjawiska w poprzednim kroku czasowym \\( (u_{t+1},w) -dt \\frac{1}{2}(\\mathcal{L}(u_{t+1}),w) = (u_t,B^x_k(x)B^y_l(y))+dt({f_{t+1}},B^x_k(x)B^y_l(y))+ dt\\frac{1}{2}(\\mathcal{L}(u_t),B^x_k(x)B^y_l(y)) \\) W szczególności nasza prawa strona nie jest jednak bitmapą, ale projekcją sumy trzech elementów:"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 730, "subject": "Schemat alpha", "paragraphs": ["W metodzie implicite zwanej schematem alfa, służącej do rozwiązywania problemów niestacjonarnych, nasz operator różniczkowy opisujący \"fizykę\" symulowanego zjawiska, stosujemy do kombinacji liniowej wartości stanu poprzedniego i następnego: \\( \\frac{u_{t+1}-u_t}{dt} - \\mathcal{L}(\\alpha u_t+(1-\\alpha)u_{t+1})) = {f_{t+1}} \\). Jeśli operator różniczkowy jest liniowy, możemy wtedy rozdzialić go na dwa człony \\( u_{t+1} -dt \\alpha \\mathcal{L}(u_{t+1}) = u_t+dt{f_{t+1}}+ dt(1-\\alpha)\\mathcal{L}(u_t) \\) zostawiając po lewej stronie naszą \"niewiadomą\" \\( u_{t+1} \\). Zauważmy że dla wartości alfa=1 schemat ten jest schematem implicte Eulera (tak zwany backward Euler), dla wartości alfa=0 jest on schematem explicite (tak zwany schemat Eulera) a dla wartości alfa=1/2 jest on schematem Cranka-Nicolson (który też jest schemate implicite). Schemat Eulera został po raz pierwszy opisany w 1768 roku w podręczniku Leonharda Eulera. Schemat Cranka-Nicolson został wynaleziony w 1947 roku przez Phyllis Nicolson, brytyjską matematyczkę i Johna Cranka, amerykańskiego matematyka i fizyka [1], [2] . Następnie stosujemy solwer izogeometrycznej metody elementów skończonych. Żeby opracować solwer wykorzystujący metodę implicite w izogeometrycznej metodzie elementów skończonych, musimy przetransformować sformułowanie silne w sformułowanie słabe. Przemnażamy więc nasze równanie przez funkcje testujące \\( (u_{t+1},w) -dt \\alpha(\\mathcal{L}(u_{t+1}),w) = (u_t,w)+dt({f_{t+1}},w)+ dt(1-\\alpha)(\\mathcal{L}(u_t),w) \\) Do aproksymacji stanu naszego systemu w danej chwili czasowej użyjemy kombinacji liniowej funkcji B-spline. W tym celu wybieramy bazę dwuwymiarowych funkcji B-spline, określając wektory węzłów w kierunku osi układu współrzędnych. Dla ustalenia uwagi możemy wybrać dwuwymiarową bazę funkcji B-spline drugiego stopnia \\( \\{B^x_{i,2}(x)B^y_{j,2}(y)\\}_{i=1,...,N_x;j=1,...,N_y} u_{i,j } \\) Będą one stosowane do aproksymacja symulowanego pola skalarnego aktualnej chwili czasowej \\( u(x,y;t+1)\\approx \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } B^x_i(x)B^y_j(y) \\) Podobnie do testowania użyjemy funkcji bazowych B-spline: \\( w(x,y) \\in \\{ B^x_k(x)B^y_l(y) \\}_{k=1,...,N_x;l=1,...,N_y} w^{k,l } \\) Zakładając że operator różniczkowy opisujący \"fizykę\" jest liniowy, nasze równanie wygląda teraz następująco: \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } (B^x_i(x)B^y_j(y)-dt \\alpha \\mathcal{L}(B^x_i(x)B^y_j(y)),B^x_k(x)B^y_l(y))=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Na przykład dla problemu transportu ciepła mamy \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\\\ (B^x_i(x)B^y_j(y)-dt \\alpha \\left(\\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial x^2}+\\frac{\\partial^2 (B^x_i(x)B^y_j(y))}{\\partial y^2 }\\right),B^x_k(x)B^y_l(y))=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Dzięki sformułowaniu słabemu możemy scałkować przez części \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\\\ \\left( (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y)) - dt \\alpha(\\frac{\\partial (B^x_i(x)B^y_j(y))}{\\partial x},\\frac{\\partial (B^x_k(x)B^y_l(y))}{\\partial x}) -dt* (\\frac{\\partial (B^x_i(x)B^y_j(y))}{\\partial y},\\frac{\\partial (B^x_k(x)B^y_l(y))}{\\partial y }) \\right)=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Dzięki strukturze produktu tensorowego funkcji B-spline oraz dzięki temu że pochodna w kierunku y z funkcji B-spline w kierunku osi x daje 0 (ponieważ funkcje te są stałe w kierunku osi y) i podobnie dla pochodnej w kierunku y z funkcji B-spline w kierunku osi x mamy \\( \\sum_{i=1,...,N_x;j=1,...,N_y} u^{t+1}_{i,j } \\\\ \\left( (B^x_i(x)B^y_j(y),B^x_k(x)B^y_l(y)) - dt \\alpha (\\frac{\\partial B^x_i(x)}{\\partial x}B^y_j(y),\\frac{\\partial B^x_k(x)}{\\partial x}B^y_l(y)) -dt* (B^x_i(x)\\frac{\\partial B^y_j(y)}{\\partial y},B^x_k(x)\\frac{\\partial B^y_l(y)}{\\partial y }) \\right)=RHS \\\\ \\forall k=1,...,N_x; l=1,...,N_y \\). Zauważmy że nasz układ równań do rozwiązania to \\( \\left(M_x \\otimes M_y-dt \\alpha S_x \\otimes M_y -dt* M_x \\otimes S_y\\right) u^{t+1} = F(t) \\) gdzie \\( \\{ M_x \\otimes M_y \\}_{i,j,k,l}= \\int B^x_i(x)B^x_k(x)B^y_j(y)B^y_l(y) = \\int B^x_i(x)B^y_j(y)B^x_k(x)B^y_l(y) = {\\bf M}_{i,j,k,l } \\) to macierz masowa będąca iloczynem Kroneckera dwóch jednowymiarowych macierzy masowych, \\( \\{ S_x \\otimes M_y\\}_{i,j,k,l} = \\int \\frac{\\partial B^x_i(x)}{\\partial x}\\frac{\\partial B^x_k(x)}{\\partial x}B^y_j(y)B^y_l(y) = \\int \\frac{\\partial B^x_i(x)}{\\partial x}B^y_j(y)\\frac{\\partial B^x_k(x)}{\\partial x }B^y_l(y) \\) to iloczyn Kronecker jednowymiarowej macierzy sztywności i jednowymiarowej macierzy masowej, oraz \\( \\{ M_x \\otimes S_y \\}_{i,j,k,l} = \\int B^x_i(x) B^x_k(x) \\frac{\\partial B^y_j(y)}{\\partial y} \\frac{\\partial B^y_l(y)}{\\partial y } = \\int B^x_i(x)\\frac{\\partial B^y_j(y)}{\\partial y}B^x_k(x)\\frac{\\partial B^y_l(y)}{\\partial y } \\) to iloczyn Kroneckera jednowymiarowej macierzy masowej i jednowymiarowej macierzy sztywności. Każdą z tych macierzy potrafimy sfaktoryzować w czasie liniowym stosując algorytm solwera zmienno-kierunkowego. Jednakże faktoryzacja ich sumy w czasie liniowym nie jest już możliwa. Jest to możliwe dopiero gdy wprowadzimy schemat kroków czasowych który umożliwia rozdzielenie macierzy na podmacierze w podkrokach czasowych tak aby koszt faktoryzacji pozostawał liniowy. Schemat Peaceman'a-Reachford'a pozwala na rozdzielenie kroku czasowego na dwa podkroki \\( \\left(M_x \\otimes M_y-dt \\alpha S_x \\otimes M_y\\right) u^{t+1/2} = F(t+1/2)+\\left(dt (1-\\alpha) M_x \\otimes S_y\\right) u^{t} \\) \\( \\left(M_x \\otimes M_y-dt \\alpha M_x \\otimes S_y\\right) u^{t+1} = F(t+1/2)+\\left(dt (1-\\alpha) S_x \\otimes M_y\\right) u^{t+1/2 } \\) gdzie możemy scalić macierze lewej strony w jedną macierz o strukturze produktu Kroneckera, która może zostać sfaktoryzowana w czasie liniowym za pomocą algorytmu solwera zmienno-kierunkowego \\( \\left(M_x-dt \\alpha S_x \\right)\\otimes M_y u^{t+1/2} = F(t+1/2)+\\left(dt (1-\\alpha) M_x \\otimes S_y\\right) u^{t} \\) \\( M_x \\otimes \\left( M_y-dt \\alpha S_y\\right) u^{t+1} = F(t+1/2)+\\left(dt (1-\\alpha) S_x \\otimes M_y\\right) u^{t+1/2 } \\) Przyglądnijmy się na koniec jak wygląda operator prawej strony Funkcja prawej strony reprezentuje tutaj zmiany wywołane przez siłe działającą na system w czasie kroku czasowego, plus dodatkowo zmiany wywołane przez fizykę zjawiska w poprzednim kroku czasowym \\( (u_{t+1},w) -dt (1-\\alpha)(\\mathcal{L}(u_{t+1}),w) = (u_t,B^x_k(x)B^y_l(y))+dt({f_{t+1}},B^x_k(x)B^y_l(y))+ dt(1-\\alpha)(\\mathcal{L}(u_t),B^x_k(x)B^y_l(y)) \\) W szczególności nasza prawa strona nie jest jednak bitmapą, ale projekcją sumy trzech elementów:"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 731, "subject": "Przykład niestacjonarnego problemu liniowego: propagacja zanieczyszczeń", "paragraphs": ["Przykładowym problemem niestacjonarnym liniowym jest zagadnienie symulacji propagacji zanieczyszczeń [1] W problemie tym obliczamy pole skalarne koncentracji zanieczyszczeń \\( {\\cal R}^3 \\ni (x,y,z)\\times [0,T] \\rightarrow c(x,y,z;t) \\in {\\cal R } \\) takiego że \\( \\frac{\\partial c}{\\partial t } + u \\cdot \\nabla c - \\nabla \\cdot (K \\nabla c) = e \\) co po rozpisaniu daje nam \\( \\frac{\\partial c}{\\partial t} + u_x\\frac{\\partial c}{\\partial x}+u_y\\frac{\\partial c}{\\partial y}+u_z\\frac{\\partial c}{\\partial z} - \\frac{\\partial}{\\partial x} \\left( K_x \\frac{\\partial c}{\\partial x}\\right) -\\frac{\\partial}{\\partial y} \\left( K_y \\frac{\\partial c}{\\partial y }\\right) -\\frac{\\partial}{\\partial z}\\left( K_z \\frac{\\partial c}{\\partial z } \\right) \\) W powyższym wzorze pierwszy człon \\( \\frac{\\partial c}{\\partial t } \\) to zmiany pola koncentracji zanieczyszczeń w czasie, drugi człon \\( u_x\\frac{\\partial c}{\\partial x}+u_y\\frac{\\partial c}{\\partial y } +u_z\\frac{\\partial c}{\\partial z } \\) to człon adwekcji (zwany też konwekcją) który oznacza transport zanieczyszczeń przez wiatr, reprezentowany przez zadane pole wektrowe \\( {\\cal R}^3 \\ni (x,y,z)\\times [0,T] \\rightarrow (u_x(x,y,z;t,,u_y(x,y,z;t);u_z(x,y,z;t))) \\in {\\cal R }^3 \\), trzeci człon \\( - \\frac{\\partial}{\\partial x} \\left( K_x \\frac{\\partial c}{\\partial x} \\right)-\\frac{\\partial}{\\partial y} \\left( K_y \\frac{\\partial c}{\\partial y }\\right) -\\frac{\\partial}{\\partial z} \\left( K_z \\frac{\\partial c}{\\partial z } \\right) \\) oznacza dyfuzję czyli samoistny transport cząstek zanieczyszczeń na zasadzie zjawiska dyfuzji. Wszystkie człony operatora różniczkowego opisującego proces propagacji zaniczyszczeń są liniowe, czyli \\( {\\cal L}(c_1+c_2)={\\cal L}(c_1)+{\\cal L }(c_2) \\). Dzięki temu możemy zbudować układ równań liniowych i zastosować solwery i algorytmy opisane w podręczniku. Prawa strona oznacza źródła emisji, i jest ona dodatnia w miejscach w których znajduje się źródło zanieczyszczeń (na przykład komin). Współczynniki dyfuzji \\( (K_x,K_y,K_z) \\) oznaczają prędkość dyfuzji w kierunkach x,y i z. W celu rozwiązania problemu konwekcji-dyfuzji musimy jeszcze określić co dzieje się na brzegu obszaru. Możemy na przykład przyjąć prędkość napływu zanieczyszczeń na brzegu obszaru \\( \\frac {\\partial c} {\\partial x}n_x+ \\frac{\\partial c}{\\partial y }n_y+\\frac{\\partial c}{\\partial z }n_z=g \\) gdzie \\( (n_x,n_y,n_z) \\) to wektor jednostkowy prostopadły do brzegu. Musimy również podać warunek początkowy (początkową koncentracje zanieczyszczeń) \\( c(x,0)=0 \\). Na końcu podajemy dwie przykładowe symulacje, pierwszą prezentującą napływ zanieczyszczeń z zachodu na dolinę Krakowską dla obszaru otrzymanego poprzez wygenerowanie siatki czworościennej na podstawie danych topograficznych z bazy NASA oraz drugą symulację prezentującą rozwiewanie dymu z komina poprzez wiatr o zmiennym kierunku. Zostały one policzone kodami opisanymi w artykułach z bibliografii [2]:"], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 737, "subject": "Implementacja w MATLABie schematu alpha dla problemu transportu ciepła", "paragraphs": ["Poniżej przedstawiam kod MATLABa wykonujący symulacje dla schematu alfa dla dwuwymiarowego problemu transportu ciepła.", "Wykonanie kodu możliwe jest również w darmowym środowisku Octave.", "Pobierz kod lub zob. Załącznik 7.", "W linii 621 podajemy rozmiar kroku czasowego \\( dt=0.01 \\), w linii 622 podajemy parametr \\( alpha=0.5 \\), pamiętając że alpha=0 to metoda explicite Euler, alpha=1 to metoda implicite Euler, alpha=0.5 to metoda Crancka-Nicolson. W linii 623 podajemy liczbę kroków czasowych \\( K = 20; \\) Kod można uruchomić w darmowym środowisku Octave. Kod uuchamia się otwierając go w Octave oraz wpisując komendę \\( heat\\_time \\) Podczas działania kod wypisuje kolejne kroki czasowe Iter 1, t = 0.010000 Iter 2, t = 0.020000 Iter 3, t = 0.030000 ... W każdej chwili czasowej w katalogu bieżącym kod generuje plik out_*.png, np. out_0.png out_1.png out_2.png ... zawierające rozwiązania z poszczególnych kroków czasowych."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 7. Metoda elementów skończonych dla problemów niestacjonarnych i nieliniowych", "subject_id": 736, "subject": "Przykład niestacjonarnego problemu nieliniowego: przepływ nieliniowy w ośrodku niejednorodnym", "paragraphs": ["Przykładowy problem niestacjonarny opisany w tym module to problem przepływu nieliniowego w ośrodku niejednorodnym [1].", "Przykładowe symulacje, pierwszą, w której na środku obszaru złóża umieszczono pompę pompującą która wypełnia cały obszar cieczą pod ciśnieniem, oraz drugą symulacje, w której trzy pompy ssące odsysają ciecz z ropą wpompowaną wcześniej do złoża, przedstawiono na filmach. Zostały one policzone kodem opisanym w artykułach z bibliografii opisanej w pozycji [2]."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 740, "subject": "Przestrzenie funkcyjne", "paragraphs": [], "definitions": [{"name": "Definicja 1: Przestrzenie funkcyjne nad obszarem jednowymiarowym", "content": "\nDla \\( \\Omega = \\left(x_l, x_r\\right) \\subset {\\cal R} \\)\n \\( L^2(\\Omega) = \\{ v:\\Omega \\rightarrow {\\cal R} : \\int_{\\Omega} v(x)^2 dx < \\infty \\} \\)\nwraz z normą \\( \\|u\\|_{L^2(\\Omega)}^2 = \\int_{\\Omega} u(x)^2 dx \\)\ni iloczynem skalarnym \\( \\left(u,v\\right) L^2(\\Omega) =\\int_{\\Omega} u(x)v(x) dx \\)\n \\( H^1(\\Omega) = \\{v:\\Omega \\rightarrow {\\cal R} : \\int_{\\Omega} v(x)^2+\\frac{dv(x)}{dx}^2 dx < \\infty \\} \\)\ngdzie pochodna \\( \\frac{dv(x)}{dx} \\) rozumiana jest w słabym sensie, to znaczy definiujemy ją poprzez wzór na całkowanie przez częsci \\( \\int_{\\Omega} u\\frac{dv(x)}{dx} dx = - \\int_{\\Omega} \\frac{du(x)}{dx} v dx \\) dla wszystkich \"smukłych\" funkcji \\( u \\in C^\\infty_0(\\Omega) = \\{v:\\Omega \\rightarrow {\\cal R} : \\int_{\\Omega} v(x)^2+\\frac{dv(x)}{dx}^2 dx < \\infty \\} \\) nieskończenie wiele razy różniczkowalnych określonych na domkniętych poprzedziałach \\( (a,b) \\subset \\Omega \\).\nW przestrzeni \\( H^1(\\Omega) \\) definiujemy normę \\( \\|u\\|_{H^1(\\Omega)}^2 = \\int_{\\Omega} u(x)^2+\\frac{du(x)}{dx}^2 dx \\) i iloczyn skalarnym \\( \\left(u,v\\right)_{H^1(\\Omega)} =\\int_{\\Omega} u(x)v(x)+\\frac{du(x)}{dx}\\frac{dv(x)}{dx} dx \\)\n \\( H^1_0(\\Omega) = \\{v:\\Omega \\rightarrow {\\cal R} : \\int_{\\Omega} v(x)^2+\\frac{dv(x)}{dx}^2 dx < \\infty; v(0)=0 \\} \\)\nwraz z normą \\( \\|u\\|_{H_0^1(\\Omega)}^2 = \\int_{\\Omega} \\frac{du(x)}{dx}^2 dx \\)\ni iloczynem skalarnym \\( \\left(u,v\\right) H_0^1(\\Omega) =\\int_{\\Omega} \\frac{du(x)}{dx}\\frac{dv(x)}{dx} dx \\)\n\n"}, {"name": "Definicja 2: Przestrzenie funkcyjne na dwuwymiarowym obszarem", "content": "\nDla \\( \\Omega \\subset {\\cal R}^2 \\)\n \\( L^2(\\Omega) = \\{ v:\\Omega \\rightarrow {\\cal R} : \\int_{\\Omega} v(x_1,x_2)^2 dx_1dx_2 < \\infty \\} \\)\nwraz z normą \\( \\|u\\|^2_{L^2(\\Omega)} = \\int_{\\Omega} v(x_1,x_2)^2 dx_1dx_2 \\)\ni iloczynem skalarnym \\( \\left(u,v\\right)_{L^2(\\Omega)} = \\int_{\\Omega} u(x_1,x_2)v(x_1,x_2) dx_1dx_2 \\)\n \\( H^1(\\Omega) = \\{v:\\Omega \\rightarrow {\\cal R} : \\int_{\\Omega} (v(x_1,x_2)^2+\\frac{dv(x_1,x_2)}{dx_1}^2+\\frac{dv(x_1,x_2)}{dx_2}^2 )dx_1dx_2 < \\infty \\} \\) gdzie pochodne\n \\( \\frac{dv(x_1,x_2)}{dx_i},i=1,2 \\) rozumiemy w sensie słabym\n \\( \\int_\\Omega u(x_1,x_2) \\frac{dv(x_1,x_2)}{dx_i} dx_1 dx_2= - \\int_\\Omega \\frac{du(x_1,x_2)}{dx_i} v(x_1,x_2) dx_1 dx_2 \\). Innymi słowy są one definiowane za pomocą całkowania przez części z funkcjami gładkimi \\( u \\in C^\\infty_0(\\Omega) \\) nieskończenie wiele razy różniczkowalnymi określonymi na obszarze zwartym zawartym w \\( \\Omega \\).\nW przestrzeni\n \\( H^1(\\Omega) \\) definiujemy normę \\( \\|u\\|^2_{H^1(\\Omega)} = \\int_{\\Omega} \\left( u(x_1,x_2)^2+\\frac{du(x_1,x_2)}{dx_1}^2+\\frac{du(x_1,x_2)}{dx_2}^2\\right) dx_1dx_2 \\)\ni iloczyn skalarny \\( \\left(u,v\\right)_{H^1(\\Omega)} = \\int_{\\Omega} \\left( u(x_1,x_2)v(x_1,x_2) +\\frac{du(x_1,x_2)}{dx_1}\\frac{dv(x_1,x_2)}{dx_1}+\\frac{du(x_1,x_2)}{dx_2}\\frac{dv(x_1,x_2)}{dx_2}\\right)dx_1dx_2 \\).\n \\( H^1_0(\\Omega) = \\{v:\\Omega \\rightarrow {\\cal R} : \\int_{\\Omega} (v(x_1,x_2)^2+\\frac{dv(x_1,x_2)}{dx_1}^2+\\frac{dv(x_1,x_2)}{dx_2}^2) dx_1dx_2 < \\infty, tr v(x_1,x_2)=0 \\} \\)\nwraz z normą \\( \\|u\\|^2_{H^1_0(\\Omega)} = \\int_{\\Omega} \\left( \\frac{du(x_1,x_2)}{dx_1}^2+\\frac{du(x_1,x_2)}{dx_2}^2\\right) dx_1dx_2 \\)\ni iloczynem skalarnym \\( \\left(u,v\\right)H^1_0(\\Omega) = \\int_{\\Omega} \\left( \\frac{du(x_1,x_2)}{dx_1}\\frac{dv(x_1,x_2)}{dx_1}+\\frac{du(x_1,x_2)}{dx_2}\\frac{dv(x_1,x_2)}{dx_2}\\right)dx_1dx_2 \\)\ngdzie operator śladu oznacza określanie wartości funkcji na brzegu, co w przypadku funkcji będących elementami przestrzeni Sobolewa wymaga wprowadzania klas równoważności funkcji równych co do wartości całki.\n\n"}]} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 741, "subject": "Jednowymiarowy element skończony", "paragraphs": ["W rozdziale tym podajemy ścisłe matematyczne definicje związane z klasyczną metodą elementów skończonych. W szczególności, definicje elementu skończonego zostały podane przez Ciarleta w 1978 roku, oraz w kontekście adaptacyjnej metody elementów skończonych przez Demkowicza w 2007 roku [1] [2].", "Poniżej podajemy obydwie te definicje. Definicja Ciarleta używa pojęcia stopni swobody, natomiast definicja Demkowicza używa pojęcia funkcji kształtu i operatora interpolacji przez projekcję. Pokażemy następnie zależności pomiędzy tymi dwoma definicjami, z których wynika iż są one równoważne. Element skończony zdefiniujemy najpierw w jedym wymiarze, dla referencyjnego (często zwanego również wzorcowym) elementu skończonego zdefiniowanego na przedziale \\( \\hat{K}=[0,1] \\subset {\\cal R} \\), a następnie uogólnimy tą definicję na dowolny element zdefiniowany na dowolnym przedziale \\( K=[ x_l,x_r ] \\subset {\\cal R} \\).", "Elementów referencyjnych używa się do całkowania sformułowań słabych. Elementy referencyjne mają regularny kształt. Element referencyjny odwzorowywany jest na dany element, a jego geometria opisana jest odwzorowaniem mapy z elementu referencyjnego na dany element. W całkach jakobian tego odwzorowania reprezentuje skalowanie pola (objętości) elementu referencyjnego na dany element."], "definitions": [{"name": "Definicja 1: Jednowymiarowy referencyjny element skończony (na podstawie Demkowicz 2007) ", "content": "Jednowymiarowym referencyjnym elementem skończonym nazywamy trójkę\n \\( \\left( \\hat{K}, X\\left(\\hat{K}\\right), \\Pi_p \\right) \\)\nzdefiniowaną za pomocą następujących czterech kroków\n\nGeometria: \\( \\hat{K}=[0,1] \\subset {\\cal R} \\)\nWybór węzłów: \\( \\hat{a}_1, \\hat{a}_2 \\) węzły związane z wierzchołkami 0 i 1 elementu, oraz \\( \\hat{a}_3 \\) węzeł związany z wnętrzem (0,1) elementu\nDefinicja funkcji kształtu elementu \\( X \\left( \\hat{K}\\right)=span \\{ \\hat{\\chi}_j \\in {\\cal P}^p\\left(\\hat{K}\\right),j=1,...,p+1 \\} \\) gdzie \\( {\\cal P}^p\\left(\\hat{K}\\right) \\) to wielomiany stopnia \\( p \\) określone na przedziale \\( \\hat{K} =(0,1) \\) oraz \\( \\hat{\\chi}_1(\\xi)=1-\\xi \\), \\( \\hat{\\chi}_2(\\xi)=\\xi \\), \\( \\hat{\\chi}_3(\\xi)=(1-\\xi)\\xi \\), \\( \\hat{\\chi}_l(\\xi)=(1-\\xi)\\xi(2\\xi-1)^{l-3} \\quad l=4,...,p+1 \\).\nDefinicja operatora interpolacji przez operator projekcji \\( \\Pi_p:H^1\\left( \\hat{K} \\right) \\rightarrow X\\left( \\hat{K}\\right) \\). Dla danej funkcji \\( u \\in H^1\\left(\\hat{K} \\right) \\), jej interpolant bazujący na projekcji to \\( \\Pi_pu\\in X\\left( \\hat{K}\\right) \\) jest zdefiniowany poprzez następujące warunki:\n \\( \\Pi_p u(\\hat{a}_1)=u(\\hat{a}_1) \\)\n \\( \\Pi_p u(\\hat{a}_2)=u(\\hat{a}_2) \\)\n \\( \\| \\Pi_p u -u \\|_{H^1_0(0,1)}\\rightarrow min \\)\ngdzie \\( \\| \\Pi_p u -u \\|_{H^1_0(0,1)} = \\int_0^1 \\left( \\left( \\Pi_p u \\right)' -u' \\right)^2 d\\xi \\) to norma w przestrzeni Sobolewa \\( H^1_0(0,1) \\).\n\n"}, {"name": "Definicja 2: Jednowymiarowy referencyjny element skończony (na podstawie Ciarlet 1978) ", "content": "Jednowymiarowym referencyjnym elementem skończonym nazywamy trójkę\n \\( \\left( \\hat{K}, V^*\\left(\\hat{K}\\right), X\\left(\\hat{K}\\right) \\right) \\)\nzdefiniowaną za pomocą następujących czterech kroków\n\nGeometria: \\( \\hat{K}=\\left(0,1\\right) \\in {\\cal R} \\)\nWybór węzłów: \\( \\hat{a}_1, \\hat{a}_2 \\) węzły związane z wierzchołkami 0 i 1 elementu, oraz \\( \\hat{a}_3 \\) węzeł związany z wnętrzem (0,1) elementu\nDefinicja przestrzeni stopni swobody \\( V^* \\left( \\hat{K}\\right) = span \\{ \\psi_i \\}_{i=1,...,p+1} \\) jako przestrzeni dualnej do \\( V\\left( \\hat{K} \\right) \\).Kojarzymy stopnie swobody z węzłami elementu oraz z wnętrzem elementu \\( \\psi_1 : V\\left(\\hat{K}\\right) \\ni f \\rightarrow f(\\hat{a}_1)\\in R \\), \\( \\psi_2 : V\\left(\\hat{K}\\right) \\ni f \\rightarrow f(\\hat{a}_2)\\in R \\), \\( \\psi_3 : V\\left(\\hat{K}\\right) \\ni f \\rightarrow 3 \\int_{\\hat{a}_3} f'(\\xi) (1-2\\xi)d\\xi \\in R \\). Możliwe jest rozszerzenie tej definicji na dalsze stopnie swobody (tutaj podajemy definicję dla \\( p=2 \\).\nKonstrukcja przestrzeni aproksymacyjnej \\( X\\left(\\hat{K}\\right) \\subset V\\left(\\hat{K}\\right) \\). Przestrzeń aproksymacyjna jest rozpięta przez bazę wielomianów będącą bazą dualną do bazy stopni swobody\n \\( \\psi_i\\left(\\chi_j\\right) = \\delta_{ij} \\)\n\n"}, {"name": "Definicja 3: Jednowymiarowy element skończony (definicja przez funkcje kształtu i operator interpolacji przez projekcję) ", "content": "Jednowymiarowym elementem skończonym nazywamy trójkę\n \\( \\left( K, X\\left(K \\right), \\Pi_p \\right) \\)\nzdefiniowaną za pomocą następujących czterech kroków\n\nGeometria: \\( K=[ x_l,x_r] \\subset {\\cal R}, x_l,x_r \\in {\\cal R} \\)\nWybór węzłów: \\( a_1, a_2 \\) węzły związane z wierzchołkami \\( x_l,x_r \\) elementu, oraz \\( a_3 \\) węzeł związany z wnętrzem \\( K=[ x_l,x_r] {\\cal R} \\) elementu\nDefinicja funkcji kształtu elementu \\( X \\left( K\\right)=\\{ \\chi = \\hat{\\chi} \\cdot x_K^{-1}, \\hat{\\chi} \\in X\\left(\\hat{K}\\right) \\} \\) gdzie \\( x_K:\\hat{K} \\rightarrow K \\) to odwzorowanie z elementu wzrocowego \\( K=[0,1] \\) na element \\( K=[x_l,x_r] \\) dane \\( \\hat{K} \\ni \\xi \\rightarrow x_K\\left(\\xi\\right)=x_l+(x_r-x_l)=x\\in K \\)\nDefinicja operatora interpolacji bazującego na operatorze projekcji \\( \\Pi_p:H^1\\left( \\hat{K} \\right) \\rightarrow X\\left( \\hat{K}\\right) \\) zdefiniowanego analogicznie do Definicji 1.\n"}]} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 742, "subject": "Jednowymiarowe sformułowania silne i słabe dla problemu eliptycznego", "paragraphs": [], "definitions": [{"name": "Definicja 1: Sformułowanie silne dla jednowymiarowe problemu eliptycznego", "content": " Dla obszaru \\( \\Omega=(0,l) \\subset {\\cal R} \\) szukamy pola skalarnego \\( \\Omega \\ni x \\rightarrow u(x) \\in {\\cal R} \\) będącego funkcją gładką \\( u \\in C^0 \\) taką że \\( -\\left(a(x)u'(x)\\right)'+b(x)u'(x)+c(x)u(x)=f(x) \\textrm{ dla } x\\in (0,l) \\) wraz z warunkiem brzegowym Dirichleta\n \\( u(0)=u_0 \\) i warunkiem brzegowym Robina \\( a(l)u'(l)+\\beta_l u(l)=\\gamma_l \\) gdzie \\( u_0,\\beta_l,\\gamma_l \\in{\\cal R} \\), \\( \\Omega \\ni x \\rightarrow a(x),b(x),c(x), f(x) \\in {\\cal R} \\) zadane funkcje \\( a \\in C^1, b,c,f \\in C^0 \\).\n\n"}, {"name": "Definicja 2: Rozszerzenie warunku brzegowego Dirichleta dla jednowymiarowego problemu eliptycznego", "content": " Wprowadzamy funkcję \\( \\tilde{u}(x) = (1-\\frac{x}{l})u_0 \\) taką że \\( \\tilde{u}(0)=u_0 \\).\n"}, {"name": "Definicja 3: Sformułowanie słabe dla jednowymiarowego problemu eliptycznego", "content": " Dla obszaru \\( \\Omega=(0,l) \\subset {\\cal R} \\) dla którego brzeg podzielony jest na fragment brzegu Dirichleta w \\( x=0 \\) i fragment brzegu Robina w \\( x=l \\), szukamy pola skalarnego \\( u \\in V \\) takiego że \\( B(u,v)=L(v)-B(\\hat{u},v) \\quad \\forall v\\in V \\) gdzie \\( B(u,v)=\\int_0^l \\left( a(x) u'(x) v'(x) +b(x)u'(x)v(x)+c(x)u(x)v(x)\\right)dx + \\beta u(l)v(l) \\) oraz \\( L(v)=\\int_0^l f(x) v(x)dx + \\gamma v(l) \\) oraz \\( \\tilde{u} \\) jest rozszerzeniem warunku brzegowego Dirichleta na cały obszar, oraz \\( V=\\{u\\in H^1(\\Omega): u(0)=0 \\} \\).\n"}]} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 743, "subject": "Jednowymiarowa metoda elementów skończonych", "paragraphs": ["Siatka referencyjna używana jest do szacownia błędu względnego na siatce obliczeniowej. Często kiedy opisuje się siatkę obliczeniową w kontekście siatki referencyjnej, nazywa się ją siatką rzadka, a siatkę referencyjną siatką gęstą, powstaje ona bowiem poprzez połamanie elementów na mniejsze elementy i zwiększenie stopnia aproksymacji wielomianowej o jeden."], "definitions": [{"name": "Definicja 1: Jednowymiarowa siatka obliczeniowa", "content": " Siatka obliczeniowa to skończona rodzina \\( T_{hp} \\) elementów skończonych \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) takich że \\( \\cup_{K \\in T_{hp} } = \\Omega \\), \\( \\textrm{meas} K_i \\cap K_j = K_i \\textrm{ dla } i=j; 0 \\textrm{ dla } i \\neq j \\)\n"}, {"name": "Definicja 2: Jednowymiarowa siatka referencyjna", "content": "\nDla danej siatki obliczeniowej \\( \\{ T_{hp }= \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) siatka referencyjna to rodzina \\( T_{\\frac{h}{2}p+1} \\) elementów skończonych\n \\( T_{\\frac{h}{2}p+1}=\\{ \\left( K, X\\left(K\\right), \\Pi_p \\right) \\}_K { } \\) takich że\n \\( \\forall K \\in T_{ \\frac{h}{2}p+1} \\exists K_1,K_2 \\in {\\cal P}(T_{hp },K) \\) takie że\n \\( K=K_1 \\cup K_2, \\textrm{meas}K_1\\cap K_2=0 \\),\n \\( X(K_1),X(K_2) \\in {\\cal P}(T_{hp },X(K)), dim X(K)=dimX(K_1)+1=dimX(K_2)+1 \\) gdzie \\( {\\cal P } (T_{hp},K ) \\) i \\( {\\cal P }(T_{hp},X(K)) \\) oznaczają projekcje na pierwszy i drugi komponent \\( \\left( K, X\\left( K \\right), \\Pi_p \\right) \\). Wzór wymiaru przestrzeni funkcji kształtu na nowych dwóch elementach wynika z dodania jednej nowej funkcji kształtu, stosownie poprzez zwiększenie stopnia wielomianu o 1 we wnętrzu elementu.\n\n"}, {"name": "Definicja 3: Przestrzeń aproksymacyjna nad jednowymiarową siatką obliczeniową", "content": "\nPrzestrzeń aproksymacyjna nad jednowymiarową siatką obliczeniową \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) to\n \\( V_{hp }= \\{ v \\in C(\\Omega): \\forall K \\in {\\cal P }( T_{hp},K): {\\cal P }( v,K) \\in X(K) \\} \\)\ngdzie \\( {\\cal P }( T_{hp},K) \\) to zbiór przedziałów reprezentujących geometrię elementów wyciągnięty z trójki reprezentującej jednowymiarową siatkę obliczeniową, \\( {\\cal P }( v,K) \\) to projekcja funkcji na przedział reprezentujący geometrię elementu.\n\n"}, {"name": "Definicja 4: Odwzorowania definiujące składanie lokalnych funkcji kształtu na globalne funkcje bazowe nad siatką obliczeniową", "content": "\nNiech \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) oznacza jednowymiarową siatkę obliczeniową.\nNiech \\( \\{ e_i^{hp} \\}_i \\) oznacza bazę przestrzeni \\( V_{hp }= span\\{ e_i^{hp} \\} \\).\nNiech \\( \\chi^K_k \\in X \\left( K\\right) \\) oznacza funkcje kształtu nad elementem \\( K \\).\nWówczas \\( \\forall K \\in {\\cal P }( T_{hp},K), \\forall i, \\exists k : {\\cal P}(e_i^{hp},K) = \\chi^K_k \\).\nIstnieje odwzorowanie odwrotne \\( {\\cal I}^2 \\ni (k,K)\\rightarrow i(k,K)\\in {\\cal I} \\) które przypisuje numer\n \\( i(k,K) \\) globalnej i-tej funkcji bazowej związanej z lokalną \\( k \\)-tą funkcją kształtu nad elementem \\( K \\).\nW przypadkach rozpatrywanych w tym podręczniku, odwzorowanie to jest izomorficzne.\n\n"}, {"name": "Definicja 5: Przestrzeń aproksymacyjna nad jednowymiarową siatką referencyjną", "content": "\nPrzestrzeń aproksymacyjna nad jednowymiarową siatką obliczeniową \\( T_{\\frac{h}{2}p+1}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) to\n \\( V_{\\frac{h}{2}p+1 }= \\{ v \\in C(\\Omega): \\forall K \\in {\\cal P }( T_{\\frac{h}{2}p+1},K): {\\cal P }( v,K) \\in X(K) \\} \\)\ngdzie \\( {\\cal P }( T_{\\frac{h}{2}p+1},K) \\) to zbiór przedziałów reprezentujących geometrię elementów wyciągnięty z trójki reprezentującej jednowymiarową siatkę obliczeniową, \\( {\\cal P }( v,K) \\) to projekcja funkcji na przedział reprezentujący geometrię elementu.\n\n"}, {"name": "Definicja 6: Odwzorowania definiujące składanie lokalnych funkcji kształtu na globalne funkcje bazowe nad siatką referencyjną", "content": "\nNiech \\( T_{\\frac{h}{2}p+1}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) oznacza jednowymiarową siatkę referencyjną.\nNiech \\( \\{ e_i^{\\frac{h}{2}p+1} \\}_i \\) oznacza bazę przestrzeni \\( V_{\\frac{h}{2}p+1 }= span\\{ e_i^{\\frac{h}{2}p+1} \\} \\).\nNiech \\( \\chi^K_k \\in X \\left( K\\right) \\) oznacza funkcje kształtu nad elementem \\( K \\).\nWówczas \\( \\forall K \\in {\\cal P }( T_{\\frac{h}{2}p+1},K), \\forall i, \\exists k : {\\cal P}(e_i^{\\frac{h}{2}p+1},K) = \\chi^K_k \\).\nIstnieje odwzorowanie odwrotne \\( {\\cal I}^2 \\ni (k,K)\\rightarrow i(k,K)\\in {\\cal I} \\) które przypisuje numer\n \\( i(k,K) \\) globalnej i-tej funkcji bazowej związanej z lokalną \\( k \\)-tą funkcją kształtu nad elementem \\( K \\).\nW przypadkach rozpatrywanych w tym podręczniku, odwzorowanie to jest izomorficzne.\n\n"}, {"name": "Definicja 7: Problem metody elementów skończonych nad jednowymiarową siatką obliczeniową", "content": "\nDla danej siatki obliczeniowej \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) znaleźć współczynniki \\( \\{ u^{hp}_i \\}_{i=1,...,N^{hp}} \\) rozwiązania przybliżonego \\( V \\supset V_{hp } \\ni u_{hp }=\\sum_{i=1,...,N^{hp } } u_i^{hp } e_i^{hp } \\) takie że \\( \\sum_{i=m,...,N^{hp } } u_m^{hp } B(e_m^{hp},e_n^{hp})=L(e_n^{hp}), n=1,...,N^{hp} \\) gdzie \\( B(e_m^{hp},e_n^{hp})=\\int_0^l \\left( a(x) \\frac{de_m^{hp}(x)}{dx} \\frac{de_n^{hp}(x)}{dx} +b(x)\\frac{de_m^{hp}(x)}{dx}e_n^{hp}(x)+c(x)e_m^{hp}(x)e_n^{hp}(x)\\right)dx + \\beta e_m^{hp}(l)e_n^{hp}(l) \\) oraz \\( L(e_n^{hp})=\\int_0^l f(x) e_n^{hp}(x)dx + \\gamma e_n^{hp}(l) \\). Baza \\( \\{ e^{hp}_i \\}_{i=1,...,N^{hp}} \\) przestrzeni aproksymacyjnej \\( V_{hp} \\) uzyskana jest poprzez sumowanie funkcji kształtu z przestrzeni \\( X\\left(K\\right) = {\\cal P}(T_{hp},X(K)) \\) dla poszczególnych elemetów z siatki \\( T_{hp} \\) w globalne funkcje bazowe.\n\n"}, {"name": "Definicja 8: Problem metody elementów skończonych nad jednowymiarową siatką referencyjną", "content": "\nDla danej siatki obliczeniowej \\( T_{\\frac{h}{2}p+1}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) znaleźć współczynniki \\( \\{ u^{\\frac{h}{2}p+1}_i \\}_{i=1,...,n^{\\frac{h}{2}p+1}} \\) rozwiązania przybliżonego \\( V \\supset V_{\\frac{h}{2}p+1 } \\ni u_{\\frac{h}{2}p+1 }=\\sum_{i=1,...,N^{\\frac{h}{2}p+1 } } u_i^{\\frac{h}{2}p+1 } e_i^{\\frac{h}{2}p+1 } \\) takie że \\( \\sum_{m=1,...,N^{\\frac{h}{2}p+1 } } u_m^{\\frac{h}{2}p+1 } B(e_m^{\\frac{h}{2}p+1},e_n^{\\frac{h}{2}p+1})=L(e_n^{\\frac{h}{2}p+1}), n=1,...,N^{hp} \\) gdzie \\( B(e_m^{\\frac{h}{2}p+1},e_n^{\\frac{h}{2}p+1})=\\int_0^l \\left( a(x) \\frac{de_m^{\\frac{h}{2}p+1}(x)}{dx} \\frac{de_n^{\\frac{h}{2}p+1}(x)}{dx} +b(x)\\frac{de_m^{\\frac{h}{2}p+1}(x)}{dx}e_n^{\\frac{h}{2}p+1}(x)+c(x)e_m^{\\frac{h}{2}p+1}(x)e_n^{\\frac{h}{2}p+1}(x)\\right)dx +\\\\+ \\beta e_m^{\\frac{h}{2}p+1}(l)e_n^{hp}(l) \\) oraz \\( L(e_n^{\\frac{h}{2}p+1})=\\int_0^l f(x) e_n^{\\frac{h}{2}p+1}(x)dx + \\gamma e_n^{\\frac{h}{2}p+1}(l) \\).\nBaza \\( \\{ e^{\\frac{h}{2}p+1}_i \\}_{i=1,...,N^{\\frac{h}{2}p+1}} \\) przestrzeni aproksymacyjnej \\( V_{hp} \\) uzyskana jest poprzez sumowanie funkcji kształtu z przestrzeni \\( X\\left(K\\right) = {\\cal P}(T_{\\frac{h}{2}p+1},X(K)) \\) dla poszczególnych elemetów z siatki \\( T_{\\frac{h}{2}p+1} \\) w globalne funkcje bazowe.\n\n"}]} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 744, "subject": "Przykład jednowymiarowej metody elementów skończonych", "paragraphs": [], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 745, "subject": "Dwuwymiarowy element skończony", "paragraphs": [], "definitions": [{"name": "Definicja 1: Dwuwymiarowy referencyjny element skończony", "content": "Dwuwymiarowym referencyjnym elementem skończonym nazywamy trójkę\n \\( \\left( \\hat{K}, X\\left(\\hat{K}\\right), \\Pi_p \\right) \\)\nzdefiniowaną za pomocą następujących czterech kroków\n\nGeometria: \\( \\hat{K}=[0,1]^2 \\subset {\\cal R}^2 \\)\nWybór węzłów: \\( \\hat{a}_1, \\hat{a}_2, \\hat{a}_3, \\hat{a}_4, \\) węzły związane z wierzchołkami elementu (0,0), (1,0), (1,1) i (0,1), \\( \\hat{a}_5, \\hat{a}_6, \\hat{a}_7, \\hat{a}_8 \\) węzły związane z krawędziami elementu, oraz \\( \\hat{a}_9 \\) węzeł związany z wnętrzem elementu.\nDefinicja funkcji kształtu elementu \\( X \\left( \\hat{K}\\right)=span \\{ \\hat{\\phi}_j(\\xi_1,\\xi_2) \\in {\\cal Q}^{(p_h,p_v)}\\left(\\hat{K}\\right),j=1,...,(p_h+1)(p_v+1) \\} \\) gdzie \\( {\\cal Q}^{(p_h,p_v)}\\left(\\hat{K}\\right) \\) to wielomiany stopnia \\( p_h \\) względem zmiennej \\( \\xi_1 \\) oraz stopnia \\( p_v \\) względem zmiennej \\( \\xi_2 \\), określone na \\( \\hat{K}=[0,1]^2 \\). Dla funkcji kształtu skojarzonych z węzłami krawędziowymi elementów, wprowadzamy stopnie wielomianów \\( p_1,p_3\\leq p_h; p_2,p_4 \\leq p_v \\). Definiujemy wierzchołkowe funkcje kształtu \\( \\hat{\\phi}_1(\\xi_1,\\xi_2)=\\hat{\\chi}_1(\\xi_1)\\hat{\\chi}_1(\\xi_2) \\), \\( \\hat{\\phi}_2(\\xi_1,\\xi_2)=\\hat{\\chi}_2(\\xi_1)\\hat{\\chi}_1(\\xi_2) \\), \\( \\hat{\\phi}_3(\\xi_1,\\xi_2)=\\hat{\\chi}_2(\\xi_1)\\hat{\\chi}_2(\\xi_2) \\), \\( \\hat{\\phi}_4(\\xi_1,\\xi_2)=\\hat{\\chi}_1(\\xi_1)\\hat{\\chi}_2(\\xi_2) \\), następnie definiujemy krawędziowe funkcje kształtu, \\( \\hat{\\phi}_{5,j}(\\xi_1,\\xi_2)=\\hat{\\chi}_{2+j}(\\xi_1)\\hat{\\chi}_1(\\xi_2), j=1,...,p_1-1 \\), \\( \\hat{\\phi}_{6,j}(\\xi_1,\\xi_2)=\\hat{\\chi}_2(\\xi_1)\\hat{\\chi}_{2+j}(\\xi_2), j=1,...,p_2-1 \\), \\( \\hat{\\phi}_{7,j}(\\xi_1,\\xi_2)=\\hat{\\chi}_{2+j}(\\xi_1)\\hat{\\chi}_2(\\xi_2), j=1,...,p_3-1 \\), \\( \\hat{\\phi}_{8,j}(\\xi_1,\\xi_2)=\\hat{\\chi}_1(\\xi_1)\\hat{\\chi}_{2+j}(\\xi_2), j=1,...,p_4-1 \\), dodatkowo definiujemy funkcje kształtu związaną z wnętrzem elementu \\( \\hat{\\phi}_{9,i,j}(\\xi_1,\\xi_2)=\\hat{\\chi}_{2+i}(\\xi_1)\\hat{\\chi}_{2+j}(\\xi_2), i=1,...,p_h-1;j=1,...,p_v-1 \\).\nDefinicja operatora interpolacji bazującego na operatorze projekcji \\( \\Pi_p:H^1\\left( \\hat{K} \\right) \\rightarrow X\\left( \\hat{K}\\right) \\). Dla danej funkcji \\( u \\in H^1\\left(\\hat{K} \\right) \\), jej interpolant bazujący na projekcji to \\( \\Pi_pu\\in X\\left( \\hat{K}\\right) \\) jest zdefiniowany poprzez następujące warunki:\n \\( \\Pi_p u(0,0)=u(0,0) \\)\n \\( \\Pi_p u(1,0)=u(1,0) \\)\n \\( \\Pi_p u(0,1)=u(0,1) \\)\n \\( \\Pi_p u(1,1)=u(1,1) \\)\n \\( \\| \\Pi_p u -u \\|_{H^1_0(\\hat{K})}\\rightarrow min \\)\ngdzie \\( \\| \\Pi_p u -u \\|_{H^1_0(\\hat{K})} = \\int_{\\hat{K}} \\left( \\left( \\Pi_p u \\right)' -u' \\right)^2 d\\xi_1d\\xi_2 \\) to norma w przestrzeni Sobolewa \\( H^1_0(\\hat{K}) \\).\n\n"}, {"name": "Definicja 2: Dwuwymiarowy element skończony", "content": "Dwuwymiarowym elementem skończonym nazywamy czwórkę\n \\( \\left( K, X\\left(K\\right), \\Pi_p \\right) \\)\nzdefiniowaną za pomocą następujących czterech kroków\n\nGeometria: \\( K \\subset {\\cal R}^2 \\)\nWybór węzłów: \\( a_1, a_2, a_3, a_4, \\) węzły związane z wierzchołkami elementu, \\( a_5, a_6, a_7, a_8 \\) węzły związane z krawędziami elementu, oraz \\( a_9 \\) węzeł związany z wnętrzem elementu.\nDefinicja funkcji kształtu elementu \\( X \\left( K\\right)=\\{ \\phi(x_1,x_2) = \\hat{\\phi} \\cdot x_K^{-1}(x_1,x_2), \\hat{\\phi} \\in X\\left(\\hat{K}\\right) \\} \\) gdzie \\( x_K:\\hat{K} \\rightarrow K \\) to odwzorowanie z elementu wzrocowego \\( \\hat{K}=[0,1]^2 \\) na element \\( K\\subset {\\cal R}^2 \\) dane \\( \\hat{K} \\ni (\\xi_1,\\xi_2) \\rightarrow x_K\\left(\\xi_1,\\xi_2 \\right)=(x_1,x_2)\\in K \\)\nDefinicja operatora interpolacji bazującego na operatorze projekcji \\( \\Pi_p:H^1\\left( K \\right) \\rightarrow X\\left( K \\right) \\). Dla danej funkcji \\( u \\in H^1\\left(K \\right) \\), jej interpolant bazujący na projekcji to \\( \\Pi_pu\\in X\\left( K\\right) \\) jest zdefiniowany poprzez następujące warunki:\n \\( \\Pi_p u(a_1)=u(a_1) \\)\n \\( \\Pi_p u(a_2)=u(a_2) \\)\n \\( \\Pi_p u(a_3)=u(a_3) \\)\n \\( \\Pi_p u(a_4)=u(a_4) \\)\n \\( \\| \\Pi_p u -u \\|_{H^1_0(K)}\\rightarrow min \\)\ngdzie \\( \\| \\Pi_p u -u \\|_{H^1_0(K)} = \\int_{K} \\left( \\left( \\Pi_p u \\right)' -u' \\right)^2 dx_1dx_2 \\) to norma w przestrzeni Sobolewa \\( H^1_0(K) \\).\n\n"}]} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 746, "subject": "Dwuwymiarowe sformułowania silne i słabe dla problemu eliptycznego", "paragraphs": [], "definitions": [{"name": "Definicja 1: Sformułowanie silne dwuwymiarowego problemu brzegowego eliptycznego", "content": "Znaleźć \\( {\\cal R}^2 \\supset \\Omega \\ni (x_1,x_2) \\rightarrow u(x_1,x_2) \\in {\\cal R} \\) takie że\n \\( -\\sum_{i=1,2} \\frac{\\partial}{\\partial x_i} \\left( \\sum_{j=1,2} a_{ij}(x_1,x_2) \\frac{\\partial u(x_1,x_2)}{\\partial x_j} \\right) +\\sum_{j=1,2} b_j(x_1,x_2)\\frac{\\partial u(x_1,x_2)}{\\partial x_j} + c(x_1,x_2) u(x_1,x_2) =f(x_1,x_2) \\)\n \\( u(x_1,x_2)= u_D(x_1,x_2) \\textrm{ dla } (x_1,x_2) \\in \\Gamma_D \\)\n \\( \\sum_{j=1,2} a_{ij}(x_1,x_2) \\frac{\\partial u(x_1,x_2)}{\\partial x_j} n_i=g(x_1,x_2) \\textrm{ dla } (x_1,x_2) \\in \\Gamma_N \\)\n \\( \\sum_{j=1,2} a_{ij}(x_1,x_2) \\frac{\\partial u(x_1,x_2)}{\\partial x_j} n_i + \\beta(x_1,x_2) u(x_1,x_2)=g(x_1,x_2) \\textrm{ dla } (x_1,x_2) \\in \\Gamma_R \\) gdzie\n \\( a{ij}, b_j, c,f : {\\cal R}^2 \\supset \\Omega \\ni (x_1,x_2) \\rightarrow a_{ij}(x_1,x_2),b_j(x_1,x_2),c(x_1,x_2),f(x_1,x_2) \\in {\\cal R} \\)\nto dane funkcje oraz\n \\( u_D : {\\cal R}^2 \\supset \\Gamma_D \\ni (x_1,x_2) \\rightarrow u_D(x_1,x_2) \\in {\\cal R} \\)\n \\( g : {\\cal R}^2 \\supset \\Gamma_N \\cup \\Gamma_R \\ni (x_1,x_2) \\rightarrow g(x_1,x_2) \\in {\\cal R} \\)\n \\( \\beta : {\\cal R}^2 \\supset \\Gamma_R \\ni (x_1,x_2) \\rightarrow \\beta(x_1,x_2) \\in {\\cal R} \\)\nto dane funkcje, oraz brzeg obszaru podzielony jest na fragment na którym określono warunek brzegowy Dirichleta, Neumanna i Robina\n \\( \\partial \\Omega = \\Gamma_D \\cup \\Gamma_N \\cup \\Gamma_R \\).\n\n"}, {"name": "Definicja 2: Sformułowanie słabe dwuwymiarowego problemu brzegowego eliptycznego", "content": "Znaleźć \\( u \\in V \\) takie że\n \\( B(u,v)=L(v)-B(\\hat{u},v) \\quad \\forall v \\in V \\) gdzie\n \\( B(u,v)= \\int_{\\Omega} \\left( \\sum_{i=1,2} \\sum_{j=1,2} a_{ij}(x_1,x_2) \\frac{\\partial u(x_1,x_2) }{\\partial x_j } \\frac{\\partial v(x_1,x_2) }{\\partial x_j } + \\\\+\\sum_{j=1,2} b_j(x_1,x_2) \\frac{\\partial u(x_1,x_2) }{\\partial x_j } v(x_1,x_2) +c (x_1,x_2 )u(x_1,x_2) \\right) dx_1 dx_2 + \\)\n \\( +\\int_{\\Gamma_R} \\beta(x_1,x_2) u(x_1,x_2) v(x_1,x_2) ds \\)\n \\( L(v)= \\int_{\\Omega} f(x_1,x_2)v(x_1,x_2) dx_1 dx_2 + \\int_{\\Gamma_R} g(x_1,x_2) v(x_1,x_2) ds \\)\ngdzie \\( \\hat{u}_D \\) to rozszerzenie warunku brzegowego Dirichleta \\( tr \\left( \\hat{u} \\right) = u_D \\) na cały obszar \\( \\Omega \\) oraz\n \\( V = \\{ v \\in L^2(\\Omega):\\int_{\\Omega} \\| v \\|^2 +\\| \\nabla v \\|^2 dx_1 dx_2 < \\infty, tr(v)=0 \\textrm{ on } \\Gamma_D \\} \\).\n\n"}]} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 747, "subject": "Dwuwymiarowa metoda elementów skończonych", "paragraphs": ["Siatka referencyjna używana jest do szacownia błędu względnego na siatce obliczeniowej. Często kiedy opisuje się siatkę obliczeniową w kontekście siatki referencyjnej, nazywa się ją siatką rzadką, a siatkę referencyjną siatką gęstą, powstaje ona bowiem poprzez połamanie elementów na mniejsze elementy i zwiększenie stopnia aproksymacji wielomianowej o jeden."], "definitions": [{"name": "Definicja 1: Dwuwymiarowa siatka obliczeniowa", "content": " Siatka obliczeniowa to skończenie wymiarowa rodzina \\( T_{hp} \\) elementów skończonych \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\), takich że\n \\( \\cup_{K \\in T_{hp}} = \\Omega \\), \\( \\textrm{ meas} K_i \\cap K_j = K_i \\textrm{ dla } i=j; 0 \\textrm{ dla } i \\neq j \\)\n\n"}, {"name": "Definicja 2: Dwuwymiarowa siatka referencyjna", "content": " Dla danej siatki obliczeniowej \\( T_{hp}= \\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) siatka referencyjna to rodzina \\( T_{\\frac{h}{2}p+1} \\) elementów skończonych \\( T_{\\frac{h}{2}p+1}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\), takich że\n \\( \\forall K \\in T_{\\frac{h}{2}p+1} \\exists K_1,K_2,K_3,K_4 \\in {\\cal P}(T_{hp},K) \\), takie że\n \\( K=K_1\\cup K_2 \\cup K_3 \\cup K_4, \\textrm{meas}K_i \\cap K_j=K_i \\textrm{ dla } i=j; 0 \\textrm{ dla } i \\neq j \\),\n \\( X(K_1),X(K_2),X(K_3),X(K_4) \\in {\\cal P}(T_{hp},X(K)), dim X(K)=\\\\ dim(K_1)+7=dim(K_2)+7=dim(K_3)+7=dim(K_4)+7 \\), gdzie\n \\( {\\cal P}(T_{hp},K) \\) i \\( {\\cal P}(T_{hp},X(K)) \\) oznaczają projekcje na pierwszy i drugi komponent \\( \\left(K, X\\left(K\\right), \\Pi_p \\right) \\).\nWzór wymiaru przestrzeni funkcji kształtu na nowych czterech elementach wynika z dodania siedmiu nowych funkcji kształtu, stosownie poprzez zwiększenie stopnia wielomianów o 1 we wnętrzu elementu w kierunku poziomym i pionowym (co daje w sumie trzy dodatkowe wielomiany - jeden ze stopniem zwiększonym w kierunku pionowym, drugi ze stopniem zwiększonym w kierunku poziomym, i trzeci ze stopniami zwiększonymi w obydwu kierunkach oraz 4 nowe funkcje kształtu uzyskane poprzez dodanie nowych wielomianów na krawędziach elementów, ze stopniem wielomianów zwiększonych o 1).\n\n"}, {"name": "Definicja 3: Przestrzeń aproksymacyjna nad dwuwymiarową siatką obliczeniową", "content": "\nPrzestrzeń aproksymacyjna nad dwuwymiarową siatką obliczeniową \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) to\n \\( V_{hp }= \\{ v \\in C(\\Omega): \\forall K \\in {\\cal P }( T_{hp},K): {\\cal P }( v,K) \\in X(K) \\} \\),\ngdzie \\( {\\cal P }( T_{hp},K) \\) to zbiór przedziałów reprezentujących geometrię elementów wyciągniętych z trójki reprezentującej dwuwymiarową siatkę obliczeniową, \\( {\\cal P }( v,K) \\) to projekcja funkcji na przedział reprezentujący geometrię elementu.\n\n"}, {"name": "Definicja 4: Odwzorowania definiujące składanie lokalnych funkcji kształtu na globalne funkcje bazowe nad siatką obliczeniową", "content": "\nNiech \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) oznacza dwuwymiarową siatkę obliczeniową.\nNiech \\( \\{ e_i^{hp} \\}_i \\) oznacza bazę przestrzeni \\( V_{hp }= span\\{ e_i^{hp} \\} \\).\nNiech \\( \\chi^K_k \\in X \\left( K\\right) \\) oznacza funkcje kształtu nad elementem \\( K \\).\nWówczas \\( \\forall K \\in {\\cal P }( T_{hp},K), \\forall i, \\exists k : {\\cal P}(e_i^{hp},K) = \\chi^K_k \\).\nIstnieje odwzorowanie odwrotne \\( {\\cal I}^2 \\ni (k,K)\\rightarrow i(k,K)\\in {\\cal I} \\), które przypisuje numer\n \\( i(k,K) \\) globalnej i-tej funkcji bazowej związanej z lokalną \\( k \\)-tą funkcją kształtu nad elementem \\( K \\).\nW przypadkach rozpatrywanych w tym podręczniku, odwzorowanie to jest izomorficzne.\n\n"}, {"name": "Definicja 5: Przestrzeń aproksymacyjna nad dwuwymiarową siatką referencyjną", "content": "\nPrzestrzeń aproksymacyjna nad dwuwymiarową siatką obliczeniową \\( T_{\\frac{h}{2}p+1}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) to\n \\( V_{\\frac{h}{2}p+1 }= \\{ v \\in C(\\Omega): \\forall K \\in {\\cal P }( T_{\\frac{h}{2}p+1},K): {\\cal P }( v,K) \\in X(K) \\} \\),\ngdzie \\( {\\cal P }( T_{\\frac{h}{2}p+1},K) \\) to zbiór przedziałów reprezentujących geometrię elementów wyciągniętych z trójki reprezentującej dwuwymiarową siatkę obliczeniową, \\( {\\cal P }( v,K) \\) to projekcja funkcji na przedział reprezentujący geometrię elementu.\n\n"}, {"name": "Definicja 6: Odwzorowania definiujące składanie lokalnych funkcji kształtu na globalne funkcje bazowe nad siatką referencyjną", "content": "\nNiech \\( T_{\\frac{h}{2}p+1}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) oznacza dwuwymiarową siatkę referencyjną.\nNiech \\( \\{ e_i^{\\frac{h}{2}p+1} \\}_i \\) oznacza bazę przestrzeni \\( V_{\\frac{h}{2}p+1 }= span\\{ e_i^{\\frac{h}{2}p+1} \\} \\).\nNiech \\( \\chi^K_k \\in X \\left( K\\right) \\) oznacza funkcje kształtu nad elementem \\( K \\).\nWówczas \\( \\forall K \\in {\\cal P }( T_{\\frac{h}{2}p+1},K), \\forall i, \\exists k : {\\cal P}(e_i^{\\frac{h}{2}p+1},K) = \\chi^K_k \\).\nIstnieje odwzorowanie odwrotne \\( {\\cal I}^2 \\ni (k,K)\\rightarrow i(k,K)\\in {\\cal I} \\), które przypisuje numer\n \\( i(k,K) \\) globalnej i-tej funkcji bazowej związanej z lokalną \\( k \\)-tą funkcją kształtu nad elementem \\( K \\).\nW przypadkach rozpatrywanych w tym podręczniku, odwzorowanie to jest izomorficzne.\n\n"}, {"name": "Definicja 7: Przestrzeń aproksymacyjna nad dwuwymiarową siatką referencyjną", "content": "\nPrzestrzeń aproksymacyjna nad dwuwymiarową referencyjną siatką obliczeniową \\( T_{\\frac{h}{2}p+1}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\), to \\( V_{\\frac{h}{2}p+1}=span \\{ e_j^{\\frac{h}{2}p+1} : \\forall K \\in {\\cal P}(T_{\\frac{h }{2}p+1},K), \\forall \\phi_j \\in X(K), \\exists ! e_i^{\\frac{h}{2}p+1} :{\\cal P }( e_i^{\\frac{h}{2}p+1 },K)=\\psi_k \\} \\), gdzie \\( e_i^{\\frac{h}{2}p+1} \\) to globalna funkcja bazowa (element bazy przestrzeni \\( V_{\\frac{h}{2}p+1} \\) ) oraz \\( \\psi_k \\) to lokalna funkcja kształtu nad elementem \\( K \\),\n \\( {\\cal I}^2 \\ni (k,K)\\rightarrow i(k,K)\\in {\\cal I} \\) to odwzorowanie przypisujące numer \\( i(k,K) \\) globalnej funkcji bazowej związanej z lokalną \\( k \\)-tą funkcją kształtu nad elementem \\( K \\).\n\n"}, {"name": "Definicja 8: Problem metody elementów skończonych nad dwuwymiarową siatką obliczeniową", "content": "\nDla danej siatki obliczeniowej \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) znaleźć współczynniki \\( \\{ u^{hp}_i \\}_{i=1,...,N^{hp}} \\) rozwiązania przybliżonego \\( V \\supset V_{hp } \\ni u_{hp }=\\sum_{i=1,...,N^{hp } } u_i^{hp } e_i^{hp } \\), takie że \\( \\sum_{m=1,...,N^{hp } } u_m^{hp } B(e_m^{hp},e_n^{hp})=L(e_n^{hp}) n=1,...,N^{hp} \\), gdzie\n \\( B(e_m^{hp},e_n^{hp})= \\int_{\\Omega} \\left( \\sum_{i=1,2} \\sum_{j=1,2} a_{ij}(x_1,x_2) \\frac{\\partial e_m^{hp}(x_1,x_2) }{\\partial x_j } \\frac{\\partial e_n^{hp}(x_1,x_2) }{\\partial x_j }\\right. \\\\ \\left. + \\sum_{j=1,2} b_j(x_1,x_2) \\frac{\\partial e_m^{hp}(x_1,x_2) }{\\partial x_j } e_n^{hp}(x_1,x_2) +c (x_1,x_2 )e_n^{hp}(x_1,x_2) \\right) dx_1 dx_2 + \\)\n \\( +\\int_{\\Gamma_R} \\beta(x_1,x_2) e_m^{hp}(x_1,x_2) e_n^{hp}(x_1,x_2) ds \\)\n \\( L(e_n^{hp})= \\int_{\\Omega} f(x_1,x_2)e_n^{hp}(x_1,x_2) dx_1 dx_2 + \\int_{\\Gamma_R} g(x_1,x_2) e_n^{hp}(x_1,x_2) ds \\).\nBaza \\( \\{ e^{hp}_i \\}_{i=1,...,N^{hp}} \\) przestrzeni aproksymacyjnej \\( V_{hp} \\) uzyskana jest poprzez sumowanie funkcji kształtu z przestrzeni \\( X\\left(K\\right) = {\\cal P}(T_{hp},X(K)) \\) dla poszczególnych elemetów z siatki \\( T_{hp} \\) w globalne funkcje bazowe.\n\n"}, {"name": "Definicja 9: Problem metody elementów skończonych nad dwuwymiarową siatką referencyjną", "content": "\nDla danej siatki obliczeniowej \\( T_{\\frac{h}{2}p+1}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) znaleźć współczynniki \\( \\{ u^{\\frac{h}{2}p+1}_i \\}_{i=1,...,n^{\\frac{h}{2}p+1}} \\) rozwiązania przybliżonego \\( V \\supset V_{\\frac{h}{2}p+1 } \\ni u_{\\frac{h}{2}p+1 }=\\sum_{i=1,...,N^{\\frac{h}{2}p+1 } } u_i^{\\frac{h}{2}p+1 } e_i^{\\frac{h}{2}p+1 } \\), takie że \\( \\sum_{m=1,...,N^{\\frac{h}{2}p+1 } } u_m^{\\frac{h}{2}p+1 } B(e_m^{\\frac{h}{2}p+1},e_n^{\\frac{h}{2}p+1})=L(e_n^{\\frac{h}{2}p+1}) n=1,...,N^{hp} \\)\n \\( B(e_m^{\\frac{h}{2}p+1},e_n^{\\frac{h}{2}p+1})= \\int_{\\Omega} \\left( \\sum_{i=1,2} \\sum_{j=1,2} a_{ij}(x_1,x_2) \\frac{\\partial e_m^{\\frac{h}{2}p+1}(x_1,x_2) }{\\partial x_j } \\frac{\\partial e_n^{\\frac{h}{2}p+1}(x_1,x_2) }{\\partial x_j }\\right. \\\\ \\left. + \\sum_{j=1,2} b_j(x_1,x_2) \\frac{\\partial e_m^{\\frac{h}{2}p+1}(x_1,x_2) }{\\partial x_j } e_n^{\\frac{h}{2}p+1}(x_1,x_2) +c (x_1,x_2 )e_n^{\\frac{h}{2}p+1}(x_1,x_2) \\right) dx_1 dx_2 + \\)\n \\( +\\int_{\\Gamma_R} \\beta(x_1,x_2) e_m^{\\frac{h}{2}p+1}(x_1,x_2) e_n^{\\frac{h}{2}p+1}(x_1,x_2) ds \\)\n \\( L(e_n^{\\frac{h}{2}p+1})= \\int_{\\Omega} f(x_1,x_2)e_n^{\\frac{h}{2}p+1}(x_1,x_2) dx_1 dx_2 + \\int_{\\Gamma_R} g(x_1,x_2) e_n^{\\frac{h}{2}p+1}(x_1,x_2) ds \\).\nBaza \\( \\{ e^{\\frac{h}{2}p+1}_i \\}_{i=1,...,N^{\\frac{h}{2}p+1}} \\) przestrzeni aproksymacyjnej \\( V_{hp} \\) uzyskana jest poprzez sumowanie funkcji kształtu z przestrzeni \\( X\\left(K\\right) = {\\cal P}(T_{\\frac{h}{2}p+1},X(K)) \\) dla poszczególnych elemetów z siatki \\( T_{\\frac{h}{2}p+1} \\) w globalne funkcje bazowe.\n\n"}]} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 748, "subject": "Algorytm adaptacyjny", "paragraphs": [], "definitions": [{"name": "Definicja 1: Funkcja interpolująca uzyskana poprzez projekcję w jednym wymiarze", "content": "\nNiech \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) będzie siatką obliczeniową.\nNiech \\( V_{hp} \\subset V_{\\frac{h}{2}p+1} \\subset V \\) będą przestrzeniami aproksymacyjnymi na siatce obliczeniowej i odpowiadającej jej siatce referencyjnej.\nNiech \\( V_w \\) będzie przestrzenią aproksymacyjną pośrednią \\( V_{hp} \\subset V_w \\subset V_{\\frac{h}{2}p+1} \\).\nNiech \\( K\\in T_{hp} \\) będzie elementem skończonym na siatce obliczeniowej.\nNiech \\( u_{hp} \\in V_{hp}, u_{\\frac{h}{2}p+1} \\in V_{\\frac{h}{2}p+1} \\) będą rozwiązaniami na siatce obliczeniowej i referencyjnej. Funkcją interpolującą \\( w \\in V_w \\) na elemencie \\( K \\) uzyskaną poprzez projekcję z rozwiązania na siatce referencyjnej \\( u_{\\frac{h}{2}p+1}\\in V_{\\frac{h}{2}p+1} \\) nazywamy \\( w \\) uzyskane poprzez następującą procedurę\n\nInterpolacja w węzłąch wierzchołkowych elementu \\( w(a_i)=u_{\\frac{h}{2}p+1}(a_i), i=1,2 \\)\nProjekcja na węzłach wewnętrznych \\( \\| w' - u_{\\frac{h}{2}p+1}' \\|_{L^2(a_3)} \\rightarrow min \\) gdzie \\( \\| \\cdot \\|_{L^2(a_3)} \\) oznacza normę nad wnętrzem elementu\n"}, {"name": "Definicja 2: Funkcja interpolująca uzyskana poprzez projekcję w dwóch wymiarach", "content": "\nNiech \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) będzie siatką obliczeniową.\nNiech \\( V_{hp} \\subset V_{\\frac{h}{2}p+1} \\subset V \\) będą przestrzeniami aproksymacyjnymi na siatce obliczeniowej i odpowiadającej jej siatce referencyjnej.\nNiech \\( V_w \\) będzie przestrzenią aproksymacyjną pośrednią \\( V_{hp} \\subset V_w \\subset V_{\\frac{h}{2}p+1} \\).\nNiech \\( K\\in T_{hp} \\) będzie elementem skończonym na siatce obliczeniowej.\nNiech \\( u_{hp} \\in V_{hp}, u_{\\frac{h}{2}p+1} \\in V_{\\frac{h}{2}p+1} \\) będą rozwiązaniami na siatce obliczeniowej i referencyjnej. Funkcją interpolującą \\( w \\in V_w \\) na elemencie \\( K \\) uzyskaną poprzez projekcję z rozwiązania na siatce referencyjnej \\( u_{\\frac{h}{2}p+1}\\in V_{\\frac{h}{2}p+1} \\) nazywamy \\( w \\) uzyskane poprzez następującą procedurę\n\nInterpolacja w węzłąch wierzchołkowych elementu \\( w(a_i)=u_{\\frac{h}{2}p+1}(a_i), i=1,2,3,4 \\)\nProjekcja na węzłach krawędziowych \\( \\| \\nabla w \\cdot e - \\nabla u_{\\frac{h}{2}p+1} \\cdot e \\|_{L^2(a_j)} \\rightarrow min, j=5,6,7,8 \\) gdzie \\( \\nabla w \\cdot e \\) oznacza pochodną kierunkową w kierunku równoległym do krawędzi, oraz \\( \\| \\cdot \\|_{L^2(a_j)} \\) oznacza normę nad krawędzią elementu\nProjekcja na węzłach wewnętrznych \\( \\| \\nabla w - \\nabla u_{\\frac{h}{2}p+1} \\|_{L^2(a_9)} \\rightarrow min \\) gdzie \\( \\| \\cdot \\|_{L^2(a_j)} \\) oznacza normę nad wnętrzem elementu\n"}, {"name": "Definicja 3: Optymalna rozszerzona przestrzeń aproksymacyjna", "content": "\nNiech \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) będzie siatką obliczeniową.\nNiech \\( V_{hp} \\subset V_{\\frac{h}{2}p+1} \\subset V \\) będą przestrzeniami aproksymacyjnymi na siatce obliczeniowej i odpowiadającej jej siatce referencyjnej.\nNiech \\( u_{hp} \\in V_{hp}, u_{\\frac{h}{2}p+1} \\in V_{\\frac{h}{2}p+1} \\) będą rozwiązaniami na siatce obliczeniowej i referencyjnej.\nPrzestrzeń aproksymacyjną \\( V_{opt} \\) nazywamy optymalną rozszerzoną przestrzenią aproksymacyjną nad siatką obliczeniową, jeśli na każdym elemencie \\( K \\) funkcja interpolująca \\( w_{opt} \\) uzyskana poprzez projękcję rozwiązania na siatce referencyjnej \\( u_{\\frac{h}{2}p+1} \\in V_{\\frac{h}{2}p+1} \\) spełnia następujące minimum\n \\( \\frac{| u_{\\frac{h}{2}p+1} - u_{hp} |_{H^1(K)}-| u_{\\frac{h}{2}p+1} - w_{opt} |_{H^1(K)} } {\\Delta nrdof (V_{hp},V_{opt},K) } = max_{V_{hp} \\subset V_w \\subset V_{\\frac{h}{2}}p+1} \\frac{| u_{\\frac{h}{2}p+1} - u_{hp} |_{H^1(K)}-| u_{\\frac{h}{2}p+1} - w |_{H^1(K)} } {\\Delta nrdof (V_{hp},V_w,K) } \\)\ngdzie \\( \\| \\cdot \\|_{H^1(K)} \\) oznacza normę \\( H^1 \\) nad wnętrzem elementu, \\( w \\) to funkcja interpolująca uzyskana przez projekcję, \\( u_{\\frac{h}{2}p+1} \\in V_{\\frac{h}{2}p+1} \\) na \\( V_w \\) na elemencie \\( K \\), oraz \\( \\Delta nrdof (V_{hp},V_w,K) \\) oznacza liczbę niewiadomych koniecznych do dodania do przestrzeni aproksymacyjnej na siatce obiczeniowej w celu rozszerzenia jej do przestrzeni \\( V_w \\) nad elementem \\( K \\).\n\n"}, {"name": "Definicja 4: Błąd względny na siatce obliczeniowej", "content": "\nNiech \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) będzie siatką obliczeniową.\nNiech \\( V_{hp} \\subset V_{\\frac{h}{2}p+1} \\subset V \\) będą przestrzeniami aproksymacyjnymi na siatce obliczeniowej i odpowiadającej jej siatce referencyjnej.\nNiech \\( u_{hp} \\in V_{hp}, u_{\\frac{h}{2}p+1} \\in V_{\\frac{h}{2}p+1} \\) będą rozwiązaniami na siatce obliczeniowej i referencyjnej.\nBłędem względnym rozwiązania na siatce obliczeniowej dany jest wzorem\n \\( err\\_rel (u_{hp}) = \\frac{ \\|u_{\\frac{h}{2}p+1}-u_{hp}\\|_{H^1(\\Omega)} }{ \\|u_{\\frac{h}{2}p+1}\\|_{H^1(\\Omega)} } \\)\n\n"}]} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 749, "subject": "Zbieżność metody elementów skończonych", "paragraphs": ["Poniższe trzy lematy mają następujące zastosowania. Lemat Laxa-Milgrama oraz bardziej ogólny Warunek infimum-supremum służą do sprawdzania czy dane sformułowanie słabe posiada jednoznaczne rozwiązanie. Lemat Cea z kolei pozwala na oszacowanie błędu rozwiązania i tempa zbieżności dla metody elementów skończonych.", "Dla bardziej skomplikowanych przypadków form sformułowania słabego \\( B(u,v)=L(v)-B(\\hat{u},v) \\quad \\forall v \\in V \\) zamiast Lematu Laxa-Milgrama stosuje się Lemat Babuśki równoważny Lematowi Brezzi [1].", "Znaczenie Lematu Cea jest następujące. W idealnym przypadku, odległość rozwiązania problemu metody elementów skończonych \\( u_{hp} \\in V_{hp} \\) na siatce obliczeniowej \\( T_{hp }=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) od rozwiązania problemu słabego \\( u \\in V \\) byłaby to minimalna odległość rozwiązania \\( u \\in V \\) problemu wariacyjnego od wszystkich elementów przestrzeni \\( V_h \\), w której szukamy rozwiązania problemu metody elementów skończonych. Byłoby tak, gdyby stała \\( \\frac{M}{\\alpha} =1 \\). Jest ona jednak \\( \\frac{M}{\\alpha} \\geq 1 \\). Oznacza to, że błąd, który popełniamy rozwiązując problem metodą elementów skończonych, obarczony jest po pierwsze błędem wynikającym z konstrukcji siatki obliczeniowej \\( T_{hp}=\\{ \\left(K, X\\left(K\\right), \\Pi_p \\right) \\}_K \\) (adaptacja siatki obliczeniowej zwiększa rozmiar przestrzeni \\( V_{hp} \\) i przybliża nasze rozwiązanie przybliżone \\( u_{hp} \\in V_{hp} \\) do rozwiązania idealnego \\( u \\in V \\)). Pozostały błąd wynika ze stosunku stałych \\( M \\) ciągłości i \\( {\\alpha} \\) koercywności funkcjonału dwuliniowego \\( B:V\\times V \\rightarrow {\\cal R} \\). Błąd ten można wyeliminować stosując metody stabilizacji opisane w stosownych modułach podręcznika."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Rozdział 8. Matematyczne sformułowanie metody elementów skończonych", "subject_id": 750, "subject": "Izogeometryczna metoda elementow skonczonych", "paragraphs": [], "definitions": [{"name": "Definicja 1: Jednowymiarowy izogeometryczny element skończony stopnia drugiego", "content": "Jednowymiarowym referencyjnym izogeometrycznym elementem skończonym stopnia drugiego nazywamy czwórkę\n \\( \\left( \\hat{K}, X\\left(\\hat{K}\\right), \\Pi_p \\right) \\)\nzdefiniowaną za pomocą następujących czterech kroków\n\nGeometria: \\( \\hat{K}=[0,1] \\subset {\\cal R} \\)\nWybór węzłów: \\( \\hat{a}_1, \\hat{a}_2 \\) węzły związane z wierzchołkami 0 i 1 elementu oraz \\( \\hat{a}_3 \\) węzeł związany z wnętrzem (0,1) elementu\nDefinicja funkcji kształtu elementu \\( X \\left( \\hat{K}\\right)=span \\{ \\hat{\\chi}_j \\in {\\cal P}^p\\left(\\hat{K}\\right),j=1,...,3 \\} \\) gdzie \\( {\\cal P}^p\\left(\\hat{K}\\right) \\) to wielomiany stopnia \\( p \\) określone na przedziale \\( \\hat{K} =(0,1) \\) oraz \\( \\hat{\\chi}_1(\\xi)=\\frac{1}{2}(1-\\xi)^2 \\), \\( \\hat{\\chi}_2(\\xi)=\\frac{1}{2}\\xi^2 \\), \\( \\hat{\\chi}_3(\\xi)=-\\xi^2+x+\\frac{1}{2} \\).\nDefinicja operatora interpolacji przez projekcję \\( \\Pi_p:H^1\\left( \\hat{K} \\right) \\rightarrow X\\left( \\hat{K}\\right) \\). Dla danej funkcji \\( u \\in H^1\\left(\\hat{K} \\right) \\), jej interpolant bazujący na projekcji to \\( \\Pi_pu\\in X\\left( \\hat{K}\\right) \\) jest zdefiniowany poprzez następujące warunki:\n \\( \\Pi_p u(\\hat{a}_1)=u(\\hat{a}_1) \\)\n \\( \\Pi_p u(\\hat{a}_2)=u(\\hat{a}_2) \\)\n \\( \\| \\left( \\Pi_p u \\right)' -u' \\|_{H^1(0,1)}\\rightarrow min \\)\ngdzie \\( \\| \\left( \\Pi_p u \\right)' -u' \\|_{H^1(0,1)} = \\int_0^1 \\left( \\left( \\Pi_p u \\right)' -u' \\right)^2 d\\xi \\) to norma w przestrzeni Sobolewa \\( H^1(0,1) \\).\n\n"}, {"name": "Definicja 2: Dwuwymiarowy izogeometryczny element skończony stopnia drugiego", "content": "Dwuwymiarowym referencyjnym izogeometrycznym elementem skończonym stopnia drugiego nazywamy czwórkę\n \\( \\left( \\hat{K}, X\\left(\\hat{K}\\right), \\Pi_p \\right) \\)\nzdefiniowaną za pomocą następujących czterech kroków\n\nGeometria: \\( \\hat{K}=[0,1]^2 \\subset {\\cal R}^2 \\)\nWybór węzłów: \\( \\hat{a}_1, \\hat{a}_2, \\hat{a}_3, \\hat{a}_4, \\) węzły związane z wierzchołkami elementu (0,0), (1,0), (1,1), (0,1), \\( \\hat{a}_5, \\hat{a}_6, \\hat{a}_7, \\hat{a}_8 \\) węzły związane z krawędziami elementu, oraz \\( \\hat{a}_9 \\) węzeł związany z wnętrzem elementu.\nDefinicja funkcji kształtu elementu \\( X \\left( \\hat{K}\\right)=span \\{ \\hat{\\chi}_j \\in {\\cal S}^{(2,2)}\\left(\\hat{K}\\right),j=1,...,9 \\} \\) gdzie \\( {\\cal S}^{(2,2)}\\left(\\hat{K}\\right) \\) to wielomiany stopnia drugiego względem zmiennej \\( \\xi_1 \\) oraz względem zmiennej \\( \\xi_2 \\), określone na \\( \\hat{K}=[0,1]^2 \\). Definiujemy funkcje kształtu \\( \\hat{\\phi}_1(\\xi_1,\\xi_2)=\\hat{\\chi}_1(\\xi_1)\\hat{\\chi}_1(\\xi_2) \\), \\( \\hat{\\phi}_2(\\xi_1,\\xi_2)=\\hat{\\chi}_2(\\xi_1)\\hat{\\chi}_1(\\xi_2) \\), \\( \\hat{\\phi}_3(\\xi_1,\\xi_2)=\\hat{\\chi}_2(\\xi_1)\\hat{\\chi}_2(\\xi_2) \\), \\( \\hat{\\phi}_3(\\xi_1,\\xi_2)=\\hat{\\chi}_1(\\xi_1)\\hat{\\chi}_2(\\xi_2) \\), \\( \\hat{\\phi}_{5,2}(\\xi_1,\\xi_2)=\\hat{\\chi}_{3}(\\xi_1)\\hat{\\chi}_1(\\xi_2) \\), \\( \\hat{\\phi}_{6,2}(\\xi_1,\\xi_2)=\\hat{\\chi}_2(\\xi_1)\\hat{\\chi}_{3}(\\xi_2) \\), \\( \\hat{\\phi}_{7}(\\xi_1,\\xi_2)=\\hat{\\chi}_{3}(\\xi_1)\\hat{\\chi}_2(\\xi_2) \\), \\( \\hat{\\phi}_{8}(\\xi_1,\\xi_2)=\\hat{\\chi}_1(\\xi_1)\\hat{\\chi}_{3}(\\xi_2) \\), \\( \\hat{\\phi}_{9}(\\xi_1,\\xi_2)=\\hat{\\chi}_{3}(\\xi_1)\\hat{\\chi}_{3}(\\xi_2) \\).\nDefinicja operatora interpolacji bazującego na projekcji \\( \\Pi_p:H^1\\left( \\hat{K} \\right) \\rightarrow X\\left( \\hat{K}\\right) \\). Dla danej funkcji \\( u \\in H^1\\left(\\hat{K} \\right) \\), jej interpolant bazujący na projekcji to \\( \\Pi_pu\\in X\\left( \\hat{K}\\right) \\) jest zdefiniowany poprzez następujące warunki:\n \\( \\Pi_p u(0,0)=u(0,0) \\)\n \\( \\Pi_p u(1,0)=u(1,0) \\)\n \\( \\Pi_p u(0,1)=u(0,1) \\)\n \\( \\Pi_p u(1,1)=u(1,1) \\)\n \\( \\| \\left( \\Pi_p u \\right)' -u' \\|_{H^1(\\hat{K})}\\rightarrow min \\)\ngdzie \\( \\| \\left( \\Pi_p u \\right)' -u' \\|_{H^1(\\hat{K})} = \\int_{\\hat{K}} \\left( \\left( \\Pi_p u \\right)' -u' \\right)^2 d\\xi_1d\\xi_2 \\) to seminorma w przestrzeni Sobolewa \\( H^1(\\hat{K}) \\).\n\n"}]} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "", "subject_id": 739, "subject": "Przyszłość metody elementów skończonych", "paragraphs": ["Wśród aktualnych (na koniec roku 2019) trendów dotyczących dalszego rozwoju metody elementów skończonych wyróżnić można:", "Metoda elementów skończonych jest narzędziem do wykonywania symulacji. Jak wiele narzędzi, może zostać wykorzystana w rozmaity sposób. Jest narzędziem potężnym, potrafiącym modelować rzeczywistość i zmieniać świat, w którym żyjemy. Pamiętajmy zawsze o etycznych przesłaniach wynikających z naszych wyborów i celów do których dążymy, szczególnie jeśli mamy w ręku tak potężne narzędzia."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1274, "subject": "Załącznik 1", "paragraphs": ["Dwa kody MATLABa obliczające izogeometryczną L2 projekcję bitmapy (zob. rozdział Implementacja w MATLABie problemu projekcji bitmapy )", "KOD 1", "KOD 2", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1282, "subject": "Załącznik 2", "paragraphs": ["Kod w MATLABie obliczający i rysujący funkcje bazowe B-spline na podstawie zadanego wektora węzłów (zob. rozdział Implementacja w MATLABie generacji funkcji bazowych na podstawie wektora węzłów )", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1283, "subject": "Załącznik 3", "paragraphs": ["Kod MATLABa obliczający problem transportu ciepła na obszarze w kształcie litery L (zob. rozdział Implementacja w MATLABie problemu transportu ciepła )", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1279, "subject": "Załącznik 3A", "paragraphs": ["Kod MATLABa obliczający problem adwekcji-dyfuzji metodą Galerkina, dla modelowego problemu Erikksona-Johnsona (zob. rozdział Implementacja w MATLABie problemu adwekcji-dyfuzji metodą Galerkina )", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1278, "subject": "Załącznik 4", "paragraphs": ["Kod w MATLABie obliczający L2 projekcję bitmapy przy zastosowaniu izogeometrycznej metody elementów skończonych (zob. rozdział Implementacja w MATLABie algorytmu solwera zmienno-kierunkowego dla problemu projekcji bitmapy )", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1275, "subject": "Załącznik 4A", "paragraphs": ["Kod w Zadaniu 1: Projekcja terenu (zob. rozdział Implementacja w MATLABie algorytmu solwera zmienno-kierunkowego dla problemu projekcji bitmapy )", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1281, "subject": "Załącznik 5", "paragraphs": ["Kod MATLABa obliczający problem adwekcji-dyfuzji metodą elementów skończonych ze stabilizacją metodą Streamline Upwind Petrov-Galerkin (SUPG) (zob. rozdział Implementacja w MATLABie problemu adwekcji-dyfuzji ze stabilizacją metodą SUPG )", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1276, "subject": "Załącznik 5A", "paragraphs": ["Kod MATLABa obliczający problem adwekcji-dyfuzji metodą elementów skończonych ze stabilizacją metodą minimalizacji reziduum, dla modelowego problemu Erikksona-Johnsona (zob. rozdział Implementacja w MATLABie problemu adwekcji-dyfuzji za stabilizacją metodą minimalizacji reziduum )", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1277, "subject": "Załącznik 6", "paragraphs": ["Kod w MATLABie obliczający L2 projekcję bitmapy z zastosowaniem adaptacyjnej metody elementów skończonych (zob. rozdział Implementacja w MATLABie adaptacyjnego algorytmu projekcji bitmapy )", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Informatyka", "coursebook": "Klasyczna i izogeometryczna metoda elementów skończonych", "chapter": "Załączniki", "subject_id": 1280, "subject": "Załącznik 7", "paragraphs": ["Kod MATLABa wykonujący symulacje dla schematu alfa dla dwuwymiarowego problemu transportu ciepła (zob. rozdział Implementacja w MATLABie schematu alpha dla problemu transportu ciepła )", "Autorzy kodów w MATLABie: Marcin Łoś i Maciej Woźniak."], "definitions": []} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 39, "subject": "Liczby zespolone", "paragraphs": ["Geometrycznie liczbę zespoloną \\( z=(x,y) \\) interpretujemy jako wektor zaczepiony w punkcie \\( (0,0) \\) o końcu w punkcie \\( (x,y) \\).", "W tej interpretacji w naturalny sposób zobrazujemy dodawanie liczb zespolonych jako dodawanie wektorów:", "Zbiór liczb zespolonych możemy również interpretować jako zbiór punktów na płaszczyźnie.", "W tej interpretacji naturalnym staje się określenie równości liczb zespolonych. Otóż dwie liczby zespolone \\( z_{1}=(x_{1},y_{1}) \\) oraz \\( z_{2}=(x_{2},y_{2}) \\)) są równe, jeżeli \\( x_{1}=x_{2} \\) oraz \\( y_{1}=y_{2} \\). Zbiór wszystkich liczb zespolonych na płaszczyźnie (wektorów lub punktów) nazywamy płaszczyzną zespoloną (lub płaszczyzną Gaussa).", "W zbiorze liczb zespolonych rozważmy podzbiór \\( \\{ (x,0): x\\in\\mathbb{R} \\} \\) składający się z liczb zespolonych leżących na osi odciętych OX. Zauważmy, że liczby tej postaci mają następujące własności:", "Dzięki temu możemy utożsamić zbiór liczb zespolonych postaci \\( \\{(x,0): x\\in\\mathbb{R}\\} \\) ze zbiorem liczb rzeczywistych i parę \\( (x,0) \\) zapisywać po prostu jako \\( x \\). Oś \\( OX \\) będziemy wówczas nazywać osią rzeczywistą. Wyróżnijmy teraz jednostkę na osi \\( OY \\), tj. liczbę zespoloną postaci \\( (0,1) \\).", "Zauważmy, że", "Powyższy fakt, niemożliwy dla liczb rzeczywistych, tłumaczy nazwę \"jednostka urojona\". Oś \\( OY \\), której wersorem jest jednostka urojona, będziemy nazywać osią urojoną.", "Niech \\( z=(x,y) \\) będzie liczbą zespoloną. Współrzędna \\( x \\) liczby \\( z \\) jest określona względem osi rzeczywistej \\( OX \\), dlatego mówimy, że jest to część rzeczywista liczby z. Z kolei współrzędna \\( y \\) liczby \\( z \\) jest określona względem osi urojonej \\( OY \\) i dlatego nosi nazwę części urojonej liczby z. Dla liczby zespolonej \\( z=(x,y) \\) wprowadzamy oznaczenia", "od łacińskiego słowa realis( \\( z \\)) oznaczającego część rzeczywistą liczby \\( z \\) oraz", "od łacińskiego imaginarius( \\( z \\)) oznaczającego część urojoną liczby \\( z \\)."], "definitions": [{"name": "Definicja 1: Zbiór liczb zespolonych", "content": "\nZbiór \\( \\mathbb{C}= \\left\\{ (x,y) : x,y\\in\\mathbb{R} \\right\\} \\) z działaniami \\( + \\) i \\( \\cdot \\) określonymi jako\n\n \\( (x_{1},y_{1})+(x_{2},y_{2})=(x_{1}+x_{2},y_{1}+y_{2}), \\)\n \\( (x_{1},y_{1})\\cdot (x_{2},y_{2})=(x_{1}\\cdot x_{2}-y_{1}\\cdot y_{2},x_{1}\\cdot y_{2}+x_{2}\\cdot y_{1}). \\)\nnazywamy zbiorem liczb zespolonych, a jego elementy liczbami zespolonymi.\n\n"}, {"name": "Definicja 2:", "content": "Liczbę \\( i=(0,1) \\) nazywamy jednostką urojoną.\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 40, "subject": "Postać algebraiczna liczby zespolonej", "paragraphs": ["Niech \\( z=x+iy \\) będzie liczbą zespoloną w postaci algebraicznej. Przypomnijmy, że liczbę \\( x \\) nazywamy częścią rzeczywistą liczby \\( z \\) i oznaczamy sybolem \\( \\mathfrak{Re}z \\), zaś liczbę \\( y \\) nazywamy częścią urojoną liczby \\( z \\) i oznaczamy symbolem \\( \\mathfrak{Im}z \\).", "Niech \\( z_{1}=(x_{1},y_{1}) \\) oraz \\( z_{2}=(x_{2},y_{2}) \\) będą liczbami zespolonymi. Liczby \\( z_{1} \\) i \\( z_{2} \\), jako uporządkowane pary punktów, są równe wtedy i tylko wtedy, gdy \\( x_{1}=x_{2} \\) oraz \\( y_{1}=y_{2} \\). Stąd, zapisując liczby \\( z_{1} \\) i \\( z_{2} \\) w postaci algebraicznej jako \\( z_{1}=x_{1}+iy_{1} \\) oraz \\( z_{2}=x_{2}+iy_{2} \\) otrzymujemy, że \\( z_{1}=z_{2} \\) wtedy i tylko wtedy, gdy \\( \\mathfrak{Re}z_{1}=\\mathfrak{Re}z_{2} \\) oraz \\( \\mathfrak{Im}z_{1}=\\mathfrak{Im}z_{2} \\).", "Postać kanoniczna liczby zespolonej umożliwia dodawanie i mnożenie liczb zespolonych tak samo jak wielomianów, tzn. podobny do podobnego (dla dodawania) i każdy z każdym (dla mnożenia), w przypadku mnożenia pamiętając o warunku \\( i^{2}=-1 \\). Przy dzieleniu przez liczbę zespoloną \\( z=x+iy \\) mnożymy dzielną i dzielnik przez \\( x-iy \\), otrzymując w mianowniku liczbę rzeczywistą."], "definitions": [{"name": "Definicja 1: Postać algebraiczna liczby zespolonej", "content": "\nNiech \\( z=(x,y) \\), gdzie \\( x,y\\in\\mathbb{R} \\) będzie dowolną liczbą zespoloną. Zauważmy, że liczbę \\( z \\) możemy zapisać następująco:\n\n \\( z=(x,y)=(x,0)+(0,y)=(x,0)+(y,0)\\cdot (0,1). \\)\nWówczas oznaczając \\( x=(x,0) \\), \\( y=(y,0) \\) oraz \\( i=(0,1) \\) otrzymujemy postać algebraiczną (Hamiltona, kanoniczną) liczby zespolonej \\( z \\)\n\n \\( z=x+iy. \\)\n"}, {"name": "Definicja 2: Sprzężenie liczby zespolonej", "content": "Niech \\( z=x+iy \\), gdzie \\( x,y\\in\\mathbb{R} \\). Sprzężeniem liczby \\( z \\) nazywamy liczbę \\( \\bar{z} \\) daną wzorem\n \\( \\bar{z}=x-iy. \\)\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 41, "subject": "Moduł i argument liczby zespolonej", "paragraphs": ["Innym, powszechnie stosowanym oznaczeniem modułu liczby zespolonej \\( z \\) jest symbol \\( r=|z| \\).", "Geometrycznie moduł liczby zespolonej \\( z \\) to odległość tej liczby od początku układu współrzędnych.", "Powyższą interpretację możemy rozszerzyć na dwie dowolne liczby zespolone. Niech mianowicie \\( z_{0}=x_{0}+iy_{0} \\) oraz \\( z=x+iy \\) będą dwiema liczbami zespolonymi. Wówczas \\( z-z_{0}=(x-x_{0})+i(y-y_{0}) \\) oraz \\( \\mathfrak{Re}z=x-x_{0} \\), \\( \\mathfrak{Im}z=y-y_{0} \\). Mamy", "Zauważmy, że wyrażenie po prawej stronie równości jest zwykłą odległością euklidesową punktu \\( (x,y) \\) od punktu \\( (x_{0},y_{0}) \\). Zatem dla dowolych liczb zespolonych \\( z,z_{0}\\in\\mathbb{C} \\) moduł ich różnicy \\( |z-z_{0}| \\) oznacza odległość \\( z \\) od \\( z_{0} \\) na płaszczyźnie zespolonej.", "Przyjmujemy, że argumentem liczby zespolonej \\( z=\\mathbf{0} \\) jest dowolna liczba rzeczywista \\( \\varphi\\in\\mathbb{R} \\), zaś argumentem głównym dla \\( z=\\mathbf{0} \\) jest \\( \\varphi=0 \\). Argument liczby \\( z \\) oznaczamy symbolem \\( \\mathrm{arg}z \\), zaś argument główny symbolem \\( \\mathrm{Arg}z \\). Mamy zatem", "Geometrycznie argument liczby zespolonej \\( z \\) to kąt skierowany, jaki tworzy wektor \\( \\vec{\\mathbf{0}z} \\) z dodatnią półosią osi rzeczywistej \\( \\mathfrak{Re}z \\).", "Łatwo zauważyć, że dla liczby zespolonej \\( z=x+iy \\), podanie jej modułu \\( r=|z| \\) i argumentu \\( \\varphi=\\mathrm{Arg}z \\) jest opisem położenia liczby \\( z \\) względem bieguna w punkcie \\( \\mathbf{0} \\) oraz półosi dodatniej jako półosi biegunowej."], "definitions": [{"name": "Definicja 1: Moduł liczby zespolonej", "content": "Niech \\( z=x+iy \\), gdzie \\( x,y\\in\\mathbb{R} \\), będzie dowolną liczbą zespoloną. Modułem liczby \\( z \\) nazywamy liczbę rzeczywistą \\( |z| \\) daną wzorem\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( |z|=\\sqrt{x^{2}+y^{2}}. \\)\n\n"}, {"name": "Definicja 2: Argument liczby zespolonej", "content": "Niech \\( z=x+iy \\), gdzie \\( x,y\\in\\mathbb{R} \\), będzie liczbą zespoloną różną od zera. Argumentem liczby \\( z \\) nazywamy każdą liczbę rzeczywistą \\( \\varphi \\), spełniającą warunki:\n\n\t\t\t\t\t(1)\n\n\t\t\t\t\t\t\t\t\\( \\begin{cases} \\cos \\varphi&=&\\frac{x}{|z|},\\\\ \\sin \\varphi&=&\\frac{y}{|z|}. \\end{cases} . \\)\n\nArgumentem głównym liczby \\( z \\) nazywamy ten argument, który należy do przedziału \\( \\lbrack 0,2\\pi) \\)."}, {"name": "Definicja 3: Biegunowy układ współrzędnych", "content": "\nDla ustalenia położenia punktu na płaszczyźnie można wprowadzić biegunowy układ odniesienia. W biegunowym układzie odniesienia wyróżniamy pewien punkt płaszczyzny, nazywany biegunem płaszczyzny oraz pewną wyróżnioną półprostą poprowadzoną z bieguna, nazywaną półosią biegunową. Wówczas położenie dowolnego punktu płaszczyzny określamy poprzez podanie odległości \\( r \\) tego punktu od bieguna oraz określenie kąta skierowanego \\( \\varphi \\) pomiędzy półosią biegunową a półprostą o początku w biegunie i przechodzącą przez dany punkt (tzw. promieniem wodzącym tego punktu)."}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 42, "subject": "Postać trygonometryczna liczby zespolonej", "paragraphs": ["Niech \\( z=x+iy \\) będzie dowolną, różną od \\( \\mathbf{0} \\) liczbą zespoloną. Zauważmy, że liczbę \\( z \\) możemy zapisać w postaci", "Łatwo również zauważyć, że liczba \\( \\sqrt{x^{2}+y^{2}} \\) określa moduł \\( r=|z| \\), zaś wielkości \\( \\frac{x}{\\sqrt{x^{2}+y^{2}}} \\) i \\( \\frac{y}{\\sqrt{x^{2}+y^{2}}} \\) stanowią odpowiednio \\( \\cos \\varphi \\) i \\( \\sin \\varphi \\), gdzie \\( \\varphi=\\mathrm{arg}z \\).", "Zatem dowolną liczbę zespoloną \\( z \\) (również \\( z=\\mathbf{0} \\)) można zapisać w postaci", "Z określenia postaci trygonometrycznej liczby zespolonej łatwo wynika, że aby tę postać uzyskać wystarczy obliczyć moduł oraz jeden z argumentów danej liczby zespolonej.", "Warto podkreślić, że przedstawienie liczby zespolonej w postaci trygonometrycznej nie jest jednoznaczne. Wynika to z faktu, że dla danej liczby zespolonej, zbiór jej argumentów jest nieskończony. W szczególności w powyższym przykładzie moglibyśmy napisać \\( z=\\sqrt{2}\\left(\\cos(- \\frac{3}{4}\\pi)+i\\sin (-\\frac{3}{4}\\pi)\\right) \\) gdyż, jak łatwo sprawdzić, również kąt \\( \\left(-\\frac{3}{4}\\pi\\right) \\) spełnia układ ( 1 ).", "A zatem, przy mnożeniu liczb zespolonych w postaci trygonometrycznej ich moduły się mnoży, a argumenty dodaje.", "Zatem przy dzieleniu liczb zespolonych w postaci trygonometrycznej ich moduły się dzieli, a argumenty odejmuje."], "definitions": [{"name": "Definicja 1:", "content": " Powyższe przedstawienie liczby \\( z \\) nazywamy jej postacią trygonometryczną .\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 43, "subject": "Postać wykładnicza liczby zespolonej", "paragraphs": ["Wprost z definicji wynika, że \\( |e^{i\\varphi}|=1 \\) oraz \\( \\mathrm{arg}(e^{i\\varphi})=\\varphi+2k\\pi \\) dla \\( k\\in\\mathbb{Z} \\).", "Warto zapamiętać, że podobnie jak w przypadku postaci trygonometrycznej, zapis liczby zespolonej w postaci wykładniczej nie jest jednoznaczny. Wynika to z faktu, że dowolna liczba zespolona ma nieskończenie wiele argumentów.", "Przy pomocy liczby \\( e^{i\\varphi}=\\cos \\varphi+i\\sin \\varphi \\) wyrażamy cosinus i sinus kąta \\( \\varphi \\). Mamy mianowicie", "Warto wspomnieć w tym miejscu o jeszcze jednym wzorze, również nazywanym wzorem Eulera lub tożsamością Eulera. Przedstawiając mianowicie liczbę \\( -1 \\) w postaci wykładniczej, tj. jako \\( -1=e^{i\\pi} \\), otrzymujemy wzór łączący pięć najważniejszych stałych matematycznych:", "Przez wielu, wzór ten uważany jest za najpiękniejszy wzór matematyczny."], "definitions": [{"name": "Definicja 1: Symbol \\( e^{i\\varphi} \\)", "content": " Niech \\( \\varphi\\in\\mathbb{R} \\). Symbolem \\( e^{i\\varphi} \\)oznaczamy liczbę zespoloną \\( \\cos\\varphi+i\\sin\\varphi \\). Mamy zatem\n \\( e^{i\\varphi}=\\cos\\varphi+i\\sin\\varphi . \\)\n"}, {"name": "Definicja 2: Postać wykładnicza liczby zespolonej", "content": "Każdą liczbę zespoloną \\( z \\) można zapisać w postaci\n \\( z=re^{i\\varphi}, \\)\ngdzie \\( r \\) oznacza moduł, zaś \\( \\varphi\\in\\mathbb{R} \\) jest argumentem liczby \\( z \\).\nPostać \\( z=re^{i\\varphi} \\) nazywamy postacią wykładniczą liczby zespolonej.\n\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 44, "subject": "Pierwiastki z liczby zespolonej", "paragraphs": ["Podkreślmy, że symbol \\( \\sqrt[n]{r} \\) występujący w powyższym wzorze oznacza \"zwykły\" pierwiastek arytmetyczny stopnia \\( n \\) z liczby rzeczywistej \\( r \\), jest zatem określony jednoznacznie.", "Warto zapamiętać, że w interpretacji geometrycznej wszystkie pierwiastki zespolone stopnia \\( n \\) z liczby \\( z=r(\\cos\\varphi+\\mathrm{i}\\sin\\varphi) \\) leżą na okręgu o środku w punkcie \\( (0,0) \\) i promieniu \\( \\sqrt[n]{r} \\), w punktach będących wierzchołkami \\( n \\)-kąta foremnego wpisanego w ten okrąg. Warto także zaznaczyć, że zbiór pierwiastków z liczby zespolonej \\( z \\) nie zależy od wyboru argumentu tej liczby.", "Bywa, że łatwo jest odgadnąć jeden z pierwiastków z danej liczby zespolonej. Przykładowo liczba \\( w_{0}=1 \\) jest jednym z pierwiastków (dowolnego stopnia) z liczby \\( z=1 \\). W takiej sytuacji do obliczenia pozostałych pierwiastków wygodnie jest zastosować następujące twierdzenie:"], "definitions": [{"name": "Definicja 1: Pierwiastek z liczby zespolonej", "content": "Niech \\( n \\) będzie liczbą naturalną. Pierwiastkiem stopnia \\( n \\) z liczby zespolonej \\( z \\) nazywamy każdą liczbę zespoloną \\( w \\) spełniającą warunek\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( w^{n}=z \\)\n\n\t\t\t\t\t\nSymbolem \\( \\sqrt[n]{z} \\) oznaczamy zbiór pierwiastków \\( n \\)-tego stopnia z liczby zespolonej \\( z \\). "}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 45, "subject": "Równania w zbiorze liczb zespolonych", "paragraphs": ["Pojęcie pierwiastka stopnia \\( n \\) z liczby zespolonej \\( z \\) różni się istotnie od pojęcia pierwiastka stopnia \\( n \\) z liczby rzeczywistej. Zatem prawa potęg analogiczne jak w zbiorze liczb rzeczywistych, w dziedzinie zespolonej dotyczą tylko wykładników całkowitych, ale nie wymiernych."], "definitions": []} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 46, "subject": "Zbiory liczb zespolonych - interpretacja geometryczna", "paragraphs": ["Rozpoczniemy od interpretacji geometrycznej liczb zespolonych w postaci algebraicznej.", "Bardzo ważna jest umiejętność interpretacji geometrycznej równań i nierówności z modułem i argumentem liczby zespolonej."], "definitions": []} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 47, "subject": "Działania na macierzach", "paragraphs": ["Macierz o \\( m \\) wierszach i \\( n \\) kolumnach nazywamy macierzą wymiaru \\( m \\times n \\).", "Macierz wymiaru \\( m\\times n \\) utworzoną z elementów \\( a_{ij} \\) oznaczamy również symbolem \\( A=(a_{ij})_{m\\times n} \\). W przypadku, gdy wymiar macierzy jasno wynika z kontekstu, stosujemy zapis \\( A=(a_{ij}) \\). Macierz, której wszystkie elementy są równe \\( 0 \\) nazywamy macierzą zerową i oznaczamy symbolem \\( \\mathbb{O}. \\)", "Zbiór macierzy wymiaru \\( m\\times n \\) o elementach ze zbioru liczb rzeczywistych oznaczamy symbolem \\( \\mathbb{R}^{m\\times n} \\), natomiast dla oznaczenia zbioru macierzy o elementach ze zbioru liczb zespolonych stosujemy zapis \\( \\mathbb{C}^{m\\times n} \\).", "Wprost z definicji wynika, że dodawać i odejmować możemy tylko macierze takich samych wymiarów.", "Zgodnie z definicją iloczyn macierzy \\( A\\cdot B \\) jest określony wtedy i tylko wtedy, gdy liczba kolumn macierzy \\( A \\) jest równa liczbie wierszy macierzy \\( B \\). Otrzymana macierz \\( A\\cdot B \\) ma tyle wierszy, co macierz \\( A \\) i tyle kolumn, co macierz \\( B \\). Mnożąc macierze trzeba pamiętać, że działanie to nie jest przemienne.", "Do mnożenia macierzy wygodnie jest stosować następujący schemat, zwany schematem Falka, polegający na odpowiednim ułożeniu mnożonych macierzy. Mnożąc mianowicie macierz \\( A \\) przez macierz \\( B \\) zapisujemy obie macierze w tabeli następująco", "przy czym symbolem \\( C \\) oznaczamy, jak w definicji, iloczyn \\( A\\cdot B \\). Następnie mnożymy kolejne elementy pierwszego wiersza macierzy \\( A \\) przez kolejne elementy pierwszej kolumny macierzy \\( B \\), otrzymane iloczyny sumujemy i zapisujemy wynik w lewym górnym rogu pola oznaczonego jako \\( C, \\) tj. w miejscu elementu \\( c_{11} \\). Podobnie mnożymy kolejne elementy pierwszego wiersza macierzy \\( A \\) przez kolejne elementy drugiej kolumny macierzy \\( B \\), sumujemy otrzymane iloczyny i zapisujemy wynik w miejscu elementu \\( c_{12} \\) itd."], "definitions": [{"name": "Definicja 1: Macierz", "content": "Macierzą rzeczywistą (zespoloną) o \\( m \\) wierszach i \\( n \\) kolumnach oraz elementach \\( a _ {ij} \\), gdzie \\( 1 \\leq i \\leq m \\), \\( 1\\leq j \\leq n \\) nazywamy prostokątną tablicę liczb rzeczywistych (zespolonych)\n\n\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( A= \\left(\\begin{array}{cccc}a_ {11} & a_ {12} & \\ldots & a_ {1n} \\\\ a_ {21} & a_ {22} & \\ldots & a_ {2n} \\\\ \\vdots & \\vdots & \\ddots & \\vdots \\\\ a_ {m1} & a_ {m2} & \\ldots & a_ {mn} \\end{array}\\right). \\)\n\n\n"}, {"name": "Definicja 2: Suma i różnica macierzy", "content": " Niech \\( A=(a_{ij})_{m\\times n} \\) i \\( B=(b_{ij})_{m\\times n} \\) będą macierzami wymiaru \\( m\\times n \\).\n Sumą macierzy \\( A \\) i \\( B \\) (ozn. \\( (A+B) \\) nazywamy macierz \\( C=(c_{ij})_{m\\times n} \\) taką, że każdy element macierzy \\( C \\) jest sumą odpowiednich elementów macierzy \\( A \\) i \\( B \\) tj. dla każdej pary \\( (ij) \\), gdzie \\( 1\\leq i\\leq m \\), \\( 1\\leq j \\leq n \\) zachodzi równość \\( c_{ij}=a_{ij}+b_{ij}. \\)\n Różnicą macierzy \\( A \\) i \\( B \\) (ozn. \\( A-B \\)) nazywamy macierz \\( C=(c_{ij})_{m\\times n} \\) taką, że każdy element macierzy \\( C \\) jest różnicą odpowiednich elementów macierzy \\( A \\) i \\( B \\) tj. dla każdej pary \\( (ij) \\), gdzie \\( 1\\leq i\\leq m \\), \\( 1\\leq j \\leq n \\) zachodzi równość \\( c_{ij}=a_{ij}-b_{ij}. \\)\n"}, {"name": "Definicja 3: Mnożenie macierzy przez liczbę", "content": " Niech \\( \\alpha \\) będzie liczbą rzeczywistą lub zespoloną i niech \\( A=(a_{ij})_{m\\times n} \\). Iloczynem macierzy \\( A \\) i liczby \\( \\alpha \\), oznaczanym symbolem \\( \\alpha A \\), nazywamy macierz wymiaru \\( m\\times n \\), której elementy są równe \\( \\alpha \\cdot a_{ij} \\).\n"}, {"name": "Definicja 4: Iloczyn macierzy przez macierz", "content": " Rozważmy macierz \\( A=(a_{ij}) \\) wymiaru \\( m\\times k \\) oraz macierz \\( B=(b_{ij}) \\) wymiaru \\( k\\times n \\).\nIloczynem macierzy \\( A \\) i \\( B \\) (ozn. \\( A\\cdot B \\)) nazywamy macierz \\( C=(c_{ij}) \\) wymiaru \\( {m\\times n} \\), której element \\( c_{ij} \\) jest określony wzorem\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( c_{ij}=\\sum_{s=1}^{k}a_{is}b_{sj}, \\)\n\ndla \\( i=1,\\ldots, m \\), \\( j=1,\\ldots, n. \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 48, "subject": "Szczególne typy macierzy", "paragraphs": ["Macierz jednostkową stopnia \\( n \\) oznaczamy symbolem \\( I_{n} \\). Czasami, jeżeli nie ma wątpliwości co do wymiaru danej macierzy jednostkowej, pomijamy dolny indeks pisząc po prostu \\( I \\).", "Z definicji wynika, że macierz transponowana powstaje z macierzy wyjściowej poprzez zapisanie kolejno poszczególnych wierszy macierzy \\( A \\) jako kolejne kolumny macierzy \\( A^{T} \\).", "Z definicji wynika, że macierz kwadratowa jest symetryczna wtedy i tylko wtedy, gdy jej elementy leżące symetrycznie względem głównej przekątnej są sobie równe. Z kolei macierz kwadratowa jest antysymetryczna wtedy i tylko wtedy, gdy jej elementy leżące symetrycznie względem głównej przekątnej są liczbami wzajemnie przeciwnymi, zaś elementy na głównej przekątnej są równe \\( 0 \\)."], "definitions": [{"name": "Definicja 1: Macierz zerowa", "content": "Macierz, której wszystkie elementy są równe zero, nazywamy macierzą zerową. Macierz zerową oznaczamy symbolem \\( \\mathbb{O} \\).\n"}, {"name": "Definicja 2: Macierz kwadratowa, główna przekątna", "content": "\n Jeżeli liczba wierszy macierzy jest równa liczbie jej kolumn, to mówimy, że dana macierz jest kwadratowa. Jeżeli liczba wierszy i kolumn macierzy jest równa \\( n \\), to wówczas mówimy, że macierz jest stopnia \\( n \\).\n Główną przekątną macierzy kwadratowej \\( A=(a_{ij}) \\) stopnia \\( n \\) nazywamy zbiór elementów, dla których numer wiersza i numer kolumny są równe, tj. zbiór elementów \\( \\{a_{11},a_{22},\\ldots,a_{nn} \\} \\).\n"}, {"name": "Definicja 3: Macierz trójkątna górna, macierz trójkątna dolna", "content": "\n Macierzą trójkątną górną nazywamy macierz kwadratową, której wszystkie elementy leżące pod główną przekątną są równe zero.\nMacierzą trójkątną dolną nazywamy macierz kwadratową, której wszystkie elementy leżące nad główną przekątną są równe zero.\n"}, {"name": "Definicja 4: Macierz diagonalna", "content": "Macierzą diagonalną nazywamy macierz kwadratową, której wszystkie elementy leżące poza główną przekątną są równe zero. "}, {"name": "Definicja 5: Macierz jednostkowa", "content": "Macierzą jednostkową nazywamy macierz diagonalną, której wszystkie elementy leżące na głównej przekątnej są równe \\( 1 \\). "}, {"name": "Definicja 6: Macierz transponowana", "content": " Jeżeli \\( A=(a_{ij}) \\) jest macierzą wymiaru \\( m\\times n \\) to macierzą transponowaną do \\( A \\) lub transpozycją \\( A \\) nazywamy macierz \\( A^{T}=(a_{ij}^{T}) \\) wymiaru \\( n\\times m \\), której elementy wyrażają się wzorem \\( a_{ij}^{T}=a_{ji} \\)."}, {"name": "Definicja 7: Macierz symetryczna i macierz antysymetryczna", "content": "\n Macierz kwadratową \\( A \\) nazywamy symetryczną, jeżeli jest równa swojej macierzy transponowanej, tj. zachodzi warunek \\( A=A^{T} \\).\n Macierz kwadratową \\( A \\) nazywamy antysymetryczną, jeżeli \\( A^{T}=-A \\).\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 49, "subject": "Wyznacznik macierzy - definicja i własności", "paragraphs": ["Wyznacznik macierzy będziemy również oznaczać, stosując następujący zapis:", "Warto zapamiętać, że wyznaczniki liczymy tylko dla macierzy kwadratowych.", "W przypadku obliczania wyznaczników macierzy stopnia 2 można zastosować prostszą metodę mnożenia .", "W przypadku obliczania wyznaczników macierzy stopnia 3 można zastosować prostszą metodę tzw.", "Powyższy przykład ilustruje następujące", "Jest to podstawowy fakt z teorii macierzy, wyznaczników i układów równań liniowych. Stanowi on podstawę dla tzw. metody Gaussa."], "definitions": [{"name": "Definicja 1: Definicja wyznacznika", "content": "Z każdą macierzą kwadratową \\( A \\) związana jest liczba (rzeczywista lub zespolona) nazywana wyznacznikiem macierzy \\( A \\) , oznaczana symbolem \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\mathrm{det}A \\)\n\n\t\t\t\t\t. Wyznacznik definiujemy indukcyjnie, w następujący sposób:\n jeżeli macierz \\( A=(a_{11}) \\) jest stopnia \\( 1 \\), to \\( \\mathrm{det}A=a_{11}; \\) jeżeli macierz \\( A=(a_{ij}) \\) jest stopnia \\( n \\), gdzie \\( n> 1 \\), to\n\n\t\t\t\t\t\t\t\t\\( \\mathrm{det}A=\\mathrm{det}\\left( \\begin{array}{cccc} a_{11}&a_{12}&\\ldots&a_{1n}\\\\ a_{21}&a_{22}&\\ldots&a_{2n}\\\\ \\ldots&\\ldots&\\ddots&\\ldots\\\\ a_{n1}&a_{n2}&\\ldots&a_{nn} \\end{array} \\right)=\\sum_{i=1}^{n}(-1)^{i+1}a_{i1}\\mathrm{det}A_{i1}, \\)\n\n\t\t\t\t\t\ngdzie \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( A_{i1} \\)\n\n\t\t\t\t\t oznacza podmacierz stopnia \\( n-1 \\) otrzymaną z macierzy \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( A \\)\n\n\t\t\t\t\t poprzez skreślenie \\( i \\)-tego wiersza oraz pierwszej kolumny.\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 50, "subject": "Wyznaczniki macierzy stopni 2 i 3", "paragraphs": ["Obliczając wyznaczniki macierzy stopni \\( 2 \\) i \\( 3 \\) możemy, tak jak w przypadku wyznaczników wszystkich innych stopni, zastosować rozwinięcie Laplace'a względem dowolnie wybranego wiersza lub kolumny macierzy, jednak w przypadku tych dwóch szczególnych stopni istnieją prostsze metody obliczania wyznaczników.", "Do obliczania wyznaczników macierzy stopnia \\( 2 \\) stosujemy regułę:", "Do obliczania wyznaczników macierzy stopnia \\( 3 \\) stosuje się tzw. metodę Sarrusa, która polega na dopisaniu pod macierzą pierwszego i drugiego wiersza, a następnie obliczeniu sum iloczynów elementów wzdłuż linii kropkowanych i odjęciu sum iloczynów elementów wzdłuż linii ciągłych:", "Trzeba przy tym zapamiętać, że metodę Sarrusa stosujemy tylko do obliczania wyznaczników macierzy stopnia \\( 3 \\).", "Alternatywną wersją metody Sarrusa jest dopisanie do macierzy, której wyznacznik należy wyliczyć, zamiast pierwszego i drugiego wiersza, pierwszej i drugiej kolumny danej macierzy. Dalej metoda postępowania jest analogiczna."], "definitions": []} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 51, "subject": "Metoda Laplace'a obliczania wyznaczników", "paragraphs": ["Warto zwrócić uwagę, że zgodnie z powyższym twierdzeniem, wyznacznik macierzy jest równy rozwinięciu Laplace'a względem dowolnie wybranego wiersza bądź kolumny macierzy, podczas gdy definicja indukcyjna nakazuje wykonać rozwinięcie względem konkretnej (w tym przypadku pierwszej) kolumny macierzy.", "Niejednokrotnie przy obliczaniu wyznacznika wygodnie jest daną macierz przekształcić, stosując operacje nie mające wpływu na jej wyznacznik (zob.: twierdzenie Własności wyznacznika macierzy )."], "definitions": [{"name": "Definicja 1: Dopełnienie algebraiczne", "content": "Niech \\( A=(a_{ij}) \\) będzie macierzą kwadratową stopnia \\( n \\), gdzie \\( n\\geq 2 \\). Niech \\( A_{ij} \\) będzie podmacierzą stopnia \\( n-1 \\) powstałą z macierzy \\( A \\) poprzez skreślenie \\( i \\)-tego wiersza i \\( j \\)-tej kolumny. Liczbę\n \\( D_{ij}=(-1)^{i+j}\\mathrm{det}A_{ij} \\)\n\n\nnazywamy dopełnieniem algebraicznym elementu \\( a_{ij} \\) macierzy \\( A \\)."}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 52, "subject": "Macierz odwrotna", "paragraphs": ["Warto zapamiętać, że macierz odwrotna może istnieć tylko dla macierzy kwadratowej, jednakże nie każda macierz kwadratowa ma swoją macierz odwrotną.", "Wprost z definicji wynika również, że macierz odwrotna do macierzy kwadratowej stopnia \\( n \\) także jest macierzą kwadratową stopnia \\( n \\).", "Podamy teraz ogólny wzór na postać macierzy odwrotnej. W tym celu, w pierwszej kolejności sformułujemy pojęcia dopełnienia algebraicznego elementu macierzy oraz macierzy dopełnień algebraicznych."], "definitions": [{"name": "Definicja 1: Macierz odwrotna", "content": " Niech \\( A \\) będzie macierzą kwadratową stopnia \\( n \\). Jeżeli istnieje macierz \\( A^{-1} \\) taka, że spełnione są warunki\n\n\n \\( A\\cdot A^{-1}=A^{-1}\\cdot A=I_{n}, \\)\nto mówimy, że macierz \\( A \\) jest odwracalna, a macierz \\( A^{-1} \\) nazywamy macierzą odwrotną do \\( A \\) (lub odwrotnością \\( A \\) ).\n\n"}, {"name": "Definicja 2: Macierz osobliwa i nieosobliwa", "content": "Macierz kwadratową \\( A \\) taką, że \\( \\mathrm{det}A\\neq 0 \\) nazywamy macierzą nieosobliwą. W przeciwnym wypadku \\( A \\) nazywamy macierzą osobliwą.\n"}, {"name": "Definicja 3: Dopełnienie algebraiczne elementu macierzy", "content": " Niech \\( A=(a_{ij}) \\) będzie macierzą stopnia \\( n \\), gdzie \\( n\\geq 2 \\). Niech \\( A_{ij} \\) będzie podmacierzą powstałą z \\( A \\) poprzez skreślenie \\( i \\)-tego wiersza i \\( j \\)-tej kolumny. Liczbę\n \\( D_{ij}=(-1)^{i+j}\\mathrm{det}A_{ij} \\)\nnazywamy dopełnieniem algebraicznym elementu \\( a_{ij} \\) macierzy \\( A \\).\n\n"}, {"name": "Definicja 4: Macierz dopełnień algebraicznych", "content": " Macierz\n \\( A^{D}=\\left( \\begin{array}{cccc} D_{11}&D_{12}&\\ldots&D_{1n}\\\\ D_{21}&D_{22}&\\ldots&D_{2n}\\\\ \\ldots&\\ldots&\\ldots&\\ldots\\\\ D_{n1}&D_{n2}&\\ldots&D_{nn} \\end{array} \\right), \\)\ngdzie \\( D_{ij} \\) oznaczają dopełnienia algebraiczne elementów \\( a_{ij} \\) macierzy \\( A \\), nazywamy macierzą dopełnień algebraicznych macierzy \\( A \\).\n\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 53, "subject": "Rząd macierzy", "paragraphs": ["Warto zauważyć, że dowolna macierz kwadratowa stopnia \\( n \\) ma dokładnie jeden minor stopnia \\( n \\). Jest nim mianowicie jej wyznacznik.", "Rząd macierzy \\( A \\) oznaczamy symbolem \\( \\mathrm{rz}(A) \\) lub \\( \\mathrm{rank}(A) \\). Warto zanotować, że dla dowolnej niezerowej macierzy \\( A \\) zachodzi \\( \\mathrm{rz}(A)\\geq 1 \\). Wynika to z faktu, że każdy niezerowy element macierzy \\( A \\) jest jednocześnie jej minorem stopnia \\( 1 \\). Z kolei dla macierzy zerowej dowolnego wymiaru przyjmujemy, że jej rząd jest równy zero.", "Wykonując przekształcenia elementarne macierzy będziemy używać pewnych specjalnych oznaczeń. Mianowicie zapis", "będzie oznaczać, że po przekształceniu w miejsce wiersza \\( w_{i} \\) wpiszemy wiersz \\( w_{i+1} \\) pomnożony przez \\( \\alpha \\). Analogicznie, zapis", "będzie oznaczał, że w miejsce kolumny \\( k_{j} \\) wpiszemy \\( \\alpha\\cdot k_{l}+\\beta\\cdot k_{m} \\). Przykładowe przekształcenie może wyglądać następująco:"], "definitions": [{"name": "Definicja 1: Minor macierzy", "content": " Niech \\( A \\) będzie dowolną macierzą wymiaru \\( m\\times n \\) i niech \\( k \\) będzie liczbą naturalną mniejszą lub równą od mniejszej z liczb \\( m,n \\). Minorem stopnia \\( k \\) macierzy \\( A \\) nazywamy wyznacznik utworzony z elementów tej macierzy stojących na przecięciu dowolnie wybranych \\( k \\) wierszy i \\( k \\) kolumn.\n"}, {"name": "Definicja 2: Rząd macierzy", "content": "Rzędem dowolnej macierzy \\( A \\) nazywamy taką liczbę naturalną \\( r \\), że z macierzy \\( A \\) można wybrać przynajmniej jeden niezerowy minor stopnia \\( r \\), natomiast wszystkie minory stopni większych od \\( r \\), jeśli takie istnieją, są równe zero.\n"}, {"name": "Definicja 3: Przekształcenia elementarne", "content": " Niech \\( A \\) będzie dowolną macierzą. Przekształceniami elementarnymi nazywamy następujące operacje na macierzy \\( A \\):\n Przestawienie dwóch wierszy (kolumn);\n Pomnożenie wiersza (kolumny) przez stałą różną od zera;\n Dodanie do wiersza (kolumny) innych wierszy (kolumn) pomnożonych przez dowolne stałe.\n"}, {"name": "Definicja 4: Macierz schodkowa", "content": " Macierzą schodkową (lub uogólnioną macierzą trójkątną) nazywamy taką macierz, w której pierwsze niezerowe elementy w kolejnych niezerowych wierszach znajdują się w kolumnach o rosnących numerach tj. jeżeli \\( a_{ij}\\neq 0 \\) i dla każdego \\( k < j \\) \\( a_{ik}=0 \\), to \\( a_{(i+1)s}=0 \\) dla \\( s\\leq j \\).\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 54, "subject": "Wartości i wektory własne – definicje i metoda wyznaczania", "paragraphs": ["Warunek (c) twierdzenia 1 pozwala wnioskować, że pierwiastki wielomianu \\( \\varphi_{A} \\) to wartości własne macierzy \\( A \\). Każda macierz kwadratowa wymiaru \\( n\\times n \\) posiada zatem \\( n \\) wartości własnych (liczonych z krotnościami). Oznaczając te wartości własne jako \\( \\lambda_1,\\ldots,\\lambda_n, \\) wielomian charakterystyczny \\( \\varphi_{A} \\) przyjmuje postać", "w której, co wynika z twierdzenia 1 , \\( a_n=(-1)^n \\) oraz \\( a_0=\\det(A) \\)."], "definitions": [{"name": "Definicja 1: Wartości i wektory własne macierzy kwadratowych", "content": "Liczbę zespoloną \\( \\lambda \\) nazywamy wartością własną macierzy kwadratowej \\( A \\), jeżeli istnieje niezerowy wektor \\( v \\) taki, że\n\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( Av=\\lambda v. \\)\n\nKażdy niezerowy wektor \\( v \\) spełniający równanie ( 1 ) nazywamy wektorem własnym macierzy \\( A \\) odpowiadającym wartości własnej \\( \\lambda \\).\n\n"}, {"name": "Definicja 2: Wielomian charakterystyczny macierzy", "content": "Jeżeli macierz \\( A \\) jest macierzą kwadratową wymiaru \\( n\\times n \\), to funkcja\n\n\n \\( \\varphi_{A} \\left( \\lambda\\right) =\\det\\left( A-\\lambda I\\right) \\)\njest wielomianem stopnia \\( n \\); jest to tzw. wielomian charakterystyczny macierzy \\( A \\).\n\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 55, "subject": "Wartości i wektory własne – własności", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 56, "subject": "Wartości własne macierzy trójkątnych", "paragraphs": ["Niech \\( A\\in\\mathbb{C}^{n\\times n} \\) będzie macierzą trójkątną górną:", "Wówczas", "Oznacza to, że pierwiastkami wielomianu charakterystycznego macierzy trójkątnej (to samo rozumowanie można powtórzyć dla dowolnej macierzy trójkątnej dolnej) są elementy stojące na jej głównej przekątnej. Wynika stąd następujący wniosek."], "definitions": []} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 57, "subject": "Wartości własne macierzy rzeczywistych", "paragraphs": ["Jeżeli \\( A \\) jest macierzą rzeczywistą, to \\( A=\\overline{A} \\), gdzie \\( \\overline{A} \\) oznacza macierz, której elementy są sprzężeniami zespolonymi elementów macierzy \\( A \\). Równość ta pozwala wnioskować, że warunek definiujący wartości i wektory własne", "jest, w przypadku macierzy rzeczywistej, równoważny warunkowi", "To oznacza, że jeżeli liczba zespolona \\( \\lambda \\) jest wartością własną macierzy rzeczywistej \\( A \\), to liczba \\( \\overline{\\lambda} \\) również jest jej wartością własną. Ponadto, jeżeli \\( v \\) jest wektorem własnym macierzy \\( A \\) odpowiadającym wartości własnej \\( \\lambda, \\) to wektorem własnym odpowiadającym wartości własnej \\( \\overline{\\lambda} \\) jest wektor \\( \\overline{v} \\), tj. wektor którego współrzędne są sprzężeniami zespolonymi współrzędnych wektora \\( v \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 58, "subject": "Wartości własne macierzy hermitowskich", "paragraphs": ["Niech \\( A\\in\\mathbb{C}^{n\\times n} \\) będzie macierzą hermitowską. Przypuśćmy, że \\( \\lambda \\) jest wartością własną macierzy \\( A, \\) zaś \\( v\\neq0 \\) odpowiadającym tej wartości własnej wektorem własnym, tj. \\( Av=\\lambda v \\). Wówczas, na podstawie definicji macierzy hermitowskiej oraz twierdzenia Własności sprzężenia hermitowskiego macierzy, otrzymujemy kolejno", "Na podstawie warunku ( 2 ) wnioskujemy, że \\( v^{\\ast}v \\neq0 \\) (gdyż \\( v\\neq 0 \\)). Stąd oraz z uzyskanej równości ( \\( \\lambda-\\overline{\\lambda})v^{\\ast}v=0 \\) wynika, że \\( \\lambda=\\overline{\\lambda} \\). To oznacza, że wartość własna \\( \\lambda \\) jest liczbą rzeczywistą."], "definitions": [{"name": "Definicja 1: Sprzężenie hermitowskie macierzy", "content": "Sprzężeniem hermitowskim macierzy \\( A=[a_{ij}]\\in\\mathbb{C}^{m\\times n} \\) nazywamy macierz \\( A^{\\ast}=[a^{\\ast}_{ij}]\\in\\mathbb{C}^{n\\times m} \\), której elementy spełniają warunek:\n \\( a^{\\ast}_{ij}=\\overline{a_{ji}}, \\)\ndla \\( i=1,\\ldots,n; j=1,\\ldots,m \\).\n\n"}, {"name": "Definicja 2: Macierz hermitowska", "content": "\nMacierz \\( A\\in\\mathbb{C}^{n\\times n} \\) nazywamy macierzą hermitowską, jeżeli\n\n \\( A^{\\ast}=A. \\)\nRzeczywistą macierz hermitowską, tj. macierz spełniającą warunek\n\n \\( A^T=A, \\)\nnazywamy macierzą symetryczną.\n\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 59, "subject": "Układy równań liniowych", "paragraphs": ["Z układem równań liniowych ( 1 ) można powiązać macierz wymiaru \\( m\\times n \\)", "nazywaną macierzą współczynników układu równań ( 1 ), oraz dwie macierze kolumnowe (które, dla ułatwienia, nazywać będziemy wektorami):", "wektor \\( x \\) nazywany wektorem niewiadomych, wektor \\( b \\) to tzw. wektor prawej strony. Przy przyjętych oznaczeniach, układ równań ( 1 ) możemy zapisać w postaci macierzowej:", "W przypadku, gdy liczba równań układu ( 1 ) jest równa liczbie niewiadomych, macierz układu jest macierzą kwadratową. Jeżeli dodatkowo jest to macierz nieosobliwa (czyli kwadratowa o wyznaczniku różnym od zera), wówczas układ równań ( 1 ) nazywamy układem Cramera. Rozwiązanie równania macierzowego ( 2 ) - a więc i układu ( 1 ) - można wówczas wyznaczyć wykorzystując odwrotność macierzy układu.", "Metoda rozwiązywania układu równań liniowych oparta na twierdzeniu Rozwiązanie układu Cramera i zilustrowana w przykładzie Rozwiązywanie układu równań liniowych metodą macierzy odwrotnej wymaga znajomości (lub wyznaczenia) macierzy odwrotnej układu. To praktycznie dyskwalifikuje tę metodę, gdyż w przypadku ogólnym nie istnieje algorytm dobrze radzący sobie z zadaniem odwracania macierzy. Stąd potrzeba metody rozwiązywania układów równań liniowych nie wymagającej znajomości macierzy odwrotnej. Jedna z takich metod oparta jest na tzw. wzorach Cramera.", "Przedstawiona w przykładzie Wzory Cramera metoda rozwiązywania układu równań liniowych oparta na wzorach Cramera nie wykorzystuje macierzy odwrotnej układu. W przypadku układów \\( n \\) równań liniowych o \\( n \\) niewiadomych wymaga ona obliczenia \\( n+1 \\) wyznaczników macierzy stopnia \\( n \\). Wybranie niewłaściwej metody obliczania tych wyznaczników (np. w oparciu o rozwinięcie Laplace'a) spowoduje, że ze względu na olbrzymią liczbę operacji niezbędnych do przeprowadzenia w celu uzyskania wyniku, i ta metoda okaże się być bezużyteczna.", "Rozważmy układ równań liniowych postaci ( 1 ). Niech \\( U \\) będzie macierzą o wymiarze \\( m\\times\\left( n+1\\right) \\) powstałą z macierzy \\( A \\) wymiaru \\( m\\times n \\) układu ( 1 ) przez dołączenie do macierzy \\( A \\) dodatkowej kolumny - wektora prawej strony \\( b \\), tj.", "Tak utworzoną macierz \\( U \\) nazywamy macierzą uzupełnioną układu ( 1 ).", "Z twierdzenia Kroneckera-Capelliego wynika, że dla każdego układu równań liniowych zachodzi jedna z trzech możliwości:"], "definitions": [{"name": "Definicja 1: Układ równań liniowych", "content": "Układ równań postaci\n\n\t\t\t\t\t(1)\n\n\t\t\t\t\t\t\t\t\\( \\left\\{ \\begin{array}{c} a_{11}x_{1}+a_{12}x_{2}+\\cdots+a_{1n}x_{n}=b_{1}\\\\a_{21}x_{1}+a_{22}x_{2}+\\cdots+a_{2n}x_{n}=b_{2}\\\\\\vdots\\\\a_{m1}x_{1}+a_{m2}x_{2}+\\cdots+a_{mn}x_{n}=b_{m}\\end{array}\\right. \\)\n\nnazywamy układem \\( m \\) równań liniowych o \\( n \\) niewiadomych \\( x_{1},\\ldots,x_{n} \\). Liczby rzeczywiste (lub zespolone) \\( a_{ij} \\) oraz \\( b_{i} \\) nazywamy współczynnikami układu.\n\n"}, {"name": "Definicja 2: Układ równań jednorodny", "content": "Układ równań liniowych ( 1 ), dla którego \\( b_{i}=0 \\), dla \\( i=1,\\ldots,m \\), nazywamy układem jednorodnym.\nUkład równań, który nie jest układem jednorodnym nazywamy układem niejednorodnym.\n\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 60, "subject": "Metoda eliminacji Gaussa", "paragraphs": ["Przedstawiony poniżej sposób rozwiązywania układów równań liniowych jest pewnym uproszczeniem algorytmu zwanego metodą eliminacji Gaussa. Metoda ta, niezwykle efektywna pod względem numerycznym (nie istnieje algorytm rozwiązywania układów równań wymagający istotnie mniejszej liczby działań niż metoda eliminacji Gaussa), polega na sprowadzeniu macierzy uzupełnionej, odpowiadającej rozwiązywanemu układowi równań, do uogólnionej postaci trójkątnej (nazywanej również postacią schodkową). Aby osiągnąć ten efekt, na macierzy uzupełnionej wykonujemy dwa rodzaje operacji:", "Operacje te nie wpływają na rozwiązania układu, nie zmieniają też rzędu macierzy. Do uzyskanej po zastosowaniu tych operacji macierzy stosujemy twierdzenie Kroneckera-Capelliego.", "Warto przypomnieć w tym miejscu, że pierwsza z wymienionych powyżej operacji nie zmienia wartości wyznacznika macierzy, druga może zmienić jedynie jego znak. W efekcie, metoda eliminacji Gaussa może być z powodzeniem stosowana zarówno do obliczania rzędu i wyznacznika macierzy, jak i do wyznaczania macierzy odwrotnej.", "Ideę metody eliminacji Gaussa wyjaśnimy na kilku przykładach.", "Niech \\( A\\in\\mathbb{R}^{n\\times n} \\) będzie zadaną macierzą nieosobliwą (warunek ten gwarantuje istnienie macierzy \\( A^{-1} \\) ) oraz niech \\( X_i \\) oznacza \\( i \\)-tą kolumnę poszukiwanej macierzy \\( A^{-1} \\), tj. \\( A^{-1}=(X_1,\\ldots, X_n) \\). Łatwo sprawdzić, że przy przyjętych oznaczeniach", "Dzięki tej prostej obserwacji równanie \\( A\\cdot X=I \\), którego jedynym rozwiązaniem jest \\( X=A^{-1} \\), możemy zapisać w postaci \\( n \\) układów równań liniowych:", "których rozwiązaniami są kolejne kolumny macierzy \\( A^{-1} \\). Do rozwiązania każdego z tych układów równań możemy zastosować algorytm eliminacji Gaussa.", "Zaproponowaną metodę wyznaczania macierzy odwrotnej, która w literaturze funkcjonuje również jako metoda Gaussa-Jordana, przedstawimy na prostym przykładzie."], "definitions": []} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 61, "subject": "Wektory w trójwymiarowej przestrzeni rzeczywistej", "paragraphs": ["Dwa różne punkty \\( A( x_{A},y_{A},z_{A}) \\), \\( B(x_{B},y_{B},z_{B}) \\in \\mathbb{R}^{3} \\) wyznaczają dwa wektory:", "tj. wektor o początku w punkcie \\( A \\) i końcu w punkcie \\( B \\) oraz", "tj. wektor o początku w punkcie \\( B \\) i końcu w punkcie \\( A \\). Wektor \\( \\overrightarrow{BA} \\) nazywamy wektorem przeciwnym do wektora \\( \\overrightarrow{AB} \\) (zob. Rys. 1 ). Zgodnie z definicją wprowadzonych poniżej działań na wektorach, suma dowolnego wektora oraz wektora do niego przeciwnego daje wektor zerowy  \\( \\overrightarrow{0}=(0,0,0) \\), tj.", "Z tego powodu wektor przeciwny do wektora \\( \\overrightarrow{AB} \\) będziemy również oznaczać jako \\( - \\overrightarrow{AB} \\), tj.", "Warunek trzeci twierdzenia Własności długości wektora nazywany jest warunkiem trójkąta. Nazwę tę można uzasadnić w następujący sposób: długość każdego boku trójkąta nie przekracza sumy długości pozostałych jego boków (zob. Rys. 3 ), tzn. jeżeli wektory \\( \\overrightarrow{u}, \\overrightarrow{v}, \\overrightarrow{w} \\) tworzą trójkąt, to:", "Ta sama informacja zawarta jest w warunku (zob. Rys. 4 )", "który równoważny jest warunkowi trzeciemu twierdzenia Własności długości wektora."], "definitions": [{"name": "Definicja 1: Działania na wektorach", "content": "Niech \\( \\overrightarrow{v}=(v_{x},v_{y},v_{z}) \\in \\mathbb{R}^{3} \\) oraz \\( \\overrightarrow{w}=(w_{x},w_{y},w_{z}) \\in \\mathbb{R}^{3} \\) będą dwoma wektorami oraz niech \\( \\alpha \\in\\mathbb{R} \\). Możemy wówczas zdefiniować wektor\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\overrightarrow{v}+\\overrightarrow{w}=(v_{x}+w_{x},v_{y}+w_{y},v_{z}+w_{z}) \\)\n\nnazywany sumą wektorów \\( \\overrightarrow{v} \\) i \\( \\overrightarrow{w} \\) oraz wektor\n\n\n\t\t\t\t\t\t\t\t\\( \\alpha \\cdot \\overrightarrow{v}=( \\alpha v_{x},\\alpha v_{y},\\alpha v_{z}) \\)\n\n\t\t\t\t\t\nnazywany iloczynem wektora \\( \\overrightarrow{v} \\) przez skalar \\( \\alpha \\)."}, {"name": "Definicja 2: Długość wektora", "content": "Z dowolnym wektorem \\( \\overrightarrow{v}=(v_{x},v_{y},v_{z}) \\in \\mathbb{R}^{3} \\) możemy stowarzyszyć liczbę nieujemną \\( \\left\\Vert \\overrightarrow{v}\\right\\Vert \\) określoną wzorem\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\left\\Vert \\overrightarrow{v}\\right\\Vert =\\sqrt{v_{x}^{2}+v_{y}^{2}+v_{z}^{2}%}; \\)\n\n\t\t\t\t\t\nliczbę tę nazywamy długością wektora \\( \\overrightarrow{v} \\)."}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 62, "subject": "Iloczyn skalarny wektorów", "paragraphs": ["Miara kąta skierowanego może być zarówno dodatnia jaki i ujemna (pomijamy tu sytuację w której ramię początkowe pokrywa się z ramieniem końcowym tworząc kąt o mierze zero). Jest ona ujemna, gdy kierunek obrotu ramienia początkowego w kierunku ramienia końcowego jest zgodny z kierunkiem ruchu wskazówek zegara (zob. Rys. 2a), w przeciwnym przypadku przyjmuje ona wartości dodatnie (zob. Rys. 2b).", "Kąt wyznaczony przez wektory \\( \\overrightarrow{v} \\) oraz \\( \\overrightarrow{w} \\) to taki kąt, którego ramionami są półproste o wspólnym początku, o kierunkach i zwrotach zgodnych z kierunkami i zwrotami odpowiednio wektora \\( \\overrightarrow{v} \\) oraz wektora \\( \\overrightarrow{w} \\). Dwa wektory wyznaczają dwa kąty o miarach łukowych równych odpowiednio \\( \\alpha \\) oraz \\( 2\\pi-\\alpha \\) (zob. Rys. 3 ). Zazwyczaj przyjmuje się, że przez kąt jaki tworzą dwa wektory rozumie się kąt wypukły, tj. ten o mniejszej mierze lub kąt półpełny w przypadku, gdy kąty te są równe. Miarę kąta (wypukłego) utworzonego przez wektory \\( \\overrightarrow{v} \\) i \\( \\overrightarrow{w} \\) oznaczać będziemy symbolem \\( \\measuredangle ( \\overrightarrow {v},\\overrightarrow{w} ) \\).", "Łącząc ze sobą wzory ( 1 ) oraz ( 2 ) otrzymujemy przepis na miarę kąta między dwoma niezerowymi wektorami."], "definitions": [{"name": "Definicja 1: Iloczyn skalarny", "content": "Iloczynem skalarnym wektorów \\( \\overrightarrow{u}=(u_{x},u_{y},u_{z}) \\) oraz \\( \\overrightarrow{v}=(v_{x},v_{y},v_{z}) \\) nazywamy liczbę (skalar) \\( \\overrightarrow{u}\\circ\\overrightarrow{v} \\) określoną wzorem\n\n\t\t\t\t\t(1)\n\n\t\t\t\t\t\t\t\t\\( \\overrightarrow{u}\\circ\\overrightarrow{v}:=u_{x}v_{x}+u_{y}v_{y}+u_{z}v_{z}. \\)\n\n\nPrzykład 1: Obliczanie iloczynu skalarnego wektorówDla wektorów \\( \\overrightarrow{u}=(1,2,-1) \\) oraz \\( \\overrightarrow{v}=(0,3,1) \\) mamy:\n\n\n\n\t\t\t\t\t\t\t\t\\( \\begin{array}{l}\\overrightarrow{u}\\circ\\overrightarrow{u}=1\\cdot 1+ 2\\cdot 2 + (-1)\\cdot (-1) = 6,\\\\ \\overrightarrow{v}\\circ\\overrightarrow{v}=0\\cdot 0+ 3\\cdot 3 + 1\\cdot 1 = 10,\\\\ \\overrightarrow{u}\\circ\\overrightarrow{v}=1\\cdot 0+ 2\\cdot 3 + (-1)\\cdot 1= 5.\\end{array} \\)\n\n\n"}, {"name": "Definicja 2: Kąt, ramiona kąta, wierzchołek kąta", "content": "Rozważmy dwie półproste o wspólnym początku \\( O \\) zawarte w pewnej płaszczyźnie. Półproste te dzielą płaszczyznę na dwa wzajemnie dopełniające się obszary, obie półproste są ich wspólnym brzegiem (zob. Rys. 1 ). Każdy z tych obszarów (wraz z półprostymi) nazywamy kątem, półproste nazywamy ramionami kąta, ich wspólny początek \\( O \\) nazywamy wierzchołkiem kąta."}, {"name": "Definicja 3: Kąt skierowany", "content": "Po ustaleniu kolejności półprostych tworzących kąt otrzymamy kąt skierowany - pierwszą z tych półprostych nazwiemy ramieniem początkowym, drugą ramieniem końcowym kąta skierowanego."}, {"name": "Definicja 4: Ortogonalność", "content": "Niech \\( \\overrightarrow{v},\\overrightarrow{w}%\\in\\mathbb{R}^{3} \\). Jeżeli \\( \\overrightarrow{v}\\circ\\overrightarrow{w}=0, \\) to piszemy \\( \\overrightarrow{v}\\bot \\overrightarrow{w} \\) i mówimy, że wektory \\( \\overrightarrow{v} \\) i \\( \\overrightarrow{w} \\) są ortogonalne."}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 63, "subject": "Iloczyn wektorowy", "paragraphs": ["Wzór ( 1 ) można wyrazić równoważnie w łatwej do zapamiętania postaci symbolicznego wyznacznika", "gdzie \\( \\overrightarrow{i}=\\left( 1,0,0\\right) \\), \\( \\overrightarrow{j}=\\left(0,1,0\\right) \\), \\( \\overrightarrow{k}=\\left( 0,0,1\\right) \\).", "Z powyższego twierdzenia wynika następujący wniosek.", "Kartezjańskim układem współrzędnych w przestrzeni \\( \\mathbb{R}^{3} \\) nazywamy trzy ustalone wzajemnie prostopadłe proste przecinające się w jednym punkcie nazywanym początkiem układu współrzędnych. Zwyczajowo proste te oznacza się \\( Ox \\), \\( Oy \\) oraz \\( Oz \\) i nazywa się osiami układu współrzędnych \\( Oxyz \\). Jako początek układu współrzędnych \\( Oxyz \\) zwykle przyjmuje się punkt \\( (0,0,0) \\).", "W układzie współrzędnych \\( Oxyz \\) można wprowadzić dwie orientacje: orientację dodatnią (układ prawoskrętny) oraz ujemną (układ lewoskrętny). Orientacja układu zależy od wzajemnego położenia osi układu \\( Ox \\), \\( Oy \\) oraz \\( Oz \\). Jeżeli wyprostowany kciuk prawej ręki umieścimy w ten sposób, aby wskazywał dodatnią część osi \\( Oz \\), a zgięte palce wskażą kierunek obrotu od osi \\( Ox \\) do osi \\( Oy \\) (odpowiednio: od osi \\( Oy \\) do osi \\( Ox \\) to wówczas mamy do czynienia z układem prawoskrętnym (lewoskrętnym).", "Iloczyn wektorowy dwóch niezerowych, nierównoległych wektorów \\( \\overrightarrow{u} \\) oraz \\( \\overrightarrow{v} \\) ma tę własność, że uporządkowana (istotna kolejność) trójka wektorów \\( \\overrightarrow{u}, \\overrightarrow{v}, \\overrightarrow{u}\\times\\overrightarrow{v} \\) ma orientację dodatnią, tzn. jeżeli ułożymy prawą dłoń w ten sposób, aby zgięte palce wskazywały kierunek obrotu od wektora \\( \\overrightarrow{u} \\) do wektora \\( \\overrightarrow{v} \\), to wyprostowany kciuk wskaże kierunek oraz zwrot wektora \\( \\overrightarrow{u}\\times\\overrightarrow{v} \\) (zob. Rys. 3 )."], "definitions": [{"name": "Definicja 1: Iloczyn wektorowy", "content": "\nIloczynem wektorowym wektorów \\( \\overrightarrow{v}=\\left( v_{x},v_{y},v_{z}\\right)\\in\\mathbb{R}^{3} \\) oraz \\( \\overrightarrow{w}=\\left(w_{x},w_{y},w_{z}\\right)\\in\\mathbb{R}^{3} \\) nazywamy wektor \\( \\overrightarrow{v}\\times\\overrightarrow{w} \\) określony wzorem\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\overrightarrow{v}\\times\\overrightarrow{w}:=\\left( v_{y}w_{z}-v_{z}w_{y},v_{z}w_{x}-v_{x}w_{z},v_{x}w_{y}-v_{y}w_{x}\\right). \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 64, "subject": "Iloczyn mieszany", "paragraphs": ["Łatwo sprawdzić, że iloczyn mieszany wektorów jest wyznacznikiem macierzy, której wiersze są współrzędnymi tych wektorów, tj. dla \\( \\overrightarrow{u}=\\left( u_{x},u_{y},u_{z}\\right) \\) , \\( \\overrightarrow{v}=\\left( v_{x},v_{y},v_{z}\\right) \\) oraz \\( \\overrightarrow{w}=\\left( w_{x},w_{y},w_{z}\\right) \\) :"], "definitions": [{"name": "Definicja 1: Iloczyn mieszany", "content": "\nIloczynem mieszanym uporządkowanej trójki wektorów \\( \\overrightarrow{u},\\overrightarrow{v},\\overrightarrow{w} \\) nazywamy liczbę \\( \\left( \\overrightarrow{u},\\overrightarrow{v},\\overrightarrow{w}\\right) \\) określoną wzorem\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\left( \\overrightarrow{u},\\overrightarrow{v},\\overrightarrow{w}\\right):=\\left( \\overrightarrow {u}\\times\\overrightarrow{v}\\right) \\circ\\overrightarrow{w}\\text{.} \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 65, "subject": "Proste w trójwymiarowej przestrzeni rzeczywistej", "paragraphs": ["Równanie", "Jest to tzw. równanie parametryczne prostej.", "Równanie", "nazywane równaniem kierunkowym prostej, opisuje prostą \\( l \\) przechodzącą przez punkt \\( P\\left(x_{0},y_{0},z_{0}\\right) \\) i równoległą do wektora \\( \\overrightarrow{v}=\\left( v_{x},v_{y},v_{z}\\right) \\) o niezerowych współrzędnych (zob. Rys. 2a).", "Rozważmy dwie nierównoległe płaszczyzny", "Częścią wspólną tych płaszczyzn jest prosta", "równanie ( 3 ) to jej równanie krawędziowe (zob. Rys. 2b)."], "definitions": [{"name": "Definicja 1: Wektor kierunkowy prostej", "content": "Wektor \\( \\overrightarrow{v} \\) jest równoległy do prostej \\( l \\), jeżeli dla dowolnych dwóch jej punktów \\( A \\) i \\( B \\) wektory \\( \\overrightarrow{AB} \\) oraz \\( \\overrightarrow{v} \\) są równoległe.\n\n\nKażdy wektor równoległy do prostej nazywamy jej wektorem kierunkowym (zob. Rys. 1 )."}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 66, "subject": "Płaszczyzny w trójwymiarowej przestrzeni rzeczywistej", "paragraphs": ["Równanie płaszczyzny \\( \\pi \\) przechodzącej przez punkt \\( P\\left(x_{0},y_{0},z_{0}\\right) \\) oraz prostopadłej do niezerowego wektora \\( \\overrightarrow{n}=\\left( A,B,C\\right) \\) ma postać", "Jest to tzw. równanie normalne płaszczyzny.", "Każde trzy niewspółliniowe (nieleżące na jednej prostej) punkty \\( P_{i}\\left( x_{i},y_{i},z_{i}\\right) \\), gdzie \\( i=1,2,3 \\), wyznaczają dokładnie jedną płaszczyznę \\( \\pi \\), która je zawiera. Równanie tej płaszczyzny ma postać:", "Jest to tzw. wyznacznikowe równanie płaszczyzny.", "Równanie", "w którym \\( a,b,c \\) są liczbami różnymi od zera, nazywamy równaniem odcinkowym płaszczyzny \\( \\pi \\).", "Płaszczyzna opisana równaniem ( 3 ) przecina osie \\( Ox,Oy \\) oraz \\( Oz \\) układu współrzędnych \\( Oxyz \\) w punktach równych odpowiednio \\( P_{x}\\left( a,0,0\\right) \\), \\( P_{y}\\left( 0,b,0\\right) \\), \\( P_{z}\\left(0,0,c\\right) \\).", "Równanie płaszczyzny \\( \\pi \\) przechodzącej przez punkt \\( P\\left(x_{0},y_{0},z_{0}\\right) \\) i równoległej do dwóch niezerowych, nierównoległych wektorów \\( \\overrightarrow{v}=\\left( v_{x},v_{y},v_{z}\\right) \\) oraz \\( \\overrightarrow{w}=\\left( w_{x},w_{y},w_{z}\\right) \\) ma postać:", "Jest to tzw. równanie parametryczne płaszczyzny."], "definitions": [{"name": "Definicja 1: Wektor normalny płaszczyzny", "content": "Wektor \\( \\overrightarrow{n} \\) jest prostopadły do płaszczyzny \\( \\pi \\), jeżeli dla dowolnych dwóch jej punktów \\( A \\) i \\( B \\) wektory \\( \\overrightarrow{AB} \\) oraz \\( \\overrightarrow{n} \\) są prostopadłe.\n\n\nKażdy niezerowy wektor prostopadły do płaszczyzny nazywamy wektorem normalnym tej płaszczyzny (zob. Rys. 1 )."}]} {"field": "Matematyka", "coursebook": "Algebra liniowa i geometria analityczna", "chapter": "", "subject_id": 67, "subject": "Wzajemne położenie prostych i płaszczyzn", "paragraphs": ["Kąt między dwiema prostymi to kąt ostry (lub prosty, gdy proste są prostopadłe) utworzony przez wektory kierunkowe tych prostych. Kąt między dwiema płaszczyznami (zob. Rys. 6a) to kąt ostry (lub prosty, gdy płaszczyzny są prostopadłe) utworzony przez wektory normalne tych płaszczyzn (zob. Rys. 6b).", "Kąt między prostą i płaszczyzną (zob. Rys. 7a), to kąt o mierze \\( \\frac{\\pi}{2}-\\alpha, \\) gdzie \\( \\alpha \\) to miara kąta ostrego (lub prostego, gdy prosta i płaszczyzna są równoległe) jaki tworzą wektor kierunkowy prostej oraz wektor normalny płaszczyzny (zob. Rys. 7b).", "Odległość punktu \\( P\\left( x_{0},y_{0},z_{0}\\right) \\) od płaszczyzny \\( \\pi:Ax+By+Cz+D=0 \\) wyraża się wzorem (zob. Rys. 8a)", "Rozważmy punkt \\( P \\) oraz prostą \\( l \\) przechodzącą przez punkt \\( P_{0} \\) i równoległą do wektora \\( \\overrightarrow{v} \\). Przypuśćmy, że punkt \\( P \\) nie leży na prostej \\( l \\). Wówczas, wektory \\( \\overrightarrow{P_0P} \\) oraz \\( \\overrightarrow{v} \\) tworzą równoległobok (zob. Rys. 8b). Pole tego równoległoboku, równe iloczynowi długości podstawy \\( \\left\\Vert \\overrightarrow{v}\\right\\Vert \\) i wysokości \\( h \\), możemy obliczyć również wykorzystując stosowną własność iloczynu wektorowego:", "Poszukiwana odległość \\( d(P,l) \\) punktu \\( P \\) od prostej \\( l \\), równa wysokości \\( h \\) równoległoboku rozpiętego przez wektory \\( \\overrightarrow{v} \\) oraz \\( \\overrightarrow{P_0P} \\), wyraża się więc wzorem:", "Niech \\( \\pi \\) będzie płaszczyzną o wektorze normalnym \\( \\overrightarrow{n} \\), a \\( l \\) prostą o wektorze kierunkowym \\( \\overrightarrow{v} \\). Aby odległość prostej \\( l \\) od płaszczyzny \\( \\pi \\) była niezerowa (tj. aby prosta nie przecinała płaszczyzny) wektory \\( \\overrightarrow{n} \\) i \\( \\overrightarrow{v} \\) muszą być prostopadłe. W takiej sytuacji, odległość prostej od płaszczyzny jest równa odległości dowolnego punkty prostej od płaszczyzny. Aby wyznaczyć tę odległość, wybieramy dowolny punkt prostej, następnie stosujemy wzór ( 4 ).", "Rozważmy dwie płaszczyzny równoległe \\( \\pi_1 \\) oraz \\( \\pi_2 \\) o wspólnym wektorze normalnym \\( \\overrightarrow{n}=(A,B,C) \\), tj.:", "Niech \\( l_{1} \\) (odpowiednio \\( l_{2} \\)) będzie prostą przechodzącą przez punkt \\( P_{1} \\) (odpowiednio \\( P_{2} \\) ) równoległą do wektora \\( \\overrightarrow{v_{1}} \\) (odpowiednio \\( \\overrightarrow{v_{2}} \\)).", "Przypuśćmy, że proste \\( l_1 \\) oraz \\( l_2 \\) są równoległe. Możemy wówczas przyjąć (nie tracąc ogólności), że proste te mają wspólny wektor kierunkowy, tj. \\( \\overrightarrow{v_1} =\\overrightarrow{v_2} \\). W celu wyznaczenia odległości pomiędzy prostymi \\( l_1 \\) oraz \\( l_2 \\), wystarczy na jednej z tych prostych, powiedzmy na prostej \\( l_2 \\), wybrać dowolny punkt \\( P_2 \\), następnie, korzystając ze wzoru ( 5 ) na odległość punktu od prostej, wyznaczyć odległość prostej \\( l_1 \\) od punktu \\( P_2 \\). Otrzymana wartość, równa odległości między równoległymi prostymi \\( l_1 \\) oraz \\( l_2 \\), wyraża się wzorem:", "Poszukiwana odległość \\( d(l_1,l_2) \\) pomiędzy prostymi skośnymi \\( l_1 \\) oraz \\( l_2 \\), równa wysokość \\( h \\) równoległościanu rozpiętego przez wektory \\( \\overrightarrow{v_{1}} \\), \\( \\overrightarrow{v_{2}} \\) oraz \\( \\overrightarrow{P_{2}P_{1}} \\), wyraża się więc wzorem:", "Kąt między dwiema prostymi to kąt ostry (lub prosty, gdy proste są prostopadłe) utworzony przez wektory kierunkowe tych prostych. Kąt między dwiema płaszczyznami (zob. Rys. 6a) to kąt ostry (lub prosty, gdy płaszczyzny są prostopadłe) utworzony przez wektory normalne tych płaszczyzn (zob. Rys. 6b).", "Kąt między prostą i płaszczyzną (zob. Rys. 7a), to kąt o mierze \\( \\frac{\\pi}{2}-\\alpha, \\) gdzie \\( \\alpha \\) to miara kąta ostrego (lub prostego, gdy prosta i płaszczyzna są równoległe) jaki tworzą wektor kierunkowy prostej oraz wektor normalny płaszczyzny (zob. Rys. 7b).", "Odległość punktu \\( P\\left( x_{0},y_{0},z_{0}\\right) \\) od płaszczyzny \\( \\pi:Ax+By+Cz+D=0 \\) wyraża się wzorem (zob. Rys. 8a)", "Rozważmy punkt \\( P \\) oraz prostą \\( l \\) przechodzącą przez punkt \\( P_{0} \\) i równoległą do wektora \\( \\overrightarrow{v} \\) . Przypuśćmy, że punkt \\( P \\) nie leży na prostej \\( l \\). Wówczas, wektory \\( \\overrightarrow{P_0P} \\) oraz \\( \\overrightarrow{v} \\) tworzą równoległobok (zob. Rys. 8b). Pole tego równoległoboku, równe iloczynowi długości podstawy \\( \\left\\Vert \\overrightarrow{v}\\right\\Vert \\) i wysokości \\( h \\), możemy obliczyć również wykorzystując stosowną własność iloczynu wektorowego: \\( h\\cdot \\left\\Vert \\overrightarrow{v}\\right\\Vert=\\left\\Vert \\overrightarrow{P_{0}P}\\times \\overrightarrow{v}\\right\\Vert. \\) Poszukiwana odległość \\( d(P,l) \\) punktu \\( P \\) od prostej \\( l \\) , równa wysokości \\( h \\) równoległoboku rozpiętego przez wektory \\( \\overrightarrow{v} \\) oraz \\( \\overrightarrow{P_0P} \\) , wyraża się więc wzorem:", "Niech \\( \\pi \\) będzie płaszczyzną o wektorze normalnym \\( \\overrightarrow{n} \\), a \\( l \\) prostą o wektorze kierunkowym \\( \\overrightarrow{v} \\) . Aby odległość prostej \\( l \\) od płaszczyzny \\( \\pi \\) była niezerowa (tj. aby prosta nie przecinała płaszczyzny) wektory \\( \\overrightarrow{n} \\) i \\( \\overrightarrow{v} \\) muszą być prostopadłe. W takiej sytuacji, odległość prostej od płaszczyzny jest równa odległości dowolnego punkty prostej od płaszczyzny. Aby wyznaczyć tę odległość, wybieramy dowolny punkt prostej, następnie stosujemy wzór ( 4 ).", "Rozważmy dwie płaszczyzny równoległe \\( \\pi_1 \\) oraz \\( \\pi_2 \\) o wspólnym wektorze normalnym \\( \\overrightarrow{n}=(A,B,C) \\), tj.:", "Niech \\( l_{1} \\) (odpowiednio \\( l_{2} \\)) będzie prostą przechodzącą przez punkt \\( P_{1} \\) (odpowiednio \\( P_{2} \\)) równoległą do wektora \\( \\overrightarrow{v_{1}} \\) (odpowiednio \\( \\overrightarrow{v_{2}} \\)).", "Przypuśćmy, że proste \\( l_1 \\)oraz \\( l_2 \\) są równoległe. Możemy wówczas przyjąć (nie tracąc ogólności), że proste te mają wspólny wektor kierunkowy, tj. \\( \\overrightarrow{v_1} =\\overrightarrow{v_2} \\). W celu wyznaczenia odległości pomiędzy prostymi \\( l_1 \\) oraz \\( l_2 \\), wystarczy na jednej z tych prostych, powiedzmy na prostej \\( l_2 \\), wybrać dowolny punkt \\( P_2 \\), następnie, korzystając ze wzoru ( 5 ) na odległość punktu od prostej, wyznaczyć odległość prostej \\( l_1 \\) od punktu \\( P_2 \\). Otrzymana wartość, równa odległości między równoległymi prostymi \\( l_1 \\) oraz \\( l_2 \\), wyraża się wzorem:", "Przypuśćmy, że proste \\( l_{1} \\) i \\( l_{2} \\) nie są równoległe. Oznacza to, że wektory kierunkowe tych prostych, równe odpowiednio \\( \\overrightarrow{v_{1}} \\) oraz \\( \\overrightarrow{v_{2}} \\), spełniają warunek", "Z wektorów \\( \\overrightarrow{v_{1}} \\), \\( \\overrightarrow{v_{2}} \\) oraz \\( \\overrightarrow{P_{2}P_{1}} \\) możemy zatem utworzyć równoległościan (zob. Rys. 10 ), którego objętość, równa iloczynowi pola podstawy \\( \\left\\Vert\\overrightarrow{v_{1}}\\times\\overrightarrow{v_{2}}\\right\\Vert \\) i wysokości \\( h \\), można również wyrazić przy pomocy Iloczyn mieszany-Zastosowanie iloczynu mieszanego trójki wektorów \\( \\overrightarrow{v_{1}} \\), \\( \\overrightarrow{v_{2}} \\) oraz \\( \\overrightarrow{P_{2}P_{1}} \\)", "Poszukiwana odległość \\( d(l_1,l_2) \\) pomiędzy prostymi skośnymi \\( l_1 \\) oraz \\( l_2 \\), równa wysokość \\( h \\) równoległościanu rozpiętego przez wektory \\( \\overrightarrow{v_{1}} \\), \\( \\overrightarrow{v_{2}} \\) oraz \\( \\overrightarrow{P_{2}P_{1}} \\), wyraża się więc wzorem:"], "definitions": []} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 97, "subject": "Funkcja pierwotna. Całka nieoznaczona. Podstawowe wzory", "paragraphs": [], "definitions": [{"name": "Definicja 1: Funkcja pierwotna", "content": "Rozważmy przedział \\( I \\) zawarty w zbiorze liczb rzeczywistych ( \\( I\\subset \\mathbb{R} \\) ). Funkcję rzeczywistą mającą pochodną w każdym punkcie przedziału \\( I \\) nazywamy funkcją pierwotną funkcji \\( f \\) w przedziale \\( I \\) , jeżeli w każdym punkcie \\( x\\in I \\) zachodzi \\( F ^{\\prime} (x) = f(x) \\) (tj. gdy w każdym punkcie z przedziału \\( I \\) pochodna funkcji \\( F \\) równa się wartości funkcji \\( f \\) )."}, {"name": "Definicja 2: Całka nieoznaczona", "content": "Rodzinę wszystkich funkcji pierwotnych funkcji \\( f \\) w przedziale \\( I \\) nazywamy całką nieoznaczoną funkcji \\( f \\) w przedziale \\( I \\) i oznaczamy ją symbolem \\( \\int f(x)\\, dx \\). Zatem \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\int f(x)\\, dx = F(x) + c \\Leftrightarrow F ^{\\prime} (x) = f(x) \\, . \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 98, "subject": "Całkowanie przez podstawianie całek nieoznaczonych", "paragraphs": ["W kolejnych przykładach oprócz twierdzenia o całkowaniu przez podstawianie będziemy wykorzystywać wzory podstawowe, twierdzenie o całce sumy oraz twierdzenie o wyciąganiu stałej przed znak całki."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 99, "subject": "Całkowanie przez części całek nieoznaczonych", "paragraphs": ["W dalszej części przedstawimy zastosowanie powyższego twierdzenia. Oprócz niego wykorzystamy inne twierdzenia, tj. wzory podstawowe, twierdzenie o całce sumy, twierdzenie o wyciąganiu stałej przed znak całki oraz twierdzenie o całkowaniu przez podstawianie .", "W poniższej uwadze podsumowano dotychczasowe przykłady."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 100, "subject": "Rozkład funkcji wymiernej na sumę wielomianu i ułamka wymiernego. Rozkład wielomianu na czynniki", "paragraphs": ["Zauważmy, że każdą funkcję wymierną niewłaściwą (tj. \\( st.P(x) \\geq st.Q(x) \\)) można przedstawić jako sumę wielomianu i funkcji wymiernej właściwej poprzez wykonanie dzielenia wielomianów z resztą. Kilka przykładów pozwoli nam się zapoznać z technikami przekształcania funkcji wymiernej niewłaściwej na sumę wielomianu i funkcji wymiernej właściwej."], "definitions": [{"name": "Definicja 1: Funkcja wymierna", "content": "\nFunkcję \\( W(x)=\\frac{ P(x) }{ Q(x) } \\) nazywamy funkcją wymierną , jeśli \\( P(x) \\) i \\( Q(x) \\) są wielomianami dowolnego stopnia.\n\nJeśli stopień wielomianu \\( P(x) \\) jest mniejszy niż stopień wielomianu \\( Q(x), \\) to funkcję \\( W(x) \\) nazywamy funkcją wymierną właściwą (ułamkiem wymiernym) .\n\n"}]} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 101, "subject": "Ułamki proste. Rozkład ułamka wymiernego na ułamki proste", "paragraphs": ["Jeżeli w ułamku wymiernym rozłożymy wielomian występujący w mianowniku tego ułamka na czynniki, to w rozkładzie pojawią się jedynie czynniki liniowe lub nierozkładalne czynniki kwadratowe w pewnych potęgach. W związku z tym podamy następujące definicje tak zwanych ułamków prostych jedynie dwóch rodzajów. W ułamku prostym pierwszego rodzaju, w mianowniku jest czynnik liniowy w pewnej potędze, a w liczniku stała. Natomiast w ułamku prostym drugiego rodzaju, w mianowniku jest nierozkładalna na iloczyn funkcja kwadratowa w pewnej potędze, a w liczniku czynnik liniowy."], "definitions": [{"name": "Definicja 1: Ułamek prosty", "content": "\nFunkcję postaci \\( f(x)=\\frac{ A }{ (x-a)^k } \\) , gdzie \\( a,A \\in \\mathbb{ R } \\) i \\( k \\in \\mathbb{ N }\\backslash \\{ 0\\} \\) nazywamy ułamkiem prostym pierwszego rodzaju .\nFunkcję \\( f(x)=\\frac{ Bx+C }{ (x^2+bx+c)^l } \\), gdzie \\( b,c,B,C \\in \\mathbb{ R } \\), \\( l \\in \\mathbb{ N }\\backslash \\{ 0\\} \\) oraz wielomian \\( x^2+bx+c \\) jest wielomianem nieposiadającym pierwiastków, tzn. \\( \\Delta =b^2-4c<0 \\) nazywamy ułamkiem prostym drugiego rodzaju .\n\n"}]} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 102, "subject": "Całkowanie ułamków prostych pierwszego i drugiego rodzaju", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 103, "subject": "Całka z dowolnej funkcji wymiernej - kompletna procedura i przykłady", "paragraphs": ["Procedura obliczania całki z funkcji wymiernej:"], "definitions": [{"name": "Definicja 1: Całka z funkcji wymiernej", "content": "Jeżeli \\( P(x), Q(x) \\) są to dowolne wielomiany ( \\( Q(x) \\neq 0 \\)), to całkę \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\int \\frac{ P(x) }{ Q(x) }dx \\)\n\n\t\t\t\t\t nazywamy całką z funkcji wymiernej."}]} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 104, "subject": "Całki z funkcji trygonometrycznych", "paragraphs": ["Zauważmy, że głównym celem podstawień trygonometrycznych jest zamiana całki z funkcji trygonometrycznych na całkę z funkcji wymiernej. To, w jaki sposób należy korzystać z podstawień trygonometrycznych, przybliżą nam poniższe przykłady."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 105, "subject": "Wzory rekurencyjne w całce z funkcji trygonometrycznych", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 106, "subject": "Całka z pierwiastkami dowolnego stopnia z funkcji liniowej lub homograficznej", "paragraphs": ["Głównym celem podstawienia w całce z pierwiastkiem z funkcji homograficznej jest to, aby zamiast rozwiązywać całkę z funkcji niewymiernej mieć do rozwiązywania całkę z funkcji wymiernej. Poniższe przykłady przybliżą nam w jaki sposób należy postępować w obliczaniu całki, w której występuje pierwiastek z funkcji liniowej albo homograficznej."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 107, "subject": "Podstawienia Eulera", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 108, "subject": "Obliczanie pewnych całek niewymiernych metodą współczynników nieoznaczonych Lagrange'a", "paragraphs": ["Aby obliczyć wszystkie niewiadome (współczynniki), stosujemy metodę Lagrange'a według następującego algorytmu:"], "definitions": []} {"field": "Matematyka", "coursebook": "Całka nieoznaczona", "chapter": "", "subject_id": 109, "subject": "Podstawienia trygonometryczne w całce niewymiernej", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 83, "subject": "Definicja całki oznaczonej Riemanna", "paragraphs": ["Niech \\( f:[a,b] \\to \\mathbb{R} \\) będzie funkcją ograniczoną. Dla każdej liczby naturalnej \\( n \\) wybierzmy pewne elementy \\( x_0, \\ldots, x_n \\) należące do przedziału \\( [a,b] \\), które spełniają następujące zależności:", "Zbiór \\( \\Delta_n=\\{x_0,x_1,\\ldots,x_n\\} \\) nazywamy \\( n \\)-tym podziałem przedziału \\( [a,b] \\) odpowiadającym ustalonej liczbie \\( n \\). Dla \\( n \\)-tego podziału przedziału \\( [a,b] \\) oznaczmy przez \\( \\Delta x_k \\) długość dowolnego podprzedziału \\( [x_{k-1},x_k] \\), tzn.", "gdzie \\( k \\in \\{1,2,\\ldots,n\\} \\). Liczbę \\( \\Delta x_k \\) nazywamy średnicą podprzedziału \\( [x_{k-1},x_k] \\). Niech \\( \\delta_n \\) będzie największą ze średnic wszystkich podprzedziałów \\( [x_{k-1},x_k] \\) występujących w \\( n \\)-tym podziale przedziału \\( [a,b] \\), czyli", "Następnie dla każdego \\( k \\in \\{1,2,\\ldots,n\\} \\) wybierzmy pewien element \\( \\xi_k \\in [x_{k-1},x_k] \\) zwany punktem pośrednim podziału \\( \\Delta_n \\).", "Oznacza to de facto, że gdy \\( n \\) rośnie, to uzyskane podprzedziały (czyli części, na które dzielimy przedział \\( [a,b] \\)) są coraz mniejsze.", "Przejdźmy do definicji całki oznaczonej Riemanna funkcji ograniczonej.", "W powyższej całce liczbę \\( a \\) nazywamy dolną granicą całkowania, liczbę \\( b \\) górną granicą całkowania, natomiast \\( f \\) funkcją podcałkową. Jeżeli \\( a \\) i \\( b \\) są takimi liczbami rzeczywistymi, że \\( a \\lt b \\), to przyjmujemy, że", "Ponadto dla liczby rzeczywistej \\( a \\) przyjmujemy, że", "Przyjrzyjmy się, w jaki sposób można obliczyć całkę oznaczoną Riemanna korzystając z jej definicji.", "Wykażemy teraz, że nie każda funkcja ograniczona jest całkowalna."], "definitions": [{"name": "Definicja 1: n-ta suma całkowa Riemanna", "content": " Niech\n\n\n\n\t\t\t\t\t\t\t\t\\( S_n=\\sum\\limits_{k=1}^n f(\\xi_k)\\Delta x_k. \\)\n\nPowyższą sumę \\( S_n \\) nazywamy \\( n \\)-tą sumą całkową Riemanna funkcji \\( f \\) w przedziale \\( [a,b] \\).\n\n"}, {"name": "Definicja 2: Normalny ciąg podziałów przedziału", "content": "\nMówimy, że ciąg \\( (\\Delta_n)_{n=1}^{\\infty} \\) podziałów przedziału \\( [a,b] \\) jest normalny, jeżeli \\( \\lim\\limits_{n \\to \\infty}\\delta_n=0 \\).\n\n"}, {"name": "Definicja 3: Całka oznaczona Riemanna", "content": "\nJeżeli dla każdego normalnego ciągu \\( (\\Delta_n)_{n=1}^{\\infty} \\) podziałów przedziału \\( [a,b] \\) ciąg \\( (S_n)_{n=1}^{\\infty} \\) \\( n \\)-tych sum całkowych Riemanna jest zbieżny do tej samej granicy właściwej, niezależnej od wyboru punktów pośrednich \\( \\xi_k \\) ( \\( k=1,\\ldots,n \\)), to granicę tę nazywamy całką oznaczoną Riemanna funkcji \\( f \\) na przedziale \\( [a,b] \\) i oznaczamy symbolem \\( \\int_a^b f(x) dx \\), tzn.\n\n\n\t\t\t\t\t\t\t\t\\( I=\\int\\limits_a^b f(x) dx := \\lim\\limits_{n \\to \\infty} S_n. \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 84, "subject": "Własności całki Riemanna", "paragraphs": ["Przedstawimy teraz kilka podstawowych własności całki oznaczonej wynikających bezpośrednio z jej definicji.", "Dzięki temu rezultatowi, w pewnych szczególnych sytuacjach jesteśmy w stanie porównać wartości rozpatrywanych całek, nawet jeżeli bezpośrednie wyliczenie całek jest trudne lub wręcz niemożliwe.", "DOWÓD Zauważmy, że \\( -|f(x)| \\leq f(x) \\leq |f(x)| \\) dla każdego \\( x \\in [a,b] \\). Całkując powyższe nierówności w granicach od \\( a \\) do \\( b \\), otrzymujemy", "co z własności modułu implikuje żądaną nierówność. CND.", "Konsekwencją powyższego twierdzenia jest następujący wniosek."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 85, "subject": "Twierdzenie o średniej całkowej funkcji", "paragraphs": ["DOWÓD Na wstępie zauważmy, że dzięki ciągłości funkcji \\( f \\) na mocy twierdzenia Weierstrassa wartości", "są skończone. Wtedy dla dowolnego \\( x \\in [a,b] \\) mamy \\( m \\leq f(x) \\leq M \\). Całkując te nierówności w granicach od \\( a \\) do \\( b \\), otrzymujemy", "a zatem po przekształceniach", "Ponieważ funkcja ciągła w przedziale \\( [a,b] \\) posiada własność Darboux, to dla każdej wartości \\( y \\in [m,M] \\) istnieje taki argument \\( x \\in [a,b] \\), że \\( y=f(x) \\). W szczególności dla zdefiniowanego powyżej elementu \\( y_0 \\) można znaleźć taki argument \\( c \\in [a,b] \\), że \\( y_0=f(c) \\), co oznacza, że", "CND."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 86, "subject": "Pierwsze zasadnicze twierdzenie rachunku całki oznaczonej Riemanna - twierdzenie o funkcji górnej granicy całkowania", "paragraphs": ["DOWÓD Zauważmy, że twierdzenie o funkcji górnej granicy całkowania w oczywisty sposób jest prawdziwe dla funkcji \\( f \\) tożsamościowo równej zero, gdyż wtedy funkcja \\( F \\) jest również tożsamościowo równa zero. Rozpatrzmy przypadek, gdy \\( f \\) osiąga wartość niezerową w pewnym punkcie przedziału \\( [a,b] \\). Ustalmy \\( x_0 \\in [a,b] \\). Wówczas dla \\( x \\in [a,b] \\) otrzymujemy", "Korzystając z nierówności dla całek, możemy oszacować od góry ostatni z wyrazów, jak następuje:", "gdzie \\( M \\gt 0 \\) jest maksymalną wartością funkcji \\( |f| \\) w przedziale \\( [a,b]. \\) Wartość ta jest osiągana na mocy twierdzenia Weierstrassa, gdyż \\( f \\), a w konsekwencji \\( |f| \\), jest funkcją ciągłą w domkniętym przedziale ograniczonym. Ustalmy dowolną liczbę \\( \\varepsilon \\gt 0. \\) Przyjmując \\( \\delta=\\frac{\\varepsilon}{M} \\), dla każdego \\( x \\) z dziedziny funkcji \\( F \\) takiego, że \\( |x-x_0| \\lt \\delta \\), wnioskujemy, że", "Wykazaliśmy w ten sposób, że", "a więc funkcja \\( F \\) jest ciągła w punkcie \\( x_0 \\). Przejdźmy do dowodu drugiej części twierdzenia. Rozważmy przypadek, gdy \\( x_0 \\in (a,b) \\). (Jeżeli \\( x_0=a \\) lub \\( x_0=b \\), to dalsza część dowodu przebiega analogicznie.) Korzystając z definicji pochodnej oraz przepisu funkcji \\( F \\), otrzymujemy", "Powołując się na twierdzenie , wnioskujemy, że dla każdego \\( x \\) leżącego między \\( x_0 \\) a \\( b \\) istnieje punkt \\( c \\in (x_0, x) \\) taki, że", "Kontynuując obliczenia, dostajemy", "Wykazaliśmy w ten sposób, że pochodna prawostronna funkcji \\( F \\) w punkcie \\( x_0 \\) jest równa \\( f(x_0) \\). W analogiczny sposób wykazujemy, że pochodna lewostronna funkcji \\( F \\) w punkcie \\( x_0 \\) również wynosi \\( f(x_0) \\). To implikuje, że \\( F^{\\prime}(x_0)=f(x_0) \\). CND."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 87, "subject": "Drugie zasadnicze twierdzenie rachunku całki oznaczonej Riemanna - twierdzenie Newtona-Leibniza", "paragraphs": ["Podamy drugie podstawowe twierdzenie rachunku całkowego, zwane twierdzeniem Newtona-Leibniza, które pozwala powiązać całkę oznaczoną funkcji ciągłej z całką nieoznaczoną.", "DOWÓD", "Skoro funkcja \\( f \\) jest ciągła, to na mocy twierdzenia o funkcji górnej granicy całkowania funkcja \\( F \\) jest różniczkowalna i zachodzi równość \\( F^{\\prime}(x)=f(x) \\) we wszystkich punktach \\( x \\in (a,b) \\). Oznacza to, że \\( F \\) jest funkcją pierwotną funkcji \\( f \\). Ponieważ każde dwie funkcje pierwotne danej funkcji różnią się o stałą, to dla pewnej liczby rzeczywistej \\( C \\) oraz dowolnego \\( x \\in [a,b] \\) zachodzi równość", "Z definicji funkcji \\( F \\) wynika, że", "a skoro \\( F(a)=\\int\\limits_a^a f(t) dt=0 \\), to możemy kontynuować obliczenia, zapisując", "gdzie ostatnia równość wynika z ( 2 ). Połączenie ( 3 ) z ( 4 ) implikuje żądany wzór i kończy dowód twierdzenia. CND.", "Różnicę wartości funkcji pierwotnej na końcach przedziału występującą we wzorze ( 1 ) zapisujemy również w następujący sposób:"], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 88, "subject": "Całkowanie przez części całek oznaczonych", "paragraphs": ["Podamy teraz niezwykle ważny wzór służący do obliczania całek oznaczonych, który uzasadnimy przy pomocy twierdzenia Newtona-Leibniza.", "DOWÓD", "Skoro \\( (fg)^{\\prime}=fg^{\\prime} + f^{\\prime}g \\), to", "Stosując do funkcji podcałkowej \\( fg^{\\prime}+f^{\\prime}g \\) w przedziale \\( [a,b] \\) twierdzenie Newtona-Leibniza, otrzymujemy", "co dowodzi, że zachodzi ( 1 ). CND.", "Zastosujmy powyższe twierdzenie do obliczenia przykładowych całek oznaczonych."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 89, "subject": "Całkowanie przez podstawianie całek oznaczonych", "paragraphs": ["Podamy twierdzenie, które podobnie jak , stanowi bardzo użyteczne narzędzie do obliczania całek oznaczonych.", "DOWÓD Skoro funkcja \\( f \\) jest ciągła, to posiada funkcję pierwotną \\( g \\), a zatem \\( f=g^{\\prime} \\). W konsekwencji", "tak więc", "Zauważmy, że w powyższych obliczeniach dwukrotnie użyliśmy twierdzenie Newtona-Leibniza, za pierwszym razem stosując je do funkcji podcałkowej \\( (g \\circ \\varphi)^{\\prime} \\) oraz jej funkcji pierwotnej \\( g \\circ \\varphi \\), a dalej do funkcji podcałkowej \\( f \\) oraz jej funkcji pierwotnej \\( g \\). Ponadto przedostatnia równość została uzyskana dzięki założeniu, że \\( \\varphi(\\alpha)=a \\) i \\( \\varphi(\\beta)=b \\). CND.", "Zastosujmy twierdzenie o całkowaniu przez podstawienie do obliczenia przykładowych całek oznaczonych.", "Na podstawie twierdzenia o całkowaniu przez podstawienie możemy sformułować natępujące wnioski.", "DOWÓD", "Dokonując w pierwszej z całek występujących w powyższej sumie podstawienia \\( t=-x \\) i stosownej zmiany granic całkowania", "otrzymujemy", "Ostatnia równość wynika z faktu, że \\( f \\) jest funkcją parzystą oraz zamiany symbolu zmiennej całkowania z \\( t \\) na \\( x \\). CND.", "Rozumując analogicznie jak powyżej, możemy otrzymać kolejny rezultat.", "Powyższe wnioski mają dość duże znaczenie w praktycznych obliczeniach, gdyż niejednokrotnie prościej jest znaleźć wartość funkcji pierwotnej w zerze niż w \\( -a \\). W szczególności powyższy wniosek pozwala natychmiast podać wartość liczbową niektórych całek bez konieczności przeprowadzania złożonych rachunków."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 90, "subject": "Całki niewłaściwe", "paragraphs": ["Przypomnijmy, że pojęcie całki oznaczonej Riemanna zostało przez nas zdefiniowane dla funkcji ograniczonej, określonej na przedziale domkniętym i ograniczonym. Ze względu na praktyczne zastosowania istnieje potrzeba rozszerzenia tego pojęcia na przypadek funkcji działającej na przedziale nieograniczonym lub funkcji nieograniczonej. Na początek zdefiniujmy całkę niewłaściwą funkcji określonej na przedziale postaci \\( [a,+\\infty) \\), następnie \\( (-\\infty,b] \\), a dalej na całym zbiorze liczb rzeczywistych.", "Należy podkreślić, że jeżeli całka \\( \\int_{-\\infty}^{+\\infty} f(x)dx \\) jest zbieżna, to można wykazać, że jej wartość nie zależy od wyboru punktu \\( a \\in \\mathbb{R} \\) w powyższej definicji.", "Sformułujmy teraz definicję całki niewłaściwej funkcji nieograniczonej określonej na przedziale ograniczonym.", "W analogiczny sposób definiujemy całkę niewłaściwą Riemanna II rodzaju w przypadku, gdy funkcja \\( (f:(a,b] \\to \\mathbb{R}) \\) jest całkowalna w sensie Riemmana na każdym z przedziałów domkniętych \\( [\\alpha, b] \\), przy czym \\( (a < \\alpha < b) \\), oraz jest nieograniczona w prawostronnym sąsiedztwie punktu \\( (a) \\). Wówczas przyjmujemy, że", "W tej sytuacji analogicznie jak wyżej definiuje się pojęcia zbieżności i rozbieżności całki niewłaściwej.", "Obliczmy teraz całkę podobną do tej z przykładu 2, w którym przedział całkowania był nieograniczony. Po wykonaniu poniższych obliczeń warto porównać wyniki uzyskane w obu przykładach."], "definitions": [{"name": "Definicja 1: Całka niewłaściwa Riemanna I rodzaju w przedziale \\( [a,+\\infty) \\) lub \\( (-\\infty,b] \\)", "content": " Niech \\( f:[a,+\\infty) \\to \\mathbb{R} \\) będzie funkcją całkowalną w sensie Riemmana na każdym z przedziałów domkniętych \\( [a,\\beta] \\), gdzie \\( a < \\beta \\). Całką niewłaściwą Riemanna I rodzaju funkcji \\( f \\) nazywamy granicę\n\n\n\n\t\t\t\t\t\t\t\t\\( \\lim\\limits_{\\beta \\to +\\infty} \\int\\limits_a^{\\beta} f(x)dx \\)\n\n\t\t\t\t\t i oznaczamy ją symbolem \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\int\\limits_a^{+\\infty} f(x)dx \\)\n\n\t\t\t\t\t.\nJeżeli powyższa granica istnieje i jest skończona, to mówimy, że całka niewłaściwa \\( \\int_a^{+\\infty} f(x)dx \\) jest zbieżna, natomiast jeżeli granica ta nie istnieje lub jest niewłaściwa, to mówimy, że całka niewłaściwa \\( \\int_a^{+\\infty} f(x)dx \\) jest rozbieżna.\n\nRysunek 1: Interpretacja geometryczna całki niewłaściwej Riemanna I rodzaju w przedziale \\( [a, +\\infty) \\)\n\n\nW analogiczny sposób definuje się całkę niewłaściwą Riemanna I rodzaju \\( \\int_{-\\infty}^b f(x)dx \\) funkcji \\( f \\) określonej na przedziale \\( (-\\infty,b] \\), jak również pojęcia jej zbieżności i rozbieżności. Przyjmujemy wówczas, że\n\n\n\t\t\t\t\t\t\t\t\\( \\int\\limits_{-\\infty}^b f(x)dx:=\\lim\\limits_{\\alpha \\to -\\infty} \\int\\limits_{\\alpha}^b f(x)dx. \\)\n\n"}, {"name": "Definicja 2: Całka niewłaściwa Riemanna I rodzaju w zbiorze liczb rzeczywistych", "content": "\nNiech \\( f: \\mathbb{R} \\to \\mathbb{R} \\) będzie funkcją całkowalną w sensie Riemanna w każdym przedziale domkniętym \\( [\\alpha,\\beta] \\) zawartym w \\( \\mathbb{R} \\). Całkę niewłaściwą Riemanna I rodzaju funkcji \\( f \\) w \\( \\mathbb{R} \\) definujemy jako\n\n\n\t\t\t\t\t\t\t\t\\( \\int\\limits_{-\\infty}^{+\\infty} f(x)dx := \\int\\limits_{-\\infty}^{a} f(x)dx + \\int\\limits_{a}^{+\\infty} f(x)dx, \\)\n\ngdzie \\( a \\) jest dowolnie wybranym punktem z \\( \\mathbb{R} \\). Jeżeli obie całki w powyższej sumie są zbieżne, to mówimy, że całka \\( \\int_{-\\infty}^{+\\infty} f(x)dx \\) jest zbieżna. Gdy któraś z tych całek nie istnieje lub jest rozbieżna, to mówimy, że całka \\( \\int_{-\\infty}^{+\\infty} f(x)dx \\) jest rozbieżna.\n\n"}, {"name": "Definicja 3: Całka niewłaściwa Riemanna II rodzaju w przedziale \\( [a,b) \\) lub \\( (a,b] \\)", "content": "\nNiech \\( (f:[a,b) \\to \\mathbb{R}) \\) będzie funkcją całkowalną w sensie Riemmana na każdym z przedziałów domkniętych \\( [a,\\beta] \\), przy czym \\( ( a < \\beta < b) \\). Załóżmy, że funkcja \\( (f) \\) jest nieograniczona w pewnym lewostronnym sąsiedztwie punktu \\( (b) \\). Całką niewłaściwą Riemanna II rodzaju funkcji \\( (f) \\) nazywamy granicę\n\n\n\t\t\t\t\t\t\t\t\\( \\lim\\limits_{\\beta \\to b^-} \\int\\limits_a^{\\beta} f(x)dx \\)\n\ni oznaczamy ją symbolem\n\n\n\t\t\t\t\t\t\t\t\\( \\int\\limits_a^b f(x)dx. \\)\n\nJeżeli powyższa granica istnieje i jest skończona, to mówimy, że całka niewłaściwa \\( \\int_a^b f(x)dx \\) jest zbieżna, natomiast jeżeli granica ta nie istnieje lub jest niewłaściwa, to mówimy, że całka niewłaściwa \\( \\int_a^b f(x)dx \\) jest rozbieżna.\n\n"}, {"name": "Definicja 4: Całka niewłaściwa Riemanna II rodzaju w przedziale \\( (a,b) \\)", "content": "\nNiech \\( (f:(a,b) \\to \\mathbb{R}) \\) będzie funkcją całkowalną w sensie Riemmana na każdym z przedziałów domkniętych \\( [\\alpha,\\beta] \\) , przy czym \\( (a < \\alpha < \\beta < b) \\). Załóżmy, że funkcja \\( (f) \\) jest nieograniczona w pewnym prawostronnym sąsiedztwie punktu \\( (a) \\) oraz w pewnym lewostronnym sąsiedztwie punktu \\( (b) \\). Całkę niewłaściwą Riemanna II rodzaju funkcji \\( (f) \\) w \\( (a,b) \\) definiujemy jako\n\n\n\n\t\t\t\t\t\t\t\t\\( \\int\\limits_{a}^{b} f(x)dx = \\int\\limits_{a}^{c} f(x)dx + \\int\\limits_{c}^{b} f(x)dx, \\)\n\n\ngdzie \\( (c) \\) jest dowolnie wybranym punktem z \\( ( (a, b) ) \\). Jeżeli obie całki po prawej stronie powyższej równości są zbieżne, to mówimy, że całka \\( (\\int_{a}^{b} f(x)dx) \\) jest zbieżna. Gdy któraś z tych całek nie istnieje lub jest rozbieżna, to mówimy, że całka niewłaściwa \\( (\\int_{a}^{b} f(x)dx) \\) jest rozbieżna.\n\n"}]} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 91, "subject": "Kryteria zbieżności całek niewłaściwych", "paragraphs": ["Przedstawimy kryteria zbieżności całek niewłaściwych.", "Przyjrzyjmy się przykładowym zastosowaniom tego kryterium, w którym dopuszczamy również możliwość, że \\( b=+\\infty \\).", "Zauważmy, że dla \\( K \\in (0, +\\infty) \\) całki \\( \\int_a^b f(x) dx \\) oraz \\( \\int_a^b g(x) dx \\) są jednocześnie zbieżne bądź rozbieżne.", "W kryterium porównawczym II, podobnie jak w kryterium porównawczym I, dopuszczamy możliwość, że \\( b=+\\infty \\).", "Powyższe kryteria zbieżności całek niewłaściwych można analogicznie sformułować dla funkcji ciągłych \\( f:(a,b] \\to \\mathbb{R} \\) oraz \\( g:(a,b] \\to \\mathbb{R} \\), które są nieograniczone w prawostronnym sąsiedztwie punktu \\( a \\). Warto dodać, że dopuszczamy tu możliwość, że \\( a=-\\infty \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 92, "subject": "Obliczanie pól figur płaskich", "paragraphs": ["Z definicji całki oznaczonej Riemanna wynika, że jeżeli \\( f:[a,b] \\to \\mathbb{R} \\) jest funkcją ciągłą i nieujemną w przedziale \\( [a, b] \\), to całka \\( \\int_a^b f(x) dx \\) jest równa polu \\( P \\) figury ograniczonej przez wykres funkcji \\( f \\), oś \\( OX \\) oraz proste \\( x=a \\) i \\( x=b \\). Tak zadaną figurę, którą możemy opisać jako zbiór", "nazywamy trapezem krzywoliniowym. Jeżeli \\( f(x) \\le 0 \\) dla \\( x \\in [a, b] \\), to \\( P = -\\int_a^b f(x) dx. \\) W rezultacie dla dowolnej funkcji ciągłej \\( f:[a,b] \\to \\mathbb{R} \\) prawdziwy jest następujący związek:", "Aby obliczyć pole figury płaskiej przy pomocy całki oznaczonej, w pewnych sytuacjach warto jest całkować względem zmiennej \\( y \\) zamiast zmiennej \\( x \\). Pozwala to uniknąć dzielenia danego obszaru na mniejsze obszary oraz niepotrzebnego obliczania kilku całek.", "Omówimy teraz sposób wyznaczania pola figury ograniczonej przez krzywą zadaną parametrycznie. Najpierw jednak podajmy definicję takiej krzywej.", "DOWÓD W pierwszym kroku dowodu wykażemy, że przy przyjętych założeniach możemy wyrazić krzywą \\( \\Gamma \\) jako wykres funkcji ciągłej zmiennej \\( x \\) na przedziale \\( [a,b] \\). Istotnie, ponieważ funkcja \\( \\varphi \\) jest rosnąca w przedziale \\( [\\alpha, \\beta], \\) to", "a ponadto funkcja ta jest odwracalna. To z kolei implikuje, że \\( t = \\varphi^{-1} (x) \\) dla \\( x \\in [a,b] \\) (gdzie \\( \\varphi^{-1} \\) oznacza funkcję odwrotną do \\( \\varphi \\)), co po podstawieniu do równania \\( y=\\psi(t) \\) daje", "Dalej, skoro funkcja \\( \\psi \\) jest nieujemna, to w konsekwencji funkcja \\( y \\) zależna od zmiennej \\( x \\) przyjmuje wartości nieujemne. Dzięki temu pole rozpatrywanego obszaru możemy obliczyć, stosując wzór", "Aby obliczyć ostatnią całkę, zastosujmy twierdzenie o całkowaniu przez podstawienie dla \\( t= \\varphi^{-1}(x) \\), pamiętając przy tym o stosownej zmianie granic całkowania. Z równania \\( x=\\varphi(t) \\), gdzie \\( t \\in [\\alpha, \\beta], \\) dostajemy \\( dx=\\varphi^{\\prime}(t)dt \\). W rezultacie", "CND.", "Jak wiadomo, położenie punktu na płaszczyźnie można określić dzięki wprowadzeniu na płaszczyźnie kartezjańskiego prostokątnego układu współrzędnych. Wówczas położenie punktu \\( P \\) jest jednoznacznie określone poprzez podanie pary \\( (x_P,y_P) \\), gdzie \\( x_P \\) jest współrzędną tego punktu względem osi \\( OX \\), zaś \\( y_P \\) względem osi \\( OY \\).", "Jednakże położenie punktu \\( P \\) na płaszczyźnie można też określić w inny sposób - dzięki wprowadzeniu tzw. biegunowego (polarnego) układu współrzędnych. Jest ono jednoznacznie określone poprzed podanie odległości od pewnego wyróżnionego na płaszczyźnie punktu zwanego biegunem oraz poprzez podanie kąta \\( \\varphi \\) pomiędzy półprostą o początku w biegunie i przechodzącą przez punkt \\( P \\) a inną wyróżnioną półosią o początku w biegunie, zwaną półosią biegunową. (Kąty skierowane przeciwnie do ruchu wskazówek zegara są dodatnie, a zgodnie z ruchem wskazówek zegara są ujemne).", "Jeżeli umieścimy biegun w punkcie \\( (0,0) \\), czyli w początku układu kartezjańskiego, zaś jako półoś biegunową przyjmiemy półoś dodatnią osi \\( OX \\), to wówczas związki między obydwoma układami wyrażą się w następujący sposób:", "W rezultacie", "Omówimy teraz, w jaki sposób można obliczyć pole figury ograniczonej, której fragment brzegu jest zadany za pomocą współrzędnych biegunowych.", "Zauważmy, że krzywą zadaną biegunowo można przedstawić w następujący sposób w postaci parametrycznej (w zależności od parametru \\( \\phi \\)):", "Niech \\( O=(0,0), \\) \\( A=(r(\\alpha), \\alpha), \\) \\( B=(r(\\beta), \\beta) \\) oraz załóżmy, że \\( 0 \\lt \\beta - \\alpha \\lt 2\\pi. \\) Wtedy promienie wodzące o amplitudach \\( \\alpha \\) i \\( \\beta \\), czyli odcinki \\( \\overline{OA} \\) i \\( \\overline{OB} \\), oraz łuk krzywej \\( \\Gamma \\) wyznaczają obszar zilustowany na poniższym rysunku.", "Taki obszar nazywamy trapezem krzywoliniowym w sensie biegunowego układu współrzędnych. Jego pole możemy obliczyć korzystając z następującego twierdzenia.", "DOWÓD Dla każdego \\( n \\in \\mathbb{N} \\) podzielmy przedział \\( [\\alpha, \\beta] \\) na \\( n \\) podprzedziałów \\( [\\phi_{k-1}, \\phi_{k}] \\) \\( ( k=1,\\ldots,n ) \\) tak dobierając punkty \\( \\phi_k, \\) aby zachodziła zależność", "W ten sposób otrzymujemy \\( n \\) trójkątów krzywoliniowych zawartych między łukiem krzywej \\( \\Gamma \\) oraz promieniami wodzącymi o amplitudach \\( \\phi_{k-1} \\) i \\( \\phi_{k}. \\) Oznaczmy przez \\( \\Delta \\phi_k \\) długość odcinka \\( [\\phi_{k-1}, \\phi_{k}], \\) tzn.", "gdzie \\( k \\in \\{1,\\ldots,n\\}. \\) Niech \\( \\delta_n \\) będzie największą ze średnic wszystkich przedziałów \\( [\\phi_{k-1}, \\phi_{k}], \\) czyli", "Następnie dla każdego \\( k \\in \\{1,\\ldots,n\\} \\) wybierzmy kąt pośredni \\( \\xi_k \\in [\\phi_{k-1}, \\phi_{k}]. \\) Przy małych wartościach \\( \\Delta \\phi_k \\) pole \\( k \\)-tego trójkąta jest w przybliżeniu równe polu \\( P_k \\) wycinka kołowego o promieniu \\( r(\\xi_k) \\) i kącie środkowym \\( \\Delta \\phi_k, \\) wyrażającego się wzorem", "gdzie \\( \\Delta \\phi_k \\) jest miarą łukową tego kąta środkowego. Oznaczmy przez \\( P_n \\) sumę pól wszystkich tych wycinków. Wówczas", "Przechodząc do granicy (jak w konstrukcji całki oznaczonej Riemanna), otrzymujemy", "CND.", "Zastosujmy powyższy wzór do obliczenia pola figury ograniczonej przez krzywą zadaną biegunowo."], "definitions": [{"name": "Definicja 1: Krzywa zadana parametrycznie", "content": "\nMówimy, że \\( \\Gamma \\) jest krzywą zadaną parametrycznie, jeżeli istnieją takie funkcje ciągłe \\( \\varphi: [\\alpha,\\beta] \\to \\mathbb{R} \\) oraz \\( \\psi: [\\alpha,\\beta] \\to \\mathbb{R} \\), że\n\n\n\t\t\t\t\t\t\t\t\\( \\Gamma=\\{(x,y) \\in \\mathbb{R}^2: x =\\varphi(t), y=\\psi(t) \\text{ dla } t \\in [\\alpha,\\beta]\\}. \\)\n\n"}, {"name": "Definicja 2: Krzywa zadana biegunowo", "content": "\nMówimy, że \\( \\Gamma \\) jest krzywą zadaną biegunowo , jeżeli istnieje nieujemna funkcja ciągła \\( r: [\\alpha,\\beta] \\to \\mathbb{R} \\) taka, że\n\n\n\t\t\t\t\t\t\t\t\\( \\Gamma=\\{ (r,\\phi) \\in \\mathbb{R}^2: r = r(\\phi), \\phi \\in [\\alpha, \\beta] \\}. \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 93, "subject": "Obliczanie długości łuku krzywych", "paragraphs": ["DOWÓD Na początku zauważmy, że dla każdego \\( n \\in \\mathbb{N} \\) długość łamanej \\( \\Gamma_n \\) jest równa", "Ponieważ funkcje \\( \\varphi \\) i \\( \\psi \\) są klasy \\( C^1 \\) na przedziale \\( [\\alpha, \\beta] \\), więc do każdej z nich i do każdego z przedziałów \\( [t_{k-1}, t_k] \\) ( \\( k=1, \\ldots,n \\)) możemy zastosować twierdzenie Lagrange'a. Otóż na jego podstawie istnieją takie punkty \\( \\xi_k \\) i \\( \\xi^*_k \\) należące do przedziału \\( (t_{k-1}, t_k) \\), że", "Stąd po przekształceniach otrzymujemy", "gdzie \\( \\Delta_k \\) oznacza długość przedziału \\( (t_{k-1}, t_k) \\). Podstawiając powyższe wyrażenia do wzoru na \\( d_n \\), dostajemy", "Teraz przechodząc z \\( d_n \\) do granicy przy \\( n\\to\\infty \\) (i oczywiście pamiętając, że \\( \\lim\\limits_{n \\to \\infty} \\delta_n = 0 \\)), otrzymujemy", "CND.", "Podamy teraz twierdzenie, które umożliwi nam wyznaczanie długości krzywej, która jest wykresem funkcji zmiennej \\( x \\).", "DOWÓD Przyjmijmy, że", "Wówczas na podstawie twierdzenia o długości krzywej zadanej parametrycznie otrzymujemy", "CND.", "Dla krzywej \\( \\Gamma \\) zadanej w postaci biegunowej zachodzi następujące twierdzenie.", "DOWÓD Krzywą wyrażoną w postaci biegunowej można także zapisać parametrycznie, przy pomocy tzw. współrzędnych biegunowych:", "gdzie \\( \\phi \\in [\\alpha, \\beta] \\), a następnie jej długość wyrazić za pomocą wzoru ( 1 ).", "Ponieważ pochodne funkcji \\( \\varphi \\) i \\( \\psi \\) są postaci", "dla \\( \\phi \\in [\\alpha, \\beta] \\), to wyrażenie podpierwiastkowe przyjmuje postać", "W konsekwencji", "CND."], "definitions": [{"name": "Definicja 1: Długość łuku krzywej zadanej parametrycznie", "content": "\nRozważmy krzywą \\( \\Gamma \\) zadaną parametrycznie w następujących sposób:\n\n\n\t\t\t\t\t\t\t\t\\( \\Gamma=\\{(x,y) \\in \\mathbb{R}^2: x =\\varphi(t), \\, y=\\psi(t), \\, t \\in [\\alpha, \\beta]\\}, \\)\n\ngdzie \\( \\varphi \\) i \\( \\psi \\) są funkcjami ciągłymi w przedziale \\( [\\alpha, \\beta] \\). Zdefiniujmy długość \\( d \\) łuku krzywej \\( \\Gamma \\). Podzielmy przedział \\( [\\alpha, \\beta] \\) na \\( n \\) podprzedziałów wybierając punkty podziału \\( t_k \\) ( \\( k=0,\\dots,n \\)) tak, aby zachodziła zależność\n\n\n\t\t\t\t\t\t\t\t\\( \\alpha =t_0\\lt t_1\\lt\\ldots\\lt t_n=\\beta. \\)\n\nNiech \\( \\Delta_k = t_k - t_{k-1} \\) oraz \\( \\delta_n = \\max \\{ \\Delta_k : k=1,\\ldots,n\\} \\). Zauważmy, że punkty \\( P_k=(\\varphi(t_k),\\psi(t_k)) \\in \\Gamma \\)\n( \\( k=1,\\dots,n \\)) wyznaczają łamaną \\( \\Gamma_n \\), która przybliża krzywą \\( \\Gamma \\) w przedziale \\( [\\alpha, \\beta] \\).\n\nRysunek 1: Krzywa zadana parametrycznie wraz z oznaczonymi na niej punktami odpowiadającymi punktom podziału przedziału \\( [\\alpha, \\beta] \\)\n\n\nDługość otrzymanej łamanej wyraża się wzorem\n\n\n\t\t\t\t\t\t\t\t\\( d_n=\\sum\\limits_{k=1}^n |P_{k-1}P_{k}|, \\)\n\ngdzie \\( |P_{k-1}P_{k}| \\) jest długością odcinka łączącego punkty \\( P_{k-1} \\) i \\( P_k \\) \\( (k=1,\\dots,n) \\). Jeżeli istnieje granica\n\n\n\t\t\t\t\t\t\t\t\\( \\lim\\limits_{n \\to \\infty}d_n \\)\n\ni jest ona jest niezależna od wyboru normalnego ciągu podziałów przedziału \\( [\\alpha, \\beta] \\) (czyli takich jego podziałów, że \\( \\lim\\limits_{n \\to \\infty} \\delta_n = 0 \\)), to mówimy, że krzywa \\( \\Gamma \\) jest krzywą prostowalną w przedziale \\( [\\alpha, \\beta] \\). Granicę tę nazywamy długością łuku krzywej \\( \\Gamma \\) w przedziale \\( [\\alpha, \\beta]. \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 94, "subject": "Obliczanie objętości brył obrotowych", "paragraphs": ["Niech \\( \\Gamma \\) będzie krzywą zadaną parametrycznie:"], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 95, "subject": "Obliczanie pól powierzchni obrotowych", "paragraphs": ["Zadajmy krzywą \\( \\Gamma \\) w postaci parametrycznej \\( x=\\varphi(t) \\), \\( y=\\psi(t) \\), \\( t \\in [\\alpha, \\beta ] \\), przy czym załóżmy, że funkcje \\( \\varphi \\) i \\( \\psi \\) mają ciągłe pochodne. Przyjmijmy dodatkowo, że funkcja \\( \\varphi^{\\prime} \\) jest stałego znaku, a funkcja \\( \\psi \\) jest nieujemna. Wówczas zachodzi następujące twierdzenie."], "definitions": []} {"field": "Matematyka", "coursebook": "Całka oznaczona funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 96, "subject": "Zastosowania całek oznaczonych w fizyce", "paragraphs": ["Podamy teraz niektóre z zastosowań całek oznaczonych w fizyce. Załóżmy, że pewien punkt \\( A \\) porusza się w momencie \\( t_0 \\) z prędkością chwilową opisaną równaniem \\( v_0=v(t_0) \\). Zmienną prędkość punktu \\( A \\) w całym czasie poruszania się tego punktu określa więc pewna funkcja \\( v(t) \\).", "Podamy teraz wzory na obliczanie momentów statycznych i momentów bezwładności oraz środka ciężkości trapezu krzywoliniowego \\( T \\):", "Załóżmy, że trapez \\( T \\) jest figurą jednorodną (masa jest rozłożona na nim równomiernie), której gęstość powierzchniowa \\( \\rho \\) (tj. masa przypadająca na jednostkę pola) jest stała."], "definitions": []} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 134, "subject": "Definicja ciągu", "paragraphs": ["Idea ciągu, w różnej formie, towarzyszy każdemu z nas w dniu codziennym. Kolejka do lekarza, układ haseł w encyklopedii, czy cyfry tworzące numer konta bankowego, to wszystko są przykłady ciągów. Widzimy jednak różnicę między ciągiem będącym np. alfabetyczną listą studentów w grupie, a ciągiem, który jest spisem dat w kalendarzu. Jeden z nich jest z konieczności ciągiem skończonym, tzn. posiadającym skończoną liczbę wyrazów, a drugi wydaje się ciągnąć w nieskończoność.", "Z matematycznego punktu widzenia układ liczb lub innych obiektów (niekoniecznie matematycznych) tworzy ciąg, jeżeli każdemu elementowi przypiszemy jednoznacznie odpowiadające mu miejsce w ciągu, czyli liczbę naturalną. Najbardziej oczywistym przykładem ciągu liczbowego są liczby naturalne, ponieważ wartość liczby jednocześnie podaje numer miejsca, na którym ona stoi w ciągu.", "Komentarz Zgodnie z definicją ciągu możemy podawać ciąg jako funkcję, czyli podać wzór \\( n \\)-tego wyrazu ciągu np. w przykładzie Idea tworzenia ciągu liczbowego wzór na \\( n \\)-ty wyraz to \\( a_n=3n \\), a w przykładzie Nieskończone ciągi liczbowe a) \\( a_n=\\frac{1}{3^{n-1} } \\). Zaletą takiego określenia ciągu jest to, że możemy natychmiast wyliczyć dowolny wyraz ciągu podstawiając do wzoru odpowiednie \\( n \\in \\mathbb{N} \\). Inną z możliwości jest opisanie metody jak należy szukać kolejnych wyrazów ciągu, np. w przykładzie Nieskończone ciągi liczbowe b) szukamy kolejnych figur geometrycznych zgodnie z opisem, a następnie wyliczamy ich pola. Możemy również podać procedurę jak tworzyć kolejne wyrazy ciągu za pomocą wyrazów poprzednich, tzw. procedurę rekurencyjną, należy pamiętać jednak o podaniu wartości odpowiedniej ilości wyrazów początkowych tak, aby procedura mogła wystartować, np. w przykładzie Nieskończone ciągi liczbowe c) procedurę można opisać następująco", "Wadą tej metody określania ciągu jest to, że musimy znać wyrazy poprzednie ciągu, aby wyliczyć wyraz kolejny, co oczywiście jest w praktyce niewygodne, gdy chcemy obliczyć wyraz dla dużego \\( n \\). Kolejną często spotykana metodą zadania ciągu jest podanie kilku jego początkowych wyrazów, tak, aby można było zauważyć schemat tworzenia wyrazów następnych, np. przykład Nieskończone ciągi liczbowe a), w którym widać, że każdy następny wyraz powstaje z poprzedniego przez przemnożenie go przez \\( \\frac{1}{3} \\). Przy tej metodzie wadą jest to, że należy podać odpowiednio dużo wyrazów początkowych, żeby można było zauważyć schemat, a następnie sprawdzić, czy jest poprawny.", "Zgodnie z definicją ciągu, może on być przedstawiony graficznie w postaci wykresu, gdzie na osi odciętych zaznaczamy kolejne liczby naturalne i w układzie współrzędnych zaznaczamy punkty \\( (n,a_n) \\). Widzimy więc, że wykres ciągu składa się z izolowanych punktów w układzie współrzędnych.", "Wadą takiej graficznej interpretacji ciągu jest to, że zawsze możemy zobaczyć tylko kilka początkowych wyrazów ciągu, czyli w sytuacji, gdy interesować nas będzie zachowanie się ciągu dla bardzo dalekich wyrazów, taka interpretacja jest bezużyteczna. Wygodniej będzie przedstawiać ciąg tylko na osi rzędnych, czyli zrzutować prostopadle punkty reprezentujące wyrazy ciągu na tę oś. Zauważmy, że ten drugi sposób pozwala na umieszczenie na Rys. 1 większej ilości wyrazów ciągu."], "definitions": [{"name": "Definicja 1: Ciąg liczbowy", "content": " Ciągiem liczbowym o wyrazach rzeczywistych nazywamy funkcję \\( a: M \\rightarrow \\mathbb{R} \\), która elementom podzbioru \\( M \\) zbioru liczb naturalnych \\( \\mathbb{N} \\) ( \\( M \\subset \\mathbb{N} \\) ) przyporządkowuje liczby rzeczywiste. "}, {"name": "Definicja 2: Ciąg skończony", "content": " Jeżeli dziedzina \\( M \\) ciągu \\( a \\) jest zbiorem skończonym (np. \\( M=\\{1,2,…,n\\} \\) ), to mówimy, że \\( a \\) jest ciągiem skończonym ( \\( n \\)-wyrazowym). "}, {"name": "Definicja 3: Ciąg nieskończony", "content": "Jeżeli dziedzina \\( M \\) ciągu \\( a \\) jest zbiorem nieskończonym (np. \\( M=\\mathbb{N} \\) lub \\( M= \\)zbór liczb parzystych), to mówimy, że \\( a \\) jest ciągiem nieskończonym."}, {"name": "Definicja 4: Metody określania ciągu", "content": " Podstawowymi metodami określania ciągu są:\n podanie wzoru na \\( n \\)-ty wyraz ciągu, np. \\( a_n =\\frac{1-\\sqrt[3]{n^2+1}}{\\log_3{(n+3)}} , a_n=\\frac{6n-8}{4+\\sqrt{\\arcsin(n^{-2})}} \\)\n podanie wzoru rekurencyjnego, np. \\( \\left\\{\\begin{array}{c} a_1=3\\\\ a_{n+1}=6 – 2a_n +\\sqrt{1+a_n } \\end{array}\\right. , \\hspace{1em} \\left\\{\\begin{array}{c} a_1=1\\\\ a_2=2\\\\ a_{n+2}=\\frac{a_n+a_{n+1}}{2} \\end{array}\\right. \\)\n opisanie sposobu tworzenia kolejnych wyrazów, np. \\( a_n \\) jest kolejnym wyrazem rozwinięcia dziesiętnego liczby \\( \\sqrt{5} \\) podanie kilku wyrazów początkowych ciągu, aby wiadomo było, według jakiej zasady należy tworzyć wyrazy następne, np.: \\( (a_n )=(\\frac{1}{2},\\frac{2}{3}, \\frac{3}{4}, \\frac{4}{5},…). \\)\n"}, {"name": "Definicja 5: Interpretacja geometryczna ciągu", "content": " Graficznie ciąg możemy przedstawiać w postaci wykresu funkcji o argumentach naturalnych, otrzymując pełny wykres ciągu lub w postaci rzutu tego wykresu na oś wartości, otrzymując uproszczony wykres ciągu. "}]} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 135, "subject": "Ciąg monotoniczny", "paragraphs": ["Ciągi, tak jak funkcje, mogą mieć różne własności, których znajomość może przyczynić się do dalszej analizy ich zachowania. Na wykresach ciągów z Rys. 1 widzimy, że charakter każdego z ciągów jest zupełnie inny.", "W pierwszym ciągu pokazanym na Rys. 1 każdy kolejny wyraz jest większy od wyrazów poprzednich i ciąg o takiej własności nazywamy rosnącym. W ciągu drugim każdy kolejny wyraz jest od poprzednich mniejszy i ciąg mający taką własność nazywamy malejącym. W trzecim ciągu wszystkie wyrazy są takie same i taki ciąg nazywamy stałym. Może się również zdarzyć, że każdy kolejny wyraz ciągu jest nie mniejszy albo nie większy (tzn. może być też równy) od wyrazu poprzedniego i ciągi o takich własnościach nazywamy niemalejącym albo nierosnącym. Zauważmy, że ciąg stały jest jednocześnie niemalejący i nierosnący.", "Istnieją oczywiście ciągi, które nie są ani rosnące lub niemalejące, ani malejące lub nierosnące, ani stałe i mówimy, że taki ciąg nie jest monotoniczny. Rys. 2 przedstawia ciąg, który nie ma żadnej z powyższych własności.", "Rzeczywiście, np. wyraz drugi jest większy od wyrazu pierwszego, wyraz trzeci jest natomiast mniejszy od drugiego, wyraz czwarty jest znowu większy od trzeciego itp.", "' Komentarz Definicję Ciąg rosnący można w sposób równoważny wyrazić w postaci nierówności \\( a_{n+1}-a_n > 0 \\), która powinna być spełniona dla każdego \\( n \\in M \\). Jeżeli dodatkowo wiemy, że wszystkie wyrazy ciągu \\( (a_n)_{n \\in M } \\) są dodatnie, to ciąg jest rosnący, gdy dla wszystkich \\( n \\in M \\) spełniona jest nierówność \\( \\frac{a_{n+1}}{a_n} > 1 \\). Jeżeli w nierównościach zmienimy zwroty nierówności na przeciwne, to analogiczne warunki równoważne definiują ciąg malejący. Wypisane warunki są łatwiejsze do sprawdzenia w praktyce, gdyż wystarczy zbadać znak różnicy \\( a_{n+1}-a_n \\) lub dla ciągów o wyrazach dodatnich przyrównać iloraz \\( \\frac{a_{n+1}}{a_n} \\) do jedynki, aby odpowiedzieć na pytanie o monotoniczność ciągu.", "Komentarz Bardzo często analiza zachowania się ciągu liczbowego sprowadza się do badania zachowania się tego ciągu dla wyrazów o dużych indeksach, czyli nie interesuje nas zachowanie się początkowych wyrazów ciągu (nawet dużej ich ilości), a raczej „końcówka” tego ciągu. Z takiego punktu widzenia, może się zdarzyć, że dopiero po odrzuceniu pewnej liczby wyrazów początkowych, otrzymujemy ciąg monotoniczny i takie ciągi nazywamy monotonicznymi od pewnego miejsca.", "Rys. 3 przedstawia wykresy trzech ciągów, których monotoniczność ustala się dopiero od pewnego wyrazu, a nie od wyrazu pierwszego, jak to ma miejsce dla ciągów monotonicznych. Rzeczywiście pierwszy wykres przedstawia ciąg, który jest rosnący począwszy od 11-go wyrazu. Drugi wykres przedstawia ciąg, który jest malejący począwszy od 8-go wyrazu, a wykres trzeci przedstawia ciąg, który jest stały od 16-go wyrazu."], "definitions": [{"name": "Definicja 1: Ciąg rosnący", "content": " Mówimy, że ciąg \\( (a_n)_{n \\in M} \\) jest rosnący, jeżeli dla wszystkich \\( n \\in M \\) spełniona jest nierówność \\( a_{n+1} > a_n \\). "}, {"name": "Definicja 2: Ciąg malejący", "content": "Mówimy, że ciąg \\( (a_n)_{n \\in M} \\) jest malejący, jeżeli dla wszystkich \\( n \\in M \\) spełniona jest nierówność \\( a_{n+1} < a_n \\). "}, {"name": "Definicja 3: Ciąg stały", "content": " Mówimy, że ciąg \\( (a_n)_{n \\in M} \\) jest stały, jeżeli dla wszystkich \\( n \\in M \\) spełniona jest równość \\( a_{n+1} = a_n \\). "}, {"name": "Definicja 4: Ciąg niemalejący", "content": " Mówimy, że ciąg \\( (a_n)_{n \\in M} \\) jest niemalejący, jeżeli dla wszystkich \\( n \\in M \\) spełniona jest nierówność \\( a_{n+1}\\geq a_n \\). "}, {"name": "Definicja 5: Ciąg nierosnący", "content": " Mówimy, że ciąg \\( (a_n)_{n \\in M } \\) jest nierosnący, jeżeli dla wszystkich \\( n \\in M \\) spełniona jest nierówność \\( a_{n+1} \\leq a_n \\). "}, {"name": "Definicja 6: Ciąg rosnący od pewnego miejsca", "content": " Jeżeli dziedziną ciągu \\( (a_n) \\) jest \\( \\mathbb{N} \\) i istnieje \\( n_0 \\in \\mathbb{N} \\) takie, że dla każdego \\( n \\geq n_0 \\) spełniona jest nierówność \\( a_{n+1} > a_n \\) , to mówimy, że ciąg jest rosnący od pewnego miejsca. "}, {"name": "Definicja 7: Ciąg malejący od pewnego miejsca", "content": " Jeżeli dziedziną ciągu \\( (a_n) \\) jest \\( \\mathbb{N} \\) i istnieje \\( n_0 \\in \\mathbb{N} \\) takie, że dla każdego \\( n \\geq n_0 \\) spełniona jest nierówność \\( a_{n+1} < a_n \\) , to mówimy, że ciąg jest malejący od pewnego miejsca."}, {"name": "Definicja 8: Ciąg stały od pewnego miejsca", "content": " Jeżeli dziedziną ciągu \\( (a_n) \\) jest \\( \\mathbb{N} \\) i istnieje \\( n_0 \\in \\mathbb{N} \\) takie, że dla każdego \\( n \\geq n_0 \\) spełniona jest równość \\( a_{n+1} = a_n \\) , to mówimy, że ciąg jest stały od pewnego miejsca."}]} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 136, "subject": "Ciąg ograniczony", "paragraphs": ["Zbadajmy zachowanie się ciągów ze względu na własność ograniczoności.", "Rys. 1 przedstawia wykres ciągu, którego wszystkie wyrazy są mniejsze od liczby A=2.", "Rys. 2 przedstawia wykres ciągu, którego wszystkie wyrazy są większe od liczby A=-1,6.", "Na Rys. 1 i Rys. 2 widzimy wykresy dwóch ciągów, przy czym wszystkie wyrazy pierwszego ciągu są mniejsze od pewnej liczby rzeczywistej i taki ciąg nazywamy ciągiem ograniczonym od góry, podczas gdy wszystkie wyrazy drugiego ciągu są większe od pewnej liczby rzeczywistej i nazywamy go ciągiem ograniczonym od dołu.", "Rys. 3 przedstawia wykres ciągu, którego wszystkie wyrazy są mniejsze od liczby 1, ale większe od liczby -3. Oznacza to, że wszystkie wyrazy tego ciągu leżą w przedziale \\( [-3,3] \\).", "Istnieją również ciągi, które są ograniczone zarówno od góry, jak i od dołu i taki ciąg nazywamy ograniczonym. Zauważamy, że wszystkie wyrazy ciągu ograniczonego leżą w przedziale \\( [-A, A] \\), dla pewnej liczby \\( A>0 \\).", "Rys. 4 przedstawia wykres ciągu, dla którego znajdą się wyrazy zarówno większe jak i mniejsze od dowolnej liczby rzeczywistej. Ciąg taki nie spełnia więc żadnego z warunków ograniczoności.", "W przypadku, gdy nie znajdziemy takiej liczby, od której wszystkie wyrazy ciągu byłyby mniejsze, lub takiej, od której wszystkie wyrazy byłyby większe, to ciąg o tej własności nazywamy nieograniczonym.", "Aby analitycznie zbadać, czy ciąg jest ograniczony od góry (albo od dołu) należy znaleźć liczbę rzeczywistą, dla której spodziewamy się, że każdy wyraz ciągu będzie od niej mniejszy (albo większy), a następnie udowodnić, że rzeczywiście tak jest. Znaleźć taką liczbę można korzystając z wykresu ciągu lub z ogólnych zasad pozwalających ograniczać wartości wyrażeń. Warto zauważyć prosty fakt, że ciąg rosnący jest zawsze ograniczony od dołu, a ciąg malejący jest ograniczony od góry przez swój pierwszy wyraz."], "definitions": [{"name": "Definicja 1: Ciąg ograniczony od góry", "content": " Mówimy, że ciąg \\( (a_n) \\) jest ograniczony od góry, jeżeli istnieje liczba \\( A \\in \\mathbb{R} \\) taka, że dla każdego \\( n \\in \\mathbb{N} \\) zachodzi \\( a_n \\leq A \\)."}, {"name": "Definicja 2: Ciąg ograniczony od dołu", "content": " Mówimy, że ciąg \\( (a_n) \\) jest ograniczony od dołu, jeżeli istnieje liczba \\( A \\in \\mathbb{R} \\) taka, że dla każdego \\( n \\in \\mathbb{N} \\) zachodzi \\( a_n \\geq A \\). "}, {"name": "Definicja 3: Ciąg ograniczony", "content": " Mówimy, że ciąg \\( (a_n) \\) jest ograniczony, jeżeli ciąg \\( (a_n) \\) jest ograniczony od dołu i od góry, co jest równoważne warunkowi, że istnieje liczba \\( A \\gt 0 \\) taka, że dla każdego \\( n \\in \\mathbb{N} \\) zachodzi \\( |a_n| \\leq A \\). "}]} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 137, "subject": "Granica ciągu", "paragraphs": ["Dla kolejnych rozważań zakładamy, że ciąg \\( (a_n) \\) jest nieskończony. Zastanówmy się, jak zachowują się wyrazy ciągu \\( (a_n) \\), jeżeli \\( n \\) jest coraz większe, czyli mówimy, że \\( n \\) zmierza do nieskończoności. Na Rys. 1 widzimy ciąg o wyrazach dodatnich, którego wyrazy, wraz ze wzrostem wartości \\( n \\), coraz bardziej zbliżają się do liczby zero, nigdy tej wartości nie osiągając. Jeżeli jednak wybierzemy liczbę \\( \\varepsilon \\gt 0 \\), dowolnie bliską zeru, to nieskończenie wiele wyrazów ciągu leży w przedziale \\( \\lbrack - \\varepsilon, \\varepsilon\\rbrack \\).", "Komentarz W wielu sytuacjach warto wiedzieć czy wyrazy rozważanego ciągu mają tendencję do skupiania się wokół jakiejś liczby. Gdyby rzeczywiście tak było, to znajomość tej liczby pozwala „zlokalizować” nasz ciąg na osi. Oznacza to, że prawie wszystkie, poza skończoną ilością, wyrazy naszego ciągu leżą w pobliżu danej liczby, którą nazywamy granicą ciągu. Fakt, że liczba \\( g \\) jest granicą właściwą ciągu \\( (a_n) \\) oznacza więc, że prawie wszystkie (tzn. wszystkie od pewnego miejsca) wyrazy ciągu leżą w przedziale \\( (g-\\varepsilon,g+\\varepsilon) \\), a ponieważ \\( \\varepsilon \\) może być dowolnie małe, tak więc dowolnie blisko liczby \\( g \\) znajduje się nieskończenie wiele wyrazów ciągu \\( (a_n) \\)", "Zauważamy, że ciągi z Rys. 2 zachowują się, przy \\( n \\) zmierzającym do nieskończoności, inaczej niż ciąg zbieżny do pewnej granicy \\( g \\). Jeżeli wybierzemy dowolnie dużą liczbę \\( E>0 \\), to nieskończenie wiele wyrazów ciągu pierwszego jest większych od liczby \\( E \\), oraz nieskończenie wiele wyrazów ciągu drugiego jest mniejszych od liczby \\( -E \\). Z dowolności wyboru liczby \\( E \\) wnioskujemy, że wyrazy żadnego z obydwu ciągów nie lokalizują się w pobliżu żadnej liczby rzeczywistej. Mówimy wtedy, że ciąg jest rozbieżny do \\( + \\infty \\), w pierwszym przypadku, albo do \\( - \\infty \\), w drugim przypadku.", "Na Rys. 3 widzimy wykres ciągu, który ma nieskończenie wiele wyrazów, większych od dowolnie wybranej liczby \\( E>0 \\), ale równocześnie ma też nieskończenie wiele wyrazów, które są mniejsze od liczby \\( –E \\). Wyrazy tego ciągu nie tylko nie lokalizują się wokół żadnej liczby rzeczywistej, ale również nie spełniają definicji ciągu rozbieżnego do \\( + \\infty \\), ani do \\( - \\infty \\). Taki ciąg nazywamy ciągiem rozbieżnym, albo ciągiem, który nie ma granicy."], "definitions": [{"name": "Definicja 1: Granica właściwa ciągu", "content": "Mówimy, że ciąg nieskończony \\( (a_n) \\) ma granicę właściwą \\( g \\), jeżeli dla dowolnej liczby \\( \\varepsilon \\gt 0 \\) od pewnego miejsca zachodzi warunek \\( |a_n-g| \\lt \\varepsilon \\). "}, {"name": "Definicja 2: Granica niewłaściwa \\( + \\infty \\) ciągu", "content": "Mówimy, że ciąg \\( (a_n) \\) ma granicę niewłaściwą \\( + \\infty \\), jeżeli dla dowolnej liczby \\( E>0 \\) od pewnego miejsca zachodzi nierówność \\( a_n> E \\). "}, {"name": "Definicja 3: Granica niewłaściwa \\( - \\infty \\) ciągu", "content": "Mówimy, że ciąg \\( (a_n) \\) ma granicę niewłaściwą \\( - \\infty \\), jeżeli dla dowolnej liczby \\( E>0 \\) od pewnego miejsca zachodzi nierównośc \\( a_n<-E \\). "}, {"name": "Definicja 4: Ciąg rozbieżny", "content": "Ciąg, który nie posiada granicy właściwej ani niewłaściwej nazywamy ciągiem rozbieżnym."}]} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 138, "subject": "Własności granic ciągów", "paragraphs": ["Rys. 1 przedstawia wykres ciągu, który jest zbieżny do granicy \\( 2 \\). Ponieważ wiemy z definicji granicy ciągu, że prawie wszystkie jego wyrazy leżą w przedziale \\( [1,3] \\) i poza tym przedziałem leży tylko skończona liczba wyrazów ciągu, więc jeżeli są wyrazy większe od \\( 3 \\), to żaden wyraz ciągu nie będzie większy niż największy z tych, które są większe od \\( 3 \\).", "Analogicznie rozumujemy ograniczając ciąg od dołu albo przez liczbę \\( 1 \\), albo przez najmniejszy z wyrazów, które są mniejsze od \\( 1 \\).", "Rys. 2 przedstawia wykres ciągu, który jest ograniczony, ale nie posiada granicy właściwej. Przykład ten pokazuje, że własność ograniczoności ciągu nie jest tożsama ze zbieżnością, czyli istnieją ciągi, które są ograniczone i nie mają granicy właściwej.", "Rys. 3 przedstawia dwa ciągi, z których pierwszy jest rozbieżny do \\( + \\infty \\), a drugi rozbieżny do \\( - \\infty \\). Zauważamy, że prawie wszystkie wyrazy pierwszego ciągu są większe od dowolnej liczby rzeczywistej oraz prawie wszystkie wyrazy drugiego ciągu są mniejsze od dowolnej liczby rzeczywistej.", "Rys. 4 pokazuje ciąg, którego nieskończenie wiele wyrazów leży dowolnie blisko liczby \\( 1 \\), ale również nieskończenie wiele wyrazów leży dowolnie blisko liczby \\( -1 \\).", "Jeżeli wybierzemy \\( \\varepsilon \\in (0,1) \\), to poza przedziałami \\( [ 1- \\varepsilon, 1+ \\varepsilon ] \\) oraz \\( [ -1- \\varepsilon, -1+ \\varepsilon ] \\) leży zawsze nieskończenie wiele wyrazów ciągu, czyli liczby \\( 1 \\) ani \\( -1 \\) nie mogą być granicami ciągu. Tym bardziej granicą nie może być żadna inna liczba rzeczywista różna od \\( 1 \\) i \\( -1 \\). Pokazuje to, że nawet jeżeli nieskończenie wiele wyrazów ciągu skupia się wokół pewnej liczby rzeczywistej, to nie musi ona być granicą ciągu.", "Rys. 5 przedstawia na jednym wykresie dwa ciągi zbieżne, z których jeden (czerwony) ma wyrazy od pewnego miejsca większe niż drugi (niebieski). Wydaje się być oczywiste, że granica ciągu o wyrazach większych nie może być mniejsza od granicy ciągu o wyrazach mniejszych. Już nie taki oczywisty jest fakt, że granice te mogą być równe, mimo, że pomiędzy wyrazami zachodzą nierówności silne.", "Rys. 6 przedstawia dwa ciągi ograniczone, z których jeden jest rosnący (niebieski), a drugi malejący (czerwony). Zauważamy, że obydwa ciągi mają granice właściwe, ciąg rosnący i ograniczony od góry jest zbieżny do najmniejszego swojego ograniczenia górnego, a ciąg malejący i ograniczony od dołu jest zbieżny do największego swojego ograniczenia dolnego."], "definitions": []} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 139, "subject": "Symbole oznaczone i nieoznaczone w granicy ciągu", "paragraphs": ["Na wyrazach dwóch lub więcej ciągów możemy wykonywać działania arytmetyczne otrzymując nowy ciąg. Jeżeli ciągi wyjściowe były zbieżne, to analogiczne działania arytmetyczne można również wykonywać na granicach właściwych tych ciągów, ale także na granicach niewłaściwych otrzymując symbole graniczne ujmowane w nawisy kwadratowe, dla zaznaczenia, że nie są to działania wykonywane na liczbach, tylko na granicach. Niektóre z tych symboli dają zawsze ten sam wynik, bez względu na to jakie ciągi składowe dają określony symbol graniczny i nazywamy je symbolami oznaczonymi. Niektóre znów dają różne wyniki w zależności od tego, na jakich ciągach wykonujemy działania i takie symbole nazywamy nieoznaczonymi.", "Rys. 1 przedstawia dwa ciągi, z których jeden (czerwony) powstaje z drugiego (niebieskiego) poprzez operację odwrócenia wyrazów ciągu tzn. \\( b_n= \\frac{1}{a_n} \\) . Zauważamy, że jeżeli ciąg wyjściowy jest rozbieżny do \\( + \\infty \\), to ciąg odwrotności jego wyrazów jest zbieżny do zera i na odwrót, jeżeli ciąg wyjściowy o wyrazach dodatnich jest zbieżny do zera, to ciąg odwrotności jego wyrazów jest rozbieżny do \\( +\\infty \\)."], "definitions": [{"name": "Definicja 1: Symbol oznaczony i nieoznaczony", "content": "\nSymbolem oznaczonym nazywamy wyrażenie algebraiczne, które jest umownym zapisem działań wykonywanych na granicach i które daje zawsze taki sam wynik zależny tylko od granic ciągów, z których powstaje symbol graniczny.\n\nSymbolem nieoznaczonym nazywamy wyrażenie algebraiczne, które jest umownym zapisem działań wykonywanych na granicach i którego wartości nie da się jednoznacznie obliczyć na podstawie jedynie granic ciągów, z których powstaje symbol graniczny.\n\n"}]} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 140, "subject": "Twierdzenia pozwalające wyliczać granice ciągów", "paragraphs": ["Rys. 1 przedstawia na jednym wykresie dwa ciągi, z których jeden ma od pewnego miejsca wyrazy większe od drugiego. Na pierwszym wykresie ciąg o wyrazach mniejszych (czerwony) jest rozbieżny do \\( +\\infty \\) i na podstawia twierdzenia o zachowaniu nierówności w granicy możemy wnioskować, że ciąg o wyrazach większych (niebieski) też musi być rozbieżny do \\( +\\infty \\).", "Na Rys. 2 przedstawiony jest ciąg o wyrazach większych (czerwony), który jest rozbieżny do \\( -\\infty \\) i stąd wnioskujemy, że ciąg o wyrazach mniejszych (niebieski) tez musi być rozbieżny do \\( -\\infty \\).", "Rys. 3 przedstawia na jednym wykresie trzy ciągi, z których jeden (czerwony) ma wyrazy od pewnego miejsca leżące pomiędzy wyrazami dwóch innych ciągów (niebieskiego i zielonego), przy czym ciągi o wyrazach skrajnych są zbieżne do tej samej granicy właściwej \\( g \\). Ponieważ prawie wszystkie wyrazy ciągów skrajnych leżą w przedziale \\( (g-\\epsilon,g+\\epsilon) \\), a wyrazy ciągu środkowego leżą pomiędzy wyrazami ciągów skrajnych, to z konieczności w przedziale \\( (g-\\epsilon,g+\\epsilon) \\) leża prawie wszystkie wyrazy ciągu środkowego, czyli ma on taką sama granicę \\( g \\).", "Rys. 4 przedstawia wykres ciągu zbieżnego do zera (niebieski) oraz wykres ciągu ograniczonego (czerwony) i wykres ciągu, którego każdy wyraz jest iloczynem wyrazów poprzednich ciągów (zielony). Ponieważ prawie wszystkie wyrazy ciągu zbieżnego do zera leżą w przedziale \\( (-\\epsilon,\\epsilon) \\) i wszystkie wyrazy ciągu ograniczonego lezą w przedziale \\( [-A,A] \\), to prawie wszystkie wyrazy iloczynu tych ciągów leżą w przedziale \\( (-\\epsilon A,\\epsilon A) \\). Z dowolności liczby \\( \\epsilon \\) otrzymujemy, że liczba \\( \\epsilon A \\) może też być dowolnie mała, czyli liczba zero jest granicą iloczynu wyjściowych ciągów."], "definitions": []} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 141, "subject": "Granice pewnych ciągów specjalnych", "paragraphs": ["Rys. 1 przedstawia wykres ciągu \\( a_n=\\left(1+\\frac{1}{n}\\right)^n \\). Zauważamy, że jest to ciąg rosnący, ograniczony od dołu przez liczbę \\( 2 \\), a od góry przez liczbę \\( 2,8 \\). Z twierdzenia o ciągu monotonicznym i ograniczonym wnioskujemy, że jest to ciąg zbieżny.", "Komentarz Liczba Eulera, znana również pod nazwą liczby Nepera, pojawia się jako jedna z podstawowych wielkości w fizyce, a także ekonomii, naukach społecznych itp. Liczba \\( e \\) jest wykorzystywana w wielu zagadnieniach matematycznych, widzimy ją w podstawie tzw. logarytmu naturalnego oraz jako podstawę funkcji wykładniczej \\( e^x \\), która jest niezastąpiona w równaniach różniczkowych, wystepuje we wzorach funkcji specjalnych, liczbach zespolonych itd."], "definitions": [{"name": "Definicja 1: liczba Eulera lub Nepera", "content": "Granicę ciągu \\( a_n=\\left(1+\\frac{1}{n}\\right)^n \\) nazywamy liczbą Eulera lub Nepera."}]} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 142, "subject": "Metody obliczania granic ciągów", "paragraphs": ["Obliczanie granic ciągów, w najbardziej ogólnym rozumieniu, polega na wyznaczeniu symbolu granicznego i jeżeli otrzymujemy symbol oznaczony, to stosujemy odpowiednie twierdzenie podając wartość tego symbolu. Jeżeli otrzymujemy symbol nieoznaczony, to do wyrazu ciągu stosujemy odpowiednie przekształcenia algebraiczne tak, aby powstał symbol oznaczony. Do przekształcania konkretnych symboli nieoznaczonych można stosować szereg metod, które pozwalają wyliczać granice ciągów. Należy zauważyć że podane poniżej metody mają swoje zastosowanie w przypadku ściśle określonych typów ciągów dających w granicy symbol nieoznaczony, jednak są to najczęściej spotykane sytuacje, dlatego warto metody te poznać."], "definitions": []} {"field": "Matematyka", "coursebook": "Ciągi liczbowe", "chapter": "", "subject_id": 143, "subject": "Podciąg i WKW zbieżności ciągu", "paragraphs": ["Rys. 1 przedstawia wykres ciągu o dziedzinie \\( \\mathbb{N} \\) (niebieski), z którego zostały wybrane tylko pewne wyrazy (poprawione na czerwono). Indeksy tych wyrazów zostały zaznaczone na osi odciętych (zielone) i są to pewne liczby naturalne tworzące ciąg liczb naturalnych \\( (n_k) \\).", "Komentarz Nieskończenie wiele, ale nie wszystkie, wyrazy starego ciągu \\( (a_n) \\) tworzą więc nowy ciąg \\( (a_{n_k}) \\) indeksowany liczbami \\( n_k \\), które zachowują porządek liczb naturalnych, tzn. jeżeli \\( k < l \\), to \\( n_k < n_l \\). Czyli na bazie ciągu starego powstaje nowy ciąg nieskończony, którego dziedzina jest podzbiorem zbioru \\( \\mathbb{N} \\). Taki nowy ciąg nazywamy podciągiem ciągu starego. Oczywiste jest, że mamy nieskończenie wiele możliwości utworzenia z ciągu bazowego różnych jego podciągów np. poprzez odrzucenie pewnej skończonej liczby wyrazów ciągu, poprzez wybranie wyrazów o indeksach będących wielokrotnością pewnej liczby naturalnej itp.", "Rys. 2 przedstawia ciąg zbieżny do granicy \\( 3 \\) (niebieski) i wybrany z niego podciąg (czerwony). Z definicji granicy wiemy, że dla dowolnego \\( \\epsilon >0 \\) prawie wszystkie wyrazy ciągu leżą w przedziale \\( (3-\\epsilon,3+\\epsilon) \\), a ponieważ wyrazy podciągu są jednocześnie wyrazami naszego ciągu, prawie wszystkie wyrazy podciągu też leżą w tym przedziale. Czyli możemy wnioskować, że dla ciągu zbieżnego, wszystkie jego podciągi są zbieżne do tej samej granicy, co wyjściowy ciąg. Rozumowanie to działa też w drugą stronę, gdyż przy założeniu, że wszystkie podciągi badanego ciągu są zbieżne do tej samej granicy, a jednym z podciągów jest np. wyjściowy ciąg bez kilku początkowych wyrazów, więc wyjściowy ciąg też jest zbieżny do tej samej granicy, gdyż skończona liczba początkowych wyrazów nie ma wpływu na zbieżność ciągu.", "Od razu widać mankamenty, ale też zalety tego twierdzenia. Wprawdzie wykazanie za pomocą WKW, że jakiś ciąg jest zbieżny, jest dość trudne, bo musielibyśmy znaleźć wszystkie możliwe podciągi naszego ciągu i pokazać, że mają takie same granice, ale wykazanie, że ciąg jest rozbieżny jest za to bardzo proste. Wystarczy znaleźć jakiekolwiek dwa podciągi, które mają różne granice i wtedy na podstawie WKW wiadomo, że ciąg nie jest zbieżny."], "definitions": [{"name": "Definicja 1: Podciąg", "content": "Nieskończonym podciągiem ciągu \\( a_n={\\textbf a}(n), n\\in \\mathbb{N} \\) nazywamy funkcję \\( {\\textbf a}\\colon A\\to \\mathbb{R} \\), gdzie \\( A\\subset \\mathbb{N} \\) i zbiór \\( A \\) jest nieskończony."}]} {"field": "Matematyka", "coursebook": "Ciągłość funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 79, "subject": "Definicja ciągłości funkcji. Przykłady", "paragraphs": [], "definitions": [{"name": "Definicja 1: Otoczenie punktu na prostej liczbowej", "content": "\nOtoczeniem \\( U \\) punktu \\( x_0\\in \\mathbb{R} \\) nazywamy każdy przedział otwarty zawierający ten punkt.\nOtoczeniem punktu \\( x_0 \\) o promieniu \\( r \\) nazywamy przedział \\( U_{(x_0,r)}=(x_0-r,x_0+r) \\).\nOtoczenia jednostronne punktu \\( x_0 \\) to odpowiednio:\n\n otoczenie lewostronne punktu \\( x_0 \\): \\( U_{(x_0^-,r)}=(x_0-r,x_0] \\)\n otoczenie prawostronne punktu \\( x_0 \\): \\( U_{(x_0^+,r)}=[x_0,x_0+r) \\)\n"}, {"name": "Definicja 2: Ciągłość funkcji w punkcie", "content": "\nNiech funkcja \\( f \\) będzie określona w pewnym otoczeniu \\( U_{x_0} \\). Mówimy, że funkcja \\( f \\) jest ciągła w punkcie \\( x_0\\in D_f \\) wtedy i tylko wtedy, gdy spełnione są dwa warunki:\n\n istnieje granica \\( \\lim\\limits_{x\\to x_0}f(x) \\),\n granica ta jest równa wartości funkcji w punkcie \\( x_0 \\), czyli \\( \\lim\\limits_{x\\to x_0}f(x)=f(x_0) \\).\n"}, {"name": "Definicja 3: Ciągłość jednostronna", "content": "\nNiech funkcja \\( f \\) będzie określona przynajmniej w prawostronnym otoczeniu punktu \\( x_0 \\).\nMówimy, że funkcja \\( f \\) jest prawostronnie ciągła w punkcie \\( x_0\\in D_f \\) wtedy i tylko wtedy, gdy spełnione są dwa warunki:\n\n istnieje granica prawostronna \\( \\lim\\limits_{x\\to x_0^+}f(x) \\)\n granica ta jest równa wartości funkcji w punkcie \\( x_0 \\) czyli \\( \\lim\\limits_{x\\to x_0^+}f(x)=f(x_0) \\)\nNiech teraz funkcja \\( f \\) będzie określona przynajmniej w lewostronnym otoczeniu punktu \\( x_0 \\).\nMówimy, że funkcja \\( f \\) jest lewostronnie ciągła w punkcie \\( x_0\\in D_f \\) wtedy i tylko wtedy, gdy spełnione są dwa warunki:\n\n istnieje granica lewostronna \\( \\lim\\limits_{x\\to x_0^-}f(x) \\)\n granica ta jest równa wartości funkcji w punkcie \\( x_0 \\), czyli \\( \\lim\\limits_{x\\to x_0^-}f(x)=f(x_0) \\).\n"}, {"name": "Definicja 4: Ciągłość funkcji w przedziale", "content": "\nFunkcja \\( f \\) jest ciągła w przedziale otwartym \\( (a,b) \\), jeżeli jest ciągła w każdym punkcie tego przedziału.\nFunkcja \\( f \\) jest ciągła w przedziale domkniętym \\( [a,b] \\), jeżeli jest ciągła w każdym punkcie wewnątrz tego przedziału oraz jest prawostronnie ciągła w punkcie \\( a \\) i lewostronnie ciągła w punkcie \\( b \\).\nFunkcja \\( f \\) jest ciągła w dowolnym zbiorze \\( A \\) jeżeli jest odpowiednio ciągła w każdym punkcie tego zbioru.\nFunkcja jest ciągła, jeśli jest ciągła w całej swojej dziedzinie.\n\n"}]} {"field": "Matematyka", "coursebook": "Ciągłość funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 80, "subject": "Funkcja nieciągła. Typy nieciągłości funkcji", "paragraphs": [], "definitions": [{"name": "Definicja 1: Funkcja nieciągła", "content": "Funkcję \\( f \\) nazywamy funkcją nieciągłą, gdy nie jest ona ciągła w co najmniej jednym punkcie swojej dziedziny. Każdy taki punkt nazywamy punktem nieciągłości funkcji.\n"}]} {"field": "Matematyka", "coursebook": "Ciągłość funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 81, "subject": "Własności funkcji ciągłych", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Ciągłość funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 82, "subject": "Zastosowanie twierdzenia Darboux do rozwiązywania równań", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Funkcje jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 110, "subject": "Pojęcie funkcji. Dziedzina i przeciwdziedzina", "paragraphs": ["W otaczającej nas rzeczywistości zarówno fizycznej jak i społecznej, występuje wiele zależności pomiędzy różnymi zjawiskami, obiektami czy wielkościami. Na przykład, podczas jazdy samochodem długość przebytej drogi zależy od czasu podróży. Każdej chwili odpowiada, przebyta dotąd droga. W sytuacji, gdy jedziemy ze stałą prędkością dystans ten możemy bardzo łatwo obliczyć mnożąc prędkość przez czas.", "W sytuacji realnej najczęściej prędkość jest zmienna, jedziemy raz szybciej raz wolniej, co parę godzin zatrzymujemy się, jednakże i wówczas każdej chwili podróży możemy przyporządkować liczbę przejechanych kilometrów. Jako przykłady z innej dziedziny zauważmy, że każdemu członkowi danej społeczności (np. każdemu obywatelowi Polski) odpowiada jego data urodzenia.", "Każdemu obywatelowi nadawany jest też numer identyfikacyjny PESEL, a każdemu studentowi danego wydziału AGH odpowiada numer jego indeksu (tzw. numer albumu). We wszystkich wspomnianych przykładach mamy do czynienia z odpowiedniością pomiędzy elementami dwóch zbiorów \\( X \\) oraz \\( Y \\) .", "W przypadku podróży \\( X \\) oznacza przedział liczbowy określający czas jazdy od chwili początkowej, która może być przyjęta umownie, jako czas \\( t=0 \\) do końca podróży \\( t=T \\) . Możemy wówczas zapisać \\( X=[0,T] \\) ). \\( Y \\) to zbiór nieujemnych liczb rzeczywistych wyrażających długość przebytej drogi (np. w kilometrach). W drugim i trzecim przykładzie \\( X \\) jest zbiorem wszystkich obywateli RP, a w czwartym zbiorem wszystkich studentów wydziału.", "Zauważmy, że we wszystkich tych przypadkach każdemu elementowi \\( x \\) ze zbioru \\( X \\) odpowiada tylko jeden elementy ze zbioru \\( Y \\). Faktycznie, jeden człowiek nie może mieć dwóch różnych dat urodzenia, w każdej chwili podróży stwierdzamy, że przejechaliśmy konkretną liczbę kilometrów itd.Ta jedyność elementu \\( y \\) odpowiadającego danemu elementowi x ma kluczowe znaczenie w pojęciu funkcji.", "Jeżeli zbiory \\( X \\) i \\( Y \\) są podzbiorami zbioru liczb rzeczywistych \\( \\mathbb R \\) to mówimy, że \\( f \\) jest funkcją rzeczywistą (myśląc o jej wartości ze zbioru liczb rzeczywistych) zmiennej rzeczywistej (myśląc o jej argumentach ze zbioru liczby rzeczywistych). Możemy, więc zanotować następującą definicję."], "definitions": [{"name": "Definicja 1: Funkcja", "content": "\nNiech będzą dane niepuste zbiory \\( X \\) i \\( Y \\).\n\n Funkcją odwzorowującą zbiór \\( X \\) w zbór \\( Y \\) (co zapisujemy \\( f:X\\to Y \\)) nazywamy przyporządkowanie każdemu elementowi \\( x \\) ze zbioru \\( X \\) dokładnie jednego elementu \\( y \\) ze zbioru \\( Y \\). Element \\( x \\) ze zbioru \\( X \\) nazywamy argumentem funkcji a jedyny element \\( y \\) ze zbioru \\( Y \\), który został przyporządkowany elementowi \\( x \\) oznaczamy przez \\( f(x) \\) i nazywamy wartością funkcji \\( f \\) dla argumentu \\( x \\).\n\n\nZbiór \\( X \\) nazywamy dziedziną funkcji \\( f \\) i oznaczamy przez \\( D_f \\). Zbiór obrazów wszystkich argumentów czyli zbiór elementów \\( \\{f(x):x\\in X\\} \\) nazywamy przeciwdziedziną lub zbiorem wartości funkcji \\( f \\) i oznaczamy \\( \\mathbb R_f \\). Przeciwdziedzina jest zawsze podzbiorem zbioru \\( Y \\). Rysunek 1: Funkcja \\( f:X\\to Y \\)\n "}, {"name": "Definicja 2: Funkcja rzeczywista zmiennej rzeczywistej", "content": "\nNiech \\( X \\) oraz \\( Y \\) będą niepustymi podzbiorami liczb rzeczywistych \\( \\mathbb R \\).\n\nFunkcją rzeczywistą zmiennej rzeczywistej prowadzącą ze zbioru \\( X \\) w zbiór \\( Y \\) (co zapisujemy \\( f:X\\to Y \\)) nazywamy przyporządkowanie każdej liczby \\( x \\) ze zbioru \\( X \\) dokładnie jednej liczby \\( y \\) ze zbioru \\( Y \\).Rysunek 2: Funkcja rzeczywista \\( f:X\\to Y \\)\n "}, {"name": "Definicja 3: Teoriomnogościowa definicja funkcji", "content": "\nNiech \\( X \\) i \\( Y \\) będą dowolnymi niepustymi zbiorami.\n\nFunkcją o dziedzinie \\( X \\) i wartościach ze zbioru \\( Y \\) nazywamy zbiór \\( f \\) par uporządkowanych \\( (x, y) \\) takich, że pierwszy element pary należy do zbioru \\( X \\), a drugi do zbioru \\( Y \\) oraz zbiór par spełnia tzw. warunek prawostronnej jednoznaczności tzn. dla każdego elementu \\( x \\) ze zbioru \\( X \\) w zbiorze par \\( f \\) jest tylko jedna para mająca \\( x \\) na pierwszym miejscu."}]} {"field": "Matematyka", "coursebook": "Funkcje jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 111, "subject": "Wykres funkcji", "paragraphs": [], "definitions": [{"name": "Definicja 1: Wykres funkcji", "content": "\n\nWykres funkcji \\( f:X \\to Y \\) jest to zbiór par uporządkowanych\n\n\n \\( \\{(x,y):x\\in X, y\\in Y, y=f(x)\\} \\) "}]} {"field": "Matematyka", "coursebook": "Funkcje jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 112, "subject": "Przekształcanie wykresów funkcji", "paragraphs": ["W wielu przypadkach funkcja, którą badamy, „nieznacznie” różni się od pewnej funkcji \\( f \\) o znanym wykresie. Wówczas możemy narysować jej wykres, stosując odpowiednie przekształcenie znanego wykresu funkcji \\( f \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Funkcje jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 113, "subject": "Sposoby zadawania funkcji", "paragraphs": ["Funkcję \\( f \\) możemy opisać:", "słownie: \\( f \\) jest funkcją przyporządkowującą każdej liczbie ze zbioru \\( \\{1,2,5,7\\} \\) różnicę liczby od niej dwa razy większej i jedynki za pomocą jednego z następujących wzorów:"], "definitions": []} {"field": "Matematyka", "coursebook": "Funkcje jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 114, "subject": "Dziedzina naturalna funkcji", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Funkcje jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 115, "subject": "Suriekcja, iniekcja, bijekcja", "paragraphs": ["Funkcja \\( f \\) jest różnowartościowa gdy dowolna prosta pozioma o równaniu \\( y=\\textrm{const} \\) przecina wykres \\( f \\) w co najwyżej jednym punkcie."], "definitions": [{"name": "Definicja 1: Suriekcja czyli funkcja „na”", "content": "\nMówimy, że \\( f:X\\to Y \\) jest suriekcją, (czyli funkcją „na”) wtedy i tylko wtedy, gdy jej zbiór wartości jest równy zbiorowi końcowemu \\( Y \\).\n\nZapisujemy wówczas \\( f:X\\xrightarrow{na} Y \\) co odczytujemy: funkcja \\( f \\) prowadzi ze zbioru \\( X \\)na zbiór \\( Y \\)."}, {"name": "Definicja 2: Funkcja różnowartościowa, iniekcja", "content": "Mówimy, że \\( f:X\\to Y \\) jest iniekcją (funkcją różnowartościową) wtedy i tylko wtedy, gdy dla każdych elementów \\( x_1,x_2\\in X \\) stąd, że \\( x_1\\neq x_2 \\) wynika, że \\( f(x_1)\\neq f(x_2) \\)\nInterpretacja geometryczna różnowartościowości."}, {"name": "Definicja 3: Funkcja różnowartościowa na zbiorze", "content": "Mówimy, że funkcja \\( f \\) jest różnowartościowa w zbiorze \\( A \\) zawartym w dziedzinie wtedy i tylko wtedy, gdy jej restrykcja do zbioru \\( A \\) jest funkcja różnowartościową."}, {"name": "Definicja 4: Bijekcja", "content": "Funkcję \\( f:X\\to Y \\)nazywamy bijekcją wtedy i tylko wtedy, gdy jest funkcją różnowartościową oraz „na”, czyli jest zarówno iniekcją jak i suriekcją jednocześnie.\n"}]} {"field": "Matematyka", "coursebook": "Funkcje jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 116, "subject": "Restrykcja (zawężenie) funkcji", "paragraphs": [], "definitions": [{"name": "Definicja 1: Równość funkcji", "content": "Mówimy, że funkcje \\( f \\) i \\( g \\) są równe wtedy i tylko wtedy, gdy mają te same dziedziny oraz dla każdego punktu wspólnej dziedziny mają te same wartości. Możemy to zapisać \\( f=g\\Leftrightarrow D_f=D_g \\) i dla każdego \\( x\\in D_f=D_g \\) mamy \\( f(x)=g(x). \\)"}, {"name": "Definicja 2: Restrykcja funkcji", "content": "\nNiech będzie dana funkcja \\( f:X\\to Y \\) oraz zbiór \\( A\\subset X \\).\n\nFunkcje \\( g:A\\to Y \\) taką, że dla każdego \\( x\\in A \\) zachodzi równość \\( g(x)=f(x) \\) nazywamy restrykcją lub zawężeniem funkcji \\( f \\) do zbioru \\( A \\) i oznaczamy \\( f_ {\\vert A} \\) Rysunek 1: Restrykcja funkcji, funkcja \\( f_1 \\) jest zawężeniem funkcji \\( f \\) do zbioru \\( \\mathbb R_+ \\)\n "}]} {"field": "Matematyka", "coursebook": "Funkcje jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 117, "subject": "Podstawowe własności funkcji: okresowość, parzystość, nieparzystość, ograniczoność, monotoniczność", "paragraphs": ["Aby sporządzić wykres funkcji okresowej, wystarczy narysować go dla argumentów z dowolnego przedziału o długości \\( w \\), a następnie „powielić” na prawo i lewo od tego przedziału. Podobnie, aby podać funkcję okresową wystarczy zadać jej wartości w takim przedziale. Najbardziej znanymi funkcjami okresowymi są funkcje trygonometryczne. Okres podstawowy funkcji sinus i cosinus wynosi \\( 2\\pi \\), zaś funkcji tangens i cotangens \\( \\pi \\).", "Funkcję nazywamy ściśle monotoniczną w \\( A \\), jeśli jest ona rosnąca lub malejąca.", "Funkcje logartymiczne i wykładnicze o podstawie ułamkowej z przedziału \\( (0,1) \\) są malejące, stąd zmiana zwrotu podczas \"opuszczania\" symbolu tych funkcji, np: Rozwiązując nierówność:", "\\( \\log_{1\\over 2 }(3x+2)\\le \\log_{1\\over 2 }x^2, \\)", "pamiętamy, że funkcja \\( x\\mapsto \\log_{1\\over 2}x \\) jest malejąca i zmieniamy zwrot znaku nierówności przy \"opuszczaniu logarytmu otrzymując nierówność kwadratową\".", "\\( 3x+2\\ge x^2 \\)", "Natomiast podczas rozwiązywania nierówności: \\( \\log_2(3x+2)\\le \\log_2x^2, \\) wiedząc, że funkcja \\( x \\mapsto log_2x \\) jest rosnąca pozostawiamy niezmieniony zwrot nierówności otrzymując wówczas nierówność kwadratową \\( 3x+2\\le x^2, \\)"], "definitions": [{"name": "Definicja 1: Funkcja okresowa", "content": "\nFunkcję \\( f:X\\to\\mathbb R \\) nazywamy okresową, jeśli istnieje taka liczba \\( w\\neq 0 \\), że dla każdego \\( x\\in X \\) zachodzą warunki \\( x\\pm w\\in X \\) oraz \\( f(x\\pm w)=f(x) \\).\n\nLiczbę \\( w \\) nazywamy okresem funkcji. Jeżeli istnieje najmniejszy dodatni okres, to nazywamy go okresem podstawowym."}, {"name": "Definicja 2: Parzystość i nieparzystość funkcji", "content": "Funkcję \\( f:X\\to Y \\) nazywamy parzystą wtedy i tylko wtedy, gdy dla każdego \\( x\\in X \\) liczba \\( (-x)\\in X \\) oraz \\( f(-x)=f(x) \\). Funkcję \\( f:X\\to Y \\) nazywamy nieparzystą wtedy i tylko wtedy, gdy dla każdego \\( x\\in X \\) liczba \\( (-x)\\in X \\) oraz \\( f(-x)=-f(x) \\)."}, {"name": "Definicja 3: Funkcja ograniczona z góry", "content": "Funkcja \\( f:X\\to Y \\) jest ograniczona z góry, jeżeli jej zbiór wartości jest ograniczony z góry, czyli jeśli istnieje taka liczba \\( M \\), że dla każdego \\( x \\) należacego do dziedizny funkcji \\( f(x)\\le M. \\)"}, {"name": "Definicja 4: Funkcja ograniczona z dołu", "content": "Funkcja \\( f:X\\to Y \\) jest ograniczona z dołu, jeżeli jej zbiór wartości jest ograniczony z dołu, czyli jeśli istnieje taka liczba \\( m \\), że dla każdego \\( x\\in D_f \\) zachodzi \\( f(x)\\ge m. \\)"}, {"name": "Definicja 5: Funkcja ograniczona", "content": "\nFunkcja \\( f:X\\to F \\) jest ograniczona, jeśli jest ona ograniczona zarówno z góry jak i z dołu."}, {"name": "Definicja 6: Funkcja rosnąca", "content": "\nFunkcja \\( f \\) jest rosnąca w zbiorze \\( A\\subset D_f \\), jeśli dla każdych dwóch elementów \\( x_1,x_2\\in A \\) stąd, że \\( x_1f(x_2) \\)"}, {"name": "Definicja 9: Funkcja słabo malejąca", "content": "\nFunkcja \\( f \\) jest słabo malejąca (nierosnąca) w zbiorze \\( A\\subset D_f \\), jeśli dla każdych dwóch elementów \\( x_1,x_2\\in A \\) stąd, że \\( x_10 \\) i \\( a\\neq 1 \\). Funkcją wykładniczą o podstawie \\( a \\) nazywamy funkcję \\( f:\\mathbb R\\to\\mathbb R \\) określoną wzorem \\( f(x)=a^x \\). Dziedziną funkcji wykładniczej jest \\( \\mathbb R \\), zbiorem wartości \\( \\mathbb R_+ \\).\n\n\nFunkcja wykładnicza o podstawie \\( a>1 \\) jest rosnąca, natomiast o podstawie \\( 00 \\) i \\( a\\neq 1 \\). Funkcją logarytmiczną o podstawie \\( a \\) nazywamy funkcję \\( f:\\mathbb R\\to\\mathbb R \\) określoną wzorem \\( f(x)=\\log_ax \\). Dziedziną funkcji logarytmicznej jest \\( \\mathbb R_+ \\), zbiorem wartości \\( \\mathbb R \\)\n\n\nFunkcja logarytmiczna o podstawie \\( a>1 \\) jest rosnąca, natomiast o podstawie \\( 0 0 \\) i wyznaczamy przedział \\( (g-\\epsilon,g+\\epsilon) \\), który przedłużamy do pasa wzdłuż osi odciętych. Wyznaczamy punkty przecięcia prostych \\( y=g-\\epsilon \\) i \\( y=g+\\epsilon \\) z wykresem funkcji \\( f \\), które rzutujemy prostopadle na oś odciętych. Przez \\( \\delta \\) oznaczymy najmniejszą z odległości zrzutowanych punktów od punktu \\( x_0 \\). Pokazujemy, że dla dowolnego argumentu \\( x \\) należącego do przedziału \\( (x_0-\\delta,x_0+\\delta) \\) wartość funkcji \\( f \\) dla tego argumentu \\( f(x) \\) wpada do przedziału \\( (g-\\epsilon,g+\\epsilon) \\), co spełnia warunki definicji Cauchy’ego granicy funkcji w punkcie.", "Rys. 2 przedstawia wykres funkcji \\( f \\) z zaznaczonym na osi odciętych punktem \\( x_0 \\), w którym funkcja nie ma wartości, ale w sąsiedztwie którego jest określona. Na osi rzędnych zaznaczono liczbę \\( g \\). Chcemy pokazać, że liczba \\( g \\) jest granicą funkcji \\( f \\) w punkcie \\( x_0 \\). W tym celu wybieramy kolejne wyrazy ciągu argumentów funkcji \\( f\\ x_1,x_2,x_3,\\dots \\) różne od \\( x_0 \\), który ma granicę \\( x_0 \\) i zaznaczamy na osi rzędnych wartości funkcji \\( f \\) dla tych argumentów. Sprawdzamy, czy ciąg wartości funkcji \\( f(x_n) \\) lokalizuje się wokół liczby \\( g \\). Jeżeli tak jest, to spełniony jest warunek definicji Heinego.", "Rys. 3 przedstawia wykres funkcji określonej w przedziale \\( [0,+\\infty) \\) oraz metodę wyznaczania granicy funkcji w nieskończoności korzystając z definicji Heinego. Na osi odciętych wybieramy ciąg rozbieżny do \\( +\\infty \\) (niebieski), wyznaczamy odpowiadające im punkty na wykresie funkcji (czerwone), a następnie rzutujemy je prostopadle na oś rzędnych otrzymując wartości funkcji dla argumentów będących wyrazami wyjściowego ciągu (zielone). Badamy zachowanie się ciągu wartości i jeżeli jest to ciąg zbieżny, to funkcja ma granicę w nieskończoności, co zachodzi w przypadku badanej funkcji. Zauważmy również, że można tu stosować definicję Cauchy’ego i sprawdzać, czy znajdziemy prostą o równaniu \\( y=g \\), do której wykres funkcji zbliża się nieograniczenie wraz ze wzrostem wartości argumentów.", "Rys. 4 przedstawia wykres funkcji określonej w sąsiedztwie liczby \\( 10 \\) oraz metodę wyznaczania granicy niewłaściwej funkcji w punkcie \\( x_0=10 \\) korzystając z definicji Heinego. Na osi odciętych wybieramy ciąg zbieżny do \\( x_0=10 \\) (niebieski), wyznaczamy odpowiadające im punkty na wykresie funkcji (czerwone), a następnie rzutujemy je prostopadle na oś rzędnych otrzymując wartości funkcji dla argumentów będących wyrazami wyjściowego ciągu (zielone). Badamy zachowanie się ciągu wartości i jeżeli jest to ciąg rozbieżny do \\( +\\infty \\), to funkcja ma granicę niewłaściwą \\( +\\infty \\) w punkcie \\( x_0=10 \\), co zachodzi w przypadku badanej funkcji. Zauważmy również, że można tu stosować definicję Cauchy’ego i sprawdzać, czy dla dowolnej prostej o równaniu \\( y=A \\) znajdziemy sąsiedztwo punktu \\( x_0=10 \\) takie, że dla argumentów z tego sąsiedztwa wykres funkcji leży powyżej prostej.", "Rys. 5 przedstawia wykres funkcji określonej w całym zbiorze liczb rzeczywistych oraz metodę wyznaczania granicy niewłaściwej funkcji w nieskończoności, korzystając z definicji Heinego. Na osi odciętych wybieramy ciąg rozbieżny do \\( +\\infty \\) (niebieski), wyznaczamy odpowiadające im punkty na wykresie funkcji (czerwone), a następnie rzutujemy je prostopadle na oś rzędnych otrzymując wartości funkcji dla argumentów będących wyrazami wyjściowego ciągu (zielone). Badamy zachowanie się ciągu wartości i jeżeli jest to ciąg rozbieżny do \\( +\\infty \\), to funkcja ma granicę niewłaściwą w nieskończoności \\( +\\infty \\), co zachodzi w przypadku badanej funkcji. Zauważmy również, że można tu stosować definicję Cauchy’ego i sprawdzać, czy dla dowolnej prostej o równaniu \\( y=A \\) znajdziemy na osi odciętych przedział \\( (a,+\\infty) \\) taki, że dla argumentów z tego przedziału wykres funkcji leży powyżej prostej."], "definitions": [{"name": "Definicja 1: Otoczenie i sąsiedztwo punktu", "content": "Otoczeniem punktu \\( x_0\\in \\mathbb{R} \\) nazywamy dowolny przedział otwarty \\( (a,b) \\) zawierający ten punkt, tzn. \\( x_0\\in (a,b) \\), a sąsiedztwem punktu \\( x_0\\in \\mathbb{R} \\) nazywamy otoczenie z wyłączeniem punktu \\( x_0 \\)."}, {"name": "Definicja 2: Definicja Cauchy'ego granicy właściwej funkcji w punkcie", "content": "Mówimy, że funkcja \\( f\\colon D_f\\to \\mathbb{R} \\) ma granicę \\( g \\) w punkcie \\( x_0 \\) , gdzie pewne sąsiedztwo \\( \\mathcal{S}(x_0) \\) jest zawarte w dziedzinie funkcji, jeżeli dla dowolnego otoczenia punktu \\( g\\in \\mathbb{R} \\) da się dobrać sąsiedztwo punktu \\( x_0 \\) tak, aby dla wszystkich argumentów z tego sąsiedztwa, wartości funkcji dla tych argumentów wpadały do otoczenia punktu \\( g \\)."}, {"name": "Definicja 3: Definicja Heinego granicy właściwej funkcji w punkcie", "content": "Mówimy, że funkcja \\( f\\colon X\\to \\mathbb{R} \\) ma granicę \\( g \\) w punkcie \\( x_0 \\) , gdzie pewne sąsiedztwo \\( \\mathcal{S}(x_0) \\) jest zawarte w dziedzinie funkcji, jeżeli dla każdego nie stałego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) różnych od \\( x_0 \\) zbieżnego do granicy \\( x_0 \\), ciąg wartości funkcji odpowiadających argumentom \\( x_n \\) jest zbieżny do granicy \\( g \\)."}, {"name": "Definicja 4: Granica właściwa funkcji w nieskończoności", "content": "\nMówimy, że funkcja \\( f\\colon (a,+\\infty)\\to \\mathbb{R} \\) ma granicę \\( g \\) w \\( +\\infty \\), jeżeli dla każdego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) rozbieżnego do \\( +\\infty \\), ciąg wartości funkcji obliczonych dla wyrazów ciągu \\( (x_n) \\) jest zbieżny do granicy \\( g \\).\n\n\nMówimy, że funkcja \\( f\\colon (-\\infty, a)\\to \\mathbb{R} \\) ma granicę \\( g \\) w \\( -\\infty \\), jeżeli dla każdego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) rozbieżnego do \\( -\\infty \\), ciąg wartości funkcji obliczonych dla wyrazów ciągu \\( (x_n) \\) jest zbieżny do granicy \\( g \\)."}, {"name": "Definicja 5: Granica niewłaściwa funkcji w punkcie", "content": "\nMówimy, że funkcja \\( f\\colon X\\to \\mathbb{R} \\) ma granicę niewłaściwą \\( +\\infty \\) w punkcie \\( x_0 \\) , jeżeli dla każdego nie stałego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) różnych od \\( x_0 \\) zbieżnego do granicy \\( x_0 \\), ciąg wartości funkcji obliczonych dla wyrazów ciągu \\( (x_n) \\) jest rozbieżny do \\( +\\infty \\).\n\n\nMówimy, że funkcja \\( f\\colon X\\to \\mathbb{R} \\) ma granicę niewłaściwą \\( -\\infty \\) w punkcie \\( x_0 \\), jeżeli dla każdego nie stałego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) różnych od \\( x_0 \\) zbieżnego do granicy \\( x_0 \\), ciąg wartości funkcji obliczonych dla wyrazów ciągu \\( (x_n) \\) jest rozbieżny do \\( -\\infty \\)."}, {"name": "Definicja 6: Granica niewłaściwa funkcji w nieskończoności", "content": "\nMówimy, że funkcja \\( f\\colon (a,+\\infty)\\to \\mathbb{R} \\) ma granicę \\( \\pm \\infty \\) w \\( +\\infty \\), jeżeli dla każdego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) rozbieżnego do \\( +\\infty \\), ciąg wartości funkcji obliczonych dla wyrazów ciągu \\( (x_n) \\) jest rozbieżny do \\( \\pm \\infty \\).\n\n\nMówimy, że funkcja \\( f\\colon (-\\infty,a) \\) ma granicę \\( \\pm \\infty \\) w \\( -\\infty \\), jeżeli dla każdego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) rozbieżnego do \\( -\\infty \\), ciąg wartości funkcji obliczonych dla wyrazów ciągu \\( (x_n) \\) jest rozbieżny do \\( \\pm \\infty \\)."}]} {"field": "Matematyka", "coursebook": "Granica funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 127, "subject": "Granice jednostronne i WKW istnienia granicy funkcji", "paragraphs": ["Rys. 1 przedstawia wykres funkcji \\( f \\) z zaznaczonym na osi odciętych punktem \\( x_0 \\), w którym funkcja nie ma wartości, ale w lewostronnym sąsiedztwie którego jest określona. Na osi rzędnych zaznaczono liczbę \\( g \\). Chcemy pokazać, że liczba \\( g \\) jest granicą lewostronną funkcji \\( f \\) w punkcie \\( x_0 \\). W tym celu bierzemy dowolne \\( \\epsilon > 0 \\) i wyznaczamy przedział \\( (g-\\epsilon,g+\\epsilon) \\), który przedłużamy do pasa wzdłuż osi odciętych. Wyznaczamy punkty przecięcia prostych \\( y=g-\\epsilon \\) i \\( y=g+\\epsilon \\) z wykresem funkcji \\( f \\), które rzutujemy prostopadle na oś odciętych. Przez \\( \\delta \\) oznaczymy odległość punktu \\( x_0 \\) od tego ze zrzutowanych punktów, który leży na lewo od punktu \\( x_0 \\). Pokazujemy, że dla dowolnego argumentu \\( x \\) należącego do przedziału \\( (x_0-\\delta,x_0) \\) wartość funkcji \\( f \\) dla tego argumentu \\( f(x) \\) wpada do przedziału \\( (g-\\epsilon,g+\\epsilon) \\), co spełnia warunki definicji Cauchy’ego granicy lewostronnej funkcji w punkcie.", "Rys. 2 przedstawia wykres funkcji \\( f \\) z zaznaczonym na osi odciętych punktem \\( x_0 \\), w którym funkcja nie ma wartości, ale w prawostronnym sąsiedztwie którego jest określona. Na osi rzędnych zaznaczono liczbę \\( g \\). Chcemy pokazać, że liczba \\( g \\) jest granicą prawostronną funkcji \\( f \\) w punkcie \\( x_0 \\). W tym celu bierzemy dowolne \\( \\epsilon > 0 \\) i wyznaczamy przedział \\( (g-\\epsilon,g+\\epsilon) \\), który przedłużamy do pasa wzdłuż osi odciętych. Wyznaczamy punkty przecięcia prostych \\( y=g-\\epsilon \\) i \\( y=g+\\epsilon \\) z wykresem funkcji \\( f \\), które rzutujemy prostopadle na oś odciętych. Przez \\( \\delta \\) oznaczymy odległość punktu \\( x_0 \\) od tego ze zrzutowanych punktów, który leży na prawo od punktu \\( x_0 \\). Pokazujemy, że dla dowolnego argumentu \\( x \\) należącego do przedziału \\( (x_0,x_0+\\delta) \\) wartość funkcji \\( f \\) dla tego argumentu \\( f(x) \\) wpada do przedziału \\( (g-\\epsilon,g+\\epsilon) \\), co spełnia warunki definicji Cauchy’ego granicy prawostronnej funkcji w punkcie.", "Rys. 3 przedstawia wykres funkcji \\( f \\) z zaznaczonym na osi odciętych punktem \\( x_0 \\), w którym funkcja nie ma wartości, ale w lewostronnym sąsiedztwie którego jest określona. Na osi rzędnych zaznaczono liczbę \\( g \\). Chcemy pokazać, że liczba \\( g \\) jest lewostronną granicą funkcji \\( f \\) w punkcie \\( x_0 \\). W tym celu wybieramy kolejne wyrazy ciągu argumentów funkcji \\( f \\) \\( x_1,x_2,x_3,\\dots \\) mniejsze od \\( x_0 \\) który ma granicę \\( x_0 \\) i zaznaczamy na osi rzędnych wartości funkcji \\( f \\) dla tych argumentów. Sprawdzamy, czy ciąg wartości funkcji \\( f(x_n) \\) lokalizuje się wokół liczby \\( g \\). Jeżeli tak jest, to spełniony jest warunek definicji Heinego.", "Rys. 4 przedstawia wykres funkcji \\( f \\) z zaznaczonym na osi odciętych punktem \\( x_0 \\), w którym funkcja nie ma wartości, ale w prawostronnym sąsiedztwie którego jest określona. Na osi rzędnych zaznaczono liczbę \\( g \\). Chcemy pokazać, że liczba \\( g \\) jest prawostronną granicą funkcji \\( f \\) w punkcie \\( x_0 \\). W tym celu wybieramy kolejne wyrazy ciągu argumentów funkcji \\( f \\) \\( x_1,x_2,x_3,\\dots \\) większe od \\( x_0 \\) który ma granicę \\( x_0 \\) i zaznaczamy na osi rzędnych wartości funkcji \\( f \\) dla tych argumentów. Sprawdzamy, czy ciąg wartości funkcji \\( f(x_n) \\) lokalizuje się wokół liczby \\( g \\). Jeżeli tak jest, to spełniony jest warunek definicji Heinego.", "Rys. 5 przedstawia wykres funkcji określonej w lewostronnym sąsiedztwie liczby \\( 2 \\) oraz metodę wyznaczania granicy niewłaściwej funkcji w punkcie \\( x_0=2 \\) korzystając z definicji Heinego. Na osi odciętych wybieramy ciąg zbieżny do \\( x_0=2 \\) (niebieski), wyznaczamy odpowiadające im punkty na wykresie funkcji (czerwone), a następnie rzutujemy je prostopadle na oś rzędnych otrzymując wartości funkcji dla argumentów będących wyrazami wyjściowego ciągu (zielone). Badamy zachowanie się ciągu wartości i jeżeli jest to ciąg rozbieżny do \\( -\\infty \\), to funkcja ma granicę niewłaściwą \\( -\\infty \\) w punkcie \\( x_0=2 \\), co zachodzi w przypadku badanej funkcji. Zauważmy również, że można tu stosować definicję Cauchy’ego i sprawdzać, czy dla dowolnej prostej o równaniu \\( y=-A \\) znajdziemy lewostronne sąsiedztwo punktu \\( x_0=2 \\) takie, że dla argumentów z tego sąsiedztwa wykres funkcji leży poniżej prostej.", "Rys. 6 przedstawia wykres funkcji określonej w prawostronnym sąsiedztwie liczby \\( 0 \\) oraz metodę wyznaczania granicy niewłaściwej funkcji w punkcie \\( x_0=0 \\) korzystając z definicji Heinego. Na osi odciętych wybieramy ciąg zbieżny do \\( x_0=0 \\) (niebieski), wyznaczamy odpowiadające im punkty na wykresie funkcji (czerwone), a następnie rzutujemy je prostopadle na oś rzędnych otrzymując wartości funkcji dla argumentów będących wyrazami wyjściowego ciągu (zielone). Badamy zachowanie się ciągu wartości i jeżeli jest to ciąg rozbieżny do \\( +\\infty \\), to funkcja ma granicę niewłaściwą \\( +\\infty \\) w punkcie \\( x_0=0 \\), co zachodzi w przypadku badanej funkcji. Zauważmy również, że można tu stosować definicję Cauchy’ego i sprawdzać, czy dla dowolnej prostej o równaniu \\( y=A \\) znajdziemy prawostronne sąsiedztwo punktu \\( x_0=0 \\) takie, że dla argumentów z tego sąsiedztwa wykres funkcji leży powyżej prostej."], "definitions": [{"name": "Definicja 1: Lewostronne sąsiedztwo punktu", "content": "Lewostronnym sąsiedztwem punktu \\( x_0 \\in \\mathbb{R} \\) nazywamy dowolny przedział otwarty, którego prawym końcem jest punkt \\( x_0 \\)."}, {"name": "Definicja 2: Prawostronne sąsiedztwo punktu", "content": "Prawostronnym sąsiedztwem punktu \\( x_0\\in \\mathbb{R} \\) nazywamy dowolny przedział otwarty, którego lewym końcem jest punkt \\( x_0 \\)."}, {"name": "Definicja 3: Definicja Cauchy'ego właściwej granicy lewostronnej funkcji w punkcie", "content": "Mówimy, że funkcja \\( f\\colon D_f\\to \\mathbb{R} \\) ma granicę lewostronną w punkcie \\( x_0 \\) równą \\( g \\), jeżeli dla dowolnego otoczenia punktu \\( g\\in \\mathbb{R} \\) da się dobrać lewostronne sąsiedztwo punktu \\( x_0 \\) zawarte w dziedzinie funkcji tak, aby dla wszystkich argumentów z tego sąsiedztwa, wartości funkcji dla tych argumentów wpadały do otoczenia punktu \\( g \\)."}, {"name": "Definicja 4: Definicja Cauchy'ego właściwej granicy prawostronnej funkcji w punkcie", "content": "Mówimy, że funkcja \\( f\\colon D_f\\to \\mathbb{R} \\) ma granicę prawostronną w punkcie \\( x_0 \\) równą \\( g \\), jeżeli dla dowolnego otoczenia punktu \\( g\\in \\mathbb{R} \\) da się dobrać prawostronne sąsiedztwo punktu \\( x_0 \\) zawarte w dziedzinie funkcji tak, aby dla wszystkich argumentów z tego sąsiedztwa, wartości funkcji dla tych argumentów wpadały do otoczenia punktu \\( g \\)."}, {"name": "Definicja 5: Defincija Heinego właściwej granicy lewostronnej funkcji w punkcie", "content": "Mówimy, że funkcja \\( f\\colon X\\to \\mathbb{R} \\) ma granicę lewostronną w punkcie \\( x_0 \\) równą \\( g \\), jeżeli dla dowolnego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) o wyrazach mniejszych od \\( x_0 \\) zbieżnego do granicy \\( x_0 \\), ciąg wartości funkcji \\( f \\) dla wyrazów ciągu \\( (x_n) \\) ma granicę równą \\( g \\)."}, {"name": "Definicja 6: Definicja Heinego właściwej granicy prawostronnej funkcji w punkcie", "content": "Mówimy, że funkcja \\( f\\colon X\\to \\mathbb{R} \\) ma granicę prawostronną w punkcie \\( x_0 \\) równą \\( g \\), jeżeli dla dowolnego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) o wyrazach większych od \\( x_0 \\) zbieżnego do granicy \\( x_0 \\), ciąg wartości funkcji \\( f \\) dla wyrazów ciągu \\( (x_n) \\) ma granicę równą \\( g \\)."}, {"name": "Definicja 7: Heinego niewłaściwej granicy lewostronnej funkcji w punkcie", "content": "Mówimy, że funkcja \\( f\\colon X\\to \\mathbb{R} \\) ma granicę lewostronną w punkcie \\( x_0 \\) równą \\( \\pm\\infty \\), jeżeli dla dowolnego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) o wyrazach mniejszych od \\( x_0 \\) zbieżnego do granicy \\( x_0 \\), ciąg wartości funkcji \\( f \\) dla wyrazów ciągu \\( (x_n) \\) jest rozbieżny do \\( +\\infty \\) albo do \\( -\\infty \\)."}, {"name": "Definicja 8: Heinego niewłaściwej granicy prawostronnej funkcji w punkcie", "content": "Mówimy, że funkcja \\( f\\colon X\\to \\mathbb{R} \\) ma granicę prawostronną w punkcie \\( x_0 \\) równą \\( \\pm\\infty \\), jeżeli dla dowolnego ciągu \\( (x_n) \\) argumentów funkcji \\( f \\) o wyrazach większych od \\( x_0 \\) zbieżnego do granicy \\( x_0 \\), ciąg wartości funkcji \\( f \\) dla wyrazów ciągu \\( (x_n) \\) jest rozbieżny do \\( +\\infty \\) albo do \\( -\\infty \\)."}]} {"field": "Matematyka", "coursebook": "Granica funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 128, "subject": "Symbole oznaczone i nieoznaczone w granicy funkcji", "paragraphs": ["Obliczając granice funkcji poprzez zastąpienie jej argumentu wartością graniczną, do której zmierza argument, otrzymujemy symbole graniczne ujmowane w nawiasy kwadratowe, w celu zaznaczenia, że są to wyrażenia otrzymywane przy obliczaniu granic, a nie działania arytmetyczne na liczbach. Należy na tę symbolikę zwracać szczególną uwagę zwłaszcza w sytuacji, gdy otrzymujemy zero w mianowniku, albo wyrażenia zmierzające do nieskończoności. Niektóre z symboli granicznych dają zawsze ten sam wynik, bez względu na to w granicach jakich funkcji otrzymujemy określony symbol i nazywamy je symbolami oznaczonymi. Inne znów dają różne wyniki w zależności od funkcji, której granicę liczymy i takie symbole nazywamy nieoznaczonymi."], "definitions": [{"name": "Definicja 1: Symbol oznaczony i nieoznaczony", "content": "Symbolem oznaczonym nazywamy wyrażenie algebraiczne, które jest umownym zapisem działań wykonywanych na granicach i które daje zawsze taki sam wynik niezależny od typu funkcji, w granicy której otrzymuje się dany symbol graniczny.\n\n\nSymbolem nieoznaczonym nazywamy wyrażenie algebraiczne, które jest umownym zapisem działań wykonywanych na granicach i którego wartości nie da się jednoznacznie obliczyć na podstawie jedynie granic funkcji składowych, z których powstaje symbol graniczny i wynik zależy od typu funkcji, w granicy której otrzymuje się dany symbol graniczny."}]} {"field": "Matematyka", "coursebook": "Granica funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 129, "subject": "Własności granic funkcji", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Granica funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 130, "subject": "Granice pewnych funkcji specjalnych", "paragraphs": ["Komentarz Rys. 1 przedstawia wykresy funkcji \\( x \\) oraz \\( \\sin x \\) w otoczeniu punktu \\( x_0=0 \\). Zauważamy, że jeżeli przyjrzymy się bliżej małemu otoczeniu punktu zero, to wykresy obydwu funkcji są prawie nierozróżnialne, dlatego też w granicy, przy argumencie zmierzającym do zera granica ilorazu tych funkcji wynosi \\( 1 \\). Czyli symbol nieoznaczony \\( [\\frac{0}{0}] \\), który otrzymujemy licząc granicę \\( \\lim\\limits_{x \\to 0} \\frac{\\sin x}{x} \\) w tym szczególnym przypadku daje wartość \\( 1 \\). Analogicznie, analizując wykresy pozostałych funkcji występujących w innych podpunktach powyższego twierdzenia, otrzymujemy w granicy taki sam wynik."], "definitions": []} {"field": "Matematyka", "coursebook": "Granica funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 131, "subject": "Metody obliczania granic funkcji", "paragraphs": ["Komentarz", "Do obliczania granic funkcji w przypadku, gdy prowadzą one do symboli nieoznaczonych stosuje się znane metody obliczania granic ciągów, takie jak wyłączanie przed nawias odpowiednich wyrażeń, rozszerzanie o odpowiednio skonstruowaną jedynkę, korzystanie ze wzorów skróconego mnożenia, wzorów trygonometrycznych, własności odpowiednich funkcji. Metody te stosujemy zarówno do granicy funkcji w punkcie, jak i nieskończości oraz do granicy jednostronnej.", "Komentarz W przypadku symboli nieoznaczonych \\( [1^{\\infty}] \\) lub \\( [\\frac{0}{0}] \\) w wielu przypadkach wykorzystujemy granice pewnych funkcji specjalnych, które w granicach dają właśnie takie symbole. Często do obliczenia tych granic stosujemy też twierdzenie Własności granic funkcji-o zamianie zmiennej w granicy.", "Komentarz W przypadku, gdy w granicy funkcji otrzymujemy zero w mianowniku i ma to wpływ na wartość granicy, albo gdy otrzymujemy wartość bezwzględną z wyrażenia, które w granicy przyjmuje zero, albo gdy funkcja, której granicę liczymy jest w punkcie obliczania granicy sklejeniem dwóch funkcji (tzn. jest określona innym wzorem w lewostronnym sąsiedztwie punktu, a innym w prawostronnym sąsiedztwie tego punktu), to do obliczania granicy stosujemy WKW istnienia granicy funkcji, czyli liczymy granic jednostronne."], "definitions": []} {"field": "Matematyka", "coursebook": "Granica funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 132, "subject": "Asymptota pionowa wykresu funkcji", "paragraphs": ["Komentarz Z definicji Asymptota pionowa lewostronna i Asymptota pionowa prawostronna wynika, że dla argumentów zbliżających się do punktu \\( x_0 \\) od strony lewej lub prawej, wykres funkcji nieograniczenie (asymptotycznie) zbliża się do prostej \\( x=x_0 \\) nigdy jej nie dotykając. Poszukiwania prostych które mogą być asymptotami pionowymi wykresu funkcji \\( f(x) \\) zaczynamy od wyznaczania punktów, które nie należą do dziedziny funkcji, ale w sąsiedztwie lewo lub prawostronnym których funkcja jest określona, a następnie obliczamy odpowiednie granice jednostronne, aby sprawdzić, czy są to granice niewłaściwe.", "Rys. 1 przedstawia wykres funkcji, dla którego prosta o równaniu x=1 jest asymptotą pionowa obustronną. Rzeczywiście zauważamy, że punkt x=1 nie należy do dziedziny funkcji (funkcja nie posiada wartości dla x=1), a granica lewostronna w punkcie x=1 jest niewłaściwa i wynosi \\( - \\infty \\) oraz granica prawostronna w punkcie x=1 jest niewłaściwa i wynosi \\( +\\infty \\)."], "definitions": [{"name": "Definicja 1: Asymptota pionowa lewostronna", "content": "Niech funkcja \\( f(x) \\) będzie określona w lewostronnym sąsiedztwie punktu \\( x_0 \\not\\in D_f \\). Prostą \\( x=x_0 \\) nazywamy asymptotą pionową lewostronną wykresu funkcji \\( y=f(x) \\), jeżeli granica lewostronna funkcji \\( f(x) \\) w punkcie \\( x_0 \\) jest niewłaściwa \\( (\\lim_{x \\rightarrow x_0^- } ⁡f(x)=± \\infty ) \\)."}, {"name": "Definicja 2: Asymptota pionowa prawostronna", "content": "Niech funkcja \\( f(x) \\) będzie określona w prawostronnym sąsiedztwie punktu \\( x_0 \\not\\in D_f \\). Prostą \\( x=x_0 \\) nazywamy asymptotą pionową prawostronną wykresu funkcji \\( y=f(x) \\), jeżeli granica prawostronna funkcji \\( f(x) \\) w punkcie \\( x_0 \\) jest niewłaściwa \\( ( \\lim_{x \\rightarrow x_0^+ } f(x)=± \\infty) \\). "}]} {"field": "Matematyka", "coursebook": "Granica funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 133, "subject": "Asymptota ukośna wykresu funkcji", "paragraphs": ["Komentarz Z definicji Asymptota ukośna prawostronna wynika, że wykres funkcji wraz ze wzrostem argumentów coraz bardziej zbliża się do asymptoty. Z definicji Asymptota ukośna lewostronna wynika, że wykres funkcji dla argumentów zmierzających do \\( - \\infty \\) coraz bardziej zbliża się do asymptoty. Zauważamy również, że asymptota pozioma jest szczególnym przypadkiem asymptoty ukośnej, dlatego też, jeżeli okaże się, że istnieje asymptota pozioma lewo lub prawostronna wykresu funkcji, to nie badamy już istnienia asymptoty ukośnej.", "Rys. 1 przedstawia wykres funkcji, dla którego prosta o równaniu \\( y=-x+1/2 \\) jest asymptotą ukośną lewostronną, a prosta o równaniu \\( y=x-1/2 \\) jest asymptotą ukośną prawostronną. Rzeczywiście dla ciągu argumentów zmierzających do \\( -\\infty \\) różnica pomiędzy wartościami badanej funkcji, a wartościami funkcji liniowej \\( y=-x+1/2 \\) dąży do zera. Analogicznie dla ciągu argumentów zmierzających do \\( +\\infty \\) różnica pomiędzy wartościami badanej funkcji, a wartościami funkcji liniowej \\( y=x-1/2 \\) dąży do zera."], "definitions": [{"name": "Definicja 1: Asymptota ukośna lewostronna", "content": "Prosta \\( y=ax+b \\) jest asymptotą ukośną lewostronną wykresu funkcji \\( y=f(x) \\), jeżeli \\( D_f \\) jest zbiorem nieograniczonym od dołu oraz granica różnicy wartości funkcji \\( f(x) \\) i funkcji liniowej \\( (ax+b) \\) w \\( - \\infty \\) jest równa zero \\( ( \\lim_{x \\rightarrow - \\infty} \\lbrack f(x)-(ax+b) \\rbrack =0) \\)."}, {"name": "Definicja 2: Asymptota ukośna prawostronna", "content": "Prosta \\( y=ax+b \\) jest asymptotą ukośną prawostronną wykresu funkcji \\( y=f(x) \\), jeżeli \\( D_f \\) jest zbiorem nieograniczonym od góry oraz granica różnicy wartości funkcji \\( f(x) \\) i funkcji liniowej \\( (ax+b) \\) w \\( + \\infty \\) jest równa zero \\( ( \\lim_{x \\rightarrow \\infty} \\lbrack f(x)-(ax+b) \\rbrack =0) \\)."}]} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 68, "subject": "Pochodna funkcji w punkcie. Pochodna jednostronna, niewłaściwa i funkcji odwrotnej", "paragraphs": ["Chcemy poznać prędkość obiektu, który porusza się ze zmienną prędkością. Mamy informację, jaką drogę przebył w każdym czasie między chwilą \\( 0 \\) i \\( T \\). Obiekt przez pewien czas przyśpieszał, poruszał się ze stałą prędkością, zwalniał, zatrzymywał się,... Jeżeli policzymy iloraz drogi przebytej w czasie \\( T \\) przez czas \\( T \\), to otrzymamy jedynie prędkość średnią, która słabo opisuje, jak poruszał się obiekt w rzeczywistości. Oczywiście możemy podzielić czas na mniejsze przedziały czasowe. Im mniejsze będą te przedziały czasowe, tym lepiej prędkość średnia przybliży nam rzeczywistą prędkość osiągniętą przez obiekt w tym krótszym czasie. Ideałem byłoby znać dokładną wartość prędkości w każdej chwili z osobna, czyli prędkość średnią zmierzoną przy długości przedziału czasu dążącej do zera.", "I właśnie tak uzyskaną prędkość w danej chwili nazwiemy pochodną drogi względem czasu. Prędkość w danej chwili \\( t_0 \\) będzie zatem graniczną wartością prędkości średnich obliczonych w przedziale czasowym \\( [t_0, t] \\) lub \\( [t, t_0] \\), o ile \\( \\Delta t=t-t_0 \\) dąży do zera ( \\( t \\) - inny moment czasu). Analogicznie możemy policzyć jak zmienia się inna wielkość w zależności od zmiany czasu i nie tylko, ponieważ pochodna opisuje, jak zmienia się wartość funkcji w stosunku do zmiany jej argumentu, gdy zmiana argumentu dąży do zera.", "Zanim zdefiniujemy pochodną funkcji, określmy najpierw czym na osi liczbowej jest otoczenie punktu \\( x_0\\in \\mathbb{R} \\).", "Przejdźmy do definicji pochodnej funkcji jednej zmiennej w punkcie.", "Pochodna funkcji w punkcie jest granicą (obustronną). Oprócz granicy (obustronnej) funkcji rozważamy również granice jednostronne funkcji. W związku z tym, definiujemy również pochodne jednostronne funkcji w punkcie \\( x_0 \\).", "Przyjrzyjmy się jeszcze twierdzeniu o pochodnej funkcji odwrotnej w punkcie \\( x_0 \\) i zobaczmy zastosowanie tego twierdzenia do obliczenia pochodnej funkcji arcus sinus w dowolnie zadanym punkcie \\( x_0\\in (-1,1) \\).", "Jeżeli mówimy o pochodnej funkcji w punkcie \\( x_0 \\), to mówimy o pochodnej właściwej funkcji w punkcie \\( x_0 \\), ale możemy również zdefiniować rzadziej rozważaną pochodną niewłaściwą funkcji w punkcie \\( x_0 \\).", "Definiuje się również jednostronne pochodne niewłaściwe funkcji \\( f \\) w punkcie \\( x_0 \\)."], "definitions": [{"name": "Definicja 1: Otoczenie punktu", "content": "Niech \\( x_0\\in \\mathbb{R} \\).\n\nOtoczeniem punktu \\( x_0 \\) o promieniu \\( \\varepsilon>0 \\) nazywamy przedział \\( (x_0-\\varepsilon,x_0+\\varepsilon) \\) i oznaczamy przez \\( O(x_0,\\varepsilon) \\).\n\nOtoczeniem lewostronnym punktu \\( x_0 \\) o promieniu \\( \\varepsilon>0 \\) nazywamy przedział \\( (x_0-\\varepsilon,x_0] \\) i oznaczamy przez \\( O(x_0^-,\\varepsilon) \\).\n\nOtoczeniem prawostronnym punktu \\( x_0 \\) o promieniu \\( \\varepsilon>0 \\) nazywamy przedział \\( [ x_0, x_0+\\varepsilon) \\) i oznaczamy przez \\( O(x_0^+,\\varepsilon) \\).\n\n\nGdy promień otoczenia nie jest istotny (czyli może być dowolną liczbą dodatnią), powyższe otoczenia oznaczamy odpowiednio przez \\( O(x_0) \\), \\( O(x_0^-) \\), \\( O(x_0^+) \\)."}, {"name": "Definicja 2: Pochodna funkcji w punkcie", "content": "Niech \\( x_0\\in \\mathbb{R} \\) oraz funkcja \\( f \\) będzie określona w otoczeniu \\( O(x_0) \\).\n\n\nPochodną (właściwą) funkcji \\( f \\) w punkcie \\( x_0 \\) nazywamy granicę właściwą \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\lim\\limits_{x\\to x_0}\\frac{f(x)-f(x_0)}{x-x_0}. \\)\n\n\t\t\t\t\t Pochodną funkcji \\( f \\) w punkcie \\( x_0 \\) oznaczamy przez \\( f^{\\prime} (x_0) \\) lub też przez: \\( \\frac{df}{dx}(x_0) \\), \\( \\dot{f}(x_0) \\), \\( Df(x_0) \\)."}, {"name": "Definicja 3: Pochodna lewostronna funkcji w punkcie", "content": "Niech \\( x_0\\in \\mathbb{R} \\) oraz funkcja \\( f \\) będzie określona w otoczeniu \\( O(x_0^{-}) \\).\n\n\nPochodną lewostronną (właściwą) funkcji \\( f \\) w punkcie \\( x_0 \\) , którą oznaczamy przez \\( f^{\\prime}_{-} (x_0) \\), nazywamy granicę właściwą \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( f^{\\prime}_{-} (x_0)=\\lim\\limits_{x\\to x_0^-}\\frac{f(x)-f(x_0)}{x-x_0}=\\lim\\limits_{h\\to 0^-}\\frac{f(x_0+h)-f(x_0)}{h}. \\)\n\n"}, {"name": "Definicja 4: Pochodna prawostronna funkcji w punkcie", "content": "Niech \\( x_0\\in \\mathbb{R} \\) oraz funkcja \\( f \\) będzie określona w otoczeniu \\( O(x_0^{+}) \\).\n\n\nPochodną prawostronną (właściwą) funkcji \\( f \\) w punkcie \\( x_0 \\) , którą oznaczamy przez \\( f^{\\prime}_{+} (x_0) \\), nazywamy granicę właściwą \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( f^{\\prime}_{+} (x_0)=\\lim\\limits_{x\\to x_0^+}\\frac{f(x)-f(x_0)}{x-x_0}=\\lim\\limits_{h\\to 0^+}\\frac{f(x_0+h)-f(x_0)}{h}. \\)\n\n"}, {"name": "Definicja 5: Pochodna niewłaściwa funkcji w punkcie", "content": "Niech \\( x_0\\in \\mathbb{R} \\) oraz funkcja \\( f \\) będzie określona i ciągła w otoczeniu \\( O(x_0) \\).\n\n\nMówimy, że funkcja \\( f \\) ma pochodną niewłaściwą w punkcie \\( x_0 \\) , gdy \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\lim\\limits_{x\\to x_0}\\frac{f(x)-f(x_0)}{x-x_0}=-\\infty\\quad\\text{ lub }\\quad \\lim\\limits_{x\\to x_0}\\frac{f(x)-f(x_0)}{x-x_0}=+\\infty. \\)\n\n\t\t\t\t\t\nFakt, że funkcja ma pochodną niewłaściwą w punkcie \\( x_0 \\) zapisujemy: \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( f^{\\prime}(x_0)=-\\infty\\quad\\text{ lub }\\quad f^{\\prime}(x_0)=+\\infty. \\)\n\n"}, {"name": "Definicja 6: Pochodna niewłaściwa lewostronna funkcji w punkcie", "content": " Niech \\( x_0\\in \\mathbb{R} \\) oraz funkcja \\( f \\) będzie określona i ciągła w otoczeniu \\( O(x_0^-) \\).\n\n\nMówimy, że funkcja \\( f \\) ma pochodną niewłaściwą lewostronną w punkcie \\( x_0 \\) , gdy \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\lim\\limits_{x\\to x_0^-}\\frac{f(x)-f(x_0)}{x-x_0}=-\\infty\\quad\\text{ lub }\\quad \\lim\\limits_{x\\to x_0^-}\\frac{f(x)-f(x_0)}{x-x_0}=+\\infty, \\)\n\n\t\t\t\t\t co zapisujemy: \\( f^{\\prime}_-(x_0)=-\\infty \\) lub \\( f^{\\prime}_-(x_0)=+\\infty \\)."}, {"name": "Definicja 7: Pochodna niewłaściwa prawostronna funkcji w punkcie", "content": "Niech \\( x_0\\in \\mathbb{R} \\) oraz funkcja \\( f \\) będzie określona i ciągła w otoczeniu \\( O(x_0^+) \\).\n\n\nMówimy, że funkcja \\( f \\) ma pochodną niewłaściwą prawostronną w punkcie \\( x_0 \\) , gdy \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\lim\\limits_{x\\to x_0^+}\\frac{f(x)-f(x_0)}{x-x_0}=-\\infty\\quad\\text{ lub }\\quad \\lim\\limits_{x\\to x_0^+}\\frac{f(x)-f(x_0)}{x-x_0}=+\\infty, \\)\n\n\t\t\t\t\t co zapisujemy: \\( f^{\\prime}_+(x_0)=-\\infty \\) lub \\( f^{\\prime}_+(x_0)=+\\infty \\)."}]} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 69, "subject": "Pochodna funkcji w przedziale. Różniczkowalność funkcji. Pochodna funkcji wektorowej", "paragraphs": ["Pojęcie pochodnej funkcji w punkcie możemy rozszerzyć na przedział i mówić o pochodnej funkcji w przedziale. Z pochodną funkcji wiąże się również pojęcie różniczkowalności funkcji.", "Definiuje się również następujące pojęcia:", "Przyglądnijmy się teraz klasie funkcji różniczkowalnych - sformułujemy dwa twierdzenia opisujące własności funkcji różniczkowalnych.", "Zdefiniujmy również pochodną funkcji wektorowej."], "definitions": [{"name": "Definicja 1: Pochodna funkcji w przedziale", "content": "Mówimy, że funkcja \\( f \\) ma pochodną w przedziale otwartym \\( (a,b) \\) , gdzie \\( -\\infty\\leq a\\lt b\\leq\\infty \\), gdy funkcja \\( f \\) ma pochodną w każdym punkcie tego przedziału.\nMówimy, że funkcja \\( f \\) ma pochodną w przedziale domkniętym \\( [a,b] \\) , gdzie \\( -\\infty\\lt a\\lt b\\lt\\infty \\), gdy funkcja \\( f \\) ma pochodną w przedziale otwartym \\( (a,b) \\) i pochodną prawostronną w \\( a \\) i pochodną lewostronną w \\( b \\).\n\nMówimy, że funkcja \\( f \\) ma pochodną w przedziale \\( (a,b] \\) , gdzie \\( -\\infty\\leq a\\lt b\\lt\\infty \\), gdy funkcja \\( f \\) ma pochodną w przedziale otwartym \\( (a,b) \\) i pochodną lewostronną w \\( b \\).\n\n\nMówimy, że funkcja \\( f \\) ma pochodną w przedziale \\( [a,b) \\) , gdzie \\( -\\infty\\lt a\\lt b\\leq\\infty \\), gdy funkcja \\( f \\) ma pochodną w przedziale otwartym \\( (a,b) \\) i pochodną prawostronną w \\( a \\)."}, {"name": "Definicja 2: Funkcja pochodna", "content": "Funkcję określoną w przedziale \\( I \\), której wartości są równe \\( f^{\\prime}(x) \\) dla każdego \\( x\\in I \\), nazywamy funkcją pochodną funkcji \\( f \\) w przedziale \\( I \\) lub pochodną funkcji \\( f \\) w przedziale \\( I \\) i oznaczamy ją przez \\( f^{\\prime} \\) lub \\( \\frac{df}{dx} \\)."}, {"name": "Definicja 3: Funkcja różniczkowalna", "content": "Funkcję mającą pochodną (właściwą) w każdym punkcie przedziału nazywamy funkcją różniczkowalną w tym przedziale."}, {"name": "Definicja 4: Pochodna funkcji wektorowej", "content": "Niech \\( \\vec v:[\\alpha,\\beta]\\to\\mathbb{R}^2 \\) o przepisie \\( \\vec v(t)=(x(t),y(t)) \\) będzie funkcją wektorową.\n\n\nPochodną funkcji wektorowej \\( \\vec v \\) określamy wzorem \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\vec v\\,^{\\prime}(t)=(x^{\\prime}(t),y^{\\prime}(t)). \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 70, "subject": "Obliczanie pochodnej funkcji. Podstawowe wzory i twierdzenia", "paragraphs": ["Pochodną funkcji można obliczyć, korzystając z twierdzeń opisujących własności pochodnych funkcji - i - oraz . Poniżej przedstawimy te twierdzenia oraz przykłady obliczania pochodnej funkcji wykorzystujące te własności.", "Pochodną funkcji można obliczyć z definicji, jednak często jest to żmudne zadanie. Dlatego zazwyczaj obliczamy pochodną funkcji, wykorzystując i oraz powyższe .", "Przy liczeniu pochodnej funkcji elementarnej będziemy często potrzebować jeszcze wzoru na pochodną złożenia funkcji."], "definitions": []} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 71, "subject": "Pochodna funkcji a styczna do wykresu funkcji", "paragraphs": ["Pojęcie stycznej do wykresu funkcji \\( f \\) w danym punkcie wykresu \\( P(x_0,f(x_0)) \\) jest ściśle związane z pochodną funkcji \\( f \\) w punkcie \\( x_0 \\). Styczną możemy traktować jako geometryczną interpretację pochodnej funkcji. Pojęcie stycznej w sensie rachunku różniczkowego jest czymś innym niż styczna do figury czyli prosta mająca dokładnie jeden punkt wspólny z figurą, którą poznaje się w szkole średniej.", "Zwróćmy jeszcze raz uwagę, że określenie stycznej do wykresu funkcji jako prostej, która ma dokładnie jeden punkt wspólny z wykresem funkcji, jest błędne. Przykład stycznej do wykresu funkcji w punkcie \\( x_0 \\), która ma więcej niż jeden punkt wspólny z wykresem przedstawia poniższy rysunek.", "Natomiast w rozważaliśmy funkcję, której wykres pokrywa się ze styczną w dowolnym punkcie \\( \\mathbb{R} \\), czyli wykres i styczna mają nieskończenie wiele punktów wspólnych. Z drugiej strony, oczywiście, każdy z łatwością wskaże proste mające tylko jeden punkt wspólny z wykresem funkcji, a nie są stycznymi do tego wykresu.", "W ostatniej uwadze został wspomniany przypadek pionowej stycznej do wykresu funkcji. Taka sytuacja ma miejsce, gdy funkcja jest ciągła w otoczeniu \\( O(x_0) \\) i obie pochodne jednostronne w \\( x_0 \\) są niewłaściwe (pochodna obustronna może istnieć lub nie).", "Zwróćmy uwagę, że przypadek stycznej pionowej spełnia definicję stycznej do wykresu funkcji. Przykładem takiej stycznej jest prosta \\( x=0 \\), która jest styczną do wykresu funkcji \\( f(x)=\\sqrt[3]{x} \\) w punkcie \\( x_0=0 \\).", "Na podstawie tego wyprowadzenia sformułujmy twierdzenie.", "Znając własności współczynnika kierunkowego \\( a \\) prostej \\( y=ax+b \\), możemy sformułować następujące twierdzenie.", "Jednym z zastosowań stycznej, a tym samym pochodnej funkcji, jest określenie kąta między krzywymi będącymi wykresami funkcji, które się przecinają.", "Kąt przecięcia się wykresów funkcji możemy obliczyć, wykorzystując twierdzenie:", "Powyższy wzór jest konsekwencją wzoru na tangens różnicy kątów oraz związku pochodnej funkcji w punkcie ze styczną do wykresu funkcji w tym punkcie. Wartość \\( \\frac{f^{\\prime}(x_0)-g^{\\prime}(x_0)}{1+f^{\\prime}(x_0)g^{\\prime}(x_0)} \\) jest równa tangensowi kąta \\( \\varphi \\) lub kąta do niego przyległego. Wartość tangensa dla kątów przyległych różni się tylko znakiem. Szukamy tangensa dodatniego kąta ostrego, więc właściwą wartość wybieramy przez zastosowanie wartości bezwzględnej."], "definitions": [{"name": "Definicja 1: Styczna do wykresu funkcji", "content": "Niech \\( x_0\\in \\mathbb{R} \\) oraz funkcja \\( f \\) będzie określona i ciągła w otoczeniu \\( O(x_0) \\).\n\n\nStyczną do wykresu funkcji \\( f \\) w punkcie \\( x_0 \\) (w punkcie wykresu \\( P (x_0, f(x_0)) \\) lub dla argumentu \\( x_0 \\)) nazywamy prostą będąca granicznym położeniem siecznych wykresu funkcji \\( f \\) przechodzących przez punkty \\( (x_0, f(x_0)) \\) i \\( (x, f(x)) \\), gdy \\( x\\to x_0 \\)."}, {"name": "Definicja 2: Kąt przecięcia się wykresów funkcji", "content": "Niech \\( x_0\\in \\mathbb{R} \\). Niech funkcje \\( f \\) i \\( g \\) będą określone w otoczeniu \\( O(x_0) \\), posiadają pochodne właściwe lub niewłaściwe w punkcie \\( x_0 \\) oraz ich wykresy mają punkt wspólny \\( (x_0,y_0) \\).\n\n\nKątem przecięcia się wykresów funkcji \\( f \\) i \\( g \\) w punkcie \\( (x_0,y_0) \\) nazywamy kąt ostry lub prosty między stycznymi do wykresów tych funkcji w punkcie przecięcia \\( (x_0,y_0) \\)."}]} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 72, "subject": "Różniczka funkcji i jej zastosowanie do obliczeń przybliżonych", "paragraphs": ["Z pojęciem pochodnej wiąże się pojęcie różniczki. Funkcja posiadająca pochodną (właściwą) w danym zbiorze jest nazywana funkcją różniczkowalną w tym zbiorze, ale czym jest różniczka?"], "definitions": [{"name": "Definicja 1: Różniczka funkcji", "content": "Niech \\( x_0\\in\\mathbb{R} \\) i funkcja \\( f \\) ma pochodną właściwą w punkcie \\( x_0 \\).\n\n\nRóżniczką funkcji \\( f \\) w punkcje \\( x_0 \\) nazywamy funkcję \\( df_{x_0} \\) zmiennej \\( h \\) określoną wzorem \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( df_{x_0}(h)=f^{\\prime}(x_0)\\cdot h. \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 73, "subject": "Pochodne wyższych rzędów. Wzór Taylora", "paragraphs": ["Możemy obliczyć pochodną funkcji pochodnej. W ten sposób otrzymujemy pochodną rzędu drugiego zadanej funkcji, a także pochodne wyższych rzędów. Pojęcie pochodnych wyższych rzędów znajduje zastosowanie między innymi we wzorze Taylora, który umożliwia przybliżanie funkcji w lepszy sposób niż robi to różniczka funkcji czy geometrycznie styczna.", "Indukcyjnie również definiujemy pochodne jednostronne wyższego rzędu:", "Pochodną wyższego rzędu w przedziale definiujemy analogicznie do pochodnej rzędu pierwszego w przedziale:", "Zauważmy, że gdybyśmy policzyli piątą pochodną funkcji \\( x^5 \\) otrzymamy też liczbę: \\( 5\\cdot 4\\cdot 3\\cdot 2\\cdot 1=5! \\). I tak dalej. Są to szczególne przypadki następującej obserwacji:", "Wykorzystując pochodne wyższych rzędów możemy sformułować twierdzenie o wzorze Taylora.", "Twierdzenie jest prawdziwe również dla przedziału \\( [ x, x_0] \\).", "Ilustracją graficzną tej uwagi niech będą wykresy funkcji i ich przybliżeń przez wielomiany Taylora wyliczone w ostatnich przykładach.", "Zwróćmy uwagę, że dla funkcji \\( g(x)=\\sin x \\) wielomianu Taylora stopnia 5 w \\( x_0=\\pi \\) i wielomianu Taylora stopnia 6 w \\( x_0=\\pi \\) ma identyczną postać, bo \\( g^{(6)}(\\pi)=0 \\).", "Należy jednak zaznaczyć, że wykresy powyższych funkcji i ich wielomianów Taylora nie pokrywają się w żadnym przedziale.", "Dla funkcji różniczkowalnej wystarczająco wiele razy możemy, szacując resztę \\( R_n \\), ustalić stopnień wielomianu Taylora w punkcie \\( x_0 \\), tak aby przybliżenie danej funkcji przez ten wielomian Taylora miało zadaną z góry dokładność, czyli błąd przybliżenia był mniejszy lub równy od zadanej wartości. W szczególności przy pomocy wzoru Taylora możemy określić przybliżoną wartość funkcji dla zadanego argumentu z zadaną z góry dokładnością."], "definitions": [{"name": "Definicja 1: Pochodna rzędu \\( n \\) funkcji w punkcie", "content": "Niech \\( n\\in\\mathbb{N} \\).\n\n\nPochodną (właściwą) rzędu \\( n \\) funkcji \\( f \\) w punkcie \\( x_0 \\) (lub pochodną \\( n \\)-tego rzędu funkcji \\( f \\) w punkcie \\( x_0 \\)) oznaczamy przez \\( f^{(n)}(x_0) \\) i definiujemy jako \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( f^{(n)}(x_0)=\\left[f^{(n-1)}\\right]^{\\prime}(x_0)\\quad \\text{ dla }n\\geq 2, \\)\n\n\t\t\t\t\t o ile funkcja \\( f^{(n-1)} \\) jest określona w otoczeniu punktu \\( x_0 \\) i istnieje pochodna funkcji \\( f^{(n-1)} \\) w punkcie \\( x_0 \\). Przyjmujemy, że \\( f^{(1)}(x_0)=f^{\\prime}(x_0) \\)."}, {"name": "Definicja 2: Funkcja pochodna rzędu \\( n \\)", "content": "Funkcję określoną w przedziale \\( I \\), której wartości w punktach \\( x\\in I \\) są równe \\( f^{(n)}(x) \\), nazywamy funkcją pochodną rzędu \\( n \\) funkcji \\( f \\) w przedziale \\( I \\) lub pochodną \\( n \\)-tego rzędu funkcji \\( f \\) w przedziale \\( I \\), lub też \\( n \\)-tą pochodną funkcji \\( f \\) w przedziale \\( I \\) i oznaczamy \\( f^{(n)} \\) dla \\( n\\in \\mathbb{N} \\)."}, {"name": "Definicja 3: Pochodna lewostronna rzędu \\( n \\) funkcji w punkcie", "content": "Niech \\( n\\in\\mathbb{N} \\).\n\n\nPochodną lewostronną (właściwą) rzędu \\( n \\) funkcji \\( f \\) w punkcie \\( x_0 \\) oznaczamy przez \\( f^{(n)}_{-}(x_0) \\) i definiujemy jako \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( f^{(n)}_{-}(x_0)=\\left[f^{(n-1)}\\right]^{\\prime}_{-}(x_0)\\quad \\text{ dla }n\\geq 2, \\)\n\n\t\t\t\t\t o ile funkcja \\( f^{(n-1)} \\) jest określona w otoczeniu lewostronnym punktu \\( x_0 \\) i istnieje pochodna lewostronna funkcji \\( f^{(n-1)} \\) w punkcie \\( x_0 \\). Przyjmujemy, że \\( f^{(1)}_{-}(x_0)=f^{\\prime}_{-}(x_0) \\)."}, {"name": "Definicja 4: Pochodna prawostronna rzędu \\( n \\) funkcji w punkcie", "content": "Niech \\( n\\in\\mathbb{N} \\).\n\n\nPochodną prawostronną (właściwą) rzędu \\( n \\) funkcji \\( f \\) w punkcie \\( x_0 \\) oznaczamy przez \\( f^{(n)}_{+}(x_0) \\) i definiujemy jako \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( f^{(n)}_{+}(x_0)=\\left[f^{(n-1)}\\right]^{\\prime}_{+}(x_0)\\quad \\text{ dla }n\\geq 2, \\)\n\n\t\t\t\t\t o ile funkcja \\( f^{(n-1)} \\) jest określona w otoczeniu prawostronnym punktu \\( x_0 \\) i istnieje pochodna prawostronna funkcji \\( f^{(n-1)} \\) w punkcie \\( x_0 \\). Przyjmujemy, że \\( f^{(1)}_{+}(x_0)=f^{\\prime}_{+}(x_0) \\)."}, {"name": "Definicja 5: Pochodna rzędu \\( n \\) funkcji w przedziale", "content": "Mówimy, że funkcja \\( f \\) ma pochodną rzędu \\( n \\) w przedziale otwartym \\( (a,b) \\) , gdzie \\( -\\infty\\leq a\\lt b\\leq\\infty \\), gdy funkcja \\( f \\) ma pochodną rzędu \\( n \\) w każdym punkcie tego przedziału.\nMówimy, że funkcja \\( f \\) ma pochodną rzędu \\( n \\) w przedziale domkniętym \\( [a,b] \\) , gdzie \\( -\\infty\\lt a\\lt b\\lt\\infty \\), gdy funkcja \\( f \\) ma pochodną rzędu \\( n \\) w przedziale otwartym \\( (a,b) \\) i pochodną prawostronną rzędu \\( n \\) w \\( a \\) i pochodną lewostronną rzędu \\( n \\) w \\( b \\).\n\nMówimy, że funkcja \\( f \\) ma pochodną rzędu \\( n \\) w przedziale \\( (a,b] \\) , gdzie \\( -\\infty\\leq a\\lt b\\lt\\infty \\), gdy funkcja \\( f \\) ma pochodną rzędu \\( n \\) w przedziale otwartym \\( (a,b) \\) i pochodną lewostronną rzędu \\( n \\) w \\( b \\).\n\n\nMówimy, że funkcja \\( f \\) ma pochodną rzędu \\( n \\) w przedziale \\( [a,b) \\) , gdzie \\( -\\infty\\lt a\\lt b\\leq\\infty \\), gdy funkcja \\( f \\) ma pochodną rzędu \\( n \\) w przedziale otwartym \\( (a,b) \\) i pochodną prawostronną rzędu \\( n \\) w \\( a \\)."}]} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 74, "subject": "Zastosowanie pochodnej. Twierdzenie Rolle'a i Lagrange'a. Pochodna a monotoniczność funkcji", "paragraphs": ["Przedstawimy tu twierdzenia opisujące zastosowania pochodnej funkcji. Szczególne miejsce wśród nich zajmuje twierdzenie określające związek znaku pochodnej z monotonicznością funkcji. Twierdzenie to jest ważnym narzędziem badania monotoniczności funkcji.", "Przejdźmy teraz do wspomnianego twierdzenia łączącego znak pochodnej funkcji z monotonicznością funkcji. Twierdzenie to pozwala badanie monotoniczności funkcji sprowadzić do rozwiązania nierówności.", "Następne dwa twierdzenia pokażą nam, że porównanie wartości pochodnych dwóch funkcji w pewnym przedziale oraz porównanie wartości tych funkcji w pewnym punkcie tego przedziału, pozwala wnioskować o relacji tych funkcji w rozważanym przedziale.", "Powyższe twierdzenia znajdują zastosowanie również w rozwiązywaniu równań i nierówności nieelementarnych."], "definitions": []} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 75, "subject": "Reguła de l'Hospitala", "paragraphs": ["Pochodna funkcji okazuje się pomocna również przy obliczaniu granicy funkcji w punkcie. Mówi o tym twierdzenie de l'Hospitala, nazwane często regułą de l'Hospitala.", "Regułę de l'Hospitala możemy również zastosować, gdy szacując granicę ilorazu funkcji otrzymamy symbol nieoznaczony \\( \\left[\\frac{\\infty}{\\infty}\\right] \\).", "Jednak w przypadku innych symboli nieoznaczonych możemy tak przekształcić wyrażenie, którego granicę liczymy, aby móc zastosować regułę de l'Hospitala, czyli tak, aby otrzymać symbol nieoznaczony \\( \\left[\\frac{0}{0}\\right] \\) lub \\( \\left[\\frac{\\infty}{\\infty}\\right] \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 76, "subject": "Ekstrema lokalne. Wartość najmniejsza i największa funkcji", "paragraphs": ["Pochodna funkcji może służyć nam do szukania ekstremów (czyli minimów i maksimów) funkcji. Wiele zadań optymalizacyjnych można rozwiązać właśnie wyznaczając ekstrema.", "Wartość najmniejsza funkcji w zbiorze \\( A \\) jest też nazywana minimum globalnym funkcji w zbiorze \\( A \\), a wartość największa w zbiorze \\( A \\)- maksimum globalnym w zbiorze \\( A \\) . Algorytm wyznaczania wartości najmniejszej i największej funkcji \\( f \\) ciągłej w przedziale \\( [a,b] \\):"], "definitions": [{"name": "Definicja 1: Minimum lokalne", "content": "\nFunkcja \\( f \\) ma w punkcie \\( x_0\\in\\mathbb{R} \\) minimum lokalne (minimum lokalne właściwe), jeżeli istnieje \\( \\delta >0 \\) taka, że dla każdego \\( x\\in S(x_0, \\delta) \\) zachodzi nierówność \\( f(x)\\geq f(x_0) \\) ( \\( f(x)>f(x_0) \\)).\n\n"}, {"name": "Definicja 2: Maksimum lokalne", "content": "\nFunkcja \\( f \\) ma w punkcie \\( x_0\\in\\mathbb{R} \\) maksimum lokalne (maksimum lokalne właściwe), jeżeli istnieje \\( \\delta >0 \\) taka, że dla każdego \\( x\\in S(x_0, \\delta) \\) zachodzi nierówność \\( f(x)\\leq f(x_0) \\) ( \\( f(x)< f(x_0) \\)).\n\n"}, {"name": "Definicja 3: Wartość najmniejsza w zbiorze", "content": "\nLiczba \\( m\\in\\mathbb{R} \\) jest wartością najmniejszą funkcji \\( f \\) w zbiorze \\( A \\) zawartym w dziedzinie funkcji, jeżeli istnieje \\( x_0\\in A \\) takie, że \\( f(x_0)=m \\) i dla każdego \\( x\\in A \\) zachodzi nierówność \\( f(x)\\geqslant m \\).\n\n"}, {"name": "Definicja 4: Wartość największa w zbiorze", "content": "\nLiczba \\( M\\in\\mathbb{R} \\) jest wartością największą funkcji \\( f \\) w zbiorze \\( A \\) zawartym w dziedzinie funkcji, jeżeli istnieje \\( x_0\\in A \\) takie, że \\( f(x_0)=M \\) i dla każdego \\( x\\in A \\) zachodzi nierówność \\( f(x)\\leqslant M \\).\n\n"}]} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 77, "subject": "Wypukłość funkcji. Punkty przegięcia", "paragraphs": ["Rys. 1 ilustruje definicję funkcji ściśle wypukłej (czyli również wypukłej) dla \\( I=(a,b) \\):", "Na Rys. 2 przedstawiona została funkcja wypukła, która nie jest ściśle wypukła:", "Definicję funkcji ściśle wklęsłej dla \\( I=(a,b) \\) ilustruje Rys. 3:", "Na Rys. 4 przedstawiona została funkcja wklęsła, która nie jest ściśle wklęsła:", "Implikacja odwrotna nie jest prawdziwa."], "definitions": [{"name": "Definicja 1: Funkcja wypukła", "content": "\nFunkcję nazywamy wypukłą (wypukłą ku dołowi) w przedziale \\( I \\), gdy odcinek łączący dowolne dwa punkty wykresu funkcji \\( f \\) zawężonej do przedziału \\( I \\) leży powyżej lub na wykresie tej funkcji.\n\n"}, {"name": "Definicja 2: Funkcja ściśle wypukła", "content": "\nFunkcję nazywamy ściśle wypukłą (ściśle wypukłą ku dołowi) w przedziale \\( I \\), gdy odcinek łączący dowolne dwa punkty wykresu funkcji \\( f \\) zawężonej do przedziału \\( I \\) leży powyżej wykresu tej funkcji.\n\n"}, {"name": "Definicja 3: Funkcja wklęsła", "content": "\nFunkcję nazywamy wklęsłą (wypukłą ku górze) w przedziale \\( I \\), gdy odcinek łączący dowolne dwa punkty wykresu funkcji \\( f \\) zawężonej do przedziału \\( I \\) leży poniżej lub na wykresie tej funkcji.\n\n"}, {"name": "Definicja 4: Funkcja ściśle wklęsła", "content": "\nFunkcję nazywamy ściśle wklęsłą (ściśle wypukłą ku górze) w przedziale \\( I \\), gdy odcinek łączący dowolne dwa punkty wykresu funkcji \\( f \\) zawężonej do przedziału \\( I \\) leży poniżej wykresu tej funkcji.\n\n"}, {"name": "Definicja 5: Punkt przegięcia", "content": "\nNiech \\( f \\) będzie funkcją ciągłą w \\( O(x_0) \\). Funkcja \\( f \\) ma punkt przegięcia w \\( x_0 \\), gdy spełniony jest jeden z warunków:\n\n1. funkcja \\( f \\) jest ściśle wypukła w \\( S(x_0^-) \\) i ściśle wklęsła w \\( S(x_0^+) \\)\n\nalbo\n\n2. funkcja \\( f \\) jest ściśle wklęsła w \\( S(x_0^-) \\) i ściśle wypukła w \\( S(x_0^+) \\).\n\n"}]} {"field": "Matematyka", "coursebook": "Pochodna funkcji jednej zmiennej rzeczywistej", "chapter": "", "subject_id": 78, "subject": "Badanie przebiegu zmienności funkcji", "paragraphs": ["Fundamentalne dla rachunku różniczkowego pojęcia, takie jak granica, ciągłość, pochodna, są niezwykle skutecznymi narzędziami do badania przebiegu zmienności funkcji. Przez badanie przebiegu zmienności funkcji rozumiemy wykrywanie zasadniczych cech jej wykresu, gdy znamy funkcję jedynie jako abstrakcyjny przepis. Dzięki granicom obliczamy jej asymptoty, pochodna wykrywa jej monotoniczność i ekstrema, zaś badanie drugiej pochodnej umożliwia nam znalezienie punktów przegięcia i określenie przedziałów wypukłości funkcji. Badanie przebiegu zmienności stanowi zatem syntezę i ukoronowanie całości metod rachunku różniczkowego i, jako takie, jest zarazem dużym wyzwaniem rachunkowym ze względu na swoją złożoność. W celu ułatwienia tego zadania organizuje się pracę według następujących kroków, zwanych schematem badania funkcji.", "Aby zbadać przebieg zmienności funkcji, należy:"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 1. Wprowadzenie do równań cząstkowych", "subject_id": 436, "subject": "Wprowadzenie do równań cząstkowych", "paragraphs": ["Równania różniczkowe cząstkowe pojawiły się w związku z badaniami procesów drgań rozmaitych środowisk, między innymi drgań strun, prętów, membran, jak również w związku z badaniami zagadnień z zakresu akustyki i hydromechaniki. Pierwsze równanie różniczkowe cząstkowe zostało sformułowane w połowie XVIII wieku przez J. d'Alemberta (1717-1783). Było to równanie według dzisiejszej nomenklatury typu hiperbolicznego i powstało w wyniku rozważań nad zagadnieniem struny drgającej. L. Euler (1707 - 1783) sprecyzował warunki określające jednoznaczność rozwiązania tego równania, tworząc początki teorii równań różniczkowych cząstkowych. Póżniej, kierując się sugestiami natury fizycznej, D. Bernulli (1702 - 1782) przedstawił rozwiązanie struny drgającej w postaci szeregu trygonometrycznego. Metodę tę rozwinął J. Fourier (1750 - 1830) tworząc początki teori szeregów trygonometrycznych. A.L. Cauchy (1789 - 1857) sformułował zagadnienie początkowe dla równań różniczkowych, zwane dzisiaj zagadnieniem Cauchy'ego. P. Laplace (1749-1827) zauważył, że potencjał siły wzajemnego przyciągania dwóch mas spełnia równanie różniczkowe cząstkowe, które dzisiaj nosi nazwę równania Laplace'a. S.D. Poisson (1781 -1840) rozwinął teorię zjawisk przyciągania grawitacyjnego, w związku z którą wprowadził równanie zwane obecnie równaniem Poissona. Tak więc badania z zakresu mechaniki nieba i grawimetrii doprowadziły do powstania klasy równań noszących dziś nazwę równań eliptycznych. W początkach XIX wieku G. Green (1793-1841) stworzył ogólne podstawy teorii potencjału rozwijając teorię elektryczności i magnetyzmu. Badania zjawiska przewodnictwa cieplnego oraz dyfuzji gazów i cieczy doprowadziły natomiast do powstania klasy równań które nazywamy dzisiaj równaniami parabolicznymi. Na przełomie XIX i XX wieku nastąpił bujny rozwój badań w zakresie teorii równań różniczkowych cząstkowych. Między innymi istotny wkład wnieśli tacy matematycy jak B. Riemann (1826-1866), H. Poincare (1854-1921), E. Picard (1856-1941), J. Hadamard (1865-1937), E. Goursat (1854-1938). Z polskich matematyków wymienić należy autora jednej z pierwszych monografii poświęconych równaniom różniczkowym cząstkowym - M. Krzyżańskiego (1907 - 1965). Jak widać równania różniczkowe cząstkowe zrodziły się w związku badaniami zagadnień fizyki i chociaż obecnie zakres ich zastosowań znacznie się rozszerzył, znakomita część równań różniczkowych cząstkowych nosi nazwę od zjawisk które pierwotnie opisywały, np. równanie struny, równanie fali kulistej, równanie fali walcowej, równanie przewodnictwa cieplnego, równanie dyfuzji. Wiek XX przyniósł dalszy bujny rozwój teorii równań różniczkowych cząstkowych, związany z powstaniem i rozwojem nowych działów matematyki, zwłaszcza topologii i analizy funkcjonalnej.", "Równanie różniczkowe cząstkowe, to równanie w którym występuje niewiadoma funkcja dwóch lub więcej zmiennych niezależnych oraz niektóre jej pochodne cząstkowe. Rzędem równania nazywamy najwyższy rząd pochodnej. I tak równaniem różniczkowym cząstkowym pierwszego rzędu nazywamy zależność", "gdzie \\( \\hskip 0.3pc (x_1, \\ldots ,x_n)\\in U \\subset \\mathbb{R}^n \\hskip 0.3pc \\), \\( \\hskip 0.3pc F:U\\times \\mathbb{R}^{n+1} \\to \\mathbb{R} \\hskip 0.3pc \\) jest zadaną funkcją, a \\( \\hskip 0.3pc u:U\\to\\mathbb{R}\\hskip 0.3pc \\) funkcją szukaną. Podobnie równaniem różniczkowym cząstkowym drugiego rzędu nazywamy zależność", "gdzie \\( \\hskip 0.3pc F \\hskip 0.3pc \\) jest funkcją daną, a \\( \\hskip 0.3pc u \\hskip 0.3pc \\) funkcją szukaną.", "Rozwiązaniem równania różniczkowego cząstkowego rzędu \\( \\hskip 0.3pc k \\hskip 0.3pc \\) w obszarze \\( \\hskip 0.3pc U \\subset R^n \\hskip 0.3pc \\)nazywamy funkcję \\( \\hskip 0.3pc u:U\\to R^n \\hskip 0.3pc \\), posiadającą ciągłe pochodne cząstkowe do rzędu \\( \\hskip 0.3pc k \\hskip 0.3pc \\), spełniającą równanie w każdym punkcie obszaru \\( \\hskip 0.3pc U.\\hskip 0.3pc \\) Rozwiązanie takie nazywamy rozwiązaniem klasycznym. Zastosowania wymagają jednak często rozwiązań które nie mają ciągłych pochodnych, lub nie wszędzie są różniczkowalne lub wreszcie nie wszędzie są ciągłe. Wymaga to wprowadzenia tak zwanych rozwiązań słabych. W niniejszym tekście ograniczymy się do rozważania rozwiązań klasycznych, chociaż z punktu widzenia zatosowań są one daleko niewystarczające. Postaramy się natomiast sygnalizawać sytuacje w których widać potrzebę rozważania szerszej klasy rozwiązań oraz sformułujemy wstępne definicje, zachęcając w ten sposób Czytelnika do sięgnięcia po opracowania bardziej zaawansowane.", "W dalszym ciągu będziemy rozważać pewne szczególne przypadki równań różniczkowych cząstkowych. Równaniem różniczkowym cząstkowym liniowym pierwszego rzędu nazywamy równanie postaci ( 1 ), jeśli funkcja \\( \\hskip 0.3pc F \\hskip 0.3pc \\) jest liniowa względem funkcji \\( \\hskip 0.3pc u \\hskip 0.3pc \\) oraz jej pochodnych \\( \\hskip 0.3pc u_{x_1}, \\ldots ,u_{x_n}, \\hskip 0.3pc \\) czyli równanie postaci", "Jeśli \\( \\hskip 0.3pc f=0 \\hskip 0.3pc \\)to równanie ( 3 ) nazywamy jednorodnym. Równaniem różniczkowym cząstkowym quasi-liniowym pierwszego rzędu nazywamy równanie postaci ( 1 ) jeśli funkcja \\( \\hskip 0.3pc F \\hskip 0.3pc \\)jest liniowa względem pochodnych \\( \\hskip 0.3pc u_{x_1}, \\ldots ,u_{x_n}, \\hskip 0.3pc \\)czyli równanie postaci", "Jeśli \\( \\hskip 0.3pc f=0 \\hskip 0.3pc \\) to równanie ( 4 ) nazywamy równaniem quasi liniowym jednorodnym. Zazwyczaj przyjmujemy, że zadane funkcje \\( \\hskip 0.3pc a_1, \\ldots , a_n \\hskip 0.3pc \\) oraz funkcja \\( \\hskip 0.3pc f \\hskip 0.3pc \\) są ciągłe w rozważanych obszarach. Równaniem różniczkowym cząstkowym liniowym drugiego rzędu nazywamy równanie postaci ( 2 ) jeśli funkcja \\( \\hskip 0.3pc F \\hskip 0.3pc \\)jest liniowa względem funkji \\( \\hskip 0.3pc u \\hskip 0.3pc \\) oraz jej pochodnych, tzn. równanie postaci", "gdzie \\( \\hskip 0.3pc a_{ij}, \\hskip 0.3pc \\) \\( \\hskip 0.3pc b_i \\hskip 0.3pc \\) dla \\( \\hskip 0.3pc i,j=1, \\ldots ,n \\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc f \\hskip 0.3pc \\)są zadanymi funkcjami zmiennych \\( \\hskip 0.3pc x_1, \\ldots ,x_n. \\hskip 0.3pc \\) Jeśli \\( \\hskip 0.3pc f=0 \\hskip 0.3pc \\) to równanie ( 5 ) nazywamy jednorodnym. Równaniem różniczkowym cząstkowym quasi-liniowym drugiego rzędu nazywamy równanie postaci ( 2 ) jeśli funkcja \\( \\hskip 0.3pc F \\hskip 0.3pc \\)jest liniowa względem pochodnych drugiego rzędu funkcji \\( \\hskip 0.3pc u \\hskip 0.3pc \\)czyli równanie postaci", "Załóżmy, że równanie różniczkowe rozważamy w obszarze \\( \\hskip 0.3pc \\Omega . \\hskip 0.3pc \\) Jeśli szukamy rozwiązania które na brzegu \\( \\hskip 0.3pc \\partial \\Omega \\hskip 0.3pc \\) obszaru \\( \\hskip 0.3pc \\Omega \\hskip 0.3pc \\) przyjmuje zadane wartości, to problem ten nazywamy problemem brzegowym. Możemy też szukać rozwiązania dla którego na brzegu obszaru mamy zadane wartości pochodnych lub wartości pochodnej w kierunku normalnym do powierzchni, lub też kombinację tych warunków. Ze względu na interpretację fizyczną, często wyróżniamy jedną ze zmiennych i nazywamy czasem. Nie jest to na ogół obojętne, jeśli bowiem równanie różniczkowe opisuje pewne zjawisko fizyczne, to każda ze zmiennych ma z góry ustaloną interpretację. Jeśli poszukujemy rozwiązania które w chwili początkowej \\( \\hskip 0.3pc t=t_0 \\hskip 0.3pc \\) przyjmuje zadane wartości, to rozważany problem nazywamy problemem początkowym albo problemem Cauchy'ego. Możemy też szukać rozwiązania dla którego w chwili początkowej \\( \\hskip 0.3pc t=t_0 \\hskip 0.3pc \\) mamy zadane wartości pochodnych, lub rozwiązania które w chwili początkowej \\( \\hskip 0.3pc t=t_0 \\hskip 0.3pc \\) spełnia kombinację tych warunków. Należy wyrażnie zaznaczyć, że nie istnieje ogólna metoda rozwiązywania równań różniczkowych cząstkowych. Co więcej, stosowane techniki nie tylko zależą od typu równania, ale często również od rozpatrywanych warunków początkowych i brzegowych oraz obszaru w którym szukamy rozwiązania. Dlatego też badania skupiają się na konkretnych równaniach różniczkowych cząstkowych jak też konkretnych problemach początkowych i brzegowych, które sa ważne z punktu widzenia zastosowań w matematyce czy też w innych naukach. Na koniec zauważmy, że ze względu na oszczędność zapisu sensownym jest wprowadzenie operatorów różniczkowych", "oraz", "Jeśli operator \\( \\hskip 0.3pc L \\hskip 0.3pc \\) jest określony wzorem (8) (odp. (7)), równanie ( 5 ) (odp.( 6 ) ) możemy zapisać krótko", "Szczególnie rozpowszechniony jest operator Laplace'a (tzw. laplasjan)", "oraz operator Nabla", "Zauważmy, że \\( \\hskip 0.3pc \\Delta = \\bigtriangledown\\cdot \\bigtriangledown = \\bigtriangledown ^2, \\hskip 0.3pc \\) przy czym iloczyn rozumiemy tu w sensie iloczynu skalarnego."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 1. Wprowadzenie do równań cząstkowych", "subject_id": 437, "subject": "Przykłady zagadnień prowadzących do równań różniczkowych cząstkowych", "paragraphs": ["Równania różniczkowe cząstkowe służą jako modele dla opisu szeregu zjawisk począwszy od fizyki i techniki, poprzez nauki przyrodnicze, ekonomię, medycynę aż do nauk humanistycznych. I tak na przykład są one podstawowym narzędziem do opisu zagadnień mechaniki, elektrotechniki, hydromechaniki, akustyki czy fizyki kwantowej. W niniejszym module podamy przykłady opisu takich zjawisk, mianowicie drgań struny, drgań elektrycznych w przewodniku, przewodnictwa ciepła oraz przepływu cieczy lub gazu. Należy podkreślić, że w literaturze nietrudno znależć wyprowadzenia bardziej precyzyjne. Ponieważ naszym celem jest elementarne wprowadzenie do teorii równań różniczkowych, ograniczymy się do rozważań bardzo uproszczonych.", "1. Równanie struny", "Przez strunę rozumiemy jednorodną elastyczną nić o stałym przekroju. Zakładamy, że struna jest zamocowana na osi \\( \\hskip 0.3pc 0x \\hskip 0.3pc \\) w punktach \\( \\hskip 0.3pc 0 \\hskip 0.3pc \\) i \\( \\hskip 0.3pc l \\hskip 0.3pc \\) i pod działaniem sił naprężenia jest skierowana wzdłuż osi \\( \\hskip 0.3pc 0x. \\hskip 0.3pc \\) Przyjmujemy przy tym, że siła naprężenia w każdym punkcie struny jest stała. Jeśli pod działaniem siły zewnętrznej struna zostanie wyprowadzona z położenia równowagi, to pod wpływem sił naprężenia zacznie drgać. W naszych rozważaniach przyjmujemy, że struna przesuwa się w jednej płaszczyżnie, a punkty struny poruszają się jedynie w kierunku prostopadłym do osi \\( \\hskip 0.3pc 0x. \\hskip 0.3pc \\) Odchylenie \\( \\hskip 0.3pc u \\hskip 0.3pc \\) punktu drgającej struny jest szukaną funkcją dwóch zmiennych niezależnych, współrzędnej \\( \\hskip 0.3pc x \\hskip 0.3pc \\) oraz czasu \\( \\hskip 0.3pc t, \\hskip 0.3pc \\) czyli \\( \\hskip 0.3pc u =u(x,t). \\hskip 0.3pc \\) Oczywiście, siła naprężenia \\( \\hskip 0.3pc T \\hskip 0.3pc \\) jest w każdym punkcie styczna do struny, a ruch struny jest wymuszony jej składową na oś \\( \\hskip 0.3pc 0u \\hskip 0.3pc \\) (zobacz Rys. 1 ). Przyjmujemy, że wartość siły naprężenia struny jest stała, ponadto rozważamy tylko takie drgania, dla których amplituda jest mała w stosunku do długości struny. Oznaczmy przez \\( \\hskip 0.3pc x \\hskip 0.3pc \\) i \\( \\hskip 0.3pc x+\\Delta x \\hskip 0.3pc \\) rzut punktów \\( \\hskip 0.3pc M_1 \\hskip 0.3pc \\) i \\( \\hskip 0.3pc M_2 \\hskip 0.3pc \\) na oś \\( \\hskip 0.3pc 0x, \\hskip 0.3pc \\) a przez \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc \\varphi +\\Delta \\varphi \\hskip 0.3pc \\) kąt między kierunkiem działania siły naprężenia \\( \\hskip 0.3pc T \\hskip 0.3pc \\) w punktach \\( \\hskip 0.3pc M_1 \\hskip 0.3pc \\)i \\( \\hskip 0.3pc M_2\\hskip 0.3pc \\) a osią \\( \\hskip 0.3pc 0x. \\hskip 0.3pc \\) Zauważmy, że przyrost siły działającej w kierunku osi \\( \\hskip 0.3pc 0u \\hskip 0.3pc \\) na element struny \\( \\hskip 0.3pc M_1M_2 \\hskip 0.3pc \\) wyraża się wzorem:", "dla pewnego \\( \\hskip 0.3pc \\theta \\in [0,1] \\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc \\Delta x =x_2-x_1.\\hskip 0.3pc \\) (Ponieważ założyliśmy, że \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) jest małe, wartość \\( \\hskip 0.3pc \\sin \\varphi \\hskip 0.3pc \\) zastąpiliśmy wartością \\( \\hskip 0.3pc {\\rm tg} \\varphi,\\hskip 0.3pc \\) która - jak wiadomo - jest równa wartości pochodnej funkcji \\( \\hskip 0.3pc u, \\hskip 0.3pc \\) a następnie wykorzystaliśmy twierdzenie o wartości średniej). Z drugiej strony, korzystając z zasady Newtona, siłę działającą w kierunku osi \\( \\hskip 0.3pc u \\hskip 0.3pc \\) na element \\( \\hskip 0.3pc M_1M_2 \\hskip 0.3pc \\) możemy wyrazić wzorem:", "gdzie \\( \\hskip 0.3pc \\rho \\hskip 0.3pc \\) oznacza gęstość liniową struny.", "Porównując ( 1 ) i ( 2 ) otrzymamy", "czyli", "gdzie współczynnik \\( \\hskip 0.3pc a =\\sqrt{T/\\rho} \\hskip 0.3pc \\) opisuje prędkość rozchodzenia się drgań prostopadłych. Jest to równanie typu hiperbolicznego. Zauważmy, że w opisanym modelu spełnione są następujące warunki brzegowe", "zaś wyprowadzenie struny z polożenia równowagi zadane jest warunkami początkowymi", "gdzie \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\)i \\( \\hskip 0.3pc \\psi \\hskip 0.3pc \\)są zadanymi funkcjami, przy czym \\( \\hskip 0.3pc \\varphi (0)= \\varphi (l)=\\psi (0)=\\psi (l)=0. \\hskip 0.3pc \\) Jeśli założymy ponadto, że na strunę działa siła zewnętrzna \\( \\hskip 0.3pc F \\hskip 0.3pc \\) to nietrudno sprawdzić, że drgania struny opisane są równaniem", "gdzie \\( \\hskip 0.3pc f(x,t)=F(x,t)/T. \\hskip 0.3pc \\)", "2. Drgania elektryczne w przewodnikach", "Przypomnijmy, że prąd przepływający w przewodniku scharakteryzowany jest przez natężenie \\( \\hskip 0.3pc i=i(x,t) \\hskip 0.3pc \\) oraz napięcie \\( \\hskip 0.3pc u=u(x,t) \\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc x \\hskip 0.3pc \\) oznacza odległość liniową od początku linii, a \\( \\hskip 0.3pc t \\hskip 0.3pc \\) czas. Ponadto, jak zwykle niech \\( \\hskip 0.3pc R \\hskip 0.3pc \\) oznacza gęstość liniową oporności przewodnika, \\( \\hskip 0.3pc C \\hskip 0.3pc \\) gęstość liniową pojemności, \\( \\hskip 0.3pcL \\hskip 0.3pc \\) - gęstość liniową indukcji, a \\( \\hskip 0.3pc G \\hskip 0.3pc \\)- gęstość liniową upływności (współczynnik izolacji). Spadek potencjału przewodnika od punktu \\( \\hskip 0.3pc x \\hskip 0.3pc \\) do punktu \\( \\hskip 0.3pc x+\\Delta x, \\hskip 0.3pc \\) czyli", "jest spowodowany przez:", "\\( \\hskip 0.3pc i R \\Delta x \\hskip 0.3pc \\)- spadek napięcia wywołany oporem,", "\\( \\hskip 0.3pc L \\dfrac{\\partial i}{\\partial t} \\Delta x \\hskip 0.3pc \\)- siłę elektromagnetyczną samoindukcji.", "Zatem", "Stąd", "Podobnie, spadek natężenia na odcinku od punktu \\( \\hskip 0.3pc x \\hskip 0.3pc \\) do punktu \\( \\hskip 0.3pc x+\\Delta x, \\hskip 0.3pc \\) w czasie \\( \\hskip 0.3pc \\Delta t \\hskip 0.3pc \\) czyli", "jest równy sumie:", "\\( \\hskip 0.3pc C \\dfrac{\\partial u}{\\partial t} \\Delta x \\Delta t \\hskip 0.3pc \\)- prądu przepływającego przez rozważany odcinek,", "\\( \\hskip 0.3pc G u\\Delta x \\Delta t \\hskip 0.3pc \\)- strat prądu.", "Zatem", "Stąd", "Zespół równań ( 7 ), ( 8 ) nazywamy równaniami linii elektrycznej. Różniczkując równanie ( 7 ) względem \\( \\hskip 0.3pc x \\hskip 0.3pc \\) a równanie ( 8 ) względem \\( \\hskip 0.3pc t \\hskip 0.3pc \\) otrzymamy", "Jeśli przyjmiemy \\( \\hskip 0.3pc R \\cong 0, \\hskip 0.3pc \\) \\( \\hskip 0.3pc G \\cong 0, \\hskip 0.3pc \\) tzn. założymy, że linia jest bez samoindukcji i bez upływnienia, to eliminując z uzyskanego układu równań pochodną mieszaną, otrzymamy", "lub", "gdzie \\( \\hskip 0.3pc a =1/\\sqrt{LC}. \\hskip 0.3pc \\) Otrzymaliśmy zatem ponownie równanie postaci ( 3 ).", "3. Równanie przewodnictwa cieplnego w pręcie", "Rozważmy zagadnienie rozchodzenia się ciepła w pręcie jednorodnym. Niech \\( \\hskip 0.3pc u =u(x,t) \\hskip 0.3pc \\) oznacza temperaturę w chwili \\( \\hskip 0.3pc t \\hskip 0.3pc \\) w punkcie \\( \\hskip 0.3pc x. \\hskip 0.3pc \\) Ilość ciepła przechodząca przez sekcję pręta w punkcie \\( \\hskip 0.3pc x \\hskip 0.3pc \\)w przedziale czasowym \\( \\hskip 0.3pc \\Delta t \\hskip 0.3pc \\) wynosi", "gdzie \\( \\hskip 0.3pc k \\hskip 0.3pc \\) jest współczynnikiem przewodnictwa cieplnego a \\( \\hskip 0.3pc S \\hskip 0.3pc \\) powierzchnią przekroju pręta. Jeśli \\( \\hskip 0.3pc Q_1 \\hskip 0.3pc \\) oznacza ilość ciepła przepływająca przez sekcję pręta w punkcie \\( \\hskip 0.3pc x=x_1 \\hskip 0.3pc \\) a \\( \\hskip 0.3pc Q_2\\hskip 0.3pc \\) przez sekcję w punkcie \\( \\hskip 0.3pc x=x_2, \\hskip 0.3pc \\) czyli", "gdzie \\( \\hskip 0.3pc \\theta \\in [0,1], \\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc \\Delta x =x_2-x_1. \\hskip 0.3pc \\) Ciepło \\( \\hskip 0.3pc \\Delta Q \\hskip 0.3pc \\) powoduje zmianę temperatury odcinka \\( \\hskip 0.3pc [x_1,x_2]\\hskip 0.3pc \\) o wielkość \\( \\hskip 0.3pc \\Delta u.\\hskip 0.3pc \\) Oczywiście", "gdzie \\( \\hskip 0.3pc c \\hskip 0.3pc \\) oznacza ciepło właściwe a \\( \\hskip 0.3pc \\rho \\hskip 0.3pc \\) gęstość właściwą pręta. Uwzględniając, że", "równanie bilansu cieplnego możemy zapisać w postaci", "Stąd", "gdzie \\( \\hskip 0.3pc a^2=k/(c\\rho ). \\hskip 0.3pc \\) Jest to równanie typu parabolicznego.", "4. Równanie przewodnictwa cieplnego w bryle", "Rozważmy teraz zagadnienie rozchodzenia się ciepła w jednorodnej i izotropowej bryle trójwymiarowej \\( \\hskip 0.3pc V\\hskip 0.3pc \\) o powierzchni \\( \\hskip 0.3pc S. \\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc u=u(x,y,z,t) \\hskip 0.3pc \\) oznacza temperaturę w punkcie \\( \\hskip 0.3pc (x,y,z) \\hskip 0.3pc \\) w chwili \\( \\hskip 0.3pc t, \\hskip 0.3pc \\) \\( \\hskip 0.3pc k \\hskip 0.3pc \\) współczynnik przewodnictwa cieplnego, \\( \\hskip 0.3pc \\vec{n} \\hskip 0.3pc \\) oznacza (jednostkowy) wektor normalny do powierzchni \\( \\hskip 0.3pc S,\\hskip 0.3pc \\) \\( \\hskip 0.3pc c \\hskip 0.3pc \\)ciepło właściwe a \\( \\hskip 0.3pc \\rho \\hskip 0.3pc \\) gęstość bryły. Ilość ciepła przepływającego w jednostce czasu przez powierzchnię \\( \\hskip 0.3pc S, \\hskip 0.3pc \\) wyraża się wzorem", "a ilość ciepła w bryle \\( \\hskip 0.3pc V\\hskip 0.3pc \\) w chwili \\( \\hskip 0.3pc t\\hskip 0.3pc \\) wzorem", "Ponieważ", "gdzie symbol \\( \\hskip 0.3pc \\cdot \\hskip 0.3pc \\) znacza iloczyn skalarny, ilość ciepła która przechodzi przez element powierzchni \\( \\hskip 0.3pc \\Delta S \\hskip 0.3pc \\) w czasie \\( \\hskip 0.3pc \\Delta t \\hskip 0.3pc \\) wyraża się wzorem", "Zatem przez powierzchnie \\( \\hskip 0.3pc S \\hskip 0.3pc \\) w czasie \\( \\hskip 0.3pc \\Delta t\\hskip 0.3pc \\) przechodzi natępująca ilość ciepła", "Przepływające ciepło powoduje zmianę temperatury \\( \\hskip 0.3pc u, \\hskip 0.3pc \\) przy czym przyrost ciepła bryły \\( \\hskip 0.3pc V \\hskip 0.3pc \\) wyraża się wzorem", "Równanie bilansu cieplnego ma zatem postać", "Po uproszczeniu przez \\( \\hskip 0.3pc \\Delta t \\hskip 0.3pc \\) i wykorzystaniu twierdzenia Gaussa - Greena (zob. twierdzenie A.2) otrzymamy", "czyli", "Ponieważ ostatnia równość zachodzi dla dowolnego obszaru \\( \\hskip 0.3pc V \\hskip 0.3pc \\) o dostatecznie regularnej powierzchni, zakładając ciagłość wyrażeń podcałkowych otrzymamy", "lub", "gdzie \\( \\hskip 0.3pc a^2=k/(c \\rho). \\hskip 0.3pc \\) Ostatecznie otrzymane równanie możemy zapisać w postaci", "lub, używając symbolu laplasjanu \\( \\hskip 0.3pc \\Delta =\\dfrac{\\partial^2 }{\\partial x^2} +\\dfrac{\\partial^2 }{\\partial y^2} +\\dfrac{\\partial^2 }{\\partial z^2}, \\hskip 0.3pc \\) w postaci", "Jest to również równanie typu parabolicznego. Jeśli w rozważanym obszarze znajdują się żródła ciepła opisane funkcją \\( \\hskip 0.3pc g(x,y,z,t), \\hskip 0.3pc \\) wówczas można pokazać, że równanie przewodnictwa cieplnego przyjmie postać", "Jeśli temperatura nie zmienia się w czasie, równanie przewodnictwa cieplnego ma postać", "Równanie ( 14 ) nosi nazwę równania Laplace'a. Jest to równanie typu eliptycznego. Aby znależć temperaturę ciała, wystarczy znać temperaturę na powierzchni, czyli", "oraz prędkość przepływu ciepła przez powierzchnię, czyli", "gdzie \\( \\hskip 0.3pc \\vec{n} \\hskip 0.3pc \\) oznacza wektor normalny do powierzchni. Ponieważ warunki te są zadane na brzegu obszaru, problem ten nazywamy problemem brzegowym a wymienione warunki warunkami brzegowymi.", "5. Przepływ cieczy. Równanie ciągłości", "Niech \\( \\hskip 0.3pc V \\hskip 0.3pc \\) będzie zadanym obszarem jednospójnym o regularnej powierzchni \\( \\hskip 0.3pc S. \\hskip 0.3pc \\) Załóżmy, że przez obszar \\( \\hskip 0.3pc V \\hskip 0.3pc \\) przepływa ciecz lub gaz z prędkością \\( \\hskip 0.3pc \\vec{v} =\\vec{v}(x,y,z,t). \\hskip 0.3pc \\) Przez element powierzchni \\( \\hskip 0.3pc \\Delta S \\hskip 0.3pc \\) w czasie \\( \\hskip 0.3pc \\Delta t \\hskip 0.3pc \\) przepływa następująca ilość substancji", "gdzie \\( \\hskip 0.3pc \\vec{n} \\hskip 0.3pc \\) oznacza wektor normalny do powierzchni \\( \\hskip 0.3pc S, \\hskip 0.3pc \\) a \\( \\hskip 0.3pc \\rho =\\rho(x,y,z,t) \\hskip 0.3pc \\) gęstość przepływającej substancji w punkcie \\( \\hskip 0.3pc (x,y,z) \\hskip 0.3pc \\) i chwili \\( \\hskip 0.3pc t. \\hskip 0.3pc \\) Stąd przez powierzchnię \\( \\hskip 0.3pc S \\hskip 0.3pc \\) w czasie \\( \\hskip 0.3pc \\Delta t \\hskip 0.3pc \\) przepłynie następująca ilość substancji", "Z drugiej strony ilość substancji w bryle \\( \\hskip 0.3pc V \\hskip 0.3pc \\) w chwili \\( \\hskip 0.3pc t \\hskip 0.3pc \\) wynosi", "Oczywiście zmiana ilości substancji powoduje zmianę jej gęstości, a przyrost substancji w czasie \\( \\hskip 0.3pc \\Delta t \\hskip 0.3pc \\) spowodowany zmianą gęstości wyraża się wzorem", "Równanie bilansu ilości substancji ma zatem postać", "Wykorzystując twierdzenie Gaussa - Greena (zob. twierdzenie A.2) otrzymamy", "Ponieważ wzór ten zachodzi dla dowolnego obszaru regularnego \\( \\hskip 0.3pc V, \\hskip 0.3pc \\) więc funkcje podcałkowe są równe, wynika stąd równość", "zwana równaniem ciągłości Jeśli przyjmimy, że", "gdzie \\( \\hskip 0.3pc P \\hskip 0.3pc \\) oznacza ciśnienie, a \\( \\hskip 0.3pc \\lambda \\hskip 0.3pc \\) współczynnik przepuszczalności a \\( \\hskip 0.3pc k \\hskip 0.3pc \\) pewną stałą, to", "lub", "Jeśli rozważana substancja jest nieściśliwa, wówczas \\( \\hskip 0.3pc \\dfrac{\\partial P}{\\partial t}=0, \\hskip 0.3pc \\) a równanie ( 15 ) przyjmie postać", "lub", "Ponownie otrzymaliśmy równanie Laplace'a."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 2. Metoda charakterystyk dla równań liniowych pierwszego rzędu", "subject_id": 438, "subject": "Metoda charakterystyk dla równań liniowych o stałych współczynnikach", "paragraphs": ["W rozdziale tym omówimy rozwiązywanie równań liniowych różniczkowych cząstkowych pierwszego rzędu o stałych współczynnikach metodą charakterystyk. Metoda ta polega na sprowadzeniu rozwiązania równania różniczkowego cząstkowego do rozwiązania układu równań różniczkowych zwyczajnych, tak zwanych równań charakterystyk. W tym celu należy znaleść rozwiązania równania wyjściowego wzdłuż pewnych krzywych, a następnie pokazać, że powierzchnia utworzona w stosowny sposób z tak skonstruowanych krzywych (charakterystyk) jest rozwiązaniem równania wyjściowego. Rozważmy liniowe równanie różniczkowe cząstkowe pierwszego rzędu o stałych współczynnikach", "Niech \\( \\hskip 0.3pc u \\hskip 0.3pc \\) będzie rozwiązaniem równania ( 1 ) w obszarze \\( \\hskip 0.3pc D. \\hskip 0.3pc \\) Rozważmy krzywą \\( \\hskip 0.3pc \\Gamma \\hskip 0.3pc \\) zawartą w \\( \\hskip 0.3pc D \\hskip 0.3pc \\) daną równaniami", "Oczywiście wzdłuż krzywej \\( \\hskip 0.3pc \\Gamma \\hskip 0.3pc \\) rozwiązanie \\( \\hskip 0.3pc u \\hskip 0.3pc \\) przyjmuje wartości", "a pochodna względem zmiennej \\( \\hskip 0.3pc t \\hskip 0.3pc \\) wyraża się wzorem", "Załóżmy, że krzywa \\( \\hskip 0.3pc \\Gamma \\hskip 0.3pc \\) jest tak dobrana, że", "Stąd i z faktu, że \\( \\hskip 0.3pc u \\hskip 0.3pc \\) jest rozwiązaniem równania ( 1 ) wynika, że prawa strona relacji ( 2 ) jest równa \\( \\hskip 0.3pc c, \\hskip 0.3pc \\) czyli", "Rozwiązując równanie ( 3 ) z warunkami początkowymi: \\( \\hskip 0.3pc x(0)=x_0, \\hskip 0.3pc \\) \\( \\hskip 0.3pc y(0)=y_0, \\hskip 0.3pc \\) otrzymamy", "lub po wyrugowaniu parametru \\( \\hskip 0.3pc t \\hskip 0.3pc \\)", "Zauważmy, że przez każdy punkt obszaru \\( \\hskip 0.3pc D \\hskip 0.3pc \\) przechodzi dokładnie jedno rozwiązanie układu równań ( 3 ). Rozwiązanie równania ( 4 ) ma postać", "Przypomnijmy, że funkcja ( 6 ) jest rozwiązaniem równania ( 1 ) wzdłuż krzywej \\( \\hskip 0.3pc \\Gamma, \\hskip 0.3pc \\) czyli krzywej danej równaniem ( 5 ). Jeśli zatem stałą \\( \\hskip 0.3pc K \\hskip 0.3pc \\) zastąpimy dowolną funkcją która na krzywej \\( \\hskip 0.3pc \\Gamma \\hskip 0.3pc \\) przyjmuje stałą wartość, co symbolicznie możemy zapisać", "gdzie \\( \\hskip 0.3pc y_0 \\hskip 0.3pc \\) jest dane wzorem ( 5 ), funkcja", "będzie w dalszym ciągu spełniać równanie ( 1 ) wzdłuż krzywej \\( \\hskip 0.3pc \\Gamma. \\hskip 0.3pc \\) Rozważmy teraz funkcje", "gdzie \\( \\hskip 0.3pc F \\hskip 0.3pc \\) jest dowolną funkcją różniczkowalną jednej zmiennej. Bezpośredni rachunek pokazuje, że funkcja ta jest rozwiązaniem równania ( 1 ). Istotnie", "Tak więc, aby znaleźć rozwiązania równania ( 1 ), wystarczy rozwiązać układ równań liniowych ( 3 ), ( 4 ). Równania te noszą nazwę równań charakterystyk. Warunki początkowe \\( \\hskip 0.3pc x(0)=x_0, \\hskip 0.3pc \\) \\( \\hskip 0.3pc y(0)=y_0 \\hskip 0.3pc \\) należy dobrać tak, aby krzywe całkowe \\( \\hskip 0.3pc \\Gamma \\hskip 0.3pc \\) pokryły cały obszar \\( \\hskip 0.3pc D. \\hskip 0.3pc \\) Zazwyczaj jako punkty początkowe wygodnie jest wziąść punkty leżące na stosownie dobranej krzywej, na przykład na osi \\( \\hskip 0.3pc Ox \\hskip 0.3pc \\) lub \\( \\hskip 0.3pc Oy. \\hskip 0.3pc \\) Często wystarczy ograniczyć się do rozwiązań spełniających warunki: \\( \\hskip 0.3pc x(0)=0, \\hskip 0.3pc \\) \\( \\hskip 0.3pc y(0)=y_0. \\hskip 0.3pc \\) Zauważmy jeszcze, że ponieważ \\( \\hskip 0.3pc F \\hskip 0.3pc \\) jest funkcją dowolną, wygodnie jest uzyskane rozwiązanie równania ( 1 ) zapisać w postaci równoważnej", "Opisaną tu metodę możemy stosować również w przypadku, gdy współczynniki a, b, c są funkcjami zmiennych \\( \\hskip 0.3pc x \\hskip 0.3pc \\) i \\( \\hskip 0.3pc y. \\hskip 0.3pc \\)"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 2. Metoda charakterystyk dla równań liniowych pierwszego rzędu", "subject_id": 439, "subject": "Metoda charakterystyk dla równań liniowych pierwszego rzędu", "paragraphs": ["Moduł ten poświęcony jest rozwiązywaniu równań cząstkowych liniowych rzędu pierwszego kiedy współczynniki są funkcjami, a szukana funkcja zależy od dwóch zmiennych. Rozważmy liniowe równanie różniczkowe cząstkowe pierwszego rzędu", "gdzie \\( \\hskip 0.3pc a, \\hskip 0.3pc \\) \\( \\hskip 0.3pc b, \\hskip 0.3pc \\) \\( \\hskip 0.3pc c, \\hskip 0.3pc \\) \\( \\hskip 0.3pc f \\hskip 0.3pc \\) są funkcjami ciągłymi w obszarze \\( \\hskip 0.3pc D\\subset \\mathbb{R}^2. \\hskip 0.3pc \\) Załóżmy ponadto, że funkcje \\( \\hskip 0.3pc a \\hskip 0.3pc \\) i \\( \\hskip 0.3pc b \\hskip 0.3pc \\) nie zerują się równocześnie w żadnym punkcie zbioru \\( \\hskip 0.3pc D. \\hskip 0.3pc \\) Celem znalezienia rozwiązań równania ( 1 ) dokonajmy zmiany zmiennych", "tak dobranej, aby po zmianie zmiennych w równaniu ( 1 ) wyrugować jedną z pochodnych cząstkowych. Załóżmy chwilowo, że taka zmiana zmiennych istnieje i ponadto, że z równań ( 2 ) możemy lokalnie wyznaczyć \\( \\hskip 0.3pc x \\hskip 0.3pc \\) i \\( \\hskip 0.3pc y \\hskip 0.3pc \\) jako funkcje zmiennych \\( \\hskip 0.3pc \\xi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\eta, \\hskip 0.3pc \\) czyli", "przy czym tak określone funkcje \\( \\hskip 0.3pc x \\hskip 0.3pc \\) i \\( \\hskip 0.3pc y \\hskip 0.3pc \\) posiadają pochodne cząstkowe względem \\( \\hskip 0.3pc\\xi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\eta. \\hskip 0.3pc \\) Połóżmy", "Wracając do zmiennych wyjściowych \\( \\hskip 0.3pc x \\hskip 0.3pc \\) i \\( \\hskip 0.3pc y \\hskip 0.3pc \\) otrzymamy", "Stąd", "Podstawiając ostatnie związki do równania ( 1 ) otrzymamy", "Zauważmy, że postawiony cel osiągniemy, jeśli funkcje \\( \\hskip 0.3pc \\eta \\hskip 0.3pc \\) dobierzemy tak, aby", "lub funkcje \\( \\hskip 0.3pc \\xi \\hskip 0.3pc \\) tak aby", "Niech \\( \\hskip 0.3pc \\eta \\hskip 0.3pc \\) będzie rozwiązaniem równanie ( 4 ). Połóżmy", "gdzie \\( \\hskip 0.3pc K \\hskip 0.3pc \\) jest dowolną stałą. Oczywiście \\( \\hskip 0.3pc d\\eta=0, \\hskip 0.3pc \\) czyli", "Jeśli \\( \\hskip 0.3pc \\eta_y \\neq 0,\\hskip 0.3pc \\) z warunków ( 4 ), ( 5 ) wynika, że", "Równanie ( 6 ) nazywamy równaniem charakterystyk równania ( 1 ). Rodzinę krzywych \\( \\hskip 0.3pc \\psi (x,y)=K, \\hskip 0.3pc \\) będącą rozwiązaniem ogólnym równania ( 6 ) nazywamy rodziną charakterystyk równania ( 1 ). Niech \\( \\hskip 0.3pc \\psi (x,y)=K \\hskip 0.3pc \\) będzie rozwiązaniem ogólnym równania ( 6 ). Kładąc", "równanie ( 1 ) sprowadzimy do równania", "gdzie", "Zauważmy, że zależność ( 7 ) możemy traktować jako równanie różniczkowe zwyczajne względem zmiennej \\( \\hskip 0.3pc \\xi, \\hskip 0.3pc \\) zależne od parametru \\( \\hskip 0.3pc \\eta. \\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc w=w(\\xi , \\eta) \\hskip 0.3pc \\) będzie rozwiązaniem tego równania. Połóżmy", "Nietrudno sprawdzić, że tak określona funkcja \\( \\hskip 0.3pc u \\hskip 0.3pc \\) jest rozwiązaniem równania ( 1 ). Zauważmy jeszcze, że równania charakterystyk ( 6 ) możemy zapisać w postaci układu równań"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 2. Metoda charakterystyk dla równań liniowych pierwszego rzędu", "subject_id": 440, "subject": "Metoda charakterystyk dla równań liniowych o n-zmiennych niezależnych", "paragraphs": ["Rozważmy najpierw liniowe jednorodne równanie różniczkowe cząstkowe \\( \\hskip 0.3pc 1 \\hskip 0.3pc \\)-go rzędu o \\( \\hskip 0.3pc n \\hskip 0.3pc \\)-zmiennych niezależnych", "gdzie \\( \\hskip 0.3pc a_1, \\ldots ,a_n \\hskip 0.3pc \\) są funkcjami klasy \\( \\hskip 0.3pcC^1 \\hskip 0.3pc \\) określonymi w zbiorze \\( \\hskip 0.3pc \\Omega \\subset \\mathbb{R}^n. \\hskip 0.3pc \\) Rozważmy ponadto układ równań", "zwany układem równań charakterystyk dla równania ( 1 ).", "Bezpośrednim rachunkiem nietrudno sprawdzić iż zachodzi następująca uwaga:", "Zauważmy, że jeśli \\( \\hskip 0.3pc u_1,\\ldots,u_m \\hskip 0.3pc \\) są funkcyjnie niezależne w zbiorze \\( \\hskip 0.3pc \\Omega \\hskip 0.3pc \\) to dla dowolnego \\( \\hskip 0.3pc x \\in \\Omega \\hskip 0.3pc \\) równość", "zachodzi tylko wówczas, gdy \\( \\hskip 0.3pc\\lambda_1 = \\cdots = \\lambda_m =0.\\hskip 0.3pc \\) Przypomnijmy, że punkt \\( \\hskip 0.3pc\\stackrel{o}{x}\\in \\Omega\\hskip 0.3pc \\) nazywamy punktem równowagi (lub stacjonarnym) układu ( 2 ), jeśli prawe strony tego układu zerują się w tym punkcie, czyli", "Dowód tego twierdzenia został przedstawiony w module \"Całki pierwsze\" (patrz twierdzenie 1 ).", "Rozważmy teraz równanie niejednorodne", "gdzie \\( \\hskip 0.3pca_1, \\ldots ,a_n \\hskip 0.3pc \\) są funkcjami klasy \\( \\hskip 0.3pc C^1 \\hskip 0.3pc \\) określonymi w zbiorze \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^n. \\hskip 0.3pc \\) Szukamy rozwiązania w postaci uwikłanej", "gdzie \\( \\hskip 0.3pc V \\hskip 0.3pc \\) jest funkcją posiadającą ciągłe pochodne cząstkowe w pewnym otoczeniu punktu \\( \\hskip 0.3pc \\stackrel{o}w=(\\stackrel{o}x_1, \\ldots ,\\stackrel{o}x_n, \\stackrel{o}u). \\hskip 0.3pc \\) Załóżmy, że \\( \\hskip 0.3pc \\dfrac{\\partial V}{\\partial u}( \\stackrel{o}w)\\neq 0. \\hskip 0.3pc \\) Z twierdzenia o pochodnej funkcji uwikłanej w otoczeniu punktu \\( \\hskip 0.3pc \\stackrel{o}w \\hskip 0.3pc \\) otrzymamy", "Podstawiając ostatnie wielkości do równania ( 5 ) otrzymamy równanie liniowe jednorodne", "Równania charakterystyk równania ( 7 ) mają postać:", "Niech \\( \\hskip 0.3pc \\psi_1, \\ldots , \\psi_n\\hskip 0.3pc \\) będą funkcyjnie niezależnymi całkami pierwszymi układu równań ( 8 ). Zgodnie z wzorem ( 3 ) całka ogólna równania ( 7 ) ma postać", "gdzie \\( \\hskip 0.3pc F \\hskip 0.3pc \\) jest dowolną funkcją posiadającą ciągłe pochodne cząstkowe. Stąd i ( 6 ) wynika, że całką ogólną równania ( 5 ) ma postać"], "definitions": [{"name": "Definicja 1:", "content": " Funkcje \\( \\hskip 0.3pc u=u(x_1, \\ldots ,x_n) \\hskip 0.3pc \\) klasy \\( \\hskip 0.3pc C^1 \\hskip 0.3pc \\) w zbiorze \\( \\hskip 0.3pc \\Omega \\hskip 0.3pc \\) nazywamy całką pierwszą układu równań ( 2 ) jeżeli dla dowolnego rozwiązania\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( x_1=x_1(t),\\, \\ldots ,\\,\\,\\, x_n= x_n(t),\\quad t \\in I, \\)\n\nukładu równań ( 2 ) mamy\n\n\n\t\t\t\t\t\t\t\t\\( u\\big(x_1(t), \\ldots ,x_n(t)\\big)= {\\rm const} \\qquad {\\rm dla}\\quad t \\in I, \\)\n\ntzn. funkcja \\( \\hskip 0.3pc u \\hskip 0.3pc \\) jest stała wzdłuż dowolnego rozwiązania układu równań ( 2 ).\n\n"}, {"name": "Definicja 2:", "content": " Funkcje \\( \\hskip 0.3pc u_1,\\,\\ldots,\\,u_m\\in C^1(\\Omega)\\hskip 0.3pc m\\leq n, \\hskip 0.3pc \\) nazywamy funkcyjnie niezależnymi w zbiorze \\( \\hskip 0.3pc \\Omega \\hskip 0.3pc \\)\n jeśli dla dowolnego \\( \\hskip 0.3pc x=(x_1,\\ldots,x_n)\\in \\Omega\\hskip 0.3pc \\) rząd macierzy\n\n\n\t\t\t\t\t\t\t\t\\( \\begin{bmatrix} \\dfrac{\\partial u_1}{\\partial x_1}(x) &\\ldots & \\dfrac{\\partial u_1}{\\partial x_n}(x)\\\\\\vdots &\\ddots &\\vdots\\\\ \\dfrac{\\partial u_m}{\\partial x_1}(x)& \\ldots & \\dfrac{\\partial u_m}{\\partial x_n}(x)\\end{bmatrix} \\)\n\nwynosi \\( \\hskip 0.3pc m. \\hskip 0.3pc \\)\nW szczególności, jeśli \\( \\hskip 0.3pc m=n \\hskip 0.3pc \\) oznacza to, że wyznacznik z powyższej macierzy jest różny od zera.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 2. Metoda charakterystyk dla równań liniowych pierwszego rzędu", "subject_id": 441, "subject": "Metoda charakterystyk dla prawie-liniowego równania różniczkowego cząstkowego pierwszego rzędu", "paragraphs": ["Rozważmy prawie-liniowe równanie różniczkowe cząstkowe pierwszego rzędu", "gdzie \\( \\hskip 0.3pc a, \\hskip 0.3pc \\), \\( \\hskip 0.3pc b, \\hskip 0.3pc \\) \\( \\hskip 0.3pc c \\hskip 0.3pc \\) są funkcjami klasy \\( \\hskip 0.3pcC^1 \\hskip 0.3pc \\) w zbiorze \\( \\hskip 0.3pc\\Omega \\subset \\mathbb R^3. \\hskip 0.3pc \\)Niech \\( \\hskip 0.3pc D=\\{(x,y): (x,y,z)\\in \\Omega \\,\\,{\\textrm{dla pewnego}}\\,\\, z \\in \\mathbb R\\}. \\hskip 0.3pc \\) Zakładamy ponadto, że funkcje \\( \\hskip 0.3pc a,\\hskip 0.3pc b \\hskip 0.3pc \\) nie zerują się równocześnie w żadnym punkcie obszaru \\( \\hskip 0.3pc \\Omega. \\hskip 0.3pc \\) Przypomnijmy, że rozwiązaniem równania ( 1 ) w zbiorze \\( \\hskip 0.3pc D \\hskip 0.3pc \\) nazywamy funkcje \\( \\hskip 0.3pc u \\in C^1(D), \\hskip 0.3pc \\) spełniającą dla każdego \\( \\hskip 0.1pc (x,y)\\in D \\hskip 0.3pc \\) równanie ( 1 ). Rodzinę wszystkich rozwiązań równania ( 1 ) nazywamy całką ogólną tego równania. Jeśli funkcja \\( \\hskip 0.3pc u \\hskip 0.3pc \\) jest rozwiązaniem równania ( 1 ) w zbiorze \\( \\hskip 0.3pc D, \\hskip 0.3pc \\) to powierzchnia \\( \\hskip 0.3pc S \\hskip 0.3pc \\) dana wzorem \\( \\hskip 0.3pc z=u(x,y), \\hskip 0.3pc \\) \\( \\hskip 0.3pc (x,y)\\in D \\hskip 0.3pc \\) nazywa się powierzchnią całkową lub wykresem rozwiązania równania ( 1 ). Zauważmy, że dla dowolnego punktu \\( \\hskip 0.3pc P_0 =(x_0,y_0,z_0) \\in S \\hskip 0.3pc \\) wektor", "Ponieważ \\( \\hskip 0.3pc u \\hskip 0.3pc \\) jest rozwiązaniem równania ( 1 ), zatem", "co oznacza, że wektor \\( \\hskip 0.3pc \\big(a(P_0),\\,b(P_0),\\,c(P_0)\\big) \\hskip 0.3pc \\) jest prostopadły do wektora \\( \\hskip 0.3pc \\vec n(x_0,y_0), \\hskip 0.3pc \\) a zatem jest styczny do wykresu rozwiązania \\( \\hskip 0.3pc u \\hskip 0.3pc \\) w punkcie \\( \\hskip 0.3pc P_0. \\hskip 0.3pc \\) Rozważmy układ równań", "Krzywe, które są rozwiązaniami układu ( 3 ), nazywami charakterystykami równania ( 1 ), a same równania ( 3 ), równaniami charakterystyk. Pokażemy, że jeśli dane jest rozwiązanie \\( \\hskip 0.3pc u \\hskip 0.3pc \\) równania ( 1 ) określone w zbiorze \\( \\hskip 0.3pc D,\\hskip 0.3pc \\) to przez dowolny punkt powierzchni całkowej \\( \\hskip 0.1pc S \\hskip 0.3pc \\) danej wzorem \\( \\hskip 0.3pc z=u(x,y), \\hskip 0.4pc \\) \\( (x,y)\\in D, \\hskip 0.3pc \\) przechodzi dokładnie jedna charakterystyka.", "Rozpatrzmy teraz przypadek", "dla \\( \\hskip 0.3pc s\\in J, \\hskip 0.3pc \\) \\( \\hskip 0.3pc P=\\big(X(s,0), Y(s,0),Z(s,0)\\big)=\\big(\\gamma_1(s),\\gamma_2(s),\\gamma_3(s)\\big). \\hskip 0.3pc \\) Warunek ( 18 ) możemy zapisać w postaci", "Po zróżniczkowanie ( 7 ) względem \\( \\hskip 0.3pc s \\hskip 0.3pc \\) otrzymamy", "natomiast z ( 1 ) i ( 11 ) wynika natychmiast, że", "Z równości ( 19 ), ( 20 ) i ( 21 ) wynika, że \\( \\hskip 0.3pc \\gamma_3^\\prime (s) =\\lambda c(P). \\hskip 0.3pc \\) Zatem wektory \\( \\hskip 0.3pc \\big(\\gamma_1^\\prime (s),\\, \\gamma_2^\\prime (s), \\gamma_3^\\prime (s)\\big) \\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc \\big(a(P),\\, b(P),\\, c(P)\\big), \\hskip 0.3pc \\) \\( \\hskip 0.3pc s\\in J, \\hskip 0.3pc \\) są równoległe, co oznacza, że \\( \\hskip 0.3pc\\gamma \\hskip 0.3pc \\) jest charakterystyką równania ( 1 ). Zauważmy, że w tym przypadku problem ( 1 ), ( 7 ) posiada nieskończenie wiele rozwiązań. Istotnie, niech \\( \\hskip 0.3pc \\tilde\\gamma \\hskip 0.3pc \\) będzie krzywą przecinającą krzywą \\( \\hskip 0.3pc \\gamma. \\hskip 0.3pc \\) Na mocy twierdzenia 1 istnieje (dokładnie jedno) rozwiązanie równania ( 1 ) zawierające krzywą \\( \\hskip 0.3pc \\tilde \\gamma. \\hskip 0.3pc \\) Z drugiej strony \\( \\hskip 0.3pc \\gamma \\hskip 0.3pc \\) ma wspólny punkt z tym rozwiązaniem, zatem na mocy uwagi 2, również krzywa \\( \\hskip 0.3pc \\gamma \\hskip 0.3pc \\) leży całkowicie na tym rozwiązaniu. Ponieważ takich krzywych \\( \\hskip 0.3pc \\tilde\\gamma \\hskip 0.3pc \\) może być nieskończenie wiele, więc otrzymamy nieskończenie wiele rozwiązań zawierających krzywą \\( \\hskip 0.3pc \\gamma. \\hskip 0.3pc \\)"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 2. Metoda charakterystyk dla równań liniowych pierwszego rzędu", "subject_id": 442, "subject": "Metoda charakterystyk - przykłady", "paragraphs": ["Na poniższym przykładzie prześledzimy różne sposoby praktycznego wykorzystania metody charakterystyk, które umownie nazwiemy metodą krzywych charakterystycznych, metodą charakterystyk, metodą zmiany zmiennych oraz metodą całek pierwszych. Znaleźć rozwiązanie równania", "przechodzące przez krzywą"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 3. Klasyfikacja równań liniowych rzędu drugiego. Metoda charakterystyk", "subject_id": 443, "subject": "Klasyfikacja równań różniczkowych cząstkowych 2-go rzędu 2-zmiennych", "paragraphs": ["Rozważmy równanie różniczkowe cząstkowe rzędu drugiego", "Pokażemy, że dokonując stosownej zmiany zmiennych, możemy równanie ( 1 ) doprowadzić do postaci, w której współczynnik przy pochodnej mieszanej przyjmie wartość zero. Postać taką nazywamy postacią kanoniczną, przy czym: jeśli pozostałe współczynniki przy pochodnych drugiego rzędu są różne od zera i mają ten sam znak, równanie nazywamy typu eliptycznego, jeśli są znaków różnych, typu hiperbolicznego, jeśli przynajmniej jeden ze współczynników przy pochodnych drugiego rzędu jest równy zeru, natomiast pochodne pierwszego rzędu względem tych zmiennych nie znikają, typu parabolicznego. Tak więc równania:", "są odpowiednio typu eliptycznego, hiperbolicznego i parabolicznego. Należy podkreślić, że typ równania nie zależy od sposobu sprowadzenia do postaci kanonicznej. Okazuje się, że jest on niezmiennikiem względem przekształceń nieosobliwych. Rozważmy przekształcenie", "Przyjmijmy, że przekształcenie to obszar \\( \\hskip 0.3pc D \\hskip 0.3pc \\) przekształca w obszar \\( \\hskip 0.3pc \\Delta. \\hskip 0.3pc \\) Załóżmy, że funkcje \\( \\hskip 0.3pc \\xi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc\\eta \\hskip 0.3pc \\) są klasy \\( \\hskip 0.3pc C^1 \\hskip 0.3pc \\) w zbiorze \\( \\hskip 0.3pc D \\hskip 0.3pc \\) i ponadto istnieje przekształcenie", "odwrotne do przekształcenia ( 2 ). Przypomnijmy, że jeśli jakobian przekształcenia ( 2 ) jest różny od zera, to przekształcenie takie nazywamy przekształceniem nieosobliwym. Przekształcenie nieosobliwe jest zawsze odwracalne. Kładąc", "równanie ( 1 ) przekształcimy na równanie względem zmiennych \\( \\hskip 0.3pc \\xi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\eta. \\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc w \\hskip 0.3pc \\) będzie rozwiązaniem równania przekształconego. Po powrocie do współrzędnych wyjściowych otrzymamy rozwiązanie równania wyjściowego.", "Oczywiście", "Jeśli położymy", "to równanie ( 1 ) po zastosowaniu przekształcenia ( 3 ) przyjmie postać", "gdzie współczynniki \\( \\hskip 0.3pc \\widetilde a_{11},\\hskip 0.3pc \\widetilde a_{12},\\hskip 0.3 pc \\widetilde a_{22}\\hskip 0.3pc \\) są funkcjami zmiennych \\( \\hskip 0.3pc \\xi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\eta. \\hskip 0.3pc \\) Założmy, że przekształcenie ( 2 ) jest tak dobrane, że \\( \\hskip 0.3pc \\widetilde a_{11}=0 \\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc \\widetilde a_{22}=0. \\hskip 0.3pc \\) Równość \\( \\hskip 0.3pc \\widetilde a_{11}=0 \\hskip 0.3pc \\) oznacza, że", "Podobnie równość \\( \\hskip 0.3pc \\widetilde a_{22}=0 \\hskip 0.3pc \\) oznacza, że jest spełnione równanie ( 5 ) z funkcją \\( \\hskip 0.3pc \\eta \\hskip 0.3pc \\) w miejsce \\( \\hskip 0.3pc \\xi. \\hskip 0.3pc \\) Oba zatem przypadki dają to samo równanie ( 5 ).", "Równanie ( 6 ) nazywamy równaniem charakterystyk równania ( 1 ). Zauważmy jeszcze, że warunek \\( \\hskip 0.3pc \\varphi_y \\neq 0 \\hskip 0.3pc \\) w powyższej uwadze nie jest ograniczający. Istotnie, jeśli chcemy aby rozważane przekształcenie było nieosobliwe, pochodne cząstkowe \\( \\hskip 0.3pc \\varphi_x \\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\varphi_y \\hskip 0.3pc \\) funkcji \\( \\hskip 0.3pc\\varphi \\hskip 0.3pc \\) nie mogą zerować się równocześnie, zatem jedna z nich jest różna od zera. Jeśli \\( \\hskip 0.3pc \\varphi_x \\neq 0, \\hskip 0.3pc \\) argument jest analogiczny. Kładąc \\( \\hskip 0.3pc \\lambda =\\dfrac {dy}{dx} \\hskip 0.3pc \\) równanie ( 6 ) przyjmie postać", "Jak wiadomo, rozwiązanie tego równania względem \\( \\hskip 0.3pc \\lambda \\hskip 0.3pc \\) zależy od wyróżnika", "przy czym należy rozważyć trzy przypadki: \\( \\hskip 0.3pc \\delta <0, \\hskip 0.3pc\\delta =0\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\delta >0. \\hskip 0.3pc \\)", "Przypadek \\( \\hskip 0.3pc \\delta <0.\\hskip 0.3pc \\) Załóżmy, że \\( \\hskip 0.3pc \\delta (x,y) <0 \\hskip 0.3pc \\) dla \\( \\hskip 0.3pc (x,y)\\in D. \\hskip 0.3pc \\) Równanie ( 9 ) posiada wówczas dwa rozwiązania o wartościach rzeczywistych:", "Niech \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\psi \\hskip 0.3pc \\) będą odpowiednio rozwiązaniami równań", "Z Uwagi 1 wynika, że przekształcenie", "sprowadza równanie ( 1 ) do postaci", "a po podzieleniu przez \\( \\hskip 0.3pc \\widetilde a_{12} \\hskip 0.3pc \\) do postaci", "gdzie funkcja \\( \\hskip 0.3pc \\widetilde F\\hskip 0.3pc \\) zawiera wszystkie wyrazy z pochodnymi niższego rzędu. Dokonując kolejnej zmiany zmiennych", "i kładąc", "otrzymamy", "Stąd", "Po uwzględnieniu ostatnich zależności równanie ( 10 ) przyjmuje postać", "gdzie podobnie jak poprzednio funkcja \\( \\hskip 0.3pc \\widehat F \\hskip 0.3pc \\) zawiera wszystkie wyrazy o pochodnych niższego rzędu. Jest to więc równanie typu hiperbolicznego.", "Przypadek \\( \\hskip 0.3pc \\delta=0.\\hskip 0.3pc \\) Załóżmy, że \\( \\hskip 0.3pc \\delta(x,y)=0 \\hskip 0.3pc \\) dla \\( \\hskip 0.3pc (x,y)\\in D. \\hskip 0.3pc \\) Oznacza to, że \\( \\hskip 0.3pc a_{11}a_{22}-a_{12}^2=0, \\hskip 0.3pc \\) czyli \\( \\hskip 0.3pc a_{12}= \\sqrt{a_{11}a_{22}} \\hskip 0.3pc \\) lub \\( \\hskip 0.3pc a_{12}=- \\sqrt{a_{11}a_{22}}. \\hskip 0.3pc \\) Załóżmy, że \\( \\hskip 0.3pc a_{12} \\hskip 0.3pc \\) przyjmuje pierwszą z wymienionych wartości, a ponadto \\( \\hskip 0.3pc a_{11}>0. \\hskip 0.3pc \\) Korzystając z ostatniej równości otrzymamy", "Zatem \\( \\hskip 0.3pc \\widetilde a_{11}=0 \\hskip 0.3pc \\) implikuje \\( \\hskip 0.3pc\\widetilde a_{12}=0. \\hskip 0.3pc \\) Analogiczny rezultat uzyskamy gdy \\( \\hskip 0.3pc a_{12} \\hskip 0.3pc \\) przyjmuje drugą z wymienionych wartości. Jeśli zatem za funkcje \\( \\hskip 0.3pc \\xi \\hskip 0.3pc \\) przyjmiemy rozwiązanie równania ( 6 ) a za \\( \\hskip 0.3pc \\eta \\hskip 0.3pc \\) dowolną funkcje tak aby przekształenie było nieosobliwe, to po zmianie zmiennych równanie ( 1 ) przyjmie postać", "Jeśli przy tym po prawej stronie nie znika \\( \\hskip 0.3pc w_{\\xi}, \\hskip 0.3pc \\) jest to równanie typu parabolicznego. Oczywiście najprostrze wydaje się podstawienie \\( \\hskip 0.3pc \\xi = \\varphi (x,y), \\hskip 0.3pc \\eta = y\\hskip 0.3pc \\) lub \\( \\hskip 0.3pc \\xi =x,\\hskip 0.3pc \\eta =\\varphi (x,y),\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc\\varphi \\hskip 0.3pc \\) jest całką równania ( 6 ).", "Przypadek \\( \\hskip 0.3pc \\delta >0. \\hskip 0.3pc \\) Załóżmy, że \\( \\hskip 0.3pc\\delta (x,y)>0 \\hskip 0.3pc \\) dla \\( \\hskip 0.3pc (x,y)\\in D. \\hskip 0.3pc \\) W tym przypadku równanie ( 9 ) posiada dwa rozwiązania o wartościach zespolonych:", "Niech \\( \\hskip 0.3pc \\Phi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc\\Psi \\hskip 0.3pc \\) będą odpowiednio rozwiązaniami równań", "Oznaczmy przez \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) część rzeczywistą funkcji \\( \\hskip 0.3pc \\Phi, \\hskip 0.3pc \\) a przez \\( \\hskip 0.3pc \\psi \\hskip 0.3pc \\) jej część urojoną. Wówczas", "Oczywiście krzywe \\( \\hskip 0.3pc \\Phi (x,y)=C \\hskip 0.3pc \\) (podobnie \\( \\hskip 0.3pc \\Psi (x,y)=C\\hskip 0.3pc \\)) są całkami równania ( 5 ), a warunek \\( \\hskip 0.3pc \\widetilde a_{11}=0 \\hskip 0.3pc \\) przyjmie postać", "Podstawiając do ostatniego równania związki", "otrzymamy", "skąd wynika natychmiast, że", "Stosując teraz zmianę zmiennych", "gdzie \\( \\hskip 0.3pc \\varphi\\hskip 0.3pc \\) i \\( \\hskip 0.3pc\\psi \\hskip 0.3pc \\) są odpowiednio częścią rzeczywistą i urojoną całki \\( \\hskip 0.3pc \\Phi, \\hskip 0.3pc \\) ze związków ( 4 ) i ( 11 ) otrzymamy natychmiast: \\( \\hskip 0.3pc\\widetilde a_{11}= \\widetilde a_{22}, \\hskip 0.3pc \\) \\( \\hskip 0.3pc \\widetilde a_{12}=0. \\hskip 0.3pc \\) Zatem przekształcenie ( 12 ) sprowadza równanie ( 1 ) do postaci", "Jest to zatem równanie typu eliptycznego. Na zakończenie rozważań rozpatrzmy przypadek, gdy w równaniu ( 1 ) współczynnik \\( \\hskip 0.3pc a_{22}=0. \\hskip 0.3pc \\) Wówczas zgodnie z ( 4 )", "Jeśli \\( \\hskip 0.3pc \\varphi (x,y)=0 \\hskip 0.3pc \\) jest całką ogólną równania ( 6 ), wówczas zerowanie się współczynników \\( \\hskip 0.3pc \\widetilde a_{11},\\hskip 0.3pc \\widetilde a_{22} \\hskip 0.3pc \\) uzyskamy przyjmując \\( \\hskip 0.3pc \\xi=\\varphi (x,y),\\hskip 0.3pc \\eta =y. \\hskip 0.3pc \\) Jeśli natomiast \\( \\hskip 0.3pc a_{11}=0, \\hskip 0.3pc \\) przyjmując \\( \\hskip 0.3pc \\xi=\\varphi (x,y),\\hskip 0.3pc \\eta =x. \\hskip 0.3pc \\)"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 3. Klasyfikacja równań liniowych rzędu drugiego. Metoda charakterystyk", "subject_id": 444, "subject": "Klasyfikacja równań różniczkowych cząstkowych 2-go rzędu n-zmiennych", "paragraphs": ["Rozważmy prawie-liniowe równanie różniczkowe cząstkowe rzędu drugiego", "gdzie \\( \\hskip 0.3pc a_{ij}, \\hskip 0.3pc \\) \\( \\hskip 0.3pc i,j=1,\\ldots, n \\hskip 0.3pc \\) są funkcjami określonymi na zbiorze \\( \\hskip 0.3pc U\\subset \\mathbb{R}^n, \\hskip 0.3pc \\) niezerującymi się równocześnie w żadnym punkcie tego zbioru, \\( \\hskip 0.3pc u \\hskip 0.3pc \\) jest szukaną funkcją zmiennych \\( \\hskip 0.3pc x_1, \\ldots ,x_n, \\hskip 0.3pc \\) a \\( \\hskip 0.3pc F \\hskip 0.3pc \\) jest funkcją zadaną. Z równaniem ( 1 ) możemy związać formę kwadratową", "Z teorii form kwadratowych wiadomo, że dla każdego ustalonego punktu \\( \\hskip 0.3pc (x_1,\\ldots, x_n)\\in U \\hskip 0.3pc \\) istnieje przekształcenie postaci", "które formę ( 3 ) sprowadza do postaci kanonicznej,", "tzn. postaci w której występują tylko kwadraty \\( \\hskip 0.3pc \\mu_i. \\hskip 0.3pc \\) Z twierdzenia Sylwestera-Jacobiego o bezwładności form kwadratowych wynika, że ilość współczynników dodatnich oraz ujemnych nie zależy od sposobu sprowadzenia do postaci kanonicznej. Jest ona niezmiennikiem względem przekształceń nieosobliwych. Oznacza to, że równanie ( 1 ) poprzez stosowne przekształcenie możemy sprowadzić do postaci kanonicznej", "Mówimy, że równanie ( 1 ) jest w punkcie \\( \\hskip 0.3pc (x_1, \\ldots ,x_n) \\hskip 0.3pc \\) typu eliptycznego, jeżeli wszystkie współczynniki \\( \\hskip 0.3pc \\widetilde a_i \\hskip 0.3pc \\) w postaci kanonicznej ( 5 ) są różne od zera i mają ten sam znak, typu hiperbolicznego jeżeli są różne od zera i występują zarówno współczynniki ujemne jak i dodatnie, typu parabolicznego, jeżeli niektóre współczynniki są równe zeru a odpowiadające im pochodne pierwszego rzędu nie znikają równocześnie. Jeśli ponadto współczynniki różne od zera mają ten sam znak, równanie nazywamy paraboliczno-eliptycznym, jeśli znaki różne, paraboliczno-hiperbolicznym. Jeśli \\( \\hskip 0.3pc \\Lambda =[\\lambda_1, \\ldots ,\\lambda_n] \\hskip 0.3pc \\) oznacza macierz jednowierszową \\( \\hskip 0.3pc \\Lambda^T \\hskip 0.3pc \\) macierz transponowaną, a \\( \\hskip 0.3pc A \\hskip 0.3pc \\) macierz \\( \\hskip 0.3pc n\\times n \\hskip 0.3pc \\) wymiarową o wyrazach \\( \\hskip 0.3pc a_{ij}, \\hskip 0.3pc \\) \\( \\hskip 0.3pc i,j =1, \\ldots, n \\hskip 0.3pc \\) to formę kwadratową ( 2 ) możemy zapisać w postaci macierzowej \\( \\hskip 0.3pc \\Lambda\\,A\\,\\Lambda^T. \\hskip 0.3pc \\) Sprowadzenie formy do postaci kanonicznej odpowiada przekształceniu macierzy \\( \\hskip 0.3pc A \\hskip 0.3pc \\) do postaci diagonalnej, tzn. postaci w której poza przekątną występują same zera. Jeśli w macierzy diagonalnej na przekątnej wszystkie wyrazy są różne od zera i mają ten sam znak, równanie różniczkowe ( 1 ) jest typu eliptycznego, jeśli są różnych znaków , typu hiperbolicznego, a jeśli niektóre wyrazy są równe zeru, przy czym odpowiadające tym zmiennym pochodne pierwszego rzędu nie znikają -typu parabolicznego. Zapiszmy równanie ( 1 ) w postaci \\( \\hskip 0.3pc Lu=g, \\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc L \\hskip 0.3pc \\) jest operatorem określonym wzorem", "lub"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 3. Klasyfikacja równań liniowych rzędu drugiego. Metoda charakterystyk", "subject_id": 445, "subject": "Rozwiązywanie równań liniowych cząstkowych 2-go rzędu metodą charakterystyk", "paragraphs": ["Dla równania różniczkowego cząstkowego rzędu drugiego", "równanie charakterystyk ma postać:", "W niniejszym paragrafie pokażemy przykłady rozwiązywania równań różniczkowych cząstkowych drugiego rzędu wykorzystując postać kanoniczną rozważanego równania. Istotną rolę w tej metodzie ogrywa równanie charakterystyk ( 2 )."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 4. Metoda rozdzielania zmiennych", "subject_id": 446, "subject": "Rozwiązanie równania struny ograniczonej metodą rozdzielania zmiennych", "paragraphs": ["Metoda rozdzielania albo separacji zmiennych, zwana też metodą Fouriera, jest jedną z najstarszych metod rozwiązywania równań różniczkowych cząstkowych. Polega ona na próbie wyznaczenia rozwiązania danego równania w postaci kombinacji funkcji o mniejszej ilości zmiennych. Najczęściej szukamy rozwiązania w postaci sumy lub iloczynu funkcji. W szczególności, jeśli szukane rozwiązanie \\( \\hskip 0.3pc u \\hskip 0.3pc \\) jest funkcją zmiennych \\( \\hskip 0.3pc x \\hskip 0.3pc \\) i \\( \\hskip 0.3pc t, \\hskip 0.3pc \\), to rozwiązania tego możemy szukać w postaci iloczynu dwóch funkcji z których jedna jest funkcją zmiennej \\( \\hskip 0.3pc x, \\hskip 0.3pc \\) a druga zmiennej \\( \\hskip 0.3pc t. \\hskip 0.3pc \\) Metoda ta jest szczególnie przydatna, jeśli szukamy rozwiązania w zbiorze ograniczonym o zadanych wartościach na brzegu obszaru. Zinterpretujemy to poniżej rozważając równanie struny ograniczonej jednorodnej o jednorodnych warunkach brzegowych.", "Rozważmy równanie struny", "z warunkami brzegowymi", "oraz warunkami początkowymi", "Przyjmujemy przy tym, że \\( \\hskip 0.3pc \\varphi (0)=\\varphi (l)=0, \\hskip 0.3pc \\) \\( \\hskip 0.3pc \\psi (0)=\\psi (l)=0. \\hskip 0.3pc \\) Szukamy rozwiązania w postaci", "Podstawiając ostatnią funkcje do równania ( 1 ) otrzymamy", "Przyjmując, że \\( \\hskip 0.3pc T\\neq 0\\hskip 0.3pc \\hskip 0.3pc \\) i \\( \\hskip 0.3pc X\\neq 0 \\hskip 0.3pc \\) możemy ostatnie równanie przekształcić do postaci", "Ponieważ lewa strona zależy tylko od \\( \\hskip 0.3pc t, \\hskip 0.3pc \\) zaś prawa strona tylko od \\( \\hskip 0.3pc x, \\hskip 0.3pc \\) zatem oba ilorazy muszą być równe stałej. Oznaczając tę stałą przez \\( \\hskip 0.3pc-\\lambda \\hskip 0.3pc \\), ostatnią równość możemy zapisać w postaci dwóch równań:", "Ponadto z warunków brzegowych ( 2 ) wynika natychmiast, że", "Przedyskutujemy teraz rozwiązania równań ( 4 ) w zależności od znaku \\( \\hskip 0.3pc \\lambda \\hskip 0.3pc \\)", "Przypadek \\( \\hskip 0.3pc \\lambda <0. \\hskip 0.3pc \\) Rozwiązania równań ( 4 ) mają postać:", "Z warunków brzegowych ( 5 ) wynika, że \\( \\hskip 0.3pc C=D=0, \\hskip 0.3pc \\) czyli \\( \\hskip 0.3pc u(x,t)=0. \\hskip 0.3pc \\). Ponieważ rozwiązanie zerowe nie jest dla nas interesujące, przypadek ten należy odrzucić. Przypadek \\( \\hskip 0.3pc \\lambda =0. \\hskip 0.3pc \\) Rozwiązania równań ( 4 ) mają postać:", "Uwzględniając warunki brzegowe ( 5 ) otrzymamy jak poprzednio \\( \\hskip 0.3pc u(x,t)=0, \\hskip 0.3pc \\), a zatem również ten przypadek należy odrzucić. Przypadek \\( \\hskip 0.3pc \\lambda >0. \\hskip 0.3pc \\) Wygodnie jest teraz w równaniu ( 4 ) symbol \\( \\hskip 0.3pc\\lambda\\hskip 0.3pc \\) zastąpić symbolem \\( \\hskip 0.3pc \\lambda^2, \\hskip 0.3pc \\) czyli zapisać te równania w postaci:", "Rozwiązania mają wówczas postać", "Z warunku \\( \\hskip 0.3pc X(0)=0\\hskip 0.3pc \\) wynika, że \\( \\hskip 0.3pc C=0, \\hskip 0.3pc \\) a warunek \\( \\hskip 0.3pc X(l)=0 \\hskip 0.3pc \\) daje równość", "która jest spełniona dla \\( \\hskip 0.3pc \\lambda_n =\\dfrac{n\\pi}{l}, \\hskip 0.3pc \\) \\( \\hskip 0.3pc n\\in \\mathbb N. \\hskip 0.3pc \\) Wartości te nazywamy wartościami własnymi. Zauważmy, że tylko dla takich wartości \\( \\hskip 0.3pc \\lambda \\hskip 0.3pc \\) może istnieć szukane rozwiązanie. Dla \\( \\hskip 0.3pc n\\in \\mathbb N \\hskip 0.3pc \\) połóżmy", "oraz", "Zauważmy, że tak określona funkcja \\( \\hskip 0.3pc u_n \\hskip 0.3pc \\) jest rozwiązaniem równania ( 1 ), spełnia warunki brzegowe ( 2 ), ale na ogół nie spełnia warunków początkowych ( 3 ). Rozwiązania równania ( 1 ) które będzie spełniać waruneki ( 2 ) i ( 3 ) będziemy szukać w postaci sumy szeregu", "Załóżmy, że szereg po prawej stronie jest jednostajnie zbieżny jak również szereg pierwszych i drugich pochodnych jest jednostajnie zbieżny do odpowiedniej pochodnej z funkcji \\( \\hskip 0.3pc u. \\hskip 0.3pc \\). Przy przyjętych założeniach pochodne szeregu są równe szeregowi pochodnych, a funkcja \\( \\hskip 0.3pc u \\hskip 0.3pc \\) spełnia równanie ( 1 ) oraz warunki brzegowe ( 2 ). Oczywiście", "Załóżmy dalej, że funkcje \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) można rozwinąć w szereg sinusów w przedziale \\( \\hskip 0.3pc [0,l] \\hskip 0.3pc \\)", "gdzie", "Zauważmy, że pierwszy z warunków początkowych \\( \\hskip 0.3pc u(x,0)=\\varphi (x)\\hskip 0.3pc \\) jest spełniony, jeśli \\( \\hskip 0.3pc A_n =\\alpha_n\\hskip 0.3pc \\), czyli", "W celu zapewnienia drugiego z warunków początkowych należy policzyć pochodną z funkcji \\( \\hskip 0.3pc u\\hskip 0.3pc \\) względem \\( \\hskip 0.3pc t\\hskip 0.3pc \\).", "Stąd", "Rozwijając funkcje \\( \\hskip 0.3pc\\psi\\hskip 0.3pc \\) w szereg sinusów otrzymamy", "gdzie", "Zatem drugi z warunków początkowych ( 3 ) jest spełniony, jeśli \\( \\hskip 0.3pc \\dfrac{na\\pi}{l} B_n =\\beta_n\\hskip 0.3pc \\), czyli", "Szukane rozwiązanie ( 7 ) ma zatem postać", "Rozważmy ponownie rozwiązanie \\( \\hskip 0.3pc u_n\\hskip 0.3pc \\) dane wzorem ( 6 ). Kładąc", "otrzymamy", "Funkcja \\( \\hskip 0.3pc u_n\\hskip 0.3pc \\) opisuje drgania harmoniczne (tzw. n-ta harmoniczna) odpowiadające wartości własnej \\( \\hskip 0.3pc\\lambda_n = \\dfrac{n\\pi}{l}\\hskip 0.3pc \\), przy czym występujące tu wielkości mają następującą interpretacje fizyczną:", "\\( \\hskip 0.3pc\\rho_n \\sin(\\dfrac{n\\pi}l x)\\hskip 0.3pc -\\,\\, \\) amplituda drgania \\( \\hskip 0.3pc n\\hskip 0.3pc \\)-tejharmonicznej;", "\\( \\hskip 0.3pc \\omega_n= \\dfrac{na\\pi}l \\hskip 0.3pc-\\,\\, \\) częstotliwość drgania \\( \\hskip 0.3pc n\\hskip 0.3pc \\)-tej harmonicznej.", "Pamiętając że \\( \\hskip 0.3pc a^2=\\dfrac{T}{\\rho}\\hskip 0.3pc \\), gdzie \\( \\hskip 0.3pc T\\hskip 0.3pc \\) oznacza siłę naprężenia a \\( \\hskip 0.3pc\\rho\\hskip 0.3pc \\) gęstość, otrzymamy", "Częstotliwość \\( \\omega_1 = \\dfrac{\\pi}{l} \\sqrt{\\dfrac{T}{\\rho}}\\hskip 0.3pc \\) odpowiada tzw. dżwiękowi podstawowemu (zwanemu też pierwszą harmoniczną). Jest to dżwięk najsilniejszy. Melodia struny zależy natomiast od dalszych dżwięków uzupełniających. Jeśli \\( \\hskip 0.3pc A_1 = \\ldots =A_{n-1}=0\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc B_1 = \\dots =B_{n-1}=0,\\hskip 0.3pc \\) natomiast \\( \\hskip 0.3pc A_n\\neq 0\\hskip 0.3pc \\) lub \\( \\hskip 0.3pc B_n\\neq 0\\hskip 0.3pc \\), dżwięk podstawowy odpowiada częstotliwości \\( \\hskip 0.3pc\\omega_n.\\hskip 0.3pc \\) Wynika stąd, że dżwięk struny zależy od warunków początkowych", "oraz wielkości \\( \\hskip 0.3pc l,\\hskip 0.3pc \\) \\( \\hskip 0.3pc T\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\rho\\hskip 0.3pc \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 4. Metoda rozdzielania zmiennych", "subject_id": 447, "subject": "Rozwiązanie równania niejednorodnego struny metodą rozdzielania zmiennych", "paragraphs": ["Rozważmy niejednorodne równanie struny", "z warunkami brzegowymi", "oraz warunkami początkowymi", "Szukamy rozwiązania postaci", "gdzie \\( \\hskip 0.3pc \\omega_n, \\hskip 0.3pc \\) \\( \\hskip 0.3pc n\\in \\mathbb N, \\hskip 0.3pc \\) są nieznanymi funkcjami które będziemy starali się wyznaczyć tak, aby uzyskać szukane rozwiązanie. Zapiszmy funkcje \\( \\hskip 0.3pc f, \\hskip 0.3pc \\) \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\psi \\hskip 0.3pc \\) w postaci szeregów Fouriera", "gdzie", "Podstawiając ( 4 ) i ( 5 ) do ( 1 ) otrzymamy", "gdzie \\( \\hskip 0.3pc \\lambda_n=\\dfrac{n\\pi}{l}. \\hskip 0.3pc \\) Z kolei podstawiając ( 4 ) i ( 6 ) do warunków początkowych ( 3 ) otrzymamy", "oraz", "Warunki ( 8 ), ( 9 ) i ( 10 ) są spełnione, jeśli dla dowolnego \\( \\hskip 0.3pc n \\in \\mathbb N \\hskip 0.3pc \\)", "Rozwiązując problem ( 11 ) otrzymamy", "Podstawiając ostatni związek do wzoru ( 4 ) otrzymamy", "Kładąc", "i uwzględniając ( 7 ) rozwiązanie \\( \\hskip 0.3pc u \\hskip 0.3pc \\) możemy zapisać w postaci"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 4. Metoda rozdzielania zmiennych", "subject_id": 448, "subject": "Przykłady metody rozdzielania zmiennych dla równań parabolicznych i hiperbolicznych", "paragraphs": ["Metoda rozdzielania albo separacji zmiennych, zwana też metodą Fouriera, jest jedną z najstarszych metod rozwiązywania równań różniczkowych cząstkowych. Polega ona na próbie wyznaczenia rozwiązania danego równania w postaci kombinacji funkcji o mniejszej ilości zmiennych. Najczęściej szukamy rozwiązania w postaci sumy lub iloczynu funkcji. W szczególności, jeśli szukane rozwiązanie \\( \\hskip 0.3pc u \\hskip 0.3pc \\) jest funkcją zmiennych \\( \\hskip 0.3pc x\\hskip 0.3pc \\) i \\( \\hskip 0.3pc t, \\hskip 0.3pc \\) to rozwiązania tego możemy szukać w postaci iloczynu dwóch funkcji z których jedna jest funkcją zmiennej \\( \\hskip 0.3pc x, \\hskip 0.3pc \\) a druga zmiennej \\( \\hskip 0.3pc t. \\hskip 0.3pc \\) Metoda ta jest szczególnie przydatna, jeśli szukamy rozwiązania w zbiorze ograniczonym o zadanych wartościach na brzegu obszaru. W niniejszym module podamy przykłady zastosowania tej metody dla równań parabolicznych i hiperbolicznych.", "Szukamy rozwiązania w postaci", "Po podstawieniu do równania ( 1 ) i rozdzieleniu zmiennych otrzymamy", "czyli", "Z warunków brzegowych ( 2 ) wynika, że", "Ponieważ dla \\( \\hskip 0.3pc\\lambda \\leq 0\\hskip 0.3pc \\) otrzymujemy rozwiązanie zerowe, przyjmujemy \\( \\hskip 0.3pc\\lambda >0\\hskip 0.3pc \\). Rozwiązując powyższe równania otrzymamy:", "Z warunku \\( \\hskip 0.3pc X(0)=0\\hskip 0.3pc \\) wynika, że \\( \\hskip 0.3pc A=0\\hskip 0.3pc \\), zaś warunek \\( \\hskip 0.3pc X(l)=0\\hskip 0.3pc \\) implikuje", "Ostatnie równanie jest spełnione dla", "Zatem dla dowolnego \\( \\hskip 0.3pc n \\in \\mathbb N\\hskip 0.3pc \\) funkcja", "jest rozwiązaniem równania ( 1 ) spełniającym warunki brzegowe ( 2 ). Rozwiązanie to na ogół nie spełnia warunku początkowego ( 3 ). Rozważmy funkcje", "Podobnie jak w module 5.2 można sprawdzić, że przy stosownych założeniach powyższa funkcja spełnia równanie ( 1 ) oraz warunki brzegowe ( 2 ). Powstaje pytanie, czy można tak dobrać stałe \\( \\hskip 0.3pc B_n\\hskip 0.3pc \\) aby był spełniony również warunek początkowy ( 3 ). W tym celu rozwińmy funkcje \\( \\hskip 0.3pc \\varphi\\hskip 0.3pc \\) w przedziale \\( \\hskip 0.3pc [0,l]\\hskip 0.3pc \\) w szereg sinusów", "gdzie", "Ponieważ", "warunek ( 3 ) jest spełniony, jeśli", "W konsekwencji", "Kładąc", "otrzymamy", "Zauważmy, że ostatni wzór podaje rozwiązanie problemu ( 1 ) - ( 3 ) w zależności od warunków początkowych.", "Powyższy problem możemy sprowadzić do jednorodnych warunków brzegowych kładąc", "Istotnie, podstawiając wielkości", "do problemu wyjściowego otrzymamy równanie", "z warunkami brzegowymi", "oraz warunkiem początkowym", "Szukamy rozwiązania równania ( 6 ) w postaci szeregu", "gdzie \\( \\hskip 0.3pc\\omega_n\\hskip 0.3pc \\) są niewiadomymi funkcjami, które należy wyznaczyć. Podstawiając ( 9 ) oraz rozwinięcie", "gdzie", "do równania ( 6 ) otrzymamy", "Stąd", "gdzie", "Podstawiając natomiast ( 9 ) do ( 8 ), po uwzględnieniu rozwinięcia", "gdzie", "otrzymamy", "co implikuje \\( \\hskip 0.3pc \\omega_n(0)=\\beta_n.\\hskip 0.3pc \\) Rozwiązując równanie ( 11 ) z warunkiem początkowym \\( \\hskip 0.3pc\\omega_n(0)=\\beta_n\\hskip 0.3pc \\) otrzymamy", "Podstawiając uzyskaną wielkość do wzoru ( 9 ), rozwiązanie problemu ( 6 ), ( 7 ), ( 8 ) przyjmie postać", "gdzie \\( \\hskip 0.3pc\\lambda_n,\\hskip 0.3pc \\) \\( \\hskip 0.3pc\\alpha_n\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc\\beta_n\\hskip 0.3pc \\) są dane odpowiednio wzorami ( 12 ), ( 10 ), ( 13 ).", "Szukamy rozwiązania w postaci", "Po podstawieniu do równania ( 14 ) i rozdzieleniu zmiennych otrzymamy", "czyli", "Rozwiązując powyższe równania mamy:", "Dla dowolnego \\( \\hskip 0.3pc\\lambda \\in \\mathbb R\\hskip 0.3pc \\) funkcja", "jest rozwiązaniem równania ( 14 ). Na ogół rozwiązanie to nie spełnia warunku początkowego ( 15 ). Rozważmy teraz funkcje", "Jeśli ostatnia całka jet zbieżna, to oczywiście określa ona rozwiązanie równania ( 14 ). Aby rozwiązanie to spełniało warunek początkowy ( 15 ), winna zachodzić równość", "Jeśli \\( \\hskip 0.3pc\\varphi\\hskip 0.3pc \\) jest funkcją całkowalną, to zgodnie z wzorem Fouriera", "Wstawiając ostatnią równość do poprzedniego wzoru i uwzględniając związek", "Ostatecznie rozwiązanie równania wyjściowego ma postać", "Problem ten opisuje drgania membrany prostokątnej, unieruchomionej na brzegu, o zadanym kształcie początkowym. Szukamy rozwiązania w postaci", "Po podstawieniu do równania ( 15 ) i rozdzieleniu zmiennych otrzymamy", "Ponieważ poszczególne składniki w powyższym równaniu są funkcjami innej zmiennej, więc każdy ze składników musi przyjmować wartości stałe. Dostajemy zatem równania:", "Po uwzględnieniu warunków ( 17 ) oraz ( 18 ) otrzymamy następujące problemy brzegowe:", "oraz", "Rozwiązując powyższe problemy otrzymamy", "gdzie \\( \\hskip 0.3pc\\lambda_n =\\dfrac{n\\pi}{l},\\hskip 0.3pc \\) \\( \\hskip 0.3pc \\mu_m =\\dfrac{m\\pi}{l}.\\hskip 0.3pc \\) Rozwiązując zaś równanie", "otrzymamy", "Dla \\( \\hskip 0.3pc m,n \\in \\mathbb N\\hskip 0.3pc \\) funkcja", "jest rozwiązaniem problemu ( 16 ) spełniającym warunki brzegowe ( 17 ) i ( 18 ). Na ogół nie spełnia ona warunków początkowych ( 19 ). Rozważmy teraz funkcje", "Jeśli szereg występujący po prawej stronie jest jednostajnie zbieżny oraz szeregi drugich pochodnych są jednostajnie zbieżne, to funkcja \\( \\hskip 0.3pc u\\hskip 0.3pc \\) jest rozwiązaniem równania ( 16 ). W oczywisty sposób spełnia ona warunki brzegowe ( 17 ) i ( 18 ). Pozostaje dobrać stałe \\( \\hskip 0.3pc A_{mn} \\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc B_{nm}\\hskip 0.3pc \\) tak aby zachodziły warunki początkowe ( 18 ). Z warunku", "wnioskujemy, że \\( \\hskip 0.3pc B_{nm}=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc n,m \\in \\mathbb N,\\hskip 0.3pc \\) natomiast z warunku", "wynika, że \\( \\hskip 0.3pc A_{nm}=c \\alpha_n \\beta_m,\\hskip 0.3pc \\) gdzie", "Szukamy rozwiązania w postaci", "Po podstawieniu do równania ( 20 ) i rozdzieleniu zmiennych otrzymamy", "Równość ta może zachodzić tylko wówczas gdy obie strony są równe pewnej stałej, powiedzmy \\( \\hskip 0.3pc-\\lambda.\\hskip 0.3pc \\) Otrzymujemy zatem następujące równania różniczkowe:", "Z warunków ( 21 ) i ( 22 ) wynika natomiast, że \\( \\hskip 0.3pc X(0)=0,\\hskip 0.3pc \\) \\( \\hskip 0.3pc X(\\pi)=0,\\hskip 0.3pc \\) \\( \\hskip 0.3pc \\lim\\limits_{y\\to +\\infty}Y(y)=0\\hskip 0.3pc \\). Rozważmy problem", "Dla \\( \\hskip 0.3pc \\lambda \\leq 0\\hskip 0.3pc \\) problem ten posiada wyłącznie rozwiązanie zerowe. Załóżmy więc, że \\( \\hskip 0.3pc \\lambda >0\\hskip 0.3pc \\). Wówczas", "Z warunków brzegowych wynika, że \\( \\hskip 0.3pc A=0\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc\\sin( \\sqrt{\\lambda} \\pi)=0.\\hskip 0.3pc \\) Zatem rozwiązanie niezerowe istnieje dla \\( \\hskip 0.3pc\\lambda = n^2,\\hskip 0.3pc \\) \\( \\hskip 0.3pc n\\in \\mathbb N, \\hskip 0.3pc \\) czyli", "Zauważmy teraz, że rozwiązanie problemu", "ma postać", "Wynika stąd, że dla dowolnego \\( \\hskip 0.3pc n\\in \\mathbb N\\hskip 0.3pc \\) funkcja", "jest rozwiązaniem problemu ( 20 ) spełniającym warunki brzegowe. Na ogół rozwiązanie to nie spełnia warunku początkowego. Rozważmy więc funkcje", "Jeśli ostatni szereg oraz szeregi jego pochodnych drugiego rzędu są jednostajnie zbieżne, funkcja ta spełnia równanie ( 20 ) oraz warunki brzegowe ( 21 ). Aby spełniała ona również warunek początkowy ( 22 ) wystarczy przyjąć", "Szukane rozwiązanie ma zatem postać", "Szukamy rozwiązania w postaci", "Po podstawieniu do równania ( 23 ) i rozdzieleniu zmiennych otrzymamy równość", "równoważną układowi równań", "Całka ogólna pierwszego równania ma postać", "Z warunków brzegowych ( 25 ) wynika, że", "Stąd \\( \\hskip 0.3pc C_1=C_2=C_3=0\\hskip 0.3pc \\), a jedynymi liczbami \\( \\hskip 0.3pc \\lambda \\hskip 0.3pc \\) dla których mogą być spełnione powyższe warunki, są liczby", "którym odpowiadają rozwiązania", "Przyjmując", "gdzie", "jest rozwiązaniem postawionego problemu."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 4. Metoda rozdzielania zmiennych", "subject_id": 449, "subject": "Metoda rozdzielania zmiennych dla równania Laplace’a we współrzędnych biegunowych", "paragraphs": ["Rozważmy równanie Laplace'a", "z warunkiem", "gdzie", "Postać obszaru \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) sugeruje przejście na współrzędne biegunowe", "Przyjmując", "i korzystając z zależności:", "nietrudno sprawdzić, że:", "Podstawiając ostatnie związki do równania ( 1 ) otrzymamy równanie Laplace'a we współrzędnych biegunowych", "Warunek ( 2 ) przyjmie postać", "gdzie \\( \\hskip 0.3pc g(\\alpha)=f(r\\cos (\\alpha), r\\sin (\\alpha) )\\hskip 0.3pc \\) . Szukamy rozwiązania w postaci", "Ze względu na charakter współrzędnych biegunowych możemy przyjąć, że \\( \\hskip 0.3pc \\psi\\hskip 0.3pc \\) jest funkcją okresową o okresie \\( \\hskip 0.3pc 2\\pi\\hskip 0.3pc \\) określoną na \\( \\hskip 0.3pc \\mathbb R\\hskip 0.3pc \\) . Po podstawieniu ostatniego wzoru do równania ( 3 ) i rozdzieleniu zmiennych otrzymamy", "Równość ta może zachodzić tylko wówczas gdy obie strony są równe pewnej stałej, powiedzmy \\( \\hskip 0.3pc \\lambda .\\hskip 0.3pc \\) Otrzymujemy zatem równania różniczkowe:", "oraz", "Z okresowości funkcji \\( \\hskip 0.3pc \\psi\\hskip 0.3pc \\) wynika, że przypadki \\( \\hskip 0.3pc \\lambda <0\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc \\lambda =0\\hskip 0.3pc \\) prowadzą do rozwiązania zerowego. Dla przypadku \\( \\hskip 0.3pc \\lambda >0\\hskip 0.3pc \\) rozwiązanie równania ( 5 ) ma postać", "Ponieważ \\( \\hskip 0.3pc \\psi\\hskip 0.3pc \\) jest funkcją okresową o okresie \\( \\hskip 0.3pc 2\\pi,\\hskip 0.3pc \\) \\( \\hskip 0.3pc \\sqrt {\\lambda}\\hskip 0.3pc \\) musi być liczbą naturalną, czyli \\( \\hskip 0.3pc {\\lambda}=n^2,\\hskip 0.3pc \\) \\( \\hskip 0.3pc n\\in \\mathbb N.\\hskip 0.3pc \\) Zatem", "Szukając rozwiązania równania ( 6 ) w postaci", "Stąd \\( \\hskip 0.3pc k=n\\hskip 0.3pc \\) lub \\( \\hskip 0.3pc k=-n.\\hskip 0.3pc \\) Rozwiązanie ogólne równania ( 6 ) ma zatem postać", "Ponieważ dla \\( \\hskip 0.3pc \\rho =0\\hskip 0.3pc \\) wyraz \\( \\hskip 0.3pc \\rho^{-n}\\hskip 0.3pc \\) nie jest określony i ponadto \\( \\hskip 0.3pc \\lim_{\\rho \\to 0^+}\\rho^{-n} =\\infty,\\hskip 0.3pc \\) aby uniknąć osobliwości w początku układu należy przyjąć \\( \\hskip 0.3pc D=0.\\hskip 0.3pc \\) W konsekwencji dla dowolnego \\( \\hskip 0.3pc n\\in \\mathbb N\\hskip 0.3pc \\) funkcja", "jest rozwiązaniem klasy \\( \\hskip 0.3pc C^2\\hskip 0.3pc \\) równania ( 3 ). Rozwiązanie to na ogół nie spełnia warunku ( 4 ). Rozważmy więc funkcje", "Jeśli ostatni szereg oraz szereg pochodnych pierwszego i drugiego rzędu jest jednostajnie zbieżny, to tak określona funkcja \\( \\hskip 0.3pc v\\hskip 0.3pc \\) jest rozwiązaniem równania ( 3 ). Warunek ( 4 ) przyjmuje postać", "Jeśli funkcja \\( \\hskip 0.3pc g\\hskip 0.3pc \\) jest rozwijalna w szereg Fouriera, to ostatnia równość jest spełniona, jeśli", "Zatem", "Korzystając ze wzoru", "otrzymamy", "Uwzględniając ostatnią równość rozwiązanie \\( \\hskip 0.3pc v\\hskip 0.3pc \\) możemy zapisać w postaci:", "Dla \\( \\hskip 0.3pc \\rho=0\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc \\alpha =0\\hskip 0.3pc \\) ostatni wzór daje zależność", "Uzyskana równość mówi, że wartość średnia rozwiązania po brzegu kuli o środku w punkcie \\( \\hskip 0.3pc (0,0)\\hskip 0.3pc \\) jest równa wartości rozwiązania w tym punkcie."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 5. Równanie falowe", "subject_id": 450, "subject": "Rozwiązanie równania struny metodą d’Alemberta", "paragraphs": ["Rozważmy równanie struny", "w obszarze \\( \\hskip 0.3pc D=\\{(x,t)\\in \\mathbb{R}^2:t> 0\\}\\hskip 0.3pc \\) spełniające warunki początkowe:", "gdzie \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\psi \\hskip 0.3pc \\) są zadanymi funkcjami. Równanie charakterystyk w naszym przypadku ma postać", "Rozwiązując równania", "otrzymamy następujące rodziny rozwiązań", "Stosując podstawienie", "równanie wyjściowe sprowadzimy do postaci", "Całkując względem \\( \\hskip 0.3pc \\eta\\hskip 0.3pc \\) otrzymamy", "a następnie całkując względem \\( \\hskip 0.3pc \\xi\\hskip 0.3pc \\) otrzymamy", "gdzie \\( \\hskip 0.3pc F\\hskip 0.3pc \\) i \\( \\hskip 0.3pc G\\hskip 0.3pc \\) są dowolnymi funkcjami klasy \\( \\hskip 0.3pc C^2\\hskip 0.3pc \\) . Wracając do zmiennych wyjściowych mamy", "Rozwiązania zadane odpowiednio funkcjami \\( \\hskip 0.3pc F\\hskip 0.3pc \\) i \\( \\hskip 0.3pc G\\hskip 0.3pc \\) nazywają się falami prostymi. Uwzględniając warunki początkowe mamy", "Rozwiązując układ równań", "otrzymamy", "a po scałkowaniu w przedziale \\( \\hskip 0.3pc [x_0, x]\\hskip 0.3pc \\) dostajemy", "Z pierwszego równania mamy", "Postawiając uzyskane wzory na \\( \\hskip 0.3pc F\\hskip 0.3pc \\) i \\( \\hskip 0.3pc G\\hskip 0.3pc \\) do ( 3 ) otrzymamy", "a po przekształceniu całek", "Uzyskany w ten sposób wzór ( 4 ) na rozwiązanie problemu początkowego ( 1 ), ( 2 ) nosi nazwę wzoru d'Alemberta."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 5. Równanie falowe", "subject_id": 451, "subject": "Równanie niejednorodne struny", "paragraphs": ["Rozważmy niejednorodne równanie struny", "z warunkami początkowymi", "Zauważmy wpierw, korzystając z liniowości operacji różniczkowania, że rozwiązanie \\( \\hskip 0.3pc u \\hskip 0.3pc \\)problemu ( 1 ), ( 2 ) możemy zapisać jako sumę \\( \\hskip 0.3pc u=u_1+u_2,\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc u_1\\hskip 0.3pc \\) jest rozwiązaniem problemu", "zaś \\( \\hskip 0.3pc u_2\\hskip 0.3pc \\) jest rozwiązaniem problemu", "W celu znalezienia rozwiązania problemu ( 3 ) rozważmy najpierw równanie", "z warunkami początkowymi", "Ponieważ warunek początkowy jest zadany w chwili \\( \\hskip 0.3pc t_0=\\tau\\hskip 0.3pc \\), rozwiązanie problemu ( 4 ), ( 5 ) zależy od \\( \\hskip 0.3pc \\tau,\\hskip 0.3pc \\) co symbolicznie będziemy zapisywać \\( \\hskip 0.3pc w(, \\,; \\tau).\\hskip 0.3pc \\) Zauważmy, ze rozwiązanie problemu ( 4 ), ( 5 ) możemy wyrazić w postaci", "Oczywiście \\( \\hskip 0.3pc w(x,t,t)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc x\\in\\mathbb R\\hskip 0.3pc \\), \\( \\hskip 0.3pc t>0 \\).", "Na mocy lematu 1 oraz wzoru 4 z modułu \"Rozwiązanie równania struny metodą d'Alemberta\", rozwiązanie problemu ( 1 ), ( 2 ) możemy zapisać w postaci", "Ponieważ warunki początkowe są zadane tylko dla \\( \\hskip 0.3pc x>0\\hskip 0.3pc \\), bezpośrednio nie możemy skorzystać z wzoru 4 z modułu \"Rozwiązanie równania struny metodą d'Alemberta\". Ponadto, jeśli \\( \\hskip 0.3pc g\\neq 0\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc g^\\prime\\neq 0\\hskip 0.3pc \\), nie możemy również skorzystać z uwagi o przedłużaniu warunków początkowych. Możemy natomiast wykorzystać wzór 3 z modułu \"Rozwiązanie równania struny metodą d'Alemberta\". Zgodnie z tym wzorem", "Dla \\( \\hskip 0.3pc x>0\\hskip 0.3pc \\) z warunku \\( \\hskip 0.3pc u(x,0)=0\\hskip 0.3pc \\) otrzymamy \\( \\hskip 0.3pc F(x)+G(x)=0,\\hskip 0.3pc \\) czyli", "Zatem", "Z kolei z warunku \\( \\hskip 0.3pc u_t(x,0)=0\\hskip 0.3pc \\) wynika, że \\( \\hskip 0.3pc F^\\prime (x)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc x>0,\\hskip 0.3pc \\) a w konsekwencji \\( \\hskip 0.3pc F(x)=C.\\hskip 0.3pc \\) Wykorzystując ostatni warunek mamy", "Stąd i z warunku \\( \\hskip 0.3pc u(0,t)=g(t)\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc t>0\\hskip 0.3pc \\) otrzymujemy", "a kładąc \\( \\hskip 0.3pc s= -at\\hskip 0.3pc \\) mamy", "Zatem", "W konsekwencji"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 5. Równanie falowe", "subject_id": 452, "subject": "Równanie fal kulistych. Metoda uśredniania", "paragraphs": ["Rozważmy równanie fal kulistych", "z warunkami początkowymi", "gdzie laplasjan \\( \\hskip 0.3pc \\Delta = \\frac {\\partial ^2}{\\partial ^2 x}+\\frac {\\partial ^2}{\\partial ^2 y} +\\frac {\\partial ^2}{\\partial ^2 z},\\hskip 0.3pc \\) a \\( \\hskip 0.3pc V\\hskip 0.3pc \\) jest podzbiorem otwartym i spójnym w przestrzeni \\( \\hskip 0.3pc \\mathbb R^3.\\hskip 0.3pc \\) Technika rozwiązania zaprezentowana poniżej polega na przekształceniu równania o trzech zmiennych na jednowymiarowe równanie falowe. Redukcję taką uzyskamy wprowadzjąc tak zwane średnie sferyczne. Przypuśćmy, że problem ( 1 ), ( 2 ) posiada rozwiązanie \\( \\hskip 0.2pc u\\hskip 0.2pc \\) w obszarze \\( \\hskip 0.2pc \\Omega = V\\times [0,\\infty ).\\hskip 0.2pc \\) Ustalmy punkt \\( \\hskip 0.1pc P_0 =(x_0,y_0,z_0) \\in V. \\) Dobierzmy \\( \\hskip 0.2pc r>0\\hskip 0.2pc \\) tak, aby kula \\( \\hskip 0.2pc K(P_0,r) \\subset V.\\hskip 0.2pc \\) Niech \\( \\hskip 0.2pc S(P_0,r)\\hskip 0.2pc \\) będzie sferą o środku w punkcie \\( \\hskip 0.3pc P_0\\hskip 0.3pc \\) i promieniu \\( \\hskip 0.3pc r\\hskip 0.3pc \\). Połóżmy", "gdzie po prawej stronie występuje całka powierzchniowa po sferze \\( \\hskip 0.3pc S(P_0,r)\\hskip 0.3pc \\), a \\( \\hskip 0.3pc (\\xi ,\\eta,\\zeta) \\hskip 0.3pc \\) oznaczają współrzędne kartezjańskie punktu bieżącego na sferze. Wielkość \\( \\hskip 0.3pc \\widetilde u(r,t)\\hskip 0.3pc \\) oznacza wartość średnią funkcji \\( \\hskip 0.3pc u\\hskip 0.3pc \\) na sferze \\( \\hskip 0.3pc S(P_0,r)\\hskip 0.3pc \\) w chwili \\( \\hskip 0.3pc t.\\hskip 0.3pc \\)", "Zapiszmy równanie sfery \\( \\hskip 0.3pc S(P_0,r)\\hskip 0.3pc \\) we współrzędnych sferycznych", "element powierzchniowy \\( \\hskip 0.3pc dS\\hskip 0.3pc \\) na sferze \\( \\hskip 0.3pc S(P_0,r)\\hskip 0.3pc \\), po przejściu na współrzędne sferyczne wyraża się wzorem", "Zamieniając we wzorze ( 3 ) całkę powierzchniową na całkę iterowaną otrzymamy", "lub krótko", "Oczywiście", "Całkując równanie ( 1 ) po kuli \\( \\hskip 0.3pc K(P_0,r)\\hskip 0.3pc \\) otrzymamy", "a po zastosowaniu do prawej strony wzoru Gaussa-Greena mamy", "gdzie \\( \\hskip 0.3pc \\frac {\\partial u}{\\partial \\nu}\\hskip 0.3pc \\) oznacza pochodną funkcji \\( \\hskip 0.3pc u\\hskip 0.3pc \\) w kierunku normalnej zewnętrznej do powierzchni \\( \\hskip 0.3pc S(P_0,r)\\hskip 0.3pc \\). Zauważmy, że jeśli \\( \\hskip 0.3pc \\nu=(\\nu_1,\\nu_2,\\nu_3)\\hskip 0.3pc \\) jest unormowanym wektorem normalnym do powierzchni \\( \\hskip 0.3pc S(P_0,r)\\hskip 0.3pc \\) w punkcie \\( \\hskip 0.3pc (\\xi,\\eta,\\zeta)\\hskip 0.3pc \\), wówczas \\( \\hskip 0.3pc \\xi =x_0+\\nu_1r\\hskip 0.3pc \\), \\( \\hskip 0.3pc \\eta =y_0+\\nu_2r,\\hskip 0.3pc \\) \\( \\hskip 0.3pc \\zeta =z_0+\\nu_3r.\\hskip 0.3pc \\) Prosty rachunek pokazuje, że", "Stąd", "Po wprowadzeniu współrzędnych sferycznych i zamianie całek na całki iterowane otrzymamy", "Różniczkując ostatnią równość względem \\( \\hskip 0.3pc r\\hskip 0.3pc \\) i dzieląc przez \\( \\hskip 0.3pc 4\\pi r^2\\hskip 0.3pc \\) otrzymamy", "Zapisując różniczkowanie względem \\( \\hskip 0.3pc t\\hskip 0.3pc \\) na zewnątrz całki i wprowadzając średnie wartości sferyczne (zob. ( 4 ) ) otrzymamy", "Ponieważ", "równanie ( 6 ) przyjmuje postać", "a po pomnożeniu przez \\( \\hskip 0.3pc r\\hskip 0.3pc \\)", "Kładąc", "otrzymamy", "(Oczywiście równanie ( 7 ) możemy rozważać dla \\( \\hskip 0.3pc t\\in \\mathbb R.\\hskip 0.3pc \\)) Uśredniając - zgodnie z wzorem ( 3 ) - warunki początkowe ( 2 ) otrzymamy", "Zatem funkcja \\( \\hskip 0.3pc v\\hskip 0.3pc \\) jest rozwiązaniem równania ( 7 ) spełniającym warunki", "Rozwiązując równania charakterystyk", "zgodnie z metodą d'Alemberta rozwiązanie ogólne równania ( 7 ) możemy zapisać w postaci", "gdzie \\( \\hskip 0.3pc F\\hskip 0.3pc \\) i \\( \\hskip 0.3pc G\\hskip 0.3pc \\) są dowolnymi funkcjami klasy \\( \\hskip 0.3pc C^2\\hskip 0.3pc \\). Z warunku \\( \\hskip 0.3pc v(0,t)=0\\hskip 0.3pc \\) wynika, że \\( \\hskip 0.3pc G(t)=-F(t)\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc t \\in \\mathbb R.\\hskip 0.3pc \\) W konsekwencji", "Przechodząc w równości", "z \\( \\hskip 0.3pc r\\hskip 0.3pc \\) do zera, otrzymamy", "Sumując równości", "otrzymamy", "Obliczając wartości obu stron ostatniej równości w punkcie \\( \\hskip 0.3pc (0,a t)\\hskip 0.3pc \\) i wykorzystując równości ( 9 ) i ( 5 ) otrzymamy", "Podstawiając w ostatnim wzorze w miejsce funkcji \\( \\hskip 0.3pc \\widetilde u\\hskip 0.3pc \\) jej reprezentacje daną wzorem ( 3 ) otrzymamy", "Uwzględniając warunki początkowe ( 2 ) oraz fakt, że", "mamy", "Przypomnijmy, że punkt \\( \\hskip 0.3pc (x_0,y_0,z_0)\\in V\\hskip 0.3pc \\) był ustalony dowolnie. Zatem opuszczając wskażnik \\( \\hskip 0.3pc 0\\hskip 0.3pc \\) otrzymamy wartość rozwiązania \\( \\hskip 0.3pc u\\hskip 0.3pc \\) dla dowolnych \\( \\hskip 0.3pc (x,y,z)\\in V\\hskip 0.3pc \\) w postaci tak zwanego wzoru Kirchhoffa", "lub po zastosowaniu transformacji", "gdzie \\( \\hskip 0.3pc 0\\leq \\alpha < 2\\pi, \\hskip 0.3pc -\\pi /2 \\leq \\beta \\leq \\pi /2 \\),", "Przypomnijmy, że wzór Kirchhoffa otrzymaliśmy przy założeniu, że problem ( 1 ), ( 2 ) posiada rozwiązanie. Na odwrót, jeśli założymy, że funkcja \\( \\hskip 0.3pc \\varphi\\hskip 0.3pc \\) jest klasy \\( \\hskip 0.3pc C^3\\hskip 0.3pc \\) a funkcja \\( \\hskip 0.3pc \\psi\\hskip 0.3pc \\) klasy \\( \\hskip 0.3pc C^2\\hskip 0.3pc \\) to nietrudno pokazać bezpośrednim rachunkiem, że funkcja \\( \\hskip 0.3pc u \\hskip 0.3pc \\) dana wzorem Kirchhoffa jest rozwiązaniem problemu ( 1 ), ( 2 ). Oczywiście rozwiązanie to jest określone jednoznacznie. Pokazaliśmy zatem następujące twierdzenie."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 5. Równanie falowe", "subject_id": 453, "subject": "Niejednorodne równanie fal kulistych", "paragraphs": ["Rozważmy niejednorodne równanie fal kulistych", "z warunkami początkowymi", "gdzie \\( \\hskip 0.3pc f\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\psi\\hskip 0.3pc \\) są funkcjami klasy \\( \\hskip 0.3pc C^2\\hskip 0.3pc \\), a \\( \\hskip 0.3pc \\varphi\\hskip 0.3pc \\) funkcją klasy \\( \\hskip 0.3pc C^3\\hskip 0.3pc \\) w zbiorze \\( \\hskip 0.3pc V.\\hskip 0.3pc \\) W celu rozwiązania problemu ( 1 ), ( 2 ) rozbijamy go na dwa problemy oddzielne:", "oraz", "Rozwiązanie problemu ( 3 ), ( 4 ) dane jest wzorem Kirchhoffa (zob. twierdzenie 1 w module \"Równanie fal kulistych. Metoda uśredniania\"). Aby znaleźć rozwiązanie problemu ( 5 ), ( 6 ) rozważmy problem pomocniczy", "Ponieważ rozwiązanie problemu ( 7 ), ( 8 ) zależy od \\( \\hskip 0.3pc \\tau,\\hskip 0.3pc \\hskip 0.3pc \\) będziemy zaznaczać to pisząc \\( \\hskip 0.3pc v(\\cdot ,\\,\\cdot,\\,\\cdot,\\,\\cdot\\,;\\tau).\\hskip 0.3pc \\) Wykorzystując wzór Kirchhoffa, rozwiązanie problemu ( 7 ), ( 8 ) możemy zapisać w postaci:", "Połóżmy", "gdzie", "Pokażemy, że funkcja \\( \\hskip 0.3pc w\\hskip 0.3pc \\) jest rozwiązaniem problemu ( 5 ), ( 6 ). Istotnie, zauważmy najpierw, że", "Zatem", "co oznacza, że funkcja \\( \\hskip 0.3pc w\\hskip 0.3pc \\) spełnia równanie ( 5 ). Ponieważ w oczywisty sposób funkcja \\( \\hskip 0.3pc w\\hskip 0.3pc \\) spełnia również warunki początkowe ( 6 ), jest ona rozwiązaniem problemu ( 5 ), ( 6 ). Zgodnie z zasadą liniowości rozwiązanie problemu ( 1 ), ( 2 ) możemy uzyskać jako sumę rozwiązań problemu ( 3 ), ( 4 ) oraz problemu ( 5 ), ( 6 ), czyli"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 5. Równanie falowe", "subject_id": 454, "subject": "Równanie fal walcowych. Metoda redukcji", "paragraphs": ["Rozważmy równanie fali dla \\( \\hskip 0.3pc n=2\\hskip 0.3pc \\)", "z warunkami początkowymi", "gdzie \\( \\hskip 0.3pc D\\subset \\mathbb R^2\\hskip 0.3pc \\), \\( \\hskip 0.3pc\\Delta = \\frac {\\partial ^2}{\\partial x^2}+ \\frac{\\partial ^2}{\\partial y^2}\\hskip 0.3pc \\). Okazuje się, że nie widać prostego podstawienia które pozwoliłoby zredukować problem dwuwymiarowy do problemu jednowymiarowego. Posłużymy się więc następującym chwytem. Rozważamy nasz problem w przestrzeni trójwymiarowej przyjmując, że funkcje występujące w równaniu nie zależą od zmiennej \\( \\hskip 0.3pc z\\hskip 0.3pc \\). Mianowicie połóżmy", "Niech \\( \\hskip 0.3pc \\widetilde u\\hskip 0.3pc \\) będzie rozwiązaniem problemu", "gdzie \\( \\hskip 0.3pc V=D\\times \\mathbb R\\hskip 0.3pc \\). Niech \\( \\hskip 0.3pc P_0=(x_0,y_0)\\in D\\hskip 0.3pc \\) i niech \\( \\hskip 0.3pc S(P_0,at)\\hskip 0.3pc \\) i \\( \\hskip 0.3pc K(P_0,at)\\hskip 0.3pc \\) oznacza, odpowiednio sferę i kulę w przestrzeni \\( \\hskip 0.3pc \\mathbb R^2\\hskip 0.3pc \\) zawarte w \\( \\hskip 0.3pc D\\hskip 0.3pc \\) o środku w punkcie \\( \\hskip 0.3pc P_0\\hskip 0.3pc \\) i promieniu \\( \\hskip 0.3pc a t\\hskip 0.3pc \\), a \\( \\hskip 0.3pc \\widetilde S(\\widetilde P_0,at)\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\widetilde K(\\widetilde P_0,at)\\hskip 0.3pc \\), gdzie \\( \\hskip 0.3pc \\widetilde P_0=(x_0,y_0,z_0)\\hskip 0.3pc \\), \\( \\hskip 0.3pc z_0 \\in \\mathbb R\\hskip 0.3pc \\), sferę i kulę w przestrzeni \\( \\hskip 0.3pc \\mathbb R^3\\hskip 0.3pc \\). Niech \\( \\hskip 0.3pc \\widetilde P = (\\xi, \\eta, \\zeta) \\hskip 0.3pc \\) będzie punktem bieżącym na sferze \\( \\hskip 0.3pc \\widetilde S(\\widetilde P_0,at)\\hskip 0.3pc \\). Na mocy wzoru Kirchhoffa", "Zamieńmy teraz całki powierzchniowe we wzorze ( 3 ) na całki podwójne. Oczywiście równanie sfery \\( \\hskip 0.3pc \\widetilde S(\\widetilde P_0, \\,at) \\hskip 0.3pc \\) możemy zapisać za pomocą równań półsfer:", "gdzie \\( \\hskip 0.3pc K(P_0,at)\\hskip 0.3pc \\) oznacza kulę domkniętą w przestrzeni \\( \\hskip 0.3pc \\mathbb R^2\\hskip 0.3pc \\), a", "Nietrudno sprawdzić, że element powierzchniowy na obu półsferach wyraża się wzorem", "W konsekwencji, uwzględniając definicje funkcji \\( \\hskip 0.3pc \\widetilde{\\varphi}\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\widetilde {\\psi}\\hskip 0.3pc \\), po zamianie całek powierzchniowych na całki podwójne, otrzymamy", "Ponieważ punkt \\( \\hskip 0.3pc (x_0,y_0)\\in D\\hskip 0.3pc \\) był dobrany dowolnie, możemy opuścić wskaźnik \\( \\hskip 0.3pc 0.\\hskip 0.3pc \\) Ponadto, uwzględniając związek \\( \\hskip 0.3pc u(x,y,t)=\\widetilde u(x ,y,z,t),\\hskip 0.3pc \\) otrzymamy rozwiązanie problemu ( 1 ), ( 2 ) w postaci tzw. wzoru Poissona:"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 6. Rozwiązania podstawowe równania Laplace’a i przewodnictwa cieplnego. Zasada maksimum", "subject_id": 455, "subject": "Równanie Laplace’a", "paragraphs": ["Niewątpliwie do jednych z najważniejszych równań różniczkowych cząstkowych należą równanie Laplace'a", "oraz równanie Poissona", "gdzie \\( \\hskip 0.3pc u\\hskip 0.3pc \\) jest szukaną funkcją określoną na obszarze \\( \\hskip 0.3pc\\Omega \\subset\\mathbb R^n \\hskip 0.3pc \\), \\( \\hskip 0.3pc x=(x_1, \\dots ,x_n),\\hskip 0.3pc \\) \\( \\hskip 0.3pc \\Delta u =\\frac{\\partial^2 u}{\\partial^2 x_1}+\\ldots +\\frac{\\partial^2 u}{\\partial^2 x_n},\\hskip 0.3pc \\) a \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest zadaną funkcją. Równania te spotykamy przy opisie licznych zjawisk. Przypomnijmy niektóre z nich:", "(i). Ustalony stan pola cieplnego. Zjawisko rozchodzenia się ciepła jest opisane równaniem \\( \\hskip 0.3pc u_t-\\Delta u=0\\hskip 0.3pc \\). W przypadku pola stacjonarnego, tzn. takiego, że rozkład temperatury nie zmienia się w czasie, funkcja \\( \\hskip 0.3pc u\\hskip 0.3pc \\) nie zależy od czasu i spełnia równanie Laplace'a ( 1 ). Jeśli występują przy tym źródła ciepła, to spełnia ona równanie Poissona ( 2 ), gdzie funkcja \\( \\hskip 0.3pc f\\hskip 0.3pc \\) opisuje źródła ciepła.", "(ii). Bezwirowy ruch cieczy. Przypuśćmy, że w pewnym ograniczonym obszarze występuje ruch cieczy nieściśliwej o prędkości \\( \\hskip 0.3pc v\\hskip 0.3pc \\). Jeśli ruch cieczy jest bezwirowy, to prędkość \\( \\hskip 0.3pc v\\hskip 0.3pc \\) ma potencjał \\( \\hskip 0.3pc \\varphi\\hskip 0.3pc \\). Jeśli ponadto pole jest beźródłowe, to \\( \\hskip 0.3pc \\Delta \\varphi =0\\hskip 0.3pc \\). Zatem potencjał \\( \\hskip 0.3pc \\varphi\\hskip 0.3pc \\) ustalonego pola elektrycznego spełnia równanie Laplace'a.", "(iii). Pole elektrostatyczne. Przypuśćmy, że dane jest pole elektrostatyczne ładunków stacjonarnych i niech \\( \\hskip 0.3pc \\rho (x,y,z) \\hskip 0.3pc \\) oznacza gęstość objętościową ładunków. Można pokazać, że potencjał elektrostatyczny pola \\( \\hskip 0.3pc \\varphi\\hskip 0.3pc \\) spełnia równanie \\( \\hskip 0.3pc \\Delta \\varphi =-4\\pi \\rho\\hskip 0.3pc \\), tzn. równanie Poissona. Gdy brak jest ładunków przestrzennych, potencjał spełnia równanie Laplace'a. W literaturze nietrudno znaleźć wiele dalszych zjawisk które opisane są równaniami Laplace'a lub Poissona (zob. np. Feynmana wykłady z fizyki)", "Rozwiązanie podstawowe równania Laplace'a. Zastosujemy tutaj dość typowy dla teorii równań różniczkowych sposób postępowania. Najpierw znajdziemy stosunkowo proste rozwiązania równania wyjściowego, a następnie - przy pomocy tego rozwiązania - będziemy konstruuować dalsze rozwiązania, które spełniają żądane warunki, np. początkowe lub brzegowe. Takie rozwiązanie nazywamy rozwiązaniem podstawowym lub fundamentalnym. Ponieważ równanie Laplace'a jest symetryczne względem zmiennych, a w konsekwencji niezmiennicze względem obrotów, naturalnym wydaje się szukać rozwiązań radialnych, tzn. rozwiązań zależnych tylko od odległości od początku układu. Spróbujemy zatem znaleźć rozwiązanie równania ( 1 ) postaci", "Zauważmy, że dla \\( \\hskip 0.3pc r\\ne 0\\hskip 0.3pc \\)", "Zatem", "Nietrudno teraz sprawdzić, że", "Postawione zadanie sprowadza się zatem do rozwiązania równania", "Stąd", "gdzie \\( \\hskip 0.3pc A\\hskip 0.3pc \\) jest dowolną stałą. Rozwiązując ostatnie równanie otrzymamy", "gdzie \\( \\hskip 0.3pc A\\hskip 0.3pc \\) i \\( \\hskip 0.3pc B\\hskip 0.3pc \\) są dowolnymi stałymi. Ze względu na dalsze zastosowania wygodnie jest przyjąć \\( \\hskip 0.3pc B=0\\hskip 0.3pc \\), natomiast", "gdzie \\( \\hskip 0.3pc \\alpha (n)\\hskip 0.3pc \\) oznacza objętość kuli jednostkowej w przestrzeni \\( \\hskip 0.3pc \\mathbb R^n.\\hskip 0.3pc \\) Zgodnie z tymi rozważaniami przyjmujemy następującą definicje rozwiązania podstawowego.", "W teorii równania Laplace'a niezmiernie ważne, ze względu na zastosowania, są: zagadnienie brzegowe Dirichleta, zagadnienie brzegowe Neumanna oraz zagadnienie brzegowe Robina, zwane też pierwszym, drugim i trzecim zagadnieniem brzegowym. W dalszym ciągu podzbiór otwarty i spójny (tzn. taki że każde dwa punkty tego zbioru można połączyć krzywą zawartą w tym zbiorze) będziemy nazywać obszarem.", "Zagadnienie Dirichleta (zagadnienie brzegowe pierwszego rodzaju). Znaleźć rozwiązanie równania ( 1 ) (lub ( 2 ) ) które jest ciągłe w domknięciu obszaru \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) i spełniają warunek brzegowy", "Zagadnienie Neumanna ( zaganienie brzegowe drugiego rodzaju). Załóżmy, że brzeg \\( \\hskip 0.3pc \\partial \\Omega \\hskip 0.3pc \\) obszaru \\( \\hskip 0.3pc \\Omega \\hskip 0.3pc \\) jest gładki (tzn. w każdym punkcie zbioru \\( \\hskip 0.3pc \\partial \\Omega \\hskip 0.3pc \\) istnieje płaszczyzna styczna). Znaleźć rozwiązanie równania ( 1 ) (lub ( 2 ) ) określone w obszarze \\( \\hskip 0.3pc \\Omega, \\hskip 0.3pc \\) klasy \\( \\hskip 0.3pc C^1\\hskip 0.3pc \\) w jego domknięciu i spełniające warunek", "gdzie \\( \\hskip 0.3pc \\nu\\hskip 0.3pc \\) jest normalną zewnętrzną do \\( \\hskip 0.3pc \\partial \\Omega \\hskip 0.3pc \\) w punkcie \\( \\hskip 0.3pc x\\hskip 0.3pc \\), a \\( \\hskip 0.3pc \\varphi :\\partial \\Omega \\to \\mathbb R\\hskip 0.3pc \\) zadaną funkcją ciągłą.", "Zagadnienie Robina ( zagadnienie brzegowe trzeciego rodzaju). Znaleźć rozwiązanie równania ( 1 ) (lub ( 2 ) ) w obszarze \\( \\hskip 0.3pc \\Omega \\hskip 0.3pc \\) spełniające warunek", "gdzie \\( \\hskip 0.3pc \\partial \\Omega \\hskip 0.3pc \\) jest brzegiem obszaru \\( \\hskip 0.3pc \\Omega, \\hskip 0.2pc \\) \\( \\hskip 0.1pc a,\\hskip 0.2pc \\) \\( \\hskip 0.1pc b,\\hskip 0.2pc \\) \\( \\hskip 0.1pc g\\hskip 0.3pc \\) są danymi funkcjami określonymi na \\( \\hskip 0.3pc \\partial \\Omega ,\\hskip 0.3pc \\) \\( \\hskip 0.3pc \\nu\\hskip 0.3pc \\) jest normalną zewnętrzną do \\( \\hskip 0.3pc \\partial \\Omega .\\hskip 0.3pc \\)"], "definitions": [{"name": "Definicja 1: Rozwiązania podstawowego.", "content": "\n Rozwiązaniem podstawowym równania Laplace'a ( 1 ) nazywamy funkcję\n\n(3)\n\n\t\t\t\t\t\t\t\t\\( \\Phi (x)=\\begin{cases}-\\dfrac{1}{2\\pi} \\ln \\|x\\|,& {\\rm dla}\\hskip 0.5pc n=2;\\\\ \\dfrac {1}{n(n-2) \\alpha (n)}\\dfrac{1}{\\|x\\|^{n-2}}, & {\\rm dla} \\hskip 0.5pc n\\geq 3.\\end{cases} \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 6. Rozwiązania podstawowe równania Laplace’a i przewodnictwa cieplnego. Zasada maksimum", "subject_id": 456, "subject": "Własności funkcji harmonicznych", "paragraphs": ["Funkcje harmoniczne posiadają wiele interesujących własności, a ich teoria stanowi rozbudowany dział matematyki. Poniżej podamy niektóre własności tych funkcji. Rozpoczniemy od prostych wniosków wynikających łatwo z wzorów Gaussa-Greena.", "Istotnie, ze wzoru 5 z modułu \"Twierdzenie Gaussa-Greena i wzory Greena\" wynika, że", "Istotnie, niech \\( \\hskip 0.3pc x\\in \\Omega \\hskip 0.3pc \\) i niech \\( \\hskip 0.3pc B(x,\\varepsilon )\\hskip 0.3pc \\) będzie kulą zawartą w \\( \\hskip 0.3pc \\Omega \\hskip 0.3pc \\). Ze wzoru 5 z modułu \"Twierdzenie Gaussa-Greena i wzory Greena\" oraz założeń wniosku 2 wynika że", "Ponieważ ostatnia równość zachodzi dla dowolnego dostatecznie małego \\( \\hskip 0.3pc \\varepsilon >0\\hskip 0.3pc \\), wnosimy stąd, że \\( \\hskip 0.3pc \\Delta u(x)=0\\hskip 0.3pc \\). Teza wniosku została dowiedziona, bowiem \\( \\hskip 0.3pc x \\in \\Omega \\hskip 0.3pc \\) jest dowolne.", "Niech \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^n\\hskip 0.3pc \\) będzie zbiorem otwartym i niech \\( \\hskip 0.3pc u:\\Omega \\to \\mathbb R\\hskip 0.3pc \\) będzie funkcją harmoniczną w \\( \\hskip 0.3pc \\Omega \\hskip 0.3pc \\). Wówczas dla dowolnego \\( \\hskip 0.3pc x \\in \\Omega \\hskip 0.3pc \\) oraz kuli \\( \\hskip 0.3pc B(x,r) \\subset \\Omega \\hskip 0.3pc \\), wartość \\( \\hskip 0.3pc u(x)\\hskip 0.3pc \\) jest równa średniej wartości funkcji \\( \\hskip 0.3pc u\\hskip 0.3pc \\) na sferze \\( \\hskip 0.3pc \\partial B(x,r)\\hskip 0.3pc \\) oraz średniej wartości funkcji \\( \\hskip 0.3pc u\\hskip 0.3pc \\) na kuli \\( \\hskip 0.3pc B(x,r)\\hskip 0.3pc \\). Oznaczmy przez \\( \\hskip 0.3pc \\upsilon_r\\hskip 0.3pc \\) powierzchnię, a przez \\( \\hskip 0.3pc \\omega_r\\hskip 0.3pc \\) objętość kuli \\( \\hskip 0.3pc B(x,r)\\subset\\mathbb R^n. \\hskip 0.3pc \\) Nietrudno sprawdzić, że \\( \\hskip 0.3pc \\omega_r = (r/n)\\upsilon_r.\\hskip 0.3pc \\) Jeśli \\( \\hskip 0.3pc \\alpha (n)\\hskip 0.3pc \\) oznacza objętość kuli jednostkowej w przestrzeni \\( \\hskip 0.3pc\\mathbb R^n,\\hskip 0.3pc \\) to \\( \\hskip 0.3pc \\omega_r =\\alpha (n)\\,r^n,\\hskip 0.3pc \\) natomiast \\( \\hskip 0.3pc \\upsilon_r =n\\alpha (n)r^{n-1}.\\hskip 0.3pc \\)", "Istnieją też ścisłe związki między funkcjami harmonicznymi dwu zmiennych a funkcjami analitycznymi jednej zmiennej zespolonej. Mianowicie, część rzeczywista \\( \\hskip 0.3pc u=u(x.y)\\hskip 0.3pc \\) i część urojona \\( \\hskip 0.3pc v=v(x,y)\\hskip 0.3pc \\) funkcji analitycznej \\( \\hskip 0.3pc f(z)=u(x,y) +iv(x,y)\\hskip 0.3pc \\) zmiennej zespolonej \\( \\hskip 0.3pc z=x+iy\\hskip 0.3pc \\) są funkcjami harmonicznymi (dokładniej funkcjami harmonicznymi sprzężonymi). Na odwrót, mając daną funkcję harmoniczną, możemy łatwo skonstruować odpowiadającą jej funkcję analityczną. Stąd też szereg własności funkcji harmonicznych jest natychmiastową konsekwencją stosownych własności funkcji zmiennej zespolonej i na odwrót."], "definitions": [{"name": "Definicja 1: Funkcji harmonicznej.", "content": " Funkcję klasy \\( \\hskip 0.3pc C^2\\hskip 0.3pc \\) w obszarze \\( \\hskip 0.3pc \\Omega \\subset\\mathbb R^n,\\hskip 0.3pc \\) spełniającą w tym obszarze równanie Laplace'a:\n\n\n\n\t\t\t\t\t\t\t\t\\( \\Delta u =0, \\hskip 1.3pc x\\in \\Omega, \\)\n\nnazywamy funkcją harmoniczną w \\( \\hskip 0.3pc \\Omega \\hskip 0.3pc \\).\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 6. Rozwiązania podstawowe równania Laplace’a i przewodnictwa cieplnego. Zasada maksimum", "subject_id": 457, "subject": "Równanie Poissona", "paragraphs": ["Zauważmy, że funkcja \\( \\hskip 0.3pc \\Phi\\hskip 0.3pc \\) dana wzorem", "jest harmoniczna dla \\( \\hskip 0.3pc x\\neq 0.\\hskip 0.3pc \\) Jeśli początek układu przesuniemy do punktu \\( \\hskip 0.3pc y,\\hskip 0.3pc \\) to funkcja \\( \\hskip 0.3pc x \\mapsto \\Phi(x-y)\\hskip 0.3pc \\) jest harmoniczna dla \\( \\hskip 0.3pc x\\neq y.\\hskip 0.3pc \\) Zauważmy ponadto, że jeśli \\( \\hskip 0.3pc f:X\\to \\mathbb R\\hskip 0.3pc \\) jest zadaną funkcją, to \\( \\hskip 0.3pc x \\mapsto \\Phi(x-y)f(y)\\hskip 0.3pc \\) jest również funkcją harmoniczna dla \\( \\hskip 0.3pc x\\neq y\\hskip 0.3pc \\). Można by zatem oczekiwać, że funkcja", "będzie rozwiązaniem równania Laplace'a", "Okazuje się, że tak nie jest. Wynika to stąd, że funkcja \\( \\hskip 0.3pc x \\mapsto \\Phi (x-y)\\hskip 0.3pc \\) ma osobliwość w punkcie \\( \\hskip 0.3pc x=y,\\hskip 0.3pc \\) a zatem nie możemy z operacją różniczkowania wejść pod całkę. Pokażemy natomiast, że dla dostatecznie regularnej funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) wzór ( 2 ) określa rozwiązanie równania Poissona", "Rozwiązanie podstawowe równania przewodnictwa cieplnego.", "Równanie przewodnictwa cieplnego, zwane też równaniem dyfuzji, opisuje w jaki sposób zmienia się w czasie gęstość pewnej wielkości, np. temperatury, stężenia chemicznego czy potencjału elektrycznego. Przykłady zjawisk które możemy opisać tego typu równaniem zostały podane w module \"Przykłady zagadnień prowadzących do równań różniczkowych cząstkowych\". Rozważmy przypadek jednorodnego równania przewodnictwa cieplnego", "gdzie \\( \\hskip 0.3pc u:\\,\\mathbb R^n\\times R \\to \\mathbb R\\hskip 0.3pc \\), \\( \\hskip 0.3pc t>0\\hskip 0.3pc \\), \\( \\hskip 0.3pc x=(x_1,\\, \\ldots ,\\, x_n)\\in\\mathbb R^n,\\hskip 0.3pc \\) a symbol \\( \\hskip 0.3pc \\Delta =\\displaystyle\\sum_{i=1}^{n}\\dfrac{\\partial ^2}{\\partial x_i^2}\\hskip 0.3pc \\) oznacza operator Laplace'a. Chociaż zaproponowaną poniżej metodę można bez żadnych istotnych zmian stosować dla dowolnego \\( \\hskip 0.3pc n\\geq 1,\\hskip 0.3pc \\) dla uproszczenia zapisu ograniczymy się do \\( \\hskip 0.3pc n=1,\\hskip 0.3pc \\) czyli do równania", "Zauważmy, że jeśli funkcja \\( \\hskip 0.3pc u=u(x,t)\\hskip 0.3pc \\) jest rozwiązaniem równania ( 8 ), to również funkcja \\( \\hskip 0.3pc u=u(\\lambda x,\\,\\lambda^2t),\\hskip 0.3pc \\) dla dowolnego \\( \\hskip 0.3pc \\lambda \\in \\mathbb R,\\hskip 0.3pc \\) jest również rozwiązaniem równania ( 8 ). Nasuwa się stąd pomysł, aby szukać rozwiązań wzdłuż krzywych \\( \\hskip 0.3pc \\{\\big(\\lambda x,\\,\\lambda^2t\\big):\\hskip 0.2pc \\lambda \\in\\mathbb R\\},\\hskip 0.3pc \\) tzn. krzywych wyznaczonych przez stosunek \\( \\hskip 0.3pc\\dfrac{ (\\lambda x)^2}{\\lambda ^2t},\\hskip 0.3pc \\) czyli rozwiązań postaci", "Prosty rachunek daje", "Podstawiając uzyskane wielkości do równania ( 8 ) otrzymamy", "a kładąc \\( \\hskip 0.3pc z=\\dfrac {x^2}{t}\\hskip 0.3pc \\) mamy", "Rozwiązując ostatnie równanie dostajemy", "Zatem funkcja", "gdzie \\( \\hskip 0.3pc A\\hskip 0.3pc \\) i \\( \\hskip 0.3pc B\\hskip 0.3pc \\) są dowolnymi stałymi, jest rozwiązaniem równania ( 8 ) dla \\( \\hskip 0.3pc x \\in \\mathbb R\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc t>0\\hskip 0.3pc \\). Rozwiązanie to ma dość niewygodną postać całkową. Różniczkując funkcje ( 9 ) względem zmiennej \\( \\hskip 0.3pc x\\hskip 0.3pc \\) otrzymamy", "Oczywiście tak uzyskana funkcja jest również rozwiązaniem równania ( 8 ) w zbiorze \\( \\hskip 0.3pc D=\\{(x,t):\\,\\, x \\in \\mathbb R,\\hskip 0.3pc t>0\\}\\hskip 0.3pc \\). Wygodnie jest - co będzie widać z dalszych rozważań - przyjąc \\( \\hskip 0.3pc A= \\dfrac 1{4\\sqrt{\\pi}}\\hskip 0.3pc \\) (Przy tak ustalonej stałej \\( \\hskip 0.3pc A\\hskip 0.3pc \\) otrzymamy rozwiązanie z którego całka jest równa \\( \\hskip 0.3pc 1\\hskip 0.3pc \\)). Funkcję", "nazywamy rozwiązaniem podstawowym równania ( 8 ). Zauważmy, że dla \\( \\hskip 0.3pc t=0\\hskip 0.3pc \\) funkcja \\( \\hskip 0.3pc \\Phi\\hskip 0.3pc \\) ma osobliwość. Dla \\( \\hskip 0.3pc n\\geq 2\\hskip 0.3pc \\) przez rozwiązanie podstawowe równania ( 7 ) rozumiemy funkcję", "gdzie \\( \\hskip 0.3pc \\|x\\|=\\sqrt{x_1^2+ \\ldots +x_n^2}.\\hskip 0.3pc \\)"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 6. Rozwiązania podstawowe równania Laplace’a i przewodnictwa cieplnego. Zasada maksimum", "subject_id": 458, "subject": "Problem początkowy dla równania ciepła", "paragraphs": ["Skonstruowane w (module Równanie Poissona-( 11 ) ) rozwiązanie podstawowe równania ciepła wykorzystamy teraz dla znalezienia rozwiązania problemu Cauchy'ego (problemu początkowego) dla równania ciepła:", "gdzie \\( \\hskip 0.3pc g:R^n\\to \\mathbb R\\hskip 0.3pc \\) jest zadaną funkcją. Przypomnijmy, że dla \\( \\hskip 0.3pc t\\neq 0\\hskip 0.3pc \\) funkcja \\( \\hskip 0.3pc \\Phi\\hskip 0.3pc \\) dana wzorem", "Nietrudno sprawdzić, że dla dowolnie ustalonego \\( \\hskip 0.3pc z\\in\\mathbb R^n\\hskip 0.3pc \\) również funkcja \\( \\hskip 0.3pc (x,t) \\mapsto \\Phi(x-z,t)\\hskip 0.3pc \\) jest rozwiązaniem równania ( 3 ) dla \\( \\hskip 0.3pc t\\neq 0.\\hskip 0.3pc \\) Rozważmy teraz funkcję \\( \\hskip 0.3pc u:\\,\\mathbb R^n\\times(0,\\infty) \\to \\mathbb R^n\\hskip 0.3pc \\) daną wzorem", "Zauważmy, że funkcja \\( \\hskip 0.3pc u\\hskip 0.3pc \\) jest splotem rozwiązania podstawowego \\( \\hskip 0.3pc \\Phi \\hskip 0.3pc \\) oraz funkcji \\( \\hskip 0.3pc g\\hskip 0.3pc \\).", "Pierwszy problem brzegowy Dirichleta.", "Obok problemu początkowego dla równania ciepła również bardzo ważnym jest tak zwany pierwszy problem brzegowy Dirichleta. Niech \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) będzie obszarem w \\( \\hskip 0.3pc\\mathbb R^n\\times [0,T)\\hskip 0.3pc \\) o tej własności, że dla dowolnego \\( \\hskip 0.3pc t \\in [0,T)\\hskip 0.3pc \\) zbiór \\( \\hskip 0.3pc \\big\\{x:\\, (x,\\,t) \\in \\Omega\\big\\}\\hskip 0.3pc \\) jest \\( \\hskip 0.3pc n\\hskip 0.3pc \\)-wymiarowym obszarem w \\( \\hskip 0.3pc \\mathbb R^n\\hskip 0.3pc \\). Oznaczmy przez \\( \\hskip 0.3pc S\\hskip 0.3pc \\) boczną powierzchnie \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) wraz z jego podstawą. Wówczas pierwszym zagadnieniem brzegowym Dirichleta nazywamy problem znalezienia rozwiązania równania", "spełniającego warunek", "gdzie \\( \\hskip 0.3pc \\varphi\\hskip 0.3pc \\) jest zadaną funkcją.", "Niejednorodny problem początkowy dla równania ciepła.", "Rozważmy teraz niejednorodny problem Cauchy'ego", "gdzie \\( \\hskip 0.3pc f:\\, \\mathbb R^n\\times \\mathbb R_+\\to \\mathbb R\\hskip 0.3pc \\) jest zadaną funkcją. Rozważamy problem pomocniczy", "Zgodnie z wzorem ( 4 ), kładąc \\( \\hskip 0.3pc s=t-\\tau\\hskip 0.3pc \\), rozwiązanie tego problemu możemy zapisć w postaci", "Nietrudno sprawdzić, że funkcja", "jest szukanym rozwiązaniem niejednorodnego problemu Cauchy'ego."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 6. Rozwiązania podstawowe równania Laplace’a i przewodnictwa cieplnego. Zasada maksimum", "subject_id": 497, "subject": "Zasada maksimum dla równania Laplace’a i równania ciepła", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 6. Rozwiązania podstawowe równania Laplace’a i przewodnictwa cieplnego. Zasada maksimum", "subject_id": 459, "subject": "Zasada Duhamela", "paragraphs": ["W modułach \"Równanie niejednorodne struny\", \"Niejednorodne równanie fal kulistych\", \"Równanie fal walcowych. Metoda redukcji\", \"Problem poczatkowy dla równania ciepła\" aby znaleźć rozwiązanie problemu niejednorodnego, rozważaliśmy najpierw pomocniczy problem jednorodny zależny od parametru, a następnie rozwiązanie problemu wyjściowego uzyskiwaliśmy całkując względem wspomnianego parametru rozwiązanie problemu pomocniczego. Zastosowaną metodę możemy sformułować nieco ogólniej, uzyskując tak zwaną zasadę Duhamela.", "Rozważmy równanie", "z warunkiem początkowym", "oraz warunkiem brzegowym", "gdzie \\( \\hskip 0.3pc \\Omega\\subset\\mathbb R^n\\hskip 0.3pc \\), a \\( \\hskip 0.3pc L\\hskip 0.3pc \\) jest operatorem eliptycznym względem zmiennych przestrzennych. Zauważmy, że w postawionym problemie funkcje \\( \\hskip 0.3pc f\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\psi \\hskip 0.3pc \\) zależą od zmiennej \\( \\hskip 0.3pc t\\hskip 0.3pc \\). Rozważmy analog problemu ( 1 ) - ( 3 ) z funkcjami \\( \\hskip 0.3pc f\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\psi \\hskip 0.3pc \\) niezależnymi od \\( \\hskip 0.3pc t\\hskip 0.3pc \\). Mianowicie, ustalmy \\( \\hskip 0.3pc \\tau >0\\hskip 0.3pc \\) i rozważmy problem", "Załóżmy, że problem ( 4 ) - ( 6 ) posiada rozwiązanie dla dowolnego \\( \\hskip 0.3pc \\tau >0\\hskip 0.3pc \\). Ponieważ zależy ono od parametru \\( \\hskip 0.3pc \\tau \\hskip 0.3pc \\), oznaczmy go symbolem \\( \\hskip 0.3pc v=v(x,t;\\tau )\\hskip 0.3pc \\). Twierdzimy, że funkcja", "jest rozwiązaniem problemu ( 1 ) - ( 3 ). Istotnie, warunki ( 2 ) i ( 3 ) są spełnione w oczywisty sposób. Wykonując różniczkowanie w ( 7 ), po uwzględnieniu ( 5 ), otrzymamy", "Stąd oraz związków ( 4 ) i ( 7 ) dostajemy", "co kończy dowód. Taką metodę konstrukcji rozwiązań nazywamy zasadą Duhamela."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 6. Rozwiązania podstawowe równania Laplace’a i przewodnictwa cieplnego. Zasada maksimum", "subject_id": 460, "subject": "Przykłady dotyczące równania Laplace’a i równania przewodnictwa cieplnego", "paragraphs": ["W następnych przykładach rozwiniemy pomysły które wykorzystaliśmy dla znalezienia rozwiązań fundamentalnych dla równania Laplace'a oraz równania przewodnictwa cieplnego. W pierwszym przypadku szukaliśmy rozwiązań radialnych, w drugim rozwiązań wzdłuż specjalnie dobranych krzywych (powierzchni). Idea metody polega na redukcji ilości zmiennych niezależnych, a w sytuacji optymalnej, na sprowadzeniu problemu do rozwiązania równania zwyczajnego."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 7. Elementy teorii dystrybucji", "subject_id": 461, "subject": "Wprowadzenie do teorii dystrybucji", "paragraphs": ["Chociaż teoria dystrybucji jest działem matematyki abstrakcyjnej, dostarcza ona ścisłych uzasadnień dla wielu manipulacji formalnych stosowanych w naukach przyrodniczych i w literaturze technicznej. Ponadto dostarcza ona możliwości dalszego rozwoju klasycznych dyscyplin matematycznych, np. równań różniczkowych zwyczajnych i cząstkowych, rachunku operacyjnego, teorii transformacji. Pewne rodzaje dystrybucji (np. funkcja delta i jej pochodne) używane były w naukach fizycznych i technicznych już w XIX wieku, znacznie przed pojawieniem się teorii dystrybucji, która została zaproponowana w latach trzydziestych zeszłego stulecia przez L.S. Sobolewa. Zwykle stosowane dzisiaj ujęcie tej teorii należy do L. Schwartza, który sfomułował je w latach pięćdziesiątych zeszłego stulecia. Rozważmy punkt materialny o masie \\( \\hskip 0.3pc m\\hskip 0.3pc \\) poruszający się po linii prostej z prędkością jednostajną. Przypuśćmy, że w chwili \\( \\hskip 0.3pc t_0\\hskip 0.3pc \\) punkt napotkał przeszkodę i w wyniku kolizji zmienił kierunek ruchu w stronę przeciwną. Zgodnie z prawami mechaniki powinna zachodzić zależność", "gdzie \\( \\hskip 0.3pc v_1\\hskip 0.3pc \\) i \\( \\hskip 0.3pc v_2\\hskip 0.3pc \\) są prędkościami w chwili \\( \\hskip 0.3pc t_1\\hskip 0.3pc \\) i \\( \\hskip 0.3pc t_2\\hskip 0.3pc \\), a \\( \\hskip 0.3pc F(t)\\hskip 0.3pc \\) oznacza siłę działającą na punkt materialny w chwili \\( \\hskip 0.3pc t.\\hskip 0.3pc \\) Przyjmijmy, że \\( \\hskip 0.3pc F(t)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc t \\neq t_0\\hskip 0.3pc \\). Zauważmy, że jeśli \\( \\hskip 0.3pc t_10\\hskip 0.3pc \\) symbolem \\( \\hskip 0.3pc T^{\\alpha} \\hskip 0.3pc \\) oznaczać będziemy dystrybucje określoną wzorem", "Zauważmy, że definicje te są całkiem naturalne. Jeśli bowiem \\( \\hskip 0.3pc T\\hskip 0.3pc \\) jest dystrybucją regularną generowaną przez funkcje lokalnie całkowalną \\( \\hskip 0.3pc f:\\mathbb R^n\\to \\mathbb R,\\hskip 0.3pc \\) to", "czyli \\( \\hskip 0.3pc T_{x_0}\\hskip 0.3pc \\) jest dystrybucją regularną generowną przez funkcje \\( \\hskip 0.3pc f(x-x_0).\\hskip 0.3pc \\) Analogicznie", "czyli \\( \\hskip 0.3pc T^{-}\\hskip 0.3pc \\) jest dystrybucją regularną generowną przez funkcje \\( \\hskip 0.3pc f(-x).\\hskip 0.3pc \\)", "Podobnie", "czyli \\( \\hskip 0.3pc T^{\\alpha }\\hskip 0.3pc \\) jest dystrybucją regularną generowną przez funkcje \\( \\hskip 0.3pc f(\\alpha x).\\hskip 0.3pc \\)", "Dystrybucje \\( \\hskip 0.3pc T\\in D^*( \\mathbb R^n)\\hskip 0.3pc \\) nazywamy", "\\( \\lambda\\hskip 0.3pc \\)- jednorodną, jeśli \\( \\hskip 0.3pc T^t =t^{\\lambda}T\\hskip 0.3pc \\) dla dowolnego \\( \\hskip 0.3pc t>0\\hskip 0.3pc \\);", "parzystą, jeśli \\( \\hskip 0.3pc T^- = T\\hskip 0.3pc \\);", "nieparzystą, jeśli \\( \\hskip 0.3pc T^- = -T\\hskip 0.3pc \\) ;", "okresową , jeśli \\( \\hskip 0.3pc T_a= T\\hskip 0.3pc \\) dla pewnego \\( \\hskip 0.3pc a\\in\\mathbb R^n.\\hskip 0.3pc \\) Element \\( \\hskip 0.3pc a\\hskip 0.3pc \\) nazywamy okresem dystrybucji.", "Aby móc wygodnie przeprowadzać rachunki, często wprowadza się formalnie zapis \\( \\hskip 0.3pc T(x).\\hskip 0.3pc \\) Oczywiście \\( \\hskip 0.3pc x\\hskip 0.3pc \\) oznacza argument funkcji próbnej, na której działa dystrybucja \\( \\hskip 0.3pc T.\\hskip 0.3pc \\) W tej konwencji dystrybycje \\( \\hskip 0.3pc T_{x_0},\\hskip0.3pc \\) \\( T^-\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc T^{\\alpha},\\hskip0.3pc \\) przyjmują postać \\( \\hskip 0.3pc T(x-x_0)\\hskip 0.3pc \\), \\( \\hskip 0.3pc T(-x)\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc T(\\alpha x)\\hskip 0.3pc \\). W szczególności dystybucja \\( \\hskip 0.3pc \\delta _{x_0}\\hskip 0.3pc \\) ma postać \\( \\hskip 0.3pc \\delta (x-x_0)\\hskip 0.3pc \\)."], "definitions": [{"name": "Definicja 1: sumy dystrybucji.", "content": "Sumę dystrybucji \\( \\hskip 0.3pc L\\hskip 0.3pc \\) i \\( \\hskip 0.3pc T\\hskip 0.3pc \\) określamy następująco\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\langle L+T,\\, \\varphi\\rangle \\,=\\,\\langle L, \\,\\varphi\\rangle + \\langle T,\\, \\varphi\\rangle,\\hskip 1pc \\varphi\\in D(\\Omega). \\)\n\n"}, {"name": "Definicja 2: iloczynu dystrybucji przez liczbę.", "content": "Iloczyn dystrybucji \\( \\hskip 0.3pc T\\hskip 0.3pc \\) przez liczbę \\( \\hskip 0.3pc \\alpha\\hskip 0.3pc \\)określamy wzorem\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\langle \\alpha T,\\, \\varphi\\rangle \\,=\\, \\alpha\\langle T,\\, \\varphi\\rangle,\\hskip 1pc \\varphi\\in D(\\Omega) . \\)\n\n"}, {"name": "Definicja 3: translacji dystrybucji.", "content": "Niech \\( \\hskip 0.3pc T\\in D^*(\\mathbb R^n)\\hskip 0.3pc \\) i niech \\( \\hskip 0.3pc x_0 \\in \\mathbb R^n. \\hskip 0.3pc \\) Translację dystrybucji \\( \\hskip 0.3pc T\\hskip 0.3pc \\) o wektor \\( \\hskip 0.3pc x_0\\hskip 0.3pc \\) oznaczamy symbolem \\( \\hskip 0.3pc T_{x_0}\\hskip 0.3pc \\) i określamy wzorem\n\n\t\t\t\t\t(2)\n\n\t\t\t\t\t\t\t\t\\( \\langle T_{x_0} ,\\varphi (x)\\rangle =\\langle T_ ,\\varphi (x+x_0)\\rangle,\\qquad\\varphi \\in D(\\mathbb R^n ). \\)\n\n"}, {"name": "Definicja 4: transpozycji dystrybucji.", "content": " Transpozycję dystrybucji \\( \\hskip 0.3pc T\\in D^*(\\mathbb R^n)\\hskip 0.3pc \\) oznaczamy symbolem \\( \\hskip 0.3pc T^{-}\\hskip 0.3pc \\) i określamy wzorem\n\n\t\t\t\t\t(3)\n\n\t\t\t\t\t\t\t\t\\( \\langle T^-, \\varphi (x)\\rangle =\\langle T, \\varphi (-x)\\rangle, \\qquad\\varphi \\in D(\\mathbb R^n ). \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 7. Elementy teorii dystrybucji", "subject_id": 464, "subject": "Pochodna w sensie dystrybucyjnym", "paragraphs": ["Dla uproszczenia sytuacji ograniczymy się początkowo do dystrybucji określonych na \\( \\hskip 0.3pc \\mathbb R\\hskip 0.3pc \\), chociaż formalnie sytuacja jest taka sama dla dystrybucji określonych na dowolnym zbiorze \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^n.\\hskip 0.3pc \\) Załóżmy, że dana jest funkcja różniczkowalne \\( \\hskip 0.3pc f:\\mathbb R \\to \\mathbb R.\\hskip 0.3pc \\) Korzystając ze wzoru na całkowanie przez części oraz faktu, że \\( \\hskip 0.3pc \\varphi (-\\infty) = \\varphi (+\\infty)=0,\\hskip 0.3pc \\) otrzymamy", "Analogicznie dla dowolnego \\( \\hskip 0.3pc k \\geq 1\\hskip 0.3pc \\) otrzymamy", "Wzorując się na ostatniej równości, możemy formalnie sformułować następującą definicje.", "W szczególności", "Oczywiście pochodna dystrybucyjna jest dystrybucją. Z przeprowadzonych powyżej rozważań wynika natychmiast, że jeśli funkcja \\( \\hskip 0.3pc f\\hskip 0.3pc \\) posiada pochodną w sensie klasycznym, to posiada również pochodną w sensie dystrybucyjnym i pochodna ta pokrywa się z dystrybucją generowaną przez pochodną klasyczną. Co więcej, jeśli funkcja \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest różniczkowalna prawie wszędzie, a jej pochodna jest funkcją lokalnie całkowalną (w sensie Lebesgue'a), to pochodna dystrybucyjna pokrywa się z dystrybucją generowaną przez pochodną klasyczną. Definicje \\( \\hskip 0.3pc k\\hskip 0.3pc \\)-tej pochodnej dystrybucyjnej możemy sformułować dla dowolej dystrybucji, mamy mianowicie następującą definicje:", "Z własności przestrzeni \\( \\hskip 0.3pc { D}(\\mathbb R)\\hskip 0.3pc \\), wynika natychmiast, że definicja ta jest dobrze określona. Ponieważ funkcje \\( \\hskip 0.3pc \\varphi\\hskip 0.3pc \\) są nieskończenie wiele razy różniczkowalne, każda dystrybucja jest nieskończenie wiele razy różniczkowalna. Widać też natychmiast, że różniczkowanie dystrybucyjne jest operacją liniową.", "Zgodnie z powyższą definicją, dla dowolnej funkcji \\( \\hskip 0.3pc \\varphi \\in D(\\mathbb R)\\hskip 0.3pc \\), mamy", "i ogólnie", "Jeśli \\( \\hskip 0.3pc H\\hskip 0.3pc \\) jest funkcją Heaviside'a to", "Zatem \\( \\hskip 0.3pc H^\\prime=\\delta\\hskip 0.3pc \\) oraz ogólnie \\( \\hskip 0.3pc H^\\prime(x-x_0)=\\delta _{x_0}.\\hskip 0.3pc \\) Wykorzystując indukcje matematyczną łatwo sprawdzić, że \\( \\hskip 0.3pc H^{(n)}=\\delta^{(n-1)}\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc H^{(n)}(x-x_0)=\\delta^{(n-1)}_{x_0}\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc n \\geq 1\\hskip 0.3pc \\).", "Pochodna dystrybucyjna posiada szereg naturalnych własności. Niektóre z nich podamy poniżej.", "Zauważmy, że własność 3 w przeciwieństwie do przypadku pochodnych klasycznych nie wymaga żadnych dodatkowych założeń (przypomnijmy, że aby granica pochodnych wyrazów ciągu była równa pochodnej granicy - w przypadku pochodnych klasycznych - ciąg funkcji oraz ciąg pochodnych muszą być jednostajnie zbieżne).", "Analogicznie można wykazać następującą uwagę:", "Zdefiniujemy teraz pochodną dystrybucyjną funkcji lokalnie całkowalnej na dowolnym zbiorze otwartym \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^n.\\hskip 0.3pc \\)", "Z własności przestrzeni \\( \\hskip 0.3pc D(\\Omega)\\hskip 0.3pc \\) oraz liniowości i ciągłości \\( \\hskip 0.3pc T\\hskip 0.3pc \\) wynika wynika natychmiast, że pochodna dystrybucyjna \\( \\hskip 0.3pc D^{ k}T=\\tfrac{\\partial^k T}{\\partial x_1^{k_1}\\ldots \\partial x_n^{k_n}}\\hskip 0.3pc \\) jest funkcjonałem liniowym i ciągłym na \\( \\hskip 0.3pc D(\\Omega),\\hskip 0.3pc \\) czyli dystrybucją na \\( \\hskip 0.3pc \\Omega.\\hskip 0.3pc \\)", "Rozumując analogicznie nietrudno sprawdzić, że mieszane pochodne dystrybucyjne - jak zauważyliśmy poprzednio - nie zależą od kolejności różniczkowania. W zastosowaniach teorii dystrybucji własność ta jest istotna. Wyjaśnia to poniższy przykład."], "definitions": [{"name": "Definicja 1:", "content": " Pochodną dystrybucyjną rzędu \\( \\hskip 0.3pc k\\hskip 0.3pc \\) z lokalnie całkowalnej funkcji \\( \\hskip 0.3pc f: \\mathbb R \\to \\mathbb R\\hskip 0.3pc \\) oznaczamy symbolem \\( \\hskip 0.3pc f^{(k)}\\hskip 0.3pc \\) i określamy wzorem\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\langle f^{(k)},\\, \\varphi \\rangle\\,=\\,(-1)^k\\displaystyle\\int_{ -\\infty}^{ +\\infty}\\,f (x)\\, \\varphi^{ (k)}(x)dx . \\)\n\n"}, {"name": "Definicja 2:", "content": " Pochodną rzędu \\( \\hskip 0.3pc k \\hskip 0.3pc \\) z dystrybucji\n \\( \\hskip 0.3pc T\\in D^*(\\mathbb R)\\hskip 0.3pc \\) nazywamy dystrybucje \\( \\hskip 0.3pc T^{(k)}\\in D^*(\\mathbb R)\\hskip 0.3pc \\) określoną wzorem\n\n\n\t\t\t\t\t\t\t\t\\( \\langle T^{(k)},\\varphi\\rangle =(-1)^k \\langle T,\\varphi^{(k)}\\rangle. \\)\n\n\ndla \\( \\hskip 0.3pc\\,\\varphi \\in D(\\mathbb R). \\)\n\n"}, {"name": "Definicja 3:", "content": " Załóżmy, że \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^n\\hskip 0.3pc \\) i rozważmy funkcje \\( \\hskip 0.3pc f:\\Omega \\to \\mathbb R\\hskip 0.3pc \\) lokalnie całkowalną na \\( \\hskip 0.3pc \\Omega.\\hskip 0.3pc \\) Pochodną dystrybucyjną \\( \\hskip 0.3pc D^{ k}=\\tfrac{\\partial^{|k|}}{\\partial x_1^{k_1}\\ldots \\partial x_n^{k_n}},\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc k =(k_1, \\ldots ,k_n),\\hskip 0.3pc \\) \\( \\hskip 0.3pc | k|=k_1+\\ldots +k_n,\\hskip 0.3pc \\) z funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) określamy wzorem\n\n\n\n\t\t\t\t\t\t\t\t\\( \\langle D^{ k} f,\\varphi\\rangle =(-1)^{| k|} \\displaystyle\\int_{\\Omega}f(x_1, \\ldots, x_n) D^{ k} \\varphi (x_1,\\ldots ,x_n)\\,dx_1 \\ldots dx_n \\)\n\n\ndla dowolnej funkcji \\( \\hskip 0.3pc \\varphi \\in D(\\Omega).\\hskip 0.3pc \\).\n Podobnie, jeśli \\( \\hskip 0.3pc T\\in D^*(\\Omega),\\hskip 0.3pc \\) to pochodną dystrybucyjną \\( \\hskip 0.3pc D^{ k}\\hskip 0.3pc \\) z dystrybucji \\( \\hskip 0.3pc T\\hskip 0.3pc \\) określamy wzorem\n\n\n\t\t\t\t\t\t\t\t\\( \\big = (-1)^{| k|} \\big \\quad {\\textrm dla~ dowolnej~ funkcji} \\quad\\varphi \\in D(\\Omega). \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 7. Elementy teorii dystrybucji", "subject_id": 465, "subject": "Dystrybucje skończonego rzędu", "paragraphs": ["Oczywiście pochodna w sensie klasycznym \\( \\hskip 0.3pc h^\\prime(t)=H(t)\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc t\\neq 0.\\hskip 0.3pc \\) Korzystając z definicji pochodnej dystrybucyjnej oraz wzoru na całkowanie przez części otrzymamy", "Zatem \\( \\hskip 0.3pc T_H=T_{h^\\prime}\\hskip 0.3pc \\), co oznacza, że \\( \\hskip 0.3pc T_H\\hskip 0.3pc \\) jst dystrybucją pierwszego rzędu. Ponieważ, jak zauważyliśmy poprzednio, \\( \\hskip 0.3pc \\delta =H^\\prime=h^{\\prime\\prime},\\hskip 0.3pc \\) zatem \\( \\hskip 0.3pc \\delta \\hskip 0.3pc \\) jest dystrybucją 2-go rzędu. Ogólnie, \\( \\hskip 0.3pc \\delta ^{(n)}\\hskip 0.3pc \\) jest dystrybucją rzędu \\( \\hskip 0.3pc n+2.\\hskip 0.3pc \\)", "Ponieważ \\( \\hskip 0.3pc g\\hskip 0.3pc \\) jest funkcją ciągłą, \\( \\hskip 0.3pc T_f\\hskip 0.3pc \\) jest dystrybucją skończonego rzędu, dokładniej rzędu \\( \\hskip 0.3pc 0,\\hskip 0.3pc \\) jeśli \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest funkcją ciągłą oraz rzędu \\( \\hskip 0.3pc 1\\hskip 0.3pc \\) jeśli \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest funkcją nieciągłą."], "definitions": [{"name": "Definicja 1:", "content": " Dystrybucje \\( \\hskip 0.3pc T\\in D^*(\\mathbb R)\\hskip 0.3pc \\) nazywamym dystrybucją skończonego rzędu jeśli istnieją funkcja ciągła \\( \\hskip 0.3pc g:\\mathbb R\\to \\mathbb R\\hskip 0.3pc \\) oraz liczba naturalna \\( \\hskip 0.3pc k\\hskip 0.3pc \\) takie, że \\( \\hskip 0.3pc T=g^{(k)},\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc g^{(k)}\\hskip 0.3pc \\) oznacza pochodną dystrybucyjną rzędu \\( \\hskip 0.3pc k\\hskip 0.3pc \\) z funkcji \\( \\hskip 0.3pc g.\\hskip 0.3pc \\)\n"}, {"name": "Definicja 2:", "content": " Dystrybucje \\( \\hskip 0.3pc T\\in D^*(\\Omega ),\\hskip 0.3pc \\) \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^n,\\hskip 0.3pc \\) nazywamy dystrybucją skończonego rzędu, jeśli istnieje funkcja ciągła \\( \\hskip 0.3pc g:\\Omega\\to \\mathbb R\\hskip 0.3pc \\) oraz wielowskaźnik \\( \\hskip 0.3pc k=(k_1, \\ldots ,k_n)\\hskip 0.3pc \\) takie, że\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( T=\\dfrac{\\partial ^{| k|}g}{\\partial x_1^{k_1} \\ldots \\partial x_n^{k_n}}, \\)\n\n gdzie \\( \\hskip 0.3pc | k |=k_1+ \\ldots +k_n.\\hskip 0.3pc \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 7. Elementy teorii dystrybucji", "subject_id": 466, "subject": "Dystrybucje wolno rosnące", "paragraphs": ["Szereg zastosowń wymaga specjalnych klas dystrybucji. Szczególnie ważne są tzw. dystrybucje wolno rosnące zwane też dystrybucjami temperowanymi. Na tej klasie dystrybucji można stosunkowo prosto zdefiniować transformate Fouriera. W celu określenia dystrybucji temperowanych wprowadzimy najpierw tzw. przestrzeń funkcji szybko malejących.", "Elementy przestrzeni \\( \\hskip 0.3pc S( \\mathbb R^n )\\hskip 0.3pc \\) nazywamy funkcjami szybko malejącymi. Przykładem funkcji szybko malejącej jest funkcja \\( \\hskip 0.3pc x\\mapsto e^{-\\|x\\|^2},\\hskip 0.3pc \\) \\( x\\in \\mathbb R^n. \\hskip 0.3pc \\) Zauważmy też, że \\( \\hskip 0.3pc D( \\mathbb R^n )\\subset S( \\mathbb R^n ),\\hskip 0.3pc \\) bowiem \\( \\hskip 0.3pc D^{ k}\\varphi (x)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc \\|x\\| \\hskip 0.3pc \\) dostatecznie dużych.", "Przestrzeń \\( \\hskip 0.3pc S( \\mathbb R^n )\\hskip 0.3pc \\) posiada szereg interesujących własności. Niektóre z nich zostały przedstawione w poniższych uwagach.", "Zauważmy też, że ciąg \\( \\hskip 0.3pc \\{\\varphi_i\\} \\subset D( \\mathbb R^n )\\hskip 0.3pc \\) jest zbieżny do funkcji \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) w przestrzeni \\( \\hskip 0.3pc D( \\mathbb R^n )\\hskip 0.3pc \\) wtedy i tylko wtedy, gdy ciąg ten jest również zbieżny do funkcji \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) w sensie zbieżności przestrzeni \\( \\hskip 0.3pc S( \\mathbb R^n ).\\hskip 0.3pc \\) Wynika to z faktu, że wszystkie funkcje \\( \\hskip 0.3pc \\varphi _i\\hskip 0.3pc \\) oraz ich pochodne są równe zeru poza pewnym zbiorem zwartym, a na tym zbiorze mamy zbieżność jednostajną na mocy definicji zbieżności w \\( \\hskip 0.3pc D( \\mathbb R^n ).\\hskip 0.3pc \\)", "Zauważmy, że każda dystrybucja temperowana jest oczywiście dystrybucją, tzn. \\( \\hskip 0.3pc S^*( \\mathbb R^n ) \\subset D^*( \\mathbb R^n ).\\hskip 0.3pc \\) Przestrzeń \\( \\hskip 0.3pc S^*( \\mathbb R^n )\\hskip 0.3pc \\) jest podprzestrzenią właściwą przestrzeni \\( \\hskip 0.3pc D^*( \\mathbb R^n ),\\hskip 0.3pc \\) co oznacza, że istnieją dystrybucje które nie są dystrybucjami temperowanymi. Na przykład", "jest dystrybucją w \\( \\hskip 0.3pc D^*(\\mathbb R)\\hskip 0.3pc \\) ale nie jest dystrybucją temperowaną. Istotnie, funkcja \\( \\hskip 0.3pc \\varphi (x)=e^{-x^2}\\hskip 0.3pc \\) jest elementem przestrzeni \\( \\hskip 0.3pc S(\\mathbb R),\\hskip 0.3pc \\) a szereg", "jest rozbieżny. Zatem \\( \\hskip 0.3pc T\\hskip 0.3pc \\) nie jest określona na \\( \\hskip 0.3pc \\varphi, \\hskip 0.3pc \\) czyli \\( \\hskip 0.3pc T\\notin S^*(\\mathbb R)\\hskip 0.3pc \\).", "Warto odnotować, że znajomość wartości dystrybucji temperowanej na zbiorze \\( \\hskip 0.3pc D( \\mathbb R^n )\\hskip 0.3pc \\) wystarczy do wyznaczenia jej wartości na \\( \\hskip 0.3pc S( \\mathbb R^n ).\\hskip 0.3pc \\) Istotnie, dla dowolnego \\( \\hskip 0.3pc \\varphi \\in S( \\mathbb R^n ),\\hskip 0.3pc \\)", "gdzie ciąg \\( \\hskip 0.3pc \\{\\varphi _i\\}\\hskip 0.3pc \\) jest dany przez lemat 1. Z ostatniej obserwacji oraz liniowości dystrybucji wynika natychmiast nastepująca uwaga:"], "definitions": [{"name": "Definicja 1:", "content": " Oznaczmy przez \\( \\hskip 0.3pc S( \\mathbb R^n )\\hskip 0.3pc \\) przestrzeń funkcji \\( \\hskip 0.3pc \\varphi \\in C^{\\infty}( \\mathbb R^n )\\hskip 0.3pc \\) takich, że\n\n\n\n\t\t\t\t\t\t\t\t\\( \\displaystyle\\lim_{\\|x\\|\\to \\infty} \\|x\\|^m D^{ k}\\varphi (x)=0 \\)\n\ndla dowolnego \\( \\hskip 0.3pc m\\in \\mathbb N\\hskip 0.3pc \\) oraz dowolnego wielowskażnika \\( \\hskip 0.3pc k=(k_1, \\ldots ,k_n ).\\hskip 0.3pc \\)\n\n"}, {"name": "Definicja 2:", "content": " Mówimy, że ciąg funkcji \\( \\hskip 0.3pc \\{\\varphi_i\\}\\hskip 0.3pc \\) należących do \\( \\hskip 0.3pc S( \\mathbb R^n )\\hskip 0.3pc \\) jest zbieżny do funkcji \\( \\hskip 0.3pc \\varphi \\in S( \\mathbb R^n ),\\hskip 0.3pc \\) jeśli dla dowolnego \\( \\hskip 0.3pc m \\in \\mathbb N\\hskip 0.3pc \\) oraz dowolnego wielowskażnika \\( \\hskip 0.3pc k=(k_1, \\ldots ,k_n ),\\hskip 0.3pc \\) ciąg \\( \\hskip 0.3pc \\big\\{x\\mapsto \\|x\\|^mD^{ k}\\varphi_i(x)\\big\\}\\hskip 0.3pc \\) jest jednostajnie zbieżny w \\( \\hskip 0.3pc \\mathbb R^n \\hskip 0.3pc \\) do funkcji \\( \\hskip 0.3pc x\\mapsto \\|x\\|^mD^{ k}\\varphi (x).\\hskip 0.3pc \\)\n "}, {"name": "Definicja 3: Dystrybucja wolno rosnąca.", "content": " Dystrybucją wolno rosnącą (albo temperowaną) nazywamy dowolny ciągły funkcjonał liniowy \\( \\hskip 0.3pc T\\hskip 0.3pc \\) określony na \\( \\hskip 0.3pc S( \\mathbb R^n ),\\hskip 0.3pc \\) tzn. odwzorowanie liniowe \\( \\hskip 0.3pc T:S( \\mathbb R^n )\\to \\mathbb R\\hskip 0.3pc \\) takie, że jeśli \\( \\hskip 0.3pc \\varphi_i, \\varphi \\in S( \\mathbb R^n ),\\hskip 0.3pc \\) \\( \\hskip 0.1pc \\varphi_i \\to \\varphi\\hskip 0.3pc \\) w \\( \\hskip 0.3pc S( \\mathbb R^n ),\\hskip 0.3pc \\) to \\( \\hskip 0.3pc \\langle T,\\varphi_i\\rangle \\to\\hskip 0.3pc \\) \\( \\hskip 0.1pc \\langle T, \\varphi \\rangle.\\hskip 0.3pc \\) Zbiór wszystkich dystrybucji temperowanych bedziemy oznaczać symbolem \\( \\hskip 0.3pc S^*( \\mathbb R^n ).\\hskip 0.3pc \\)\n "}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 7. Elementy teorii dystrybucji", "subject_id": 467, "subject": "Pierwotna z dystrybucji określonej na R", "paragraphs": ["W analizie klasycznej funkcją pierwotną (albo całką nieoznaczoną) z funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) nazywamy funkcje \\( \\hskip 0.3pc F\\hskip 0.3pc \\) taką, że \\( \\hskip 0.3pc F^\\prime =f.\\hskip 0.3pc \\) Funkcje dla których istnieje funkcja pierwotna nazywamy funkcjami całkowalnymi. Należą do nich na przykład wszystkie funkcje ciągłe. Okazuje się, że pojęcie funkcji pierwotnej może być rozszerzone na dystrybucje. Mianowicie pokażemy, że każda dystrybucja na \\( \\hskip 0.3pc \\mathbb R\\hskip 0.3pc \\) posiada pierwotną, która jest również dystrybucją na \\( \\hskip 0.3pc \\mathbb R.\\hskip 0.3pc \\) Dystrybucja pierwotna, podobnie jak całka nieoznaczona, jest określona z dokładnością do stałej, tzn. dowolne dwie pierwotne tej samej dystrybucji różnią się o stałą i jeśli dwie dystrybucje różnią się o stałą to są pierwotnymi tej samej dystrybucji. Ponieważ pierwotna jest typem operacji odwrotnej do różniczkowania, nasuwa się natychmiast pomysł aby dystrybucje pierwotną \\( \\hskip 0.3pc F\\hskip 0.3pc \\) z dystrybucji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) określić następująco:", "Niestety, wzór ( 1 ) określa funkcjonał \\( \\hskip 0.3pc F\\hskip 0.3pc \\) tylko na podzbiorze \\( \\hskip 0.3pc D_1(\\mathbb R)\\hskip 0.3pc \\) przestrzeni \\( \\hskip 0.3pc D^*({\\mathbb R}),\\hskip 0.3pc \\) gdzie", "Nietrudno sprawdzić, że \\( \\hskip 0.3pc D_1(\\mathbb R)\\hskip 0.3pc \\) jest podprzestrzenią właściwą przestrzeni \\( \\hskip 0.3pc D(\\mathbb R),\\hskip 0.3pc \\) tzn. istnieją \\( \\hskip 0.3pc \\varphi \\in D(\\mathbb R)\\hskip 0.3pc \\) takie, że \\( \\hskip 0.3pc \\varphi \\notin D_1(\\mathbb R).\\hskip 0.3pc \\) Na przykład funkcja \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) dana wzorem", "nie należy do \\( \\hskip 0.3pc D_1(\\mathbb R)\\hskip 0.3pc \\). Warunek (1) możemy zapisać w postaci równoważnej", "gdzie", "Zauważmy, że jeśli \\( \\hskip 0.3pc \\varphi \\in D_1(\\mathbb R),\\hskip 0.3pc \\) to \\( \\hskip 0.3pc \\psi_{\\varphi} \\in D(\\mathbb R).\\hskip 0.3pc \\) Z postaci wzoru ( 1 ) wynika natychmiast, że \\( \\hskip 0.3pc F\\hskip 0.3pc \\) jest funkcjonałem liniowym i ciągłym na \\( \\hskip 0.3pc D_1(\\mathbb R).\\hskip 0.3pc \\) Aby otrzymać rozsądną definicje pierwotnej, należy tak określony funkcjonał \\( \\hskip 0.3pc F\\hskip 0.3pc \\) na \\( \\hskip 0.3pc D_1(\\mathbb R)\\hskip 0.3pc \\) rozszerzyć na calą przestrzeń \\( \\hskip 0.3pc D(\\mathbb R).\\hskip 0.3pc \\) Okazuje się, że nie ma jednoznacznego sposobu rozszerzenia, co wynika z faktu, że jest wiele pierwotnych dla danej dystrybucji. Aby uzyskać przedłużenie funkcjonału ( 2 ) posłużymy się następującym lematem.", "Zauważmy najpierw, że \\( \\hskip 0.3pc \\langle F,\\varphi_0\\rangle \\hskip 0.3pc \\) nie zależy od \\( \\hskip 0.3pc \\varphi,\\hskip 0.3pc \\) czyli jest stałą, która zależy od wyboru \\( \\hskip 0.3pc \\varphi _0\\hskip 0.3pc \\) i może przyjmować dowolnie wartości. Jeśli \\( \\hskip 0.3pc \\varphi \\in D_1(\\mathbb R),\\hskip 0.3pc \\) to \\( \\hskip 0.3pc \\lambda =0,\\hskip 0.3pc \\) \\( \\varphi =\\chi,\\hskip 0.3pc \\) czyli \\( \\hskip 0.3pc \\psi ^\\prime =\\varphi \\hskip 0.3pc \\) i w konsekwencji równość ( 9 ) przyjmie postać", "a zatem pokrywa się z równością ( 1 ).", "Należy sprawdzić, że definicja 1 jest poprawna, tzn. że \\( \\hskip 0.3pc F\\hskip 0.3pc \\) jest dystrybucją na \\( \\hskip 0.3pc \\mathbb R,\\hskip 0.3pc \\) a pochodna z \\( \\hskip 0.3pc F\\hskip 0.3pc \\)jest równa \\( \\hskip 0.3pc f.\\hskip 0.3pc \\)", "Pokażemy najpierw, że \\( \\hskip 0.3pc F\\hskip 0.3pc \\) jest funkcjonałem liniowym na \\( \\hskip 0.3pc D(\\mathbb R).\\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc \\varphi_1,\\hskip 0.3pc \\) \\( \\hskip 0.1pc \\varphi_2 \\in D(\\mathbb R),\\hskip 0.3pc \\) \\( \\alpha_1,\\hskip 0.3pc \\) \\( \\alpha_2 \\in \\mathbb R.\\hskip 0.3pc \\) Zgodnie z lematem 1", "gdzie funkcja \\( \\hskip 0.3pc \\varphi_0 \\in D(\\mathbb R)\\hskip 0.3pc \\) jest ustalona, a \\( \\hskip 0.3pc \\lambda_1,\\hskip 0.3pc \\) \\( \\lambda_2,\\hskip 0.3pc \\) \\( \\chi_1,\\hskip 0.3pc \\) \\( \\chi_2\\hskip 0.3pc \\) są dobrane zgodnie z lematem 1. Ponadto niech \\( \\hskip 0.3pc \\psi_1\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\psi_2\\hskip 0.3pc \\) odpowiadają funkcjom \\( \\hskip 0.3pc \\chi_1\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\chi_2\\hskip 0.3pc \\) zgodnie z wzorem ( 6 ). Niech \\( \\hskip 0.3pc \\varphi =\\alpha _1\\varphi _1+\\alpha _2\\varphi _2,\\hskip 0.3pc \\) a \\( \\hskip 0.3pc \\lambda ,\\hskip 0.3pc \\) \\( \\chi \\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\psi \\hskip 0.3pc \\) są dobrane do \\( \\hskip 0.3pc \\varphi \\hskip 0.3pc \\) zgodnie z lematem 1. Nietrudno sprawdzić, że", "Zgodnie z ( 9 ), mamy", "Z kolei pokażemy, że \\( \\hskip 0.3pc F\\hskip 0.3pc \\) jest funkcjonałem ciągłym na \\( \\hskip 0.3pc D(\\mathbb R).\\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc \\{\\varphi _i\\} \\subset D(\\mathbb R),\\hskip 0.3pc \\) \\( \\varphi _i\\to 0\\hskip 0.3pc \\) w \\( \\hskip 0.3pc D(\\mathbb R).\\hskip 0.3pc \\) Zgodnie z lematem 1", "gdzie", "Ponieważ ciąg liczb \\( \\hskip 0.3pc \\{\\lambda_i\\}\\hskip 0.3pc \\) jest zbieżny do zera, również ciąg funkcji \\( \\hskip 0.3pc \\{\\chi_i\\}\\hskip 0.3pc \\) jest zbieżny do zera w \\( \\hskip 0.3pc D(\\mathbb R).\\hskip 0.3pc \\) W konsekwencji ciąg \\( \\hskip 0.3pc \\{\\psi_i\\},\\hskip 0.3pc \\) gdzie", "Z równości", "wynika, że ciąg \\( \\hskip 0.3pc \\{\\langle F,\\,\\varphi_i\\rangle\\}\\hskip 0.3pc \\) jest zbieżny do zera. Na mocy uwagi 2 z modułu \"Wprowadzenie do teorii dystrybucji\" wnosimy, że \\( \\hskip 0.3pc F\\hskip 0.3pc \\) jest funkcjonałem ciągłym, co należało wykazać. Pozostaje sprawdzić, że \\( \\hskip 0.3pc F^\\prime=f.\\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc \\varphi \\in D(\\mathbb R).\\hskip 0.3pc \\) Na mocy definicji 2 z modułu \"Pochodna w sensie dystrybucyjnym\" oraz równości ( 1 ) mamy", "co kończy dowód."], "definitions": [{"name": "Definicja 1:", "content": " Pierwotną z dystrybucji \\( \\hskip 0.3pc f\\in D^*(\\mathbb R)\\hskip 0.3pc \\) nazywamy dystrybucje \\( \\hskip 0.3pc F\\in D^*(\\mathbb R)\\hskip 0.3pc \\) określoną wzorem\n\n\n(9)\n\n\t\t\t\t\t\t\t\t\\( \\langle F,\\,\\varphi \\rangle \\hskip 0.1pc =\\, \\lambda\\langle F,\\,\\varphi_0\\rangle -\\langle f,\\,\\psi\\rangle \\quad{\\rm dla}\\quad \\varphi \\in D(\\mathbb R), \\)\n\ngdzie funkcja \\( \\hskip 0.3pc \\varphi_0 \\in D(\\mathbb R)\\hskip 0.3pc \\) jest ustalona, \\( \\hskip 0.3pc \\lambda\\hskip 0.3pc \\) i \\( \\hskip 0.1pc \\chi\\hskip 0.3pc \\) są wzięte zgodnie z lematem 1, zaś funkcja \\( \\hskip 0.3pc \\psi\\hskip 0.3pc \\) jest dana wzorem ( 6 ).\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 7. Elementy teorii dystrybucji", "subject_id": 468, "subject": "Rozwiązania uogólnione równań różniczkowych", "paragraphs": ["Niech \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^n\\hskip 0.3pc \\) będzie zadanym zbiorem otwartym, a \\( \\hskip 0.3pc m\\hskip 0.3pc \\) liczbą naturalną. Dla \\( \\hskip 0.3pc 1\\leq p <\\infty\\hskip 0.3pc \\) oznaczmy przez \\( \\hskip 0.3pc W^{m,p}(\\Omega)\\hskip 0.3pc \\) przestrzeń wszystkich funkcji \\( \\hskip 0.3pc u:\\Omega \\to \\mathbb R\\hskip 0.3pc \\) lokalnie całkowalnych i takich, że dla dowolnego wielowkaźnika \\( \\hskip 0.3pc k=(k_1, \\ldots ,k_n)\\hskip 0.3pc \\) takiego, że \\( \\hskip 0.3pc | k|= k_1+\\ldots +k_n \\leq m,\\hskip 0.3pc \\) pochodna \\( \\hskip 0.3pc D^{ k}u\\hskip 0.3pc \\) istnieje (w sensie dystrybucyjnym ) i należy do przestrzeni \\( \\hskip 0.3pc L^p(\\Omega).\\hskip 0.3pc \\) Dla \\( \\hskip 0.3pc u\\in W^{m,p}(\\Omega)\\hskip 0.3pc \\) połóżmy", "0kazuje się, że tak określona wielkość \\( \\hskip 0.3pc \\|\\cdot \\|_{{m,p}}\\hskip 0.3pc \\) jest normą, a przestrzeń \\( \\hskip 0.3pc W^{m,p}(\\Omega)\\hskip 0.3pc \\) wyposażona w tę normę jest przestrzenią Banacha. Szczególnie interesujący jest przypadek \\( \\hskip 0.3pc p=2.\\hskip 0.3pc \\) Przestrzeń", "jest przestrzenią Hilberta. Zauważmy, że \\( \\hskip 0.3pc H^0\\supset H^1\\supset H^2\\supset \\ldots. \\hskip 0.3pc \\) Przestrzenie te odgrywają w teorii równań różniczkowych szczególną rolę. Zauważmy jeszcze, że zbieżność ciągu \\( \\hskip 0.3pc \\{u_i\\}\\hskip 0.3pc \\) do funkcji \\( \\hskip 0.3pc u\\hskip 0.3pc \\) w \\( \\hskip 0.3pc H^1\\hskip 0.3pc \\) oznacza, że:", "Zbieżność w \\( \\hskip 0.3pc H^2\\hskip 0.3pc \\) oznacza, że funkcje oraz ich pierwsze i drugie pochodne są zbieżne w normie przestrzeni \\( \\hskip 0.3pc L^2.\\hskip 0.3pc \\)", "Rozważmy równanie Poissona", "Przyjmując, że \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest dystrybucją, możemy rozwiązania tego równania szukać w zbiorze dystrybucji. Otrzymamy wówczas tzw. rozwiązania dystrybucyjne. Możemy też podejść do tego problemu nieco delikatniej, wprowadzając tzw. rozwiązania uogólnione ( słabe).", "Niech \\( \\hskip 0.3pc f \\in C(\\Omega).\\hskip 0.3pc \\) Załóżmy, że \\( \\hskip 0.3pc u\\in C^2(\\Omega)\\hskip 0.3pc \\) jest rozwiązaniem klasycznym równania ( 1 ), a \\( \\hskip 0.3pc \\upsilon\\hskip 0.3pc \\) oznacza unormowany wektor normalny do \\( \\hskip 0.3pc \\partial \\Omega.\\hskip 0.3pc \\) Dla dowolnej funkcji \\( \\hskip 0.3pc \\varphi \\in D(\\Omega)\\hskip 0.3pc \\) zgodnie z wzorem 6 z modułu \"Twierdzenie Gaussa-Greena i wzory Greena\" mamy", "(skorzystaliśmy tutaj z faktu, że \\( \\hskip 0.3pc \\varphi (x)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc x\\in \\partial\\Omega.\\hskip 0.3pc \\)) Stąd i ( 1 ) otrzymamy", "Równość ( 2 ) zachodzi dla każdego rozwiązania \\( \\hskip 0.3pc u\\hskip 0.3pc \\) równania (1). Co więcej, ma ona również sens nawet wówczas, gdy \\( \\hskip 0.3pc u\\hskip 0.3pc \\) nie jest rozwiązaniem klasycznym, np. nie posiada pochodnych drugiego rzędu w sensie klasycznym. Równość ta sugeruje następującą definicje :", "Jeśli \\( \\hskip 0.3pc u\\in C^2(\\Omega)\\hskip 0.3pc \\) jest rozwiązaniem słabym, przy czym \\( \\hskip 0.3pc f\\in C(\\Omega),\\hskip 0.3pc \\) to można pokazać - wykorzystując wzory Greena - że \\( \\hskip 0.3pc u\\hskip 0.3pc \\) jest także rozwiązaniem równania ( 1 ) w sensie klasycznym. Na zakończenie chcemy zwrócić uwagę, że naszkicowana powyżej idea rozwiązań słabych we współczesnej teorii równań różniczkowych cząstkowych została szeroko wykorzystana i rozbudowana."], "definitions": [{"name": "Definicja 1:", "content": " Niech \\( \\hskip 0.3pc u\\in H^1(\\Omega),\\hskip 0.3pc \\) \\( \\hskip 0.3pc f\\in C(\\Omega).\\hskip 0.3pc \\) Jeśli dla każdej funkcji \\( \\hskip 0.3pc \\varphi \\in D(\\Omega)\\hskip 0.3pc \\) zachodzi równość ( 2 ), to mówimy, że \\( \\hskip 0.3pc u\\hskip 0.3pc \\) jest rozwiązaniem uogólnionym (lub słabym) równania ( 1 ).\n "}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 7. Elementy teorii dystrybucji", "subject_id": 469, "subject": "Dalsze przykłady i własności dystrybucji", "paragraphs": ["Moduł ten rozpoczniemy od następującego lematu technicznego, który wykorzystamy w następnym przykładzie."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 8. Metoda funkcji Greena", "subject_id": 470, "subject": "Funkcja Greena dla równania ciepła", "paragraphs": ["W module \"Równanie Poissona\" rozwiązanie równania Poissona wyraziliśmy w postaci całki z iloczynu rozwiązania podstawowego równania Laplace'a przez prawą stronę równania Poissona, a rozwiązanie problemu początkowego dla równania ciepła jako całkę z iloczynu rozwiązania podstawowego równania ciepła przez funkcje określającą rozkład początkowy temperatury. Innymi słowami, rozwiązanie rozważanego problemu wyraziliśmy za pomocą rozwiązania podstawowego oraz prawej strony równania lub warunków początkowych. W niniejszym module rozwiniemy te idee, wykorzystując w miejsce rozwiązania podstawowego, tzw. funkcje Greena. Trudność tej metody wynika z faktu, że dla każdego typu problemu należy indywidualnie wyznaczyć funkcje Greena. Natomiast korzyść polega na tym, że po znalezieniu funkcji Greena otrzymamy formułę, która podaje wartości rozwiązania w zależności od zadanych wartości początkowych czy brzegowych.", "Niech \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^n\\hskip 0.3pc \\) będzie zadanym obszarem o gładkim brzegu. Rozważmy problem:", "gdzie \\( \\hskip 0.3pc f\\hskip 0.3pc \\) i \\( \\hskip 0.3pc g\\hskip 0.3pc \\) są zadanymi funkcjami odpowiednio na zbiorze \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\partial \\Omega.\\hskip 0.3pc \\) Załóżmy, że funkcja \\( \\hskip 0.3pc u\\hskip 0.3pc \\) jest rozwiązaniem tego problemu. Niech \\( \\hskip 0.3pc \\Phi\\hskip 0.3pc \\) będzie rozwiązaniem podstawowym równania Laplace'a, danym wzorem", "gdzie \\( \\hskip 0.3pc \\alpha (n) \\hskip 0.3pc \\) oznacza objętość kuli jednostkowej w \\( \\hskip 0.3pc\\mathbb R^n. \\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc x\\in \\Omega\\hskip 0.3pc \\) i niech \\( \\hskip 0.3pc \\varepsilon >0\\hskip 0.3pc \\) będzie tak dobraną liczbą, aby \\( \\hskip 0.3pc B(x, \\varepsilon )\\subset \\Omega.\\hskip 0.3pc \\) Połóżmy \\( \\hskip 0.3pc \\Omega_{\\epsilon}= \\Omega \\setminus \\overline B(x,\\varepsilon).\\hskip 0.3pc \\) Stosując wzór 7 z modułu \"Twierdzenie Gaussa-Greena i wzory Greena\" na zbiorze \\( \\hskip 0.3pc \\Omega_{\\varepsilon}\\hskip 0.3pc \\) do funkcji \\( \\hskip 0.3pc y \\mapsto u(y)\\hskip 0.3pc \\) i \\( \\hskip 0.3pc y \\mapsto \\Phi (y-x)\\hskip 0.3pc \\) otrzymamy", "gdzie \\( \\hskip 0.3pc y\\hskip 0.3pc \\) oznacza punkt bieżący, symbol \\( \\hskip 0.3pc \\Delta\\hskip 0.3pc \\) - laplasjan względem zmiennej \\( \\hskip 0.3pc y,\\hskip 0.3pc \\) \\( dS\\hskip 0.3pc \\) - element powierzchniowy względem zmiennej \\( \\hskip 0.3pc y,\\hskip 0.3pc \\) a \\( \\hskip 0.3pc \\nu\\hskip 0.3pc \\) - unormowany wektor normalny do powierzchni \\( \\hskip 0.3pc \\partial \\Omega_{\\varepsilon}.\\hskip 0.3pc \\)", "Ponieważ \\( \\hskip 0.3pc \\Delta\\Phi(y-x)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc y \\in \\Omega_ {\\varepsilon},\\hskip 0.3pc \\) ostatni wzór możemy zapisać w postaci", "Zauważmy, że wektor normalny do powierzchni \\( \\hskip 0.3pc \\partial \\Omega_{\\epsilon }\\hskip 0.3pc \\) w punkcie \\( \\hskip 0.3pc y\\in \\partial B(x,\\varepsilon)\\hskip 0.3pc \\) wyraża się wzorem", "Rozważmy przypadek \\( \\hskip 0.3pc n\\geq 3\\hskip 0.3pc \\) (analogiczny rachunek dla \\( \\hskip 0.3pc n=2\\hskip 0.3pc \\) pozostawiamy Czytelnikowi). Różniczkując funkcje \\( \\hskip 0.3pc \\Phi (y-x)\\hskip 0.3pc \\) względem \\( \\hskip 0.3pc \\nu\\hskip 0.3pc \\) w punkcie \\( \\hskip 0.3pc y\\in \\partial B(x,\\varepsilon)\\hskip 0.3pc \\) otrzymamy", "Korzystając z ostatniej równości a następnie z faktu, że wartość \\( \\hskip 0.3pc n\\alpha (n)\\varepsilon^{n-1}\\hskip 0.3pc \\) jest równa powierzchni sfery \\( \\hskip 0.3pc \\partial B(x,\\varepsilon )\\hskip 0.3pc \\) oraz z własności wartości średniej, otrzymamy", "Nietrudno też sprawdzić, że", "oraz", "W konsekwencji, przechodząc z \\( \\hskip 0.3pc \\varepsilon\\hskip 0.3pc \\) do zera we wzorze ( 3 ) otrzymamy", "Zauważmy, że wzór ( 4 ) pozwala wyznaczyć szukaną funkcje \\( \\hskip 0.3pc u\\hskip 0.3pc \\) jeśli znamy wartości \\( \\hskip 0.3pc \\Delta u\\hskip 0.3pc \\) na zbiorze \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) oraz wartości \\( \\hskip 0.3pc u\\hskip0.3pc \\) i \\( \\hskip 0.3pc \\dfrac{\\partial u}{\\partial \\nu}\\hskip 0.3pc \\) na brzegu \\( \\hskip 0.3pc \\partial \\Omega\\hskip 0.3pc \\) zbioru \\( \\hskip 0.3pc \\Omega.\\hskip 0.3pc \\) Niestety, w rozważanym przypadku wartości pochodnej \\( \\hskip 0.3pc \\dfrac{\\partial u}{\\partial \\nu}\\hskip 0.3pc \\) na zbiorze \\( \\hskip 0.3pc \\partial \\Omega\\hskip 0.3pc \\) nie znamy. Wprowadzimy teraz pewną korektę tak, aby wyeliminować nieznaną wartość \\( \\hskip 0.3pc \\dfrac{\\partial u}{\\partial \\nu}.\\hskip 0.3pc \\) W tym celu rozważamy problem pomocniczy", "Stosując ponownie wzór 7 z modułu \"Twierdzenie Gaussa-Greena i wzory Greena\" do funkcji \\( \\hskip 0.3pc u\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\Psi\\hskip 0.3pc \\) w obszarze \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\), gdzie \\( \\hskip 0.3pc u\\hskip 0.3pc \\) jest rozwiązaniem problemu ( 1 ), ( 2 ), a \\( \\hskip 0.3pc \\Psi\\hskip 0.3pc \\) rozwiązaniem problemu pomocniczego ( 5 ), ( 6 ). Otrzymamy", "Połóżmy", "Tak zdefiniowaną funkcje \\( \\hskip 0.3pc G\\hskip 0.3pc \\) będziemy nazywać funkcją Greena dla problemu ( 1 ), ( 2 ). Sumując równości ( 4 ), ( 7 ) i uwzględniając zależność ( 6 ), dostajemy", "Zauważmy, że po wyznaczeniu funkcji \\( \\hskip 0.3pc G\\hskip 0.3pc \\) wartości wszystkich funkcji występujących po prawej stronie ostatniego wzoru są znane, a szukane rozwiązanie możemy zapisać w postaci", "Oczywiście w obu całkach zmienną całkowania jest \\( \\hskip 0.3pc y\\hskip 0.3pc \\). Wzór ten określa rozwiązanie problemu ( 1 ), ( 2 ) w zależności od zadanych funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) i \\( \\hskip 0.3pc g.\\hskip 0.3pc \\) Warto podkreślić, że funkcja Greena jest określona dla operatora Laplace'a oraz zbioru \\( \\hskip 0.3pc \\Omega,\\hskip 0.3pc \\) nie zależy natomiast od funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) i \\( \\hskip 0.3pc g.\\hskip 0.3pc \\)", "Zgodnie z przykładem 1 oraz wzorem na rozwiązanie podstawowe równania Laplace'a funkcja Greena ma postać", "a rozwiązanie, zgodnie z wzorem ( 11 ), postać", "Zastosowana w powyższych przykładach metoda wyznaczania funkcji Greena nosi nazwę metody punktów symetrycznych."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 8. Metoda funkcji Greena", "subject_id": 471, "subject": "Metoda funkcji Greena dla równań parabolicznych", "paragraphs": ["Niech \\( \\hskip 0.3pc \\Omega\\subset \\mathbb R^n\\hskip 0.3pc \\) będzie obszarem ograniczonym o gładkim brzegu \\( \\hskip 0.3pc \\partial \\Omega\\hskip 0.3pc \\) i niech \\( \\hskip 0.3pc u:\\Omega\\times (0,+\\infty )\\to \\mathbb R\\hskip 0.3pc \\) będzie funkcją posiadającą pochodne drugiego rzędu względem zmiennych \\( \\hskip 0.3pc x_1, \\ldots ,x_n.\\hskip 0.3pc \\) Rozważmy operator", "gdzie \\( \\hskip 0.3pc k\\hskip 0.3pc \\) i \\( \\hskip 0.3pc q\\hskip 0.3pc \\) są zadanymi funkcjami określonymi na zbiorze \\( \\hskip 0.3pc \\Omega,\\hskip 0.3pc \\) a \\( \\hskip 0.3pc \\nabla =\\big(\\tfrac {\\partial}{\\partial x_1}, \\ldots ,\\tfrac {\\partial}{\\partial x_n}\\big)\\hskip 0.3pc \\) jest operatorem Nabla. Zauważmy, że w definicji operatora \\( \\hskip 0.3pc L\\hskip 0.3pc \\) występuje tylko różniczkowanie względem zmiennych przestrzennych \\( \\hskip 0.3pc x_1, \\ldots ,x_n\\hskip 0.3pc \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 8. Metoda funkcji Greena", "subject_id": 472, "subject": "Wyznaczanie funkcji Greena przy pomocy odwzorowań konforemnych", "paragraphs": ["Przypomnijmy, że punkt \\( \\hskip 0.3pc (x,y)\\in\\mathbb R^2\\hskip 0.3pc \\) możemy identyfikować z liczbą zespoloną \\( \\hskip 0.3pc z=x+iy\\hskip 0.3pc \\) i na odwrót. W konsekwencji zbiór \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^2\\hskip 0.3pc \\) możemy utożsamiać z odpowiadającym mu zbiorem liczb zespolonych. Ponieważ nie prowadzi to do nieporozumień, w dalszym ciągu zbiory te będziemy oznaczać tym samym symbolem.", "Niech \\( \\hskip 0.3pc \\Omega\\subset \\mathbb C\\hskip 0.3pc \\) będzie ograniczonym obszarem o gładkim brzegu \\( \\hskip 0.3pc \\partial\\Omega.\\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc w\\hskip 0.3pc \\) będzie konforemnym odwzorowaniem obszaru \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) w kulę \\( \\hskip 0.3pc |z|<1.\\hskip 0.3pc \\) Dla \\( \\hskip 0.3pc z_0\\in \\Omega\\hskip 0.3pc \\) połóżmy", "Nietrudno sprawdzić, że funkcja \\( \\hskip 0.3pc f(\\,\\cdot\\,;z_0)\\hskip 0.3pc \\) odwzorowuje konforemnie obszar \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) w kulę \\( \\hskip 0.3pc |z|<1,\\hskip 0.3pc \\) przy czym \\( \\hskip 0.3pc f(z_0;z_0)=0.\\hskip 0.3pc \\) Ponieważ \\( \\hskip 0.3pc f'(z;z_0)\\neq 0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc z\\in \\Omega,\\hskip 0.3pc \\) zatem", "gdzie \\( \\hskip 0.3pc \\varphi (\\,\\cdot;z_0)\\hskip 0.3pc \\) jet funkcją analityczną w \\( \\hskip 0.3pc \\Omega\\hskip 0.1pc \\), \\( \\hskip 0.3pc \\varphi (z_0;z_0)=0\\hskip 0.3pc \\), \\( \\hskip 0.1pc \\varphi '(z;z_0)\\neq 0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc z\\in \\Omega.\\hskip 0.3pc \\)", "Korzystając z wymienionych własności odwzorowań konforemnych pokażemy, że funkcje Greena dla operatora Laplace'a w obszarze \\( \\hskip 0.3pc \\Omega \\subset \\mathbb R^2\\hskip 0.3pc \\) można wyrazić wzorem", "W tym celu wystarczy sprawdzić, że funkcja ta spełnia warunki (i) i (ii) uwagi 1 z modułu \"Funkcja Greena dla równania ciepła\". Istotnie, zgodnie z wzorem ( 2 )", "Oczywiście pierwsza z funkcji po prawej stronie ostatniego wzoru jest harmoniczna dla \\( \\hskip 0.3pc (x,y)\\neq (x_0,y_0).\\hskip 0.3pc \\) Ponieważ \\( \\hskip 0.3pc \\ln |\\varphi (z;z_0)|={\\rm Re}\\ln \\varphi (z;z_0),\\hskip 0.3pc \\) również funkcja \\( \\hskip 0.3pc \\ln |\\varphi (\\cdot ;z_0)|\\hskip 0.3pc \\) jest harmoniczna, jako część rzeczywista funkcji analitycznej \\( \\hskip 0.3pc \\ln \\varphi (\\,\\cdot \\,;z_0).\\hskip 0.3pc \\) Z tych samych powodów funkcja ta jest harmoniczna względem zmiennych \\( \\hskip 0.3pc (x_0,y_0)\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc (x_0,y_0)\\neq (x,y).\\hskip 0.3pc \\) Oznacza to, że warunek (i) jest spełniony. Ponieważ dla \\( \\hskip 0.3pc z\\in \\partial \\Omega,\\hskip0.1pc \\) \\( \\hskip 0.3pc |f(z;z_0)|=1,\\hskip 0.3pc \\) zachodzi również warunek (ii)."], "definitions": [{"name": "Definicja 1:", "content": "\nFunkcje \\( \\hskip 0.3pc f:\\Omega \\to \\mathbb C\\hskip 0.3pc \\), \\( \\hskip 0.3pc \\Omega \\subset \\mathbb C,\\hskip 0.3pc \\) nazywamy odwzorowaniem konforemnym, jeśli odwzorowanie to zachowuje kąty, tzn. jeśli \\( \\hskip 0.3pc t\\mapsto w_1(t),\\hskip 0.1pc \\) \\( \\hskip 0.3pc t\\mapsto w_2(t),\\hskip 0.1pc \\) \\( \\hskip 0.3pc t\\in [t_0,t_1],\\hskip 0.3pc \\) są dwoma krzywymi regularnymi wychodzącymi z punktu \\( \\hskip 0.3pc z\\in\\Omega,\\hskip 0.3pc \\) to kąt między tymi krzywymi w punkcie \\( \\hskip 0.3pc z\\hskip 0.3pc \\) pokrywa się z kątem między krzywymi \\( \\hskip 0.3pc t\\mapsto f(w_1(t)),\\hskip 0.3pc \\) \\( \\hskip 0.3pc t\\mapsto f(w_2(t))\\hskip 0.3pc \\) w punkcie \\( \\hskip 0.3pc f(z).\\hskip 0.3pc \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 8. Metoda funkcji Greena", "subject_id": 473, "subject": "Dalsze przykłady wyznaczania funkcji Greena", "paragraphs": ["Aby lepiej wyjaśnić idee rozwiązywania równań metodą funkcji Greena omówimy jeszcze kilka przykładów."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 9. Przekształcenie Laplace’a", "subject_id": 474, "subject": "Definicja przekształcenia Laplace’a", "paragraphs": ["Przyjmujemy oznaczenie \\( \\hskip 0.3pc F= {\\cal L}(f).\\hskip 0.3pc \\) Aby móc zapisać operacje na argumencie funkcji \\( \\hskip 0.3pc f,\\hskip 0.3pc \\) będziemy też stosować zapis \\( \\hskip 0.3pc {\\cal L}(f(t)).\\hskip 0.3pc \\) Funkcje \\( \\hskip 0.3pc f\\hskip 0.3pc \\) nazywamy oryginałem, a funkcje \\( \\hskip 0.3pc F\\hskip 0.3pc \\) transformatą funkcji \\( \\hskip 0.3pc f.\\hskip0.3pc \\)", "Połóżmy", "Wówczas dla \\( \\hskip 0.3pc x>\\alpha _0\\hskip 0.3pc \\) ( \\( \\hskip 0.3pc x=\\hskip 0.3pc \\) Re \\( \\,z\\hskip 0.3pc \\)) całka", "jest zbieżna, a dla \\( \\hskip 0.3pc x<\\alpha _0\\hskip 0.3pc \\) rozbieżna. Oznacza to, że transformata Laplace'a z funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest określona w zbiorze \\( \\hskip 0.3pc \\{z\\in \\mathbb C:{\\rm Re}\\,z>\\alpha _0\\}.\\hskip 0.3pc \\) W poniższych przykładach 1 i 3 transformatę Laplace'a rozpatrujemy w zbiorze \\( \\hskip 0.3pc \\{z\\in\\mathbb C: \\textrm{Re}\\,z>0\\},\\hskip 0.3pc \\) a w przykładzie 2 w zbiorze \\( \\hskip 0.3pc \\{z\\in\\mathbb C: \\textrm{Re}\\,z>\\alpha\\}.\\hskip 0.3pc \\)", "W szczególności", "Podobnie możemy pokazać, że"], "definitions": [{"name": "Definicja 1: Transformaty Laplace'a.", "content": " Przekształceniem lub transformatą Laplace'a funkcji \\( \\hskip 0.3pc f:(0,+\\infty ) \\to \\mathbb R\\hskip 0.3pc \\) nazywamy funkcje zmiennej zespolonej \\( \\hskip 0.3pc F:\\mathbb C\\to\\mathbb C\\hskip 0.3pc \\) określoną wzorem\n\n\t\t\t\t\t(1)\n\n\t\t\t\t\t\t\t\t\\( F(z)=\\displaystyle\\int_0^{+\\infty}e^{-zt}f(t)\\,dt. \\)\n\n Symbol \\( \\hskip 0.3pc \\mathbb C\\hskip 0.3pc \\) oznacza zbiór liczb zespolonych, tzn. \\( \\hskip 0.3pc \\mathbb C=\\{z\\, :\\, z = x+iy,\\,x,y\\in \\mathbb R \\},\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc i\\hskip 0.3pc \\) oznacza jednostkę urojoną.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 9. Przekształcenie Laplace’a", "subject_id": 475, "subject": "Podstawowe własności transformaty Laplace’a", "paragraphs": [], "definitions": [{"name": "Definicja 1:", "content": "Dla danych funkcji \\( \\hskip 0.3pc f,\\,g :[0,+\\infty )\\to \\mathbb R\\hskip 0.3pc \\) całkowalnych, splot funkcji \\( \\hskip 0.3pc f*g\\hskip 0.3pc \\) określony jest wzorem\n\n\n\n\t\t\t\t\t\t\t\t\\( (f*g)(t)=\\displaystyle\\int_0^tf(t-s)g(s)ds=\\displaystyle\\int_0^tf(s)g(t-s)ds. \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 9. Przekształcenie Laplace’a", "subject_id": 476, "subject": "Odwrotna transformata Laplace’a", "paragraphs": ["Niech \\( \\hskip 0.3pc f:[0,+\\infty )\\to \\mathbb R\\hskip 0.3pc \\) będzie funkcją całkowalną taką, że \\( \\hskip 0.3pc |f(x)|\\leq Me^{\\alpha x}.\\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc a>0.\\hskip 0.3pc \\) Można pokazać, że", "gdzie \\( \\hskip 0.3pc F\\hskip 0.3pc \\) jest transformatą Laplacea funkcji \\( \\hskip 0.3pc f.\\hskip 0.3pc \\)"], "definitions": [{"name": "Definicja 1: Transformaty odwrotnej.", "content": " Przekształcenie odwrotne \\( \\hskip 0.3pc {\\cal L}^{-1}\\hskip 0.3pc \\) do \\( \\hskip 0.3pc {\\cal L}\\hskip 0.3pc \\) dane jest wzorem\n\n\n\n\t\t\t\t\t\t\t\t\\( {\\cal L}^{-1}(F)= \\dfrac 1{2\\pi i}\\displaystyle\\int_{a-i\\infty}^{a+i\\infty}F(z)e^{zx}dz=\\dfrac 1{2\\pi i}\\displaystyle\\lim_{b\\to \\infty}\\displaystyle\\int_{a-ib}^{a+ib}F(z)e^{zx}dz. \\)\n\nZauważmy, że przekształcenie odwrotne jest liniowe.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 9. Przekształcenie Laplace’a", "subject_id": 477, "subject": "Przekształcenie Laplace’a dystrybucji", "paragraphs": ["Transformate Laplace'a określimy tylko dla pewnego podzbioru zbioru wszystkich dystrybucji. Mianowicie, oznaczmy przez \\( \\hskip 0.3pc D_0^*(\\mathbb R)\\hskip 0.3pc \\) zbiór dystrybucji skończonego rzędu takich, że \\( \\hskip 0.3pc T\\in D_0^*(\\mathbb R)\\hskip 0.3pc \\) wtedy i tylko wtedy gdy istnieje funkcja ciągła \\( \\hskip 0.3pc g:\\mathbb R\\to\\mathbb R\\hskip 0.3pc \\) taka, że \\( \\hskip 0.3pc T\\hskip 0.3pc \\) jest pochodną dystrybucyjną skończonego rzędu z funkcji \\( \\hskip 0.3pc g\\hskip 0.3pc \\) (tzn. \\( \\hskip 0.3pc T=g^{(k)})\\hskip 0.3pc \\) a ponadto:", "\\( 1^0.\\hskip 0.3pc \\) \\( \\hskip 0.3pc g(t)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc t<0;\\hskip 0.3pc \\)", "\\( 2^0.\\hskip 0.3pc \\) \\( \\hskip 0.3pc g\\hskip 0.3pc \\) posiada transformatę Laplace'a.", "Wyznaczmy teraz ponownie (zob. przykład 7 z modułu \"Podstawowe własności transformaty Laplace'a\" ) transformatę Laplace'a z dystrybucji \\( \\hskip 0.3pc \\delta\\hskip 0.3pc \\) korzystając z definicji 1. Ponieważ \\( \\hskip 0.3pc \\delta\\hskip 0.3pc \\) jest dystrybucją 2-go rzędu \\( \\hskip 0.3pc \\delta =h^{\\prime\\prime},\\hskip 0.3pc \\) gdzie", "więc zgodnie z definicją 1 mamy", "oraz", "Ponieważ \\( \\hskip 0.3pc \\delta^{(n)}=h^{(n+2)}\\hskip 0.3pc \\) zgodnie z definicją 1 mamy", "oraz", "Podobnie, ponieważ \\( \\hskip 0.3pc H(t-t_0)=h^\\prime(t-t_0),\\hskip 0.3pc \\) mamy", "Zauważmy też, iż po sprawdzeniu, że zależność 5 z modułu \"Podstawowe własności transformaty Laplace'a\" zachodzi dla pochodnych dystrybucyjnych, mamy następujący prosty rachunek", "Z ostatniej równości wynika natychmiast znana zależność", "Podobnie możemy pokazać, że"], "definitions": [{"name": "Definicja 1:", "content": " Dla dystrybucji \\( \\hskip 0.3pc T\\in D^*_0(\\mathbb R ),\\hskip 0.3pc \\) określamy transformatę Laplace'a wzorem\n\n\n\n\t\t\t\t\t\t\t\t\\( {\\cal L}(T)(z)=z^k{\\cal L}(g(t))(z), \\)\n\ngdzie \\( \\hskip 0.3pc g\\hskip 0.3pc \\) jest funkcją ciągłą taką, że \\( \\hskip 0.3pc T=g^{(k)},\\hskip 0.3pc \\) a ponadto \\( \\hskip 0.3pc g(t)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc t<0.\\hskip 0.3pc \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 9. Przekształcenie Laplace’a", "subject_id": 478, "subject": "Zastosowanie przekształcenia Laplace’a w teorii równań różniczkowych zwyczajnych", "paragraphs": ["W poniższym przykładzie pokażemy jak postępować gdy warunek początkowy jest w punkcie \\( \\hskip 0.3pc t_0\\neq 0. \\hskip 0.3pc \\)"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 9. Przekształcenie Laplace’a", "subject_id": 479, "subject": "Zastosowanie przekształcenia Laplace’a w teorii równań różniczkowych cząstkowych", "paragraphs": ["W module tym omówimy zastosowanie przekształcenia Laplace'a w teorii równań różniczkowych cząstkowych. Niech \\( \\hskip 0.3pc u=u(x,t)\\hskip 0.3pc \\) będzie funkcją taką, że \\( \\hskip 0.3pc u(x,t)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc t<0\\hskip 0.3pc \\). Transformatę Laplace'a funkcji \\( \\hskip 0.3pc u\\hskip 0.3pc \\) względem zmiennej \\( \\hskip 0.3pc t\\hskip 0.3pc \\) określamy wzorem", "Powyższa transformacja zależna jest od parametru \\( \\hskip 0.3pc x.\\hskip 0.3pc \\) Ze względów praktycznych przyjmiemy oznaczenie", "Zobaczymy teraz, że transformacja ta może być użyteczna przy rozwiązywaniu równań różniczkowych cząstkowych."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 10. Przekształcenie Fouriera", "subject_id": 480, "subject": "Definicja i podstawowe własności transformaty Fouriera", "paragraphs": ["Niech \\( \\hskip 0.3pc f:\\mathbb R \\to \\mathbb C\\hskip 0.3pc \\) będzie funkcją taką, że \\( \\hskip 0.3pc |f| \\hskip 0.3pc \\) jest całkowalna na \\( \\hskip 0.3pc \\mathbb R,\\hskip 0.3pc \\) tzn. \\( \\hskip 0.3pc f\\in L^1(\\mathbb R)\\hskip 0.3pc \\) (Czytelnik nieobeznany z funkcjami o wartościach zespolonych może przyjąć, że \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest funkcją o wartościach rzeczywistych, czyli \\( \\hskip 0.3pc f:\\mathbb R \\to \\mathbb R\\hskip 0.3pc \\)).", "Ponieważ \\( \\hskip 0.3pc \\big|e^{ixy}\\big|=\\big|e^{-ixy}\\big|=1,\\hskip 0.3pc \\) przekształcenia ( 1 ) i ( 2 ) są dobrze określone dla dowolnych całkowalnych funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) i \\( \\hskip 0.3pc \\hat f.\\hskip 0.3pc \\) Należy zaznaczyć, że używanie terminu transformacja odwrotna jest tutaj pewnym nadużyciem, bowiem nie każda tranformata funkcji z \\( \\hskip 0.3pc L^1(\\mathbb R)\\hskip 0.3pc \\) jest funkcją całkowalną, nie dla każdej więc transformaty jest określone przekształcenie ( 2 ) . Formalnie, aby móc mówić o przekształceniu odwrotnym, należałoby przekztałcenie \\( \\hskip 0.3pc {\\cal F}\\hskip 0.3pc \\) zawęzić do podzbioru na którym jest odwracalne.", "Korzystając ze wzoru Eulera", "przekształcenie ( 1 ), w przypadku gdy \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest funkcją o wartościach rzeczywistych, możemy zapisać w postaci równoważnej", "Przedstawimy teraz podstawowe własności transformaty Fouriera.", "Załóżmy, że transformata Fouriera z rozważanych funkcji istnieje. Zgodnie z przyjętą powyżej konwencją niech \\( \\hskip 0.3pc \\hat f\\hskip 0.3pc \\) oznacza transformatę Fouriera funkcji \\( \\hskip 0.3pc f,\\hskip 0.3pc \\) tzn. \\( \\hskip 0.3pc \\hat f={\\cal F}(f).\\hskip 0.3pc \\) Podobnie, jak w przypadku przekształcenia Laplace'a, aby móc zapisac operacje na argumentach funkcji \\( \\hskip 0.3pc f,\\hskip 0.3pc \\) będziemy używać zapisu \\( \\hskip 0.3pc {\\cal F}(f(x))\\hskip 0.3pc \\) w miejsce \\( \\hskip 0.3pc {\\cal F}(f).\\hskip 0.3pc \\) Wymienimy teraz podstawowe własności przekształcenia Fouriera. Dla uproszczenia zapisu ograniczymy się do przypadku \\( \\hskip 0.3pc n=1,\\hskip 0.3pc \\) pozostawiając Czytelnikowi sformułowanie i dowód tych własności dla \\( \\hskip 0.3pc n\\geq 2\\hskip 0.3pc \\) (Formalnie rozważania są identyczne)."], "definitions": [{"name": "Definicja 1:", "content": " Dla danej funkcji \\( \\hskip 0.3pc f\\in L^1(\\mathbb R),\\hskip 0.3pc \\) funkcje \\( \\hskip 0.3pc \\hat{f}:\\mathbb R \\to \\mathbb C\\hskip 0.3pc \\) daną wzorem\n\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\hat f(y)= \\dfrac 1{\\sqrt{2\\pi}}\\displaystyle\\int_{\\mathbb R}e^{-xyi}f(x)dx \\)\n\nnazywamy transformatą Fouriera funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) i oznaczamy symbolem \\( \\hskip 0.3pc {\\cal F}(f).\\hskip 0.3pc \\) Odwzorowanie \\( \\hskip 0.3pc {\\cal F}\\hskip 0.3pc \\) przyporządkujące funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jej transformatę nazywamy przekształceniem (transformacją) Fouriera.\n\n"}, {"name": "Definicja 2:", "content": " Dla funkcji \\( \\hskip 0.3pc f: \\mathbb R^n \\to \\mathbb C\\hskip 0.3pc \\) ( w szczególności \\( \\hskip 0.3pc f: \\mathbb R^n \\to \\mathbb R\\hskip 0.3pc \\)) transformatę Fouriera oraz transformatę odwrotną do transformaty Fouriera określamy wzorami:\n\n\n\n\t\t\t\t\t\t\t\t\\( \\hat f(y_1,\\ldots ,y_n)= \\dfrac 1{(\\sqrt{2\\pi})^n}\\displaystyle\\int_{\\mathbb R^n}e^{-x\\cdot y\\,i}f(x_1,\\ldots ,x_n)dx_1\\ldots dx_n \\)\n\noraz\n\n\n\t\t\t\t\t\t\t\t\\( f(x_1,\\ldots ,x_n)= \\dfrac 1{(\\sqrt{2\\pi})^n}\\displaystyle\\int_{\\mathbb R^n}e^{x\\cdot y\\,i}\\hat f(y_1,\\ldots ,y_n)dy_1 \\ldots dy_n, \\)\n\ngdzie \\( \\hskip 0.3pc x\\cdot y= x_1y_1+\\ldots +x_ny_n.\\hskip 0.3pc \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 10. Przekształcenie Fouriera", "subject_id": 481, "subject": "Przykłady transformaty Fouriera", "paragraphs": ["Przed przystąpieniem do wyznaczenia transformacji Fouriera konkretnych funkcji, przypomnimy niektóre wzory całkowe. Zauważmy najpierw, że ze wzoru Eulera", "wynikają natychmiast następujące przedstawienia funkcji trygonometrycznych:", "Korzystając ze wzoru Cauchy'ego na obliczanie całek za pomocą rachunku reziduów", "gdzie \\( \\hskip 0.3pc z_j\\hskip 0.3pc \\) są biegunami funkcji \\( \\hskip 0.3pc f,\\hskip 0.3pc \\) a symbol Res \\( \\hskip 0.1pc (f,z_j)\\hskip 0.3pc \\) oznacza wartość reziduum funkcji \\( \\hskip 0.3pc f\\hskip 0.3pc \\) w punkcie \\( \\hskip 0.3pc z_j,\\hskip 0.3pc \\) nietrudno pokazać, że", "Istotnie, rozważmy funkcje \\( \\hskip 0.3pc f(z)=e^{i\\alpha z}/z.\\hskip 0.3pc \\) Funkcja ta posiada dokładnie jeden biegun w punkcie \\( \\hskip 0.3pc z=0,\\hskip 0.3pc \\) a Res \\( \\, (f, \\,0)=1.\\hskip 0.3pc \\) Przyjmijmy najpierw, że \\( \\hskip 0.3pc \\alpha >0.\\hskip 0.3pc \\) Zgodnie ze wzorem ( 2 )", "Załóżmy teraz, że \\( \\hskip 0.3pc \\alpha <0.\\hskip 0.3pc \\) Stosując podstawienie \\( \\hskip 0.3pc t=-x\\hskip 0.3pc \\) otrzymamy", "Oczywiście dla \\( \\hskip 0.3pc \\alpha =0\\hskip 0.3pc \\) całka jest równa zeru (przypomnijmy, że przez całkę rozumiemy tu tzw. wartość główną całki). Zatem wzór ( 3 ) został pokazany.", "Z zależności ( 1 ), ( 2 ) i ( 3 ) wynika natychmiast, że", "Pokażemy jeszcze, że", "Istotnie, rozważmy funkcje \\( \\hskip 0.3pc f(z)=e^{i\\alpha z}/(1+z^2)\\hskip 0.3pc \\). Funkcja ta posiada dwa bieguny pierwszego rzędu w punktach \\( \\hskip 0.3pc z=-i\\hskip 0.3pc \\) oraz \\( \\hskip 0.3pc z=i.\\hskip 0.3pc \\) Łatwo sprawdzić, że \\( \\hskip 0.3pc {\\rm Res}(f,i)=e^{-\\alpha }/2i.\\hskip 0.3pc \\) Załóżmy najpierw, że \\( \\hskip 0.3pc \\alpha >0.\\hskip 0.3pc \\) Zgodnie z wzorem ( 2 )", "Podobnie jak poprzednio można sprawdzić, że dla \\( \\hskip 0.3pc \\alpha <0\\hskip 0.3pc \\)", "Ponieważ dla \\( \\hskip 0.3pc \\alpha =0\\hskip 0.3pc \\) równość ( 5 ) jest oczywista, dowód został zakończony.", "Analogicznie można pokazać, że"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 10. Przekształcenie Fouriera", "subject_id": 482, "subject": "Dalsze własności transformaty Fouriera", "paragraphs": ["Rozważania o podstawowych własnościach przekształcenia Fouriera zakończymy twierdzeniem dotyczącym istnienia przekształcenia odwrotnego. W tym celu jest nam potrzebny natępujący lemat."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 10. Przekształcenie Fouriera", "subject_id": 483, "subject": "Przekształcenie Fouriera dystrybucji wolno rosnących", "paragraphs": ["W module policzyliśmy transformacje Fouriera z \\( \\hskip 0.3pc \\delta\\hskip 0.3pc \\) wykorzystując własność całkową dystrybucji \\( \\hskip 0.3pc \\delta,\\hskip 0.3pc \\) chociaż wcześniej przekstałcenie Fouriera dla dystrybucji nie zostało zdefiniowane. Aby poprawnie sformułować uzyskane tam rezultaty, w niniejszym paragrafie podamy definicje przekształcenia Fouriera na zbiorze dystrybucji wolno rosnących. Przypomnijmy, że \\( \\hskip 0.3pc \\delta \\hskip 0.3pc \\) jest dystrybucją wolno rosnącą. W celu zapoznania się z dalszymi uogólnieniami przekształcenia Fouriera dla dystrybucji, w szczególności z definicją przekształcenia Fouriera dla dowolnych dystrybucji z \\( \\hskip 0.3pc D^*(\\mathbb R^n),\\hskip 0.3pc \\) odsyłamy Czytelnika do opracowań monograficznych.", "Niech \\( \\hskip 0.3pc S(\\mathbb R^n)\\hskip 0.3pc \\) oznacza przestrzeń funkcji szybko malejących (zob. definicja 1 z modułu Dystrybucje wolno rosnące-1 ). Pokażemy, że transformacja Fouriera przeprowadza przestrzeń \\( \\hskip 0.3pc S(\\mathbb R^n)\\hskip 0.3pc \\) w siebie, ponadto jest przekształceniem ciągłym, tzn. jeśli ciąg elementów \\( \\hskip 0.3pc \\{\\varphi _k\\}\\hskip 0.3pc \\) z przestrzeni \\( \\hskip 0.3pc S(\\mathbb R^n)\\hskip 0.3pc \\) jest zbieżny do elementu \\( \\hskip 0.3pc \\varphi \\in S(\\mathbb R^n)\\hskip 0.3pc \\) w sensie zbieżności w przestrzeni \\( \\hskip 0.3pc S(\\mathbb R^n)\\hskip 0.3pc \\), to ciąg \\( \\hskip 0.3pc \\{\\hat{\\varphi} _k\\}\\hskip 0.3pc \\) jest zbieżny do \\( \\hskip 0.3pc \\hat{\\varphi}\\hskip 0.3pc \\) w sensie tej samej zbieżności.", "Jeśli \\( \\hskip 0.3pc T\\hskip 0.3pc \\) jest dystrybucją regularną, tzn. \\( \\hskip 0.3pc T=T_f,\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest funkcją całkowalną, to", "Wynika stąd, że \\( \\hskip 0.3pc \\hat T_f=T_{\\hat f},\\hskip 0.3pc \\) co oznacza, że przekształcenie Fouriera na zbiorze regularnych dystrybucji temperowanych pokrywa się z klasycznym przekształceniem Fouriera na przestrzeni \\( \\hskip 0.3pc L^1(\\mathbb R^n).\\hskip 0.3pc \\)", "Moduł ten zakończymy wyznaczeniem transformaty Fouriera dystrybucji \\( \\hskip 0.3pc \\delta. \\hskip 0.3pc \\) Zgodnie ze wzorem ( 1 )", "skąd wynika, że \\( \\hskip 0.3pc \\hat{\\delta}= (\\sqrt{2\\pi})^{-n}.\\hskip 0.3pc \\) W szczgólności, w przypadku gdy \\( \\hskip 0.3pc n=1,\\hskip 0.3pc \\) \\( \\hskip 0.3pc \\hat{\\delta}= 1/\\sqrt{2\\pi}.\\hskip 0.3pc \\)"], "definitions": [{"name": "Definicja 1:", "content": " Niech \\( \\hskip 0.3pc T\\in S^*(\\mathbb R^n),\\hskip 0.3pc \\) tzn. \\( \\hskip 0.3pc T\\hskip 0.3pc \\) jest dystrybucją wolno rosnącą. Rozważmy funkcjonał \\( \\hskip 0.3pc \\hat T:S(\\mathbb R^n)\\to \\mathbb R\\hskip 0.3pc \\) dany wzorem\n\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\langle \\hat T,\\varphi \\rangle = \\langle T, \\hat{\\varphi}\\rangle . \\)\n\nNa mocy twierdzenia 1 odwzorowanie \\( \\hskip 0.3pc \\hat T\\hskip 0.3pc \\) jest dobrze określone. Oczywiście jest to funkcjonał liniowy. Z uwagi 1 wynika natychmiast, że \\( \\hskip 0.3pc \\hat T\\hskip 0.3pc \\) jest funkcjonałem ciągłym na \\( \\hskip 0.3pc S(\\mathbb R^n).\\hskip 0.3pc \\) Jest zatem dystrybucją wolno rosnąca. Dystrybucje tę będziemy nazywać transformatą Fouriera dystrybucji \\( \\hskip 0.3pc T,\\hskip 0.3pc \\) a odwzorowanie które dystrybucji \\( \\hskip 0.3pc T\\hskip 0.3pc \\) przyporządkowuje dystrybucje \\( \\hskip 0.3pc \\hat T\\hskip 0.3pc \\) zgodnie ze wzorem ( 1 ), przekształceniem Fouriera dystrybucji wolno rosnących.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 10. Przekształcenie Fouriera", "subject_id": 484, "subject": "Zastosowania przekształcenia Fouriera", "paragraphs": ["W następnym przykładzie zobaczymy, że przeksztłcenie Fouriera może być wykorzystane również do wyznaczenia funkcji Greena."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 11. Elementy rachunku wariacyjnego", "subject_id": 485, "subject": "Wprowadzenie do rachunku wariacyjnego", "paragraphs": ["Początki rachunku wariacyjnego sięgają drugiej połowy XVII wieku, kiedy to J. Bernoulli sformułował tzw. problem brachistochrony: wyznaczyć tor łaczący dwa punkty tak, aby punkt materialny ześlizgujący się po nim pod wpływem siły ciężkości przebył go w najkrótszym czasie. Sformułujemy go w języku matematycznym."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 11. Elementy rachunku wariacyjnego", "subject_id": 486, "subject": "Funkcjonały", "paragraphs": ["Niech \\( \\hskip 0.3pc X\\hskip 0.3pc \\) będzie przestrzenią Banacha. Odwzorowanie \\( \\hskip 0.3pc \\varphi :X\\to \\mathbb R\\hskip 0.3pc \\) nazywamy funkcjonałem.", "Zauważmy, że rozwiązanie problemów sformułowanych w module wprowadzenie do rachunku wariacyjnego polega na znalezieniu ekstremum stosownych funkcjonałów. W zależności od rozważanego problemu, a zatem postaci funkcjonału \\( \\hskip 0.3pc \\varphi, \\hskip 0.3pc \\) należy odpowiednio dobrać przestrzeń funkcyjną \\( \\hskip 0.3pc X,\\hskip 0.3pc \\) ewentualnie jej podzbiór, na którym szukamy ekstremum. Najczęściej spotykane przestrzenie to:", "(i) \\( \\hskip 0.3pc C\\big([a,b], \\mathbb R\\big)\\hskip 0.3pc \\) - przestrzeń funkcji ciągłych na \\( \\hskip 0.3pc [a,b]\\hskip 0.3pc \\) o wartościach w \\( \\hskip 0.3pc \\mathbb R\\hskip 0.3pc \\) z normą jednostajnej zbieżności", "(ii) \\( \\hskip 0.3pc C^1\\big([a,b], \\mathbb R\\big)\\hskip 0.3pc \\) - przestrzeń funkcji określonych na \\( \\hskip 0.3pc [a,b]\\hskip 0.3pc \\) o wartościach w \\( \\hskip 0.3pc \\mathbb R,\\hskip 0.3pc \\) posiadających ciągłą pochodną, z normą", "(iii) \\( \\hskip 0.3pc C^1\\big([a,b], \\mathbb R^n\\big)\\hskip 0.3pc \\) - przestrzeń funkcji określonych na \\( \\hskip 0.3pc [a,b]\\hskip 0.3pc \\) o wartościach w \\( \\hskip 0.3pc \\mathbb R^n,\\hskip 0.3pc \\) posiadających ciągłą pochodną, z normą", "(iv) \\( \\hskip 0.3pc PC\\big([a,b], \\mathbb R\\big)\\hskip 0.3pc \\) - przestrzeń funkcji kawałkami ciągłych na \\( \\hskip 0.3pc [a,b]\\hskip 0.3pc \\) o wartościach w \\( \\hskip 0.3pc \\mathbb R\\hskip 0.3pc \\) z normą jednostajnej zbieżności. (Funkcje \\( \\hskip 0.3pc f:[a,b]\\to \\mathbb R\\hskip 0.3pc \\) nazywamy kawałkami ciągłą, jeśli istnieje podział \\( \\hskip 0.3pc a=x_0 0\\hskip 0.3pc \\) tak, aby", "Połóżmy", "Oczywiście \\( \\hskip 0.3pc \\phi (0)={\\cal F}(u_0),\\hskip 0.3pc \\) a ponieważ w punkcie \\( \\hskip 0.3pc u_0\\hskip 0.3pc \\) funkcjonał \\( \\hskip 0.3pc {\\cal F}\\hskip 0.3pc \\) posiada minimum, \\( \\hskip 0.3pc \\phi (0)\\leq \\phi (t)\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc t\\in (-\\varepsilon ,\\varepsilon ).\\hskip 0.3pc \\) Stąd i różniczkowalności funkcji \\( \\hskip 0.3pc \\phi \\hskip 0.3pc \\) wynika, że \\( \\hskip 0.3pc \\phi ^\\prime(0)=0.\\hskip 0.3pc \\)", "Ponieważ", "warunek \\( \\hskip 0.3pc \\phi^\\prime(0)=0\\hskip 0.3pc \\) jest równoważny warunkowi", "Dla \\( \\hskip 0.3pc u\\in {\\cal M}\\hskip 0.3pc \\) i \\( \\hskip 0.3pc h\\in {\\cal M}_0\\hskip 0.3pc \\) rozważmy", "Na mocy twierdzenia Taylora", "gdzie", "Wykorzystując ( 6 ) i ( 4 ) wzór ( 5 ) można zapisać w postaci", "Stąd", "Załóżmy teraz, że \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest klasy \\( \\hskip 0.3pc C^2.\\hskip 0.3pc \\) Na mocy twierdzenia Taylora", "gdzie", "Jeśli pierwsza wariacja jest równa zeru, wówczas"], "definitions": [{"name": "Definicja 1: Pierwsza wariacja.", "content": " Połóżmy\n\n\t\t\t\t\t(3)\n\n\t\t\t\t\t\t\t\t\\( {\\cal M}_0=\\big\\{h \\in C([a,b])\\,:\\,h(a)=h(b)=0\\big\\}. \\)\n\nNiech \\( \\hskip 0.3pc u \\in {\\cal M}.\\hskip 0.3pc \\) Odwzorowanie \\( \\hskip 0.3pc \\delta{\\cal F}(u):{\\cal M}_0\\to \\mathbb R\\hskip 0.3pc \\) dane wzorem\n\n(4)\n\n\t\t\t\t\t\t\t\t\\( \\delta{\\cal F}(u)(h)= \\displaystyle\\int_a^b\\Big(f_u\\big(x,u(x),u^\\prime(x)\\big)h(x)+ f_{u^\\prime} \\big(x,u(x),u^\\prime(x)\\big)h^\\prime(x)\\Big)dx \\)\n\nnazywa się pierwszą wariacją funkcjonału \\( \\hskip 0.3pc {\\cal F}.\\hskip 0.3pc \\)\n\n"}, {"name": "Definicja 2: Druga wariancja.", "content": " Wyrażenie\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\delta^2{\\cal F}(u)(h)= \\displaystyle\\int_a^b\\Big(f_{uu}h^2+2f_{uu^\\prime}hh^\\prime +f_{u^\\prime u^\\prime} {h^\\prime}^2\\Big)dx \\)\n\nnazywamy drugą wariacją funkcjonału \\( \\hskip 0.3pc {\\cal F}.\\hskip 0.3pc \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 11. Elementy rachunku wariacyjnego", "subject_id": 488, "subject": "Równanie Eulera-Lagrange’a", "paragraphs": ["Omówimy teraz szczególne równania Eulera-Lagrange'a.", "W tej części modułu znajdziemy równania Eulera-Lagrange'a dla szczególnych postaci funkcjonału \\( \\hskip 0.3pc \\cal F.\\hskip 0.3pc \\)", "Przypadek 1. Przypuśćmy, że funkcja \\( \\hskip 0.3pc f\\hskip 0.3pc \\) nie zależy bezpośrednio od \\( \\hskip 0.3pc u,\\hskip 0.3pc \\) czyli", "Wówczas równanie Eulera - Lagrange'a ma postać", "lub", "gdzie \\( \\hskip 0.3pc C \\hskip 0.3pc \\) jest dowolną stałą.", "Przypadek 2. Przypuśćmy teraz, że funkcja \\( \\hskip 0.3pc f\\hskip 0.3pc \\) nie zależy bezpośrednio od \\( \\hskip 0.3pc x,\\hskip 0.3pc \\) czyli", "Równanie Eulera - Lagrange'a ma postać", "Zauważmy, że", "Zatem", "Jeśli zachodzi równanie ( 5 ) to prawa strona ostatniej równości jest równa zeru. Odwrotnie, jeśli lewa strona ostatniej równości jest równa zeru i \\( \\hskip 0.3pc u\\hskip 0.3pc \\) nie jest funkcją stałą, to zachodzi ( 5 ). Zatem równanie Eulera-Lagrange'a jest równoważne równaniu", "a w konsekwencji równowaniu", "Przypadek 3. Rozważmy funkcjonał \\( \\hskip 0.3pc {\\cal F}\\hskip 0.3pc \\) postaci", "Oczywiście", "Ponieważ", "równanie Eulera - Lagrange'a ma postać"], "definitions": [{"name": "Definicja 1: Równaniem Eulera-Lagrange'a. ", "content": " Równanie\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\dfrac d{dx} f_{u^\\prime}\\big(x,u(x),u^\\prime(x)\\big)- f_u\\big(x,u(x),u^\\prime(x)\\big)=0 \\)\n\nnazywa się równaniem Eulera-Lagrange'a. Jest to podstawowe równanie w rachunku wariacyjnym.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 11. Elementy rachunku wariacyjnego", "subject_id": 489, "subject": "Funkcjonały zależne od funkcji wektorowej", "paragraphs": ["Niech \\( \\hskip 0.3pc f:[a,b]\\times\\mathbb R^{2n}\\to\\mathbb R\\hskip 0.3pc \\) będzie funkcją klasy \\( \\hskip 0.3pc C^1.\\hskip 0.3pc \\) Rozważmy funkcjonał", "w zbiorze funkcji \\( \\hskip 0.3pc u\\in C^1([a,b], \\mathbb R^n),\\hskip 0.3pc \\) \\( \\hskip 0.3pc u=(u_1,\\ldots ,u_n).\\hskip 0.3pc \\) Rozwiązania będziemy szukać w zbiorze funkcji dopuszczalnych", "gdzie \\( \\hskip 0.3pc A,B\\in \\mathbb R^n\\hskip 0.3pc \\) są dane.", "Korzystając z lematu 1 i powtarzając argumenty dowodu twierdzenia 1 z modułu Równanie Eulera-Lagrange’a-1 otrzymamy następujące twierdzenie."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 11. Elementy rachunku wariacyjnego", "subject_id": 490, "subject": "Funkcjonały zależne od pochodnych wyższych rzędów", "paragraphs": ["Niech \\( \\hskip 0.3pc f:[a,b]\\times\\mathbb R^{n+1}\\to\\mathbb R\\hskip 0.3pc \\) będzie funkcją klasy \\( \\hskip 0.3pc C^n.\\hskip 0.3pc \\) Szukamy minimum funkcjonału", "w zbiorze funkcji \\( \\hskip 0.3pc u\\in C^n([a,b])\\hskip 0.3pc \\) spełniających warunki:", "Można pokazać, że każda ekstremala funkcjonału ( 1 ) musi spełniać równanie Eulera-Poissona", "a wariacja określona jest wzorem", "Jeśli \\( \\hskip 0.3pc u_0\\hskip 0.3pc \\) jest ekstremalą, a ponadto druga wariacja jest określona dodatnio, funkcjonał \\( \\hskip 0.3pc {\\cal F}\\hskip 0.3pc \\) osiąga na \\( \\hskip 0.3pc u_0\\hskip 0.3pc \\) minimum lokalne, jeśli jest określona ujemnie, maksimum lokalne."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 11. Elementy rachunku wariacyjnego", "subject_id": 491, "subject": "Funkcjonał zależny od funkcji wielu zmiennych", "paragraphs": ["Rozważmy teraz funkcjonał zależny od funkcji n-zmiennych. Ponieważ rozważania są analogiczne ograniczymy się do funkcji dwóch zmiennych. Niech \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) będzie obszarem zawartym w \\( \\hskip 0.3pc\\mathbb R^2.\\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc f:\\Omega\\times\\mathbb R^3\\to \\mathbb R\\hskip 0.3pc \\) będzie funkcją klasy \\( \\hskip 0.3pc C^1.\\hskip 0.3pc \\) Poszukujemy funkcji \\( \\hskip 0.3pc z=u(x,y),\\hskip 0.3pc \\) \\( \\hskip 0.3pc (x,y)\\in \\Omega,\\hskip 0.3pc \\) o zadanych wartościach \\( \\hskip 0.3pc u=\\varphi \\hskip 0.3pc \\) na brzegu \\( \\hskip 0.3pc \\partial \\Omega\\hskip 0.3pc \\) obszaru \\( \\hskip 0.3pc \\Omega,\\hskip 0.3pc \\) na której funkcjonał", "osiąga wartość ekstremalną. Zakładając, że \\( \\hskip 0.3pc f\\hskip 0.3pc \\) jest klasy \\( \\hskip 0.3pc C^2\\hskip 0.3pc \\) i rozumując jak poprzednio, można wyprowadzić następujący wzór na wariację funkcjonału", "Wykorzystując wzór na całkowanie przez części i zakładając, że \\( \\hskip 0.3pc h(x,y)=0\\hskip 0.3pc \\) dla \\( \\hskip 0.3pc (x,y)\\in \\partial \\Omega,\\hskip 0.3pc \\) otrzymamy", "Stąd i stosownego odpowiednika lematu 1 z modułu Równanie Eulera-Lagrange’a-1 otrzymamy następujące równanie Eulera-Lagrange'a", "Równanie to wraz z zadanym warunkiem brzegowym \\( \\hskip 0.3pc u(x,y)=\\varphi (x,y) \\hskip 0.3pc \\) dla \\( \\hskip 0.3pc (x,y)\\in \\partial \\Omega\\hskip 0.3pc \\), daje warunek konieczny istnienia ekstremum."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Rozdział 11. Elementy rachunku wariacyjnego", "subject_id": 492, "subject": "Problemy izoperymetryczne", "paragraphs": ["Przez problem izoperymetryczny rozumiemy zagadnienie znalezienia ekstremów funkcjonału \\( \\hskip 0.3pc {\\cal F}\\hskip .3pc \\) w zbiorze funkcji dopuszczalnych \\( \\hskip 0.3pc {\\cal M},\\hskip 0.3pc \\) spełniających ponadto warunek \\( \\hskip 0.3pc {\\cal K}(u)=L,\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc {\\cal K}\\hskip 0.3pc \\) jest funkcjonałem podobnej natury jak funkcjonał \\( \\hskip 0.3pc {\\cal F}\\hskip 0.3pc \\) a \\( \\hskip 0.3pc L\\hskip 0.3pc \\) jest ustaloną stałą. Niech \\( \\hskip 0.3pc f,g:[a,b]\\times\\mathbb R^2\\to\\mathbb R\\hskip 0.3pc \\) będą funkcjami klasy \\( \\hskip 0.3pc C^1.\\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc {\\cal M}\\hskip 0.3pc \\) będzie następującą klasą funkcji", "gdzie \\( \\hskip 0.3pc \\alpha ,\\beta \\in \\mathbb R.\\hskip 0.3pc \\) Rozważmy funkcjonały:", "oraz", "określone na zbiorze funkcji \\( \\hskip 0.3pc u\\in C^1([a,b]).\\hskip 0.3pc \\) Szukamy ekstremów funkcjonału \\( \\hskip 0.3pc {\\cal F}\\hskip 0.3pc \\) w zbiorze funkcji \\( \\hskip 0.3pc u \\in {\\cal M},\\hskip 0.3pc \\) spełniających ponadto warunek \\( \\hskip 0.3pc {\\cal K}(u)=L.\\hskip 0.3pc \\) Problem ten możemy rozwiązać adoptując znaną z klasycznej teorii ekstremów warunkowych metodę mnożników Lagrange'a (szczegóły wyprowadzenia pomijamy). W tym celu rozważamy nowy funkcjonał", "Zgodnie z poprzednimi wynikami ekstremale funkcjonału \\( \\hskip 0.3pc {\\cal J}\\hskip 0.3pc \\) są rozwiązaniami równania Eulera-Lagrange'a", "Jeśli ponadto spełniają one warunek \\( \\hskip 0.3pc {\\cal K}(u)=L,\\hskip 0.3pc \\) to są funkcjami na których badany problem izometryczny może osiągać ekstremum."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Dodatek", "subject_id": 493, "subject": "Całki pierwsze", "paragraphs": ["Rozważmy równanie", "gdzie \\( \\hskip 0.3pc f:\\Omega\\to \\mathbb R^n\\hskip 0.3pc \\) jest zadaną funkcją, a \\( \\hskip 0.3pc \\Omega\\subset \\mathbb R\\times \\mathbb R^n\\hskip 0.3pc \\) zbiorem otwartym. Oczywiście równanie to możemy zapisać we współrzędnych w postaci układu równań", "Widać natychmiast, że prawdziwa jest następująca uwaga:", "Przypomnijmy, że punkt \\( \\hskip 0.3pc (t_0,\\stackrel{o}{x})\\in \\Omega\\hskip 0.3pc \\) nazywamy punktem równowagi układu ( 2 ), jeśli prawe strony tego układu zerują się w tym punkcie, czyli", "Rozważmy teraz układ autonomiczny", "Załóżmy, że \\( \\hskip 0.3pc f_n(x_1,\\ldots ,x_n)\\neq 0.\\hskip 0.3pc \\) Dla \\( \\hskip 0.3pc i=1, \\ldots ,n-1\\hskip 0.3pc \\) połóżmy", "Zatem układ (4) możemy zapisać w formie:", "Zgodnie z poprzednim twierdzeniem, w otoczeniu dowolnego punktu nie będącego punktem równowagi, układ ten posiada \\( \\hskip 0.3pc n-1\\hskip 0.3pc \\) funkcyjnie niezależnych całek pierwszych", "Ponadto, jeśli \\( \\hskip 0.3pc g\\hskip 0.3pc \\) jest całką pierwszą w tym otoczeniu, to \\( \\hskip 0.3pc g=F\\circ (g_1,\\ldots ,g_{n-1}),\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc F\\hskip 0.3pc \\) jest funkcją klasy \\( \\hskip 0.3pc C^1.\\hskip 0.3pc \\)"], "definitions": [{"name": "Definicja 1:", "content": " Funkcje \\( \\hskip 0.3pc g:\\Omega\\to\\mathbb R\\hskip 0.3pc \\) klasy \\( \\hskip 0.3pc C^1\\hskip 0.3pc \\) nazywamy całką pierwszą układu równań ( 2 ) jeśli dla dowolnego rozwiązania \\( \\hskip 0.3pc x_1=x_1(t),\\, \\ldots ,\\hskip 0.5pc x_n= x_n(t),\\hskip 0.3pc \\) \\( \\hskip 0.3pc t \\in I,\\hskip 0.3pc \\) tego układu\n\n\n\n\t\t\t\t\t\t\t\t\\( g\\big(t,x_1(t), \\ldots ,x_n(t)\\big)= {\\rm const} \\qquad {\\rm dla}\\quad t \\in I, \\)\n\n\ntzn. funkcja \\( \\hskip 0.3pc g\\hskip 0.3pc \\) jest stała wzdłuż dowolnego rozwiązania układu równań ( 2 ).\n\n"}, {"name": "Definicja 2:", "content": " Całki pierwsze \\( \\hskip 0.3pc g_1, \\ldots , g_m \\in C^1(\\Omega )\\hskip 0.3pc \\) ( \\( \\hskip 0.3pc m\\leq n\\hskip 0.3pc \\)) nazywamy funkcyjnie niezależnymi w zbiorze \\( \\hskip 0.3pc \\Omega,\\hskip 0.3pc \\) jeśli dla dowolnego \\( \\hskip 0.3pc (t,x)\\in \\Omega\\hskip 0.3pc \\) rząd macierzy jakobianu\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\begin{bmatrix} \\dfrac{\\partial g_1}{\\partial x_1}(t,\\hskip 0.2pc x) &\\ldots & \\dfrac{\\partial g_1}{\\partial x_n}(t,\\hskip 0.2pc x)\\\\\\vdots &\\ddots &\\vdots\\\\ \\dfrac{\\partial g_m}{\\partial x_1}(t,\\hskip 0.2pc x)& \\ldots & \\dfrac{\\partial g_m}{\\partial x_n}(t,\\hskip 0.2pc x)\\end{bmatrix} \\)\n\nwynosi \\( \\hskip 0.3pc m,\\hskip 0.3pc \\) tzn. w każdym punkcie \\( \\hskip 0.3pc (t,x_1,\\ldots ,x_n)\\in \\Omega\\hskip 0.3pc \\) wiersze tej macierzy są wektorami liniowo niezależnymi.\nW szczególności, jeśli \\( \\hskip 0.3pc m =n\\hskip 0.3pc \\) to wyznacznik powyższej macierzy jest różny od zera.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Dodatek", "subject_id": 494, "subject": "Twierdzenie Gaussa-Greena i wzory Greena", "paragraphs": ["Niech \\( \\hskip 0.3pc \\Omega\\hskip 0.3pc \\) będzie otwartym ograniczonym jednospójnym podzbiorem przestrzeni \\( \\hskip 0.3pc \\mathbb R^n\\hskip 0.3pc \\) z gładkim brzegiem \\( \\hskip 0.3pc \\partial \\Omega,\\hskip 0.3pc \\) co oznacza że w każdym punkcie \\( \\hskip 0.3pc \\partial \\Omega\\hskip 0.3pc \\) istnieje wektor normalny do \\( \\hskip 0.3pc \\partial \\Omega.\\hskip 0.3pc \\)", "Jeśli \\( \\hskip 0.3pc F=(0,\\ldots,0,F_k,0,\\ldots ,0)\\hskip 0.3pc \\) wówczas wzór ( 1 ) ma postać", "W szczególności ze wzoru ( 2 ) wynika, że dla dowolnej funkcji \\( \\hskip 0.3pc u\\in C^2(\\overline \\Omega)\\hskip 0.3pc \\) mamy", "Niech \\( \\hskip 0.3pc g:\\Omega\\to \\mathbb R\\hskip 0.3pc \\) będzie funkcją klasy \\( \\hskip 0.3pc C^1.\\hskip 0.3pc \\) Podstawiając we wzorze ( 3 ) funkcje \\( \\hskip 0.3pc g u\\hskip 0.3pc \\) w miejsce \\( \\hskip 0.3pc u\\hskip 0.3pc \\), otrzymamy tzw. wzór na całkowanie przez części"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Dodatek", "subject_id": 495, "subject": "Tabela transformat Laplace’a", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe cząstkowe", "chapter": "Dodatek", "subject_id": 496, "subject": "Tabela transformat Fouriera", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 426, "subject": "Skalarne równania różniczkowe zwyczajne. Pojęcia wstępne", "paragraphs": ["Czym są równania różniczkowe i do czego one służą? Zacznijmy od pewnych analogii. W kursie matematyki elementarnej rozwiązuje się równania algebraiczne. Przykładem może służyć układ równań liniowych", "lub równanie", "zwane równaniem kwadratowym. Rozwiązywanie obu równań polega na znalezieniu liczb, które po podstawieniu do odpowiednich równań czyniły by z nich tożsamości. W przypadku układu równań w naszym przypadku są to liczby \\( x=y=1/2 \\), które są określone jednoznacznie. Podane równanie kwadratowe spełniają dwie liczby: \\( x=3 \\) oraz \\( x=-2 \\). W przypadku równań różniczkowych nie chodzi o znalezienie rozwiązań liczbowych. Rozwiązaniami są funkcje różniczkowalne spełniające równanie, przy czym niejednoznaczność rozwiązania jest raczej regułą niż wyjątkiem. Przejdźmy jednak do definicji.", "Rozwiązać równanie ( 2 ) oznacza znaleźć \\( n \\) razy różniczkowalną funkcję \\( x=\\varphi(t) \\), która, będąc podstawioną do równania ( 2 ), uczyni z niego tożsamość. Rzędem równania ( 2 ) nazywamy największy rząd pochodnej szukanej funkcji \\( x=\\varphi(t) \\), występującej w tym równaniu. Najprostsze równanie różniczkowe dyktuje problem znalezienia funkcji pierwotnej \\( x(t) \\) do zadanej funkcji ciągłej \\( f(t) \\):", "Zatem rozwiązanie tego równania dane jest wzorem", "opisującym nieskończenie wiele funkcji pierwotnych funkcji \\( x(t) \\), rózniących się o dowolną stałą."], "definitions": [{"name": "Definicja 1:", "content": "\nRównaniem różniczkowym zwyczajnym (RRZ) nazywamy równanie\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( F(t,x(t),x'(t),\\ldots, x^{(n)}(t))=0, \\)\n\ngdzie \\( F \\) jest funkcją różniczkowalną w każdym ze swoich argumentów. W równaniu ( 2 ) niewiadomą jest \\( n- \\)krotnie różniczkowana funkcja \\( x=x(t) \\), zatem równanie ( 2 ) jest równaniem funkcyjnym.\nJeżeli jesteśmy w stanie rozwiązać równanie ( 2 ) względem ostatniej zmiennej, wówczas możemy go napisać w postaci równoważnej\n\n(3)\n\n\t\t\t\t\t\t\t\t\\( x^{(n)}=\\Psi\\left(t,\\,\\,x(t),\\,\\,x(t),\\,...,x^{(n-1)} \\right), \\)\n\n\t\t\t\t\t\nzwanej postacią kanoniczną skalarnego RRZ \\( n \\)-tego rzędu."}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 393, "subject": "Równania różniczkowe rzędu pierwszego o zmiennych rozdzielonych", "paragraphs": ["zwaną postacią kanoniczną RRZ rzędu 1. Takiego równania nie można scałkować przy dowolnej prawej stronie. Poniżej przedstawimy podstawowe typy funkcji, dla których potrafimy podać rozwiązanie bądź to w postaci analitycznej bądź w postaci całek (kwadratur).", "1. Funkcja \\( \\varphi \\) nie zależy od zmiennej \\( t \\):", "Przepisując równanie w postaci \\( \\frac{d\\,x}{\\varphi(x)}=d\\,t \\), a następnie całkując, otrzymujemy rozwiązanie w postaci uwikłanej:", "2. Funkcja \\( \\varphi \\) nie zależy od zmiennej \\( x \\):", "Przepisując równanie w postaci \\( {d\\,x}=\\psi(t)\\,d\\,t \\), a następnie całkując, otrzymujemy rozwiązanie w postaci:", "3. Równanie typu", "Rozwiązanie sprowadza się do warunku", "Oznaczenie. Wszystkie równania rozpatrzone w tym punkcie nazywamy RR rzędu 1 o zmiennych rozdzielonych."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 394, "subject": "Równania różniczkowe rzędu pierwszego, które sprowadzają się do równań o zmiennych rozdzielonych", "paragraphs": ["Całkowanie równań różniczkowych (RR) rzędu pierwszego wiąże się, na ogół, z przedstawieniem ich w postaci równań o zmiennych rozdzielonych.", "1. Równanie postaci", "Stosujemy podstawienie \\( z=a\\,t+b\\,x \\). Różniczkując \\( z \\) względem \\( t, \\) otrzymamy \\( z'=a+b\\,x' \\) i wówczas wyjściowe równanie ma postać", "lub, po rozdzieleniu zmiennych,", "Całkując powyższe wyrażenie, otrzymamy", "2. Równania jednorodne. Są to równania, które nie zmieniają kształtu przy transformacjach \\( x \\to \\alpha\\,x, t\\to\\alpha\\,t \\), gdzie \\( \\alpha \\) jest dowolną stałą nie równą się zeru. Równanie takie może być sprowadzone do postaci", "Stosujemy podstawienie \\( z=\\frac{x}{t} \\). Wówczas \\( x=z\\,t \\) i \\( x'=t\\,z'+z. \\) Otrzymamy wtedy", "a po rozdzieleniu zmiennych", "Całkując stronami, otrzymamy:", "3. Do jednorodnego równania sprowadza się równanie postaci", "Rozpatrzmy najpierw przypadek szczególny", "Wprowadzamy podstawienie:", "Ponieważ \\( x=x(t), \\) więc \\( p=p(t), \\) zatem zmienną \\( r \\) będziemy traktować jako nową zmienną niezależną, zaś funkcja \\( p \\) będzie nową zmienną zależną. Zauważmy że zachodzą równości \\( d\\,t=d\\,r, \\) oraz \\( d\\,x=d\\,p \\). Równanie można zatem przepisać w postaci", "gdzie", "Przypomnijmy kiedy układ równań liniowych", "można rozwiązać względem zmiennych \\( \\alpha,\\,\\,\\beta \\). Postać macierzowa tego układu jest następująca:", "Z twierdzenia Cramera wynika, iż układ ma jedno rozwiązanie \\( \\alpha,\\,\\,\\beta \\), o ile", "Jeżeli warunek powyższy zachodzi, wówczas możemy w sposób jednoznaczny dobrać stałe \\( \\alpha,\\,\\,\\beta \\) w taki sposób że \\( h_1,\\,\\,h_2 \\) znikną. Dzieląc licznik i mianownik prawej strony równania ( 4 ) przez \\( r \\), otrzymamy wtedy", "Jest to jednorodne równanie, które poprzez podstawienie \\( z=\\frac{p}{r} \\) sprowadza się do równania o zmiennych rozdzielonych. Jeżeli \\( \\det M=a_1\\,b_2-a_2\\,b_1=0 \\), wówczas nie można wyeliminować opisanym wyżej sposobem parametrów \\( h_1,\\,\\,h_2 \\). Niemniej jednak ten przypadek również jest całkowalny. Rzeczywiście, równość \\( J=0 \\) oznacza, że współczynniki są proporcjonalne, tzn. istnieje stała \\( k\\neq 0 \\) taka że \\( a_1=k\\,a_2 \\), \\( b_1=k\\,b_2 \\). A zatem równanie ( 3 ) można przepisać w postaci równania ( 1 )", "I tak jak w równaniu ( 1 ) wprowadzamy podstwienie \\( z=a_2 t+b_2 x, \\) otrzymując równanie", "które jest równaniem o zmiennych rozdzielonych. Przypadek ogólny, czyli równanie ( 2 ), przekształcamy w podobny sposób: jeżeli \\( a_1 t+b_1 x\\neq k(a_2 t+b_2 x) \\), to wówczas przechodzimy do zmiennych \\( \\xi=t-t_0 \\), \\( \\eta=x-x_0 \\), gdzie stałe \\( t_0,\\,\\,x_0 \\) określamy jako rozwiązania układu równań", "W wyniku dla funkcji \\( \\eta(\\xi) \\) otrzymujemy równanie", "jest to równanie jednorodne. W przypadku gdy \\( a_1 t+b_1 x= k(a_2 t+b_2 x) \\), równanie ( 2 ) można zapisać jako", "Podstawienie \\( z=a_2 t+b_2 x \\), sprowadza go do równania o zmiennych rozdzielonych:", "4. Równania jednorodne uogólnione. Jest to klasa równań, które się nie zmieniają przy jednoczesnym skalowaniu zmiennej zależnej i niezależnej \\( t\\to\\alpha\\,t,\\,\\,\\,\\,x\\to\\alpha^k\\,x \\), gdzie \\( 0\\neq\\alpha,\\,\\,k \\)-stałe. Równania takie można przedstawić w postaci", "Podstawienie \\( z=x\\,t^{-k} \\) sprowadza równanie ( 8 ) do równania o zmiennych rozdzielonych:"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 391, "subject": "Przykłady równań różniczkowych wykorzystywanych w naukach przyrodniczych", "paragraphs": ["Ważnym wnioskiem wynikającym z powyższego przykładu jest, że przy znajdowaniu rozwiązania równania \\( d\\,^2\\,x(t)/d\\,t^2=0 \\),", "które jest najprostszym skalarnym równania różniczkowego zwyczajnego rzędu 2, musieliśmy dwa razy zastosować procedurę całkowania i stąd w rozwiązaniu", "( 7 ) pojawiły się dwie dowolne stałe. Należy więc założyć, iż w przypadku równania \\( n \\)-go rzędu", "znalezienie rozwiązania będzie wymagać \\( n \\)-krotnego całkowania, a to z kolei wyprodukuje nam \\( n \\) dowolnych stałych. Domniemanie to jest jak najbardziej słuszne: prawdziwe jest następujące twierdzenie.", "Wróćmy teraz do rozwiązania ( 7 ), równania ( 6 ) i zadajmy sobie pytanie odnośnie jego praktycznego", "wykorzystania w celu przewidywania położenia punktu materialnego w ruchu jednostajnym prostoliniowym. Otóż, żeby wyeliminować nieoznaczoności tkwiące w tym", "równaniu w postaci dowolności stałych całkowania, musimy dodatkowo znać zarówno położenie \\( x_0 \\), w którym znajdował się", "punkt materialny w chwili początkowej \\( t_0 \\), jak i prędkość \\( v_0 \\), z jaką punkt się", "porusza. Daje to układ równań algebraicznych", "z którego możemy łatwo określić stałe \\( C_0, \\,\\,C_1 \\):", "A zatem położenie w czasie \\( t \\) punktu materialnego spełniającego zadane warunki początkowe", "jest jednoznacznie określone wzorem"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 392, "subject": "Zagadnienie początkowe (zagadnienie Cauchy'ego). Poprawność zadania warunków początkowych", "paragraphs": ["Powstaje pytanie: co należy zrobić, by rozwiązanie skalarnego RRZ nie zależało od dowolnych stałych? W innym sformułowaniu pytanie to brzmi następująco: przy jakich warunkach rozwiązanie RRZ będzie jednoznaczne? Otóż, skoro rozwiązanie ogólne skalarnego RRZ \\( n \\)-go rzędu zależy od \\( n \\) dowolnych stałych, to, żeby otrzymać rozwiązanie jednoznaczne, wystarczy, jak się wydaje, podać \\( n \\) dodatkowych warunków algebraicznych. Domniemanie to jest słuszne w większości przypadków, z którymi stykamy się w praktyce.", "Jednak w pewnych wyjątkowych sytuacjach, a mianowicie wówczas, gdy dane początkowe są zadane niepoprawnie, rozwiązanie wciąż będzie niejednoznaczne. Może też powstać sytuacja, że przy źle postawionych danych początkowych rozwiązanie nie będzie w ogóle istnieć.", "Dla przykładu rozpatrzmy następujące równanie:", "Równanie to można przepisać w postaci równości", "które ma równowazną postać różniczkową", "Implikuje to następujący ciąg równości:", "Podstawiając funkcję \\( x=C\\,t \\) do równania wyjściowego, możemy przekonać się, że czyni ona z niego tożsamość. Lewa strona:", "Prawa strona:", "Zatem", "i rozwiązując równanie algebraiczne \\( x(t_0)=a=C\\,t_0 \\) względem \\( C \\), otrzymamy jedyne rozwiązanie \\( x(t)=a\\,\\frac{t}{t_0}. \\)", "otrzymamy niedorzeczność: \\( b=C\\,\\cdot\\,0. \\) Przyczyną tego jest nieokreśloność prawej strony równania przy \\( t=0 \\).", "jest spełniony przy dowolnej wartości stałej \\( C \\).Przyczynę tego można zrozumieć, gdy rozpatrzymy zbiór wszystkich możliwych rozwiązań równania ( 1 ) postaci ( 2 ). Obrazuje go na płaszczyźnie fazowej \\( \\left(t,\\,\\,x\\right) \\) pęk linii prostych przechodzących przez początek współrzędnych, (zob. Rys. 1 ). Widzimy że początek współrzędnych jest jedynym punktem na płaszczyźnie, przez który przechodzą wszystkie rozwiązania równania. Dlatego właśnie zadanie warunków początkowych w tym punkcie prowadzi do nieijednoznaczności.", "Podsumowując to co powiedzieliśmy, wprowadzimy następujące oznaczenie: Punkt \\( (t_0,\\,x_0) \\) płaszczyzny fazowej nazywa się punktem osobliwym, jeżeli w tym punkcie prawa strona RRZ", "przybiera wartość zerową, lub jest nieoznaczona. Ogólna reguła więc brzmi następująco:", "Postawienie warunków początkowych w punkcie osobliwym prowadzi do niejednoznaczności rozwiązania zagadnienia początkowego, lub do niedorzeczności."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 395, "subject": "Liniowe równania różniczkowe rzędu pierwszego", "paragraphs": ["Liniowym niejednorodnym równaniem różniczkowym rzędu pierwszego nazywamy równanie postaci", "gdzie \\( p(t),\\,\\,q(t) \\) - wiadome funkcje, przy czym zakładamy że \\( q(t) \\) nie równa się tożsamosciowo zeru. Stowarzyszonym równaniem jednorodnym nazywamy równanie postaci", "Po przemnożeniu tego równania przez \\( \\frac{dt}{{\\overset{\\circ}{x}}} \\) otrzymujemy równanie o zmiennych rozdzielonych:", "Stąd, po stałkowaniu otrzymjemy", "Rozwiązanie problemu niejednorodnego uzyskujemy metodą uzmienniania stałej. Polega ona na zamianie stałej \\( C \\) w powyższeym wzorze przez pewną nieznaną funkcję \\( C(t) \\). Rozwiązanie poszukujemy w postaci \\( x(t)=C(t)\\,e^{-F(t)} \\), \\( F(t)=\\int{p(t)\\,d\\,t} \\). Po podstawieniu do równania wyjściowego otrzymamy:", "Zatem \\( C(t)=C_0+\\int{q(t)\\,e^{{}F(t)}\\,d\\,t } \\). Stąd już łatwo można otrzymać postać rozwiązania ogólnego problemu niejednorodnego:", "Rozwiązanie Rozwiązanie ogólne równania ( 2 ) ma postać \\( x(t)=e^{-t}(C_0+e^t(t-1)). \\)"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 396, "subject": "Metoda Eulera", "paragraphs": ["Omówiliśmy kilka rodzajów RRZ rzędu pierwszego, których rozwiązania można uzyskać za pomocą procesu całkowania. Niestety, nawet jeśli ograniczymy się do RRZ rzędu pierwszego, to większości z nich nie jesteśmy w stanie rozwiązać poprzez ich całkowanie, co więcej, rozwiązania takich równań nie są funkcjami elementarnymi. Dlatego powinniśmy w dalszym ciągu omówić bardziej uniwersalne metody.", "Rozpatrzmy parę \\( x, y \\), gdzie \\( x \\) jest zmienną niezależną, natomiast \\( y \\) jest pewną różniczkowalną funkcją zmiennej \\( x. \\) Zadamy sobie pytanie, co oznacza równość", "Odpowiedź, którą już znamy, brzmi następująco: prawa strona równania zadaje w każdym punkcie \\( (x_0,\\,y_0) \\) płaszczyzny fazowej wielkość pochodnej rozwiąznia \\( y=\\phi(x;\\,C) \\) przechodzącego przez ten punkt. Można to przeformułować jeszcze w taki sposób: prosta", "jest styczna do rozwiązania \\( y=\\phi(x;\\,C) \\) równania ( 1 ) spełniającego warunek początkowy \\( y(x_0)=y_0. \\) Rozwinięcie tego rozwiązania w szereg Taylora", "pozwala wnioskować że \"dokładne\" rozwiązanie w małym otoczeniu punktu \\( x_0 \\) różni się od linii prostej ( 2 ), o wyraz który jest rzędu \\( |x-x_0|^2 \\). A więc, dokładne rozwiązanie można przybliżać odcinkami prostej postaci", "gdzie \\( (x_k,\\,y_k), \\quad k=0,1,.... \\) - zbiór punktów leżących w pobliżu poszukiwanej krzywej. W poszukiwaniu takiego przybliżenia korzystamy z pojęcia pola kierunków, które można określić jako pole taz zwanych infinitezymalnych odcinków zadanych w każdym punkcie \\( (x,\\,y) \\) za pomocą wzoru", "Obraz graficzny takiego pola kierunków można uzyskać w każdym z dostępnych pakietów matematyki komputerowej (MathCad, MathLab, Maple, Mathematica ). Tutaj i dalej będziemy przytaczać \"orfografię\" pakietu Mathematica. Zobrazujemy, dla przykładu, pole kierunków funkcji", "Komórka 1.1.", "Wynikiem jest wykres pola kierunków przedstawiony na Rys. 1", "Na Rys. 2 przedstawione zostało pole kierunków z kilkoma rozwiązaniami dokładnymi równania", "które dane są wzorem", "Widać na nim wyraźnie, że pole kierunków jest styczne do rozwiązania w każdym punkcie.", "Znajomość pola kierunków w celu konstrukcji przybliżonego rozwiązania równania różniczkowego wykorzystał po raz pierwszy Leonard Euler. Jego algorytm dotyczy poszukiwania rozwiązania przybliżonego zadadnienia Cauchyego", "Traktując stałe \\( x_0, \\,\\,y_0 \\) oraz funkcję \\( f(x,\\,y) \\) jako znane wielkości, Euler zaproponował opis łamanej przybliżającej rozwiązanie na odcinku \\( [a=x_0,\\,b] \\) w postaci następującego algorytmu:", "gdzie \\( h=\\frac{b-a}{N} \\).", "Do tego, by przybliżenie dostatecznie dobrze opisywało poszukiwane rozwiązanie, należy stosować dostatecznie mały krok \\( h \\) (czyli duże \\( N \\)). Do zastosowania powyższego algorytmu, w zasadzie, wystarczy umieć posługiwać się kalkulatorem, jednak odpowiednie obliczenia są bardzo żmudne. Podamy, zgodnie z 1,", "dwie wersje algorytmu Eulera, zaimplentowane w pakiecie Mathematica dla rozwiązywania zagadnienia początkowego", "na odcinku \\( (0,\\,4) \\) z krokiem \\( h=0.2 \\).", "Prosty kod wygląda następująco: Komórka 1.2.", "Jeżeli teraz dodać moduł Komórka 1.3.", "to otrzymamy poszukiwane przybliżone rozwiązanie w postaci tabelki. Powyższy algorytm przy dużej liczbie iteracji \\( N \\) będzie pracować wolno, ponieważ przy każdej kolejnej liczbie \\( n \\) obliczenia rozpoczynają się od punktu \\( y[0] \\). Algorytm można jednak zmodyfikować w taki sposób że wielkości \\( v[0],\\,v[1],\\,...v[n] \\) będą zapamiętywane, co znacznie usprawni obliczenia. Kolejną rzeczą jest zastąpienie tabelki \\( sol \\) przez funkcję interpolacyjną \\( vEul[t_{-}] = Interpolation[sol][t] \\). Wszystko to razem wzięte tworzy następujący szybko działający algorytm: Komórka 1.4.", "W wyniku implementacji tego algorytmu uzyskujemy rozwiązanie przybliżone na tle rozwiązania dokładnego, co ilustruje Rys. 3."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 434, "subject": "Równania różniczkowe liniowe wyższych rzędów - podstawowe pojęcia", "paragraphs": ["Dowód tego twierdzenia jest przedstawiony w module Twierdzenia o istnieniu i jednoznaczności dla równań różniczkowych zwyczajnych."], "definitions": [{"name": "Definicja 1: Równania liniowego rzędu n-tego", "content": "\nRównaniem różniczkowym liniowym rzędu \\( n \\) nazywamy równanie postaci\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( a_{n}(t)y^{(n)}(t)+a_{n-1}(t)y^{(n-1)}(t)+\\cdots + a_{1}(t)y^{\\prime}(t)+a_{0}(t)y(t)=f(t) \\)\n\n\ngdzie \\( \\hskip 0.3pc y(t)\\hskip 0.3pc \\) jest szukaną funkcją \\( \\hskip 0.3pcy: I\\rightarrow \\mathbb{R},\\hskip 0.3pc \\) a dane funkcje \\( \\hskip 0.3pc f(t)\\hskip 0.3pc \\) i \\( \\hskip 0.3pc a_{i}(t),\\hskip 0.3pc i=0,\\ldots, n\\hskip 0.3pc \\) są ciągłe i określone w przedziale \\( \\hskip 0.3pc I\\subset \\mathbb{R}\\hskip 0.3pc \\) o wartościach rzeczywistych. Przez przedział \\( \\hskip 0.3pc I\\hskip 0.3pc \\) rozumiemy jeden z następujących zbiorów: \\( \\hskip 0.3pc(a,b),\\hskip 0.3pc(-\\infty,a), \\) \\( \\hskip 0.3pc (a,+\\infty ) \\hskip 0.3pc \\) lub \\( \\hskip 0.3pc \\mathbb{R} \\).\n\n"}, {"name": "Definicja 2: Rozwiązania", "content": "\nRozwiązaniem równania ( 1 ) nazywamy funkcję \\( \\hskip 0.3pc y(t)\\hskip 0.3pc \\) określoną w przedziale \\( \\hskip 0.3pc I\\hskip 0.3pc \\) i \\( \\hskip 0.3pc n\\hskip 0.3pc \\)-krotnie różniczkowalną, spełniającą dla każdego \\( \\hskip 0.3pc t\\in I\\hskip 0.3pc \\) równanie ( 1 ).\n\n"}, {"name": "Definicja 3: Problemu początkowego", "content": "\nZagadnienie polegające na znalezieniu rozwiązania równania ( 1 ), które dla ustalonego \\( \\hskip 0.3pc t_{0}\\in I\\hskip 0.3pc \\) spełnia \\( \\hskip 0.3pc n\\hskip 0.3pc \\)-równości:\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( y(t_0)=b_0,\\hskip 0.5pc y^{\\prime}(t_0)=b_1,\\ldots ,\\hskip 0.4 pc y^{n-1}(t_0)=b_{n-1}, \\)\n\ngdzie \\( \\hskip 0.3pc b_0,\\ldots ,b_{n-1}\\hskip 0.3pc \\) są danymi stałymi, będziemy nazywać problemem początkowym.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 435, "subject": "Liniowa zależność i niezależność funkcji", "paragraphs": [], "definitions": [{"name": "Definicja 1: Liniowej zależności zbioru funkcji", "content": "\nMówimy, że zbiór funkcji \\( \\hskip 0.3pc f_1(t),\\ldots,f_n(t) \\hskip 0.3pc \\) określonych na przedziale \\( \\hskip 0.3pc I\\subset\\mathbb{R}\\hskip 0.3pc \\) jest liniowo zależny, jeżeli istnieją stałe \\( \\hskip 0.3pc c_1,\\ldots ,c_n \\hskip 0.3pc \\) nie wszystkie równe zero, takie że \\( \\hskip 0.3pc c_1f_1(t)+\\cdots +c_nf_n(t)=0\\hskip 0.3pc , \\) dla każdego \\( \\hskip 0.3pc t\\in I\\hskip 0.3pc \\).\n\n"}, {"name": "Definicja 2: Liniowej niezależności zbioru funkcji", "content": "\nMówimy, że zbiór funkcji \\( \\hskip 0.3pc f_1(t),\\ldots,f_n(t)\\hskip 0.3pc \\) określonych na przedziale \\( \\hskip 0.3pc I\\hskip 0.3pc \\) jest liniowo niezależny jeśli nie jest liniowo zależny. Inaczej mówiąc, równość \\( \\hskip 0.3pc c_1f_1(t)+\\cdots +c_nf_n(t)=0\\hskip 0.3pc \\) zachodzi dla każdego \\( \\hskip 0.3pc t\\in I\\hskip 0.3pc \\) jedynie w przypadku, gdy wszystkie współczynniki \\( \\hskip 0.3pc c_i, \\hskip 0.3pc i=1,\\dots,n\\hskip 0.3pc \\) są równe zero.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 401, "subject": "Fundamentalny zbiór rozwiązań dla równań różniczkowych liniowych wyższych rzędów", "paragraphs": ["Niech", "będzie równaniem różniczkowym liniowym rzędu \\( \\hskip 0.3pc n,\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc y(t)\\hskip 0.3pc \\) jest nieznaną funkcją a dane funkcje \\( \\hskip 0.3pc f(t)\\hskip 0.3pc \\) i \\( \\hskip 0.3pc a_{k}(t),\\: k=0,\\ldots n\\hskip 0.3pc \\) są ciągłe i określone w przedziale \\( \\hskip 0.3pc I\\subset \\mathbb{R}.\\hskip 0.3pc \\) Przez przedział \\( \\hskip 0.3pc I\\hskip 0.3pc \\) rozumiemy jeden z następujących zbiorów: \\( \\hskip 0.3pc (a,b),\\hskip 0.3pc (-\\infty,a), \\) \\( (a,+\\infty ) \\hskip 0.3pc \\) lub \\( \\hskip 0.3pc \\mathbb{R}\\hskip 0.3pc \\)."], "definitions": [{"name": "Definicja 1: Fundamentalnego zbioru rozwiązań", "content": "\nZbiór rozwiązań \\( \\hskip 0.3pc \\{y_1(t),\\dots,\\hskip 0.3pc y_n(t)\\},\\hskip 0.3pc \\) równania ( 2 ) będziemy nazywali fundamentalnym zbiorem rozwiązań , jeżeli dla każdego \\( \\hskip 0.3pc t\\in I\\hskip 0.3pc \\) wrońskian \\( \\hskip 0.3pc W(y_1(t),\\ldots ,y_n(t))\\hskip 0.3pc \\) jest różny od zera.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 402, "subject": "Wyznaczanie fundamentalnego zbioru rozwiązań równań różniczkowych liniowych jednorodnych drugiego rzędu, gdy znamy jedno rozwiązanie", "paragraphs": ["Wyznaczenie fundamentalnego zbioru rozwiązań równania", "gdy współczyniki \\( \\hskip 0.3pc a_i(t)\\hskip 0.3pc \\) nie są stałymi, jest z reguły trudnym zadaniem. Jeżeli znamy jedno rozwiązanie \\( \\hskip 0.3pc y_1(t)\\hskip 0.3pc \\) równania ( 1 ) to kolejne, liniowo niezależne rozwiązanie szukamy w postaci \\( \\hskip 0.3pc y(t)=u(t)y_1(t),\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc u(t)\\hskip 0.3pc \\) jest nieznaną funkcją. Metoda ta prowadzi do wyznaczenia rozwiązania równania różniczkowego liniowego rzędu \\( \\hskip 0.3pc n-1,\\hskip 0.3pc \\) gdzie niewiadomą jest funkcja \\( \\hskip 0.3pc u(t)\\hskip 0.3pc \\). W praktyce metoda ta jest użyteczna dla równań rzędu drugiego."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 403, "subject": "Wyznaczanie fundamentalnego zbioru rozwiązań równań różniczkowych liniowych jednorodnych drugiego rzędu o stałych współczynnikach", "paragraphs": ["Rozwiązania równania ( 1 ) szukamy w postaci funkcji \\( \\hskip 0.3pc y(t)=e^{\\lambda t}\\hskip 0.3pc \\).", "Dzieląc powyższe równanie przez \\( \\hskip 0.3pc e^{\\lambda t}\\hskip 0.3pc \\) dostajemy tak zwane równanie charakterystyczne", "Zauważmy, że równanie charakterystyczne można otrzymać podstawiając do równania ( 1 ) w miejsce \\( \\hskip 0.3pc y^{\\prime\\prime}(t),\\hskip 0.3pc y^{\\prime}(t),\\hskip 0.3pc y(t)\\hskip 0.3pc \\) odpowiednio \\( \\hskip 0.3pc \\lambda ^2,\\hskip 0.3pc \\lambda,\\hskip 0.3pc 1\\hskip 0.3pc \\). Równanie kwadratowe może mieć deltę dodatnią, równą zeru lub ujemną. Gdy \\( \\hskip 0.3pc \\Delta >0\\hskip 0.3pc \\) wtedy równanie ( 2 ) ma dwa różne rzeczywiste pierwiastki", "Mamy wtedy dwie funkcje będące rozwiązaniem równania ( 1 )", "Funkcje te są liniowo niezależne, więc rozwiązanie ogólne równania ( 1 ) ma w tym przypadku postać", "Gdy \\( \\hskip 0.3pc \\Delta =0\\hskip 0.3pc \\) wtedy równanie ( 2 ) ma jeden pierwiastek rzeczywisty \\( \\hskip 0.3pc \\lambda =-\\frac{a_1}{2a_2}.\\hskip 0.3pc \\) Funkcja \\( \\hskip 0.3pc y_1(t)=e^{\\lambda t}\\hskip 0.3pc \\) jest rozwiązaniem równania ( 2 ). Drugie liniowo niezależne rozwiązanie wyznaczamy na podstawie twierdzenia Liouville'a i ma postać", "Rozwiązanie ogólne równania ( 1 ) ma w tym przypadku postać", "Gdy \\( \\hskip 0.3pc \\Delta <0\\hskip 0.3pc \\) wtedy równanie ( 2 ) ma dwa różne pierwiastki zespolone wzajemnie sprzężone", "Wtedy mamy dwie funkcje będące rozwiązaniem równania ( 1 )", "Funkcje te są liniowo niezależne. Zatem rozwiązanie ogólne równania ( 1 ) ma w tym przypadku postać", "Niedogodnością tego przedstawienia jest to, że funkcje \\( \\hskip 0.3pc y_1(t)\\hskip 0.3pc \\) i \\( \\hskip 0.3pc y_2(t)\\hskip 0.3pc \\) są funkcjami o wartościach zespolonych. Wyznaczymy teraz liniowo niezależne funkcje o wartościach rzeczywistych, spełniające równanie ( 1 ). W celu uproszczenia zapisów wprowadzamy następujące oznaczenia", "Wtedy pierwiastki \\( \\hskip 0.3pc \\lambda_1,\\hskip 0.3pc \\lambda_2\\hskip 0.3pc \\) możemy zapisać następująco", "Stąd mamy, że", "Na podstawie twierdzenia 1 dowolna kombinacja liniowa rozwiązań równania ( 1 ) jest rozwiązaniem tego równania, stąd następujące funkcje są rozwiązaniami równania ( 1 ).", "Na podstawie wniosku 3 funkcje te są liniowo niezależne. Zatem rozwiązanie ogólne równania ( 1 ) w tym przypadku ma postać"], "definitions": [{"name": "Definicja 1:", "content": "\nRównaniem różniczkowym liniowym jednorodnym rzędu drugiego o stałych współczynnikach nazywamy równanie postaci\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( a_2y^{\\prime\\prime}(t)+a_1y^{\\prime}(t)+a_0y(t)=0. \\)\n\ngdzie \\( \\hskip 0.3pc a_0,\\hskip 0.3pc a_1\\hskip 0.3pc a_2\\hskip 0.3pc \\) są stałymi i \\( \\hskip 0.3pc a_2\\neq 0\\hskip 0.3pc \\).\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 404, "subject": "Wyznaczanie fundamentalnego zbioru rozwiązań równań różniczkowych liniowych jednorodnych o stałych współczynnikach rzędu wyższego niż dwa", "paragraphs": ["Chcąc wyznaczyć rozwiązanie ogólne równania ( 1 ) musimy wyznaczyć układ fundamentalny rozwiązań równania ( 1 ). Tak jak w przypadku dla \\( \\hskip 0.3pc n=2,\\hskip 0.3pc \\) szukamy rozwiązania równania ( 1 ) w postaci funkcji \\( \\hskip 0.3pc y(t)=e^{\\lambda t}\\hskip 0.3pc \\). Równanie charakterystyczne odpowiadające równaniu ( 1 ) ma postać", "Przpadek I. Jeżeli \\( \\hskip 0.3pc \\lambda_1, \\ldots ,\\lambda_k\\hskip 0.3pc \\) są rzeczywistymi jednokrotnymi pierwiastki równania ( 2 ) wtedy z przykładu 7 z modułu \"Liniowa zależność i niezależność funkcji\" wynika, że funkcje", "Przpadek II. Jeżeli \\( \\hskip 0.3pc \\lambda_0\\hskip 0.3pc \\) jest \\( \\hskip 0.3pc k\\hskip 0.2pc \\) - krotnym pierwiatkiem równania ( 2 ) wtedy funkcje", "Istotnie, dla dowolnej liczby naturalnej \\( \\hskip 0.3pc i,\\hskip 0.3pc 1\\le i\\le k-1\\hskip 0.3pc \\) prawdziwa jest następująca zależność:", "Ponieważ \\( \\hskip 0.3pc \\lambda_0\\hskip 0.3pc \\) jest \\( \\hskip 0.3pc k\\hskip 0.2pc \\) - krotnym pierwiatkiem równania ( 2 ) więc", "Zatem funkcja \\( \\hskip 0.3pc y_{i+1}(t)\\hskip 0.3pc \\) jest rozwiązaniem równania ( 1 ). Liniowa niezależność rozwiązań \\( \\hskip 0.3pc y_1(t),\\hskip 0.3pc\\ldots ,y_k(t)\\hskip 0.3pc \\) równania ( 1 ) wynika z wniosku 2. Przpadek III. Niech \\( \\hskip 0.3pc \\lambda =\\alpha +\\beta i\\hskip 0.3pc \\) będzie jednokrotnym zespolonym pierwiastkiem równania ( 2 ). Wtedy liczba sprzężona \\( \\hskip 0.3pc \\bar{\\lambda }=\\alpha -\\beta i\\hskip 0.3pc \\) też jest pierwiatkiem jednokrotnym równania ( 2 ) gdyż współczynniki równania ( 2 ) są rzeczywiste. Analogicznie jak dla równań rzędu drugiego pokazuje się, że pierwiastkom tym odpowiadają następujące linowo niezależne rozwiązania równania ( 1 ):", "Przpadek IV.Niech \\( \\hskip 0.3pc \\lambda =\\alpha +\\beta i\\hskip 0.3pc \\) będzie pierwiastkiem zespolonym równania ( 2 ) o krotności \\( \\hskip 0.3pc k,\\hskip 0.3pc \\) Wtedy liczba sprzężona \\( \\hskip 0.3pc \\bar{\\lambda }=\\alpha -\\beta i\\hskip 0.3pc \\) też jest pierwiatkiem równania ( 2 ) o krotności \\( \\hskip 0.3pc k,\\hskip 0.3pc \\) gdyż współczynniki równania ( 2 ) są rzeczywiste. Analogicznie jak w \"Przypadku II\" dowodzi się, że następujące funkcje", "Postępując tak samo jak dla równań rzędu drugiego można wykazać, że rozwiązaniom", "będące rozwiązaniami równania ( 1 ). Na podstawie wniosku 3 wynika, że powyższe rozwiązania równania ( 1 ) są liniowo niezależne."], "definitions": [{"name": "Definicja 1:", "content": "\nRównaniem różniczkowym liniowym jednorodnym rzędu \\( \\hskip 0.3pc n\\hskip 0.3pc \\) o stałych współczynikach nazywamy równanie postaci\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( L(y(t)):=a_{n}y^{(n)}(t)+a_{n-1}y^{(n-1)}(t)+\\cdots + a_{1}y^{\\prime}(t)+a_{0}y(t)=0, \\hskip 1pc t\\in\\mathbb{R} \\)\n\ngdzie \\( \\hskip 0.3pc a_0,\\ldots ,a_n\\hskip 0.3pc \\) są stałymi i \\( \\hskip 0.3pc a_n\\neq 0\\hskip 0.3pc \\).\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 405, "subject": "Rozwiązywanie równań różniczkowych liniowych niejednorodnych wyższych rzędów metodą uzmieniania stałych", "paragraphs": ["W module tym omówimy wyznaczanie rozwiązań dla równań liniowych niejednorodnych postaci", "gdy znamy fundamentalny zbiór rozwiązań równania jednorodnego", "Zachodzi następujące twierdzenie:"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 418, "subject": "Przykłady rozwiązywania równań różniczkowych liniowych niejednorodnych wyższych rzędów o stałych współczynnikach metodą uzmienniania stałych", "paragraphs": ["Jedną z metod rozwiązywania równań różniczkowych liniowych niejednorodnych o stałych współczynnikach jest metoda uzmienniania stałych opisana jest w module Rozwiązywanie równań różniczkowych liniowych niejednorodnych wyższych rzędów metodą uzmieniania stałych. Podamy teraz przykłady jej zastosowania do równan liniowych o stałych współczynnikach."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 419, "subject": "Rozwiązywanie równań różniczkowych liniowych niejednorodnych wyższych rzędów o stałych współczynnikach metodą przewidywań", "paragraphs": ["Metodę przewidywań można stosować jedynie do rozwiązywania równań różniczkowych liniowych niejednorodnych o stałych współczynnikach. Zaletą tej metody jest to, że unika się całkowania, jak to ma miejsce w metodzie współczynników nieoznaczonych. Natomiast wadą jest to, że ma zastosowanie tylko dla pewnego typu funkcji. Rozważmy równanie", "gdzie prawa strona jest funkcją postaci", "a \\( \\hskip 0.3pc P_k(t)\\hskip 0.3pc \\) i \\( \\hskip 0.3pc R_m(t)\\hskip 0.3pc \\) są wielomianami odpowiednio stopnia \\( \\hskip 0.3pc k\\hskip 0.3pc \\) i \\( \\hskip 0.3pc m.\\hskip 0.3pc \\) Oznaczmy przez \\( \\hskip 0.3pc \\phi (\\lambda)\\hskip 0.3pc \\) wielomian występujący po lewej stronie równania charakterystycznego", "Przypadek gdy \\( \\hskip 0.3pc \\beta=0\\hskip 0.3pc \\). W tym przypadku funkcja \\( \\hskip 0.3pc f(t)\\hskip 0.3pc \\) ma postać", "1. Jeżeli \\( \\hskip 0.3pc \\alpha\\hskip 0.3pc \\) nie jest pierwiastkiem równania charakterystycznego, to przewidujemy rozwiązanie szczególne równania ( 1 ) w postaci", "gdzie \\( \\hskip 0.3pc W_k(t) \\) jest nieznanym wielomianem stopnia \\( \\hskip 0.3pc k.\\hskip 0.3pc \\) 2. Jeżeli \\( \\hskip 0.3pc \\alpha \\hskip 0.3pc \\) jest pierwiastkiem równania charakterystycznego o krotności \\( \\hskip 0.3pc r,\\hskip 0.3pc \\) to przewidujemy rozwiązanie szczególne równania ( 1 ) w postaci", "gdzie \\( \\hskip 0.3pc W_k(t)\\hskip 0.3pc \\) jest nieznanym wielomianem stopnia \\( \\hskip 0.3pc k.\\hskip 0.3pc \\) Przypadek gdy \\( \\hskip 0.3pc \\beta\\neq 0\\hskip 0.3pc \\). W tym przypadku funkcja \\( \\hskip 0.3pc f(t)\\hskip 0.3pc \\) ma postać ( 2 ). 1. Jeżeli \\( \\hskip 0.3pc \\alpha \\pm\\beta i \\hskip 0.3pc \\) nie jest pierwiastkiem równania charakterystycznego, to przewidujemy rozwiązanie szczególne równania ( 1 ) w postaci", "2. Jeżeli \\( \\hskip 0.3pc \\alpha \\pm\\beta i\\hskip 0.3pc \\) jest pierwiastkiem równania charakterystycznego o krotności \\( \\hskip 0.3pc r,\\hskip 0.3pc \\) to przewidujemy rozwiązanie szczególne równania ( 1 ) w postaci"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 429, "subject": "Przykłady zastosowań równań różniczkowych liniowych rzędu drugiego", "paragraphs": ["Przy pomocy równań liniowych rzędu drugiego opisuje sie wiele zagadnień fizycznych, np. zagadnienia związane z ruchem drgającym. Drganiami harmonicznymi nazywamy drgania wykonywane przez ciało, na które działa siła: \\( \\hskip 0.3pc \\vec{F}=-k\\vec{r}.\\hskip 0.3pc \\) W jednowymiarowym przypadku Rys. 1 można ją zapisać jako: \\( \\hskip 0.3pc F=-kx,\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc k\\hskip 0.3pc \\) to stała dodatnia, a \\( \\hskip 0.3pc x\\hskip 0.3pc \\) jest to wartość wychylenia z położenia równowagi. Znak minus związany jest z tym, że siła działająca na ciało jest przeciwnie skierowana, niż wychylenie z położenia równowagi."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 420, "subject": "Równania różniczkowe rzędu drugiego sprowadzalne do równań rzędu pierwszego", "paragraphs": ["W module tym będziemy rozpatrywać równania rzędu drugiego postaci", "gdzie \\( \\hskip 0.3pc F\\hskip 0.3pc \\) jest funkcją ciągłą ze względu na wszystkie swoje zmienne. Rozpatrzymy trzy przypadki.", "Przypadek I. Jeśli \\( \\hskip 0.3pc F(t,y^{\\prime},y^{\\prime\\prime})=0.\\hskip 0.3pc \\) W tym równaniu \\( \\hskip 0.3pc y\\hskip 0.3pc \\) nie występuje w sposób jawny. Dokonujemy podstawienia:", "wtedy \\( \\hskip 0.3pc y^{\\prime\\prime}(t)=u^{\\prime}(t)\\hskip 0.3pc \\) i rozpatrywane równanie sprowadza się do równania rzędu pierwszego", "Przypadek II. Jeśli \\( \\hskip 0.3pc F(y,y^{\\prime},y^{\\prime\\prime})=0.\\hskip 0.3pc \\) W tym równaniu \\( \\hskip 0.3pc t\\hskip 0.3pc \\) nie występuje w sposób jawny. Dokonujemy podstawienia:", "gdzie \\( \\hskip 0.3pc u\\hskip 0.3pc \\) jest funkcją zależną od \\( \\hskip 0.3pc y\\hskip 0.3pc \\).", "Przypadek III. Równania różniczkowe jednorodne rzędu drugiego.", "W celu rozwiązania równania ( 5 ) dokonujemy podstawienia", "Po dwukrotnym zróżniczkowaniu powyższej funkcji: \\( \\hskip 0.3pc y^{\\prime}=e^uu^{\\prime}, \\hskip 0.3pc \\hskip 0.3pc y^{\\prime\\prime}=e^u((u^{\\prime})^2+u^{\\prime\\prime})\\hskip 0.3pc \\) i podstawieniu do równanie ( 5 ) przyjmuje ono postać"], "definitions": [{"name": "Definicja 1:", "content": "\nRównanie\n\n(5)\n\n\t\t\t\t\t\t\t\t\\( F(t,y,y^{\\prime},y^{\\prime\\prime})=0 \\)\n\nnazywamy równaniem jednorodnym stopnia \\( \\hskip 0.3pc n,\\hskip 0.3pc \\) jeżeli dla każdego \\( \\hskip 0.3pc \\lambda \\in\\mathbb{R}\\hskip 0.3pc \\) mamy\n\n\n\t\t\t\t\t\t\t\t\\( F(t,\\lambda y,\\lambda y^{\\prime},\\lambda y^{\\prime\\prime})=\\lambda^nF(t,y,y^{\\prime},y^{\\prime\\prime}). \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 406, "subject": "Równania różniczkowe Eulera", "paragraphs": ["Chcąc wyznaczyć rozwiązanie ogólne równania ( 1 ) musimy najpierw wyznaczyć układ fundamentalny rozwiązań równania jednorodnego", "Omówimy wyznaczanie fundamentalnego zbioru rozwiązań dla \\( \\hskip 0.3pc n=2,\\hskip 0.3pc \\) czyli dla równania:", "Rozwiązania równania ( 3 ) szukamy w postaci funkcji \\( \\hskip 0.3pc y(t)=t^k\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc k\\hskip 0.3pc \\) jest stałą. Wtedy \\( \\hskip 0.3pc y(t)=t^k\\hskip 0.3pc \\), \\( \\hskip 0.3pc y^\\prime(t)=kt^{k-1}\\hskip 0.3pc \\) i \\( \\hskip 0.3pc y^{\\prime\\prime}(t)=k(k-1)t^{k-2}\\hskip 0.3pc \\) podstawiamy do równania ( 3 ) i dostajemy", "Dzieląc powyższe równanie przez \\( \\hskip 0.3pc t^k\\hskip 0.3pc \\) otrzymamy równanie", "Rozważymy trzy przypadki w zależności od \\( \\hskip 0.3pc \\Delta =(a_1-a_2)^2-4a_2a_0 \\hskip 0.3pc \\) . Przypadek I. \\( \\hskip 0.3pc \\Delta >0.\\hskip 0.3pc \\) Równanie ( 4 ) ma wtedy dwa różne rzeczywiste pierwiastki", "Wtedy mamy dwie funkcje będące rozwiązaniem równania ( 3 )", "Funkcje te są liniowo niezależne ponieważ ich wrońskian", "jest różny od zera. Zatem rozwiązanie ogólne równania( 3 ) w tym przypadku ma postać", "Przypadek II. \\( \\hskip 0.3pc \\Delta =0.\\hskip 0.3pc \\) Równanie ( 4 ) ma wtedy jeden pierwiastek rzeczywisty \\( \\hskip 0.3pc k =\\frac{a_2-a_1}{2a_2}.\\hskip 0.3pc \\) Funkcja \\( \\hskip 0.3pc y_1(t)=t^{k}\\hskip 0.3pc \\) jest rozwiązaniem równania ( 3 ). Dzieląc obustronnie równanie ( 3 ) przez \\( \\hskip 0.3pc a_2t^2\\hskip 0.3pc \\) otrzymujemy", "Drugie liniowo niezależne rozwiązanie wyznaczamy na podstawie twierdzenia Liouville'a", "Rozwiązanie ogólne równania ( 3 ) w tym przypadku ma postać", "Przypadek III. \\( \\Delta <0. \\) Równanie ( 1 ) ma wtedy dwa różne pierwiastki zespolone wzajemnie sprzężone", "Wtedy mamy dwie funkcje będące rozwiązaniem równania ( 3 )", "Funkcje te są liniowo niezależne. Uzasadnienie jest identyczne jak w przypadku pierwszym. Zatem rozwiązanie ogólne równania ( 3 ) w tym przypadku ma postać", "Niedogodnością tego przedstawienia jest to, że funkcje \\( \\hskip 0.3pc y_1(t)\\hskip 0.3pc \\) i \\( \\hskip 0.3pc y_2(t)\\hskip 0.3pc \\) są funkcjami o wartościach zespolonych. Wyznaczymy teraz funkcje liniowo niezależne o wartościach rzeczywistych, spełniające równanie ( 3 ). W celu uproszczenia zapisów wprowadzamy następujące oznaczenia", "Wtedy pierwiastki \\( \\hskip 0.3pc k_1, \\hskip 0.3pc k_2\\hskip 0.3pc \\) równania ( 4 ) możemy zapisać następująco", "i faktu, że \\( \\hskip 0.3pc t=e^{\\ln t}.\\hskip 0.3pc \\) Stąd otrzymujemy", "Na podstawie twierdzenia 1 dowolna kombinacja liniowa rozwiązań równania ( 3 ) jest rozwiązaniem tego równania, stąd następujące funkcje są rozwiązaniami równania ( 3 ).", "Ponieważ funkcje te są liniowo niezależne, więc rozwiązanie ogólne równania ( 3 ) w tym przypadku ma postać", "W przypadku gdy \\( \\hskip 0.3pc n>2,\\hskip 0.3pc \\) postępuje się analogicznie jak dla równań o stałych współczynnikach. Szuka się rozwiązania równania w postaci funkcji \\( \\hskip 0.3pc y(t)=t^k\\hskip 0.3pc \\). Licząc kolejno pochodne \\( \\hskip 0.3pc y^\\prime(t),\\ldots, y^{n}(t)\\hskip 0.3pc \\) i podstawiając do równania ( 2 ) otrzymuje się wielomian stopnia \\( \\hskip 0.3pc n\\hskip 0.3pc \\) zmiennej \\( \\hskip 0.3pc k,\\hskip 0.3pc \\) który będziemy oznaczać \\( \\hskip 0.3pc \\psi _n(k)\\hskip 0.3pc \\). Analogicznie jak w przypadku \\( \\hskip 0.3pc n=2,\\hskip 0.3pc \\) rozpatrzymy trzy przypadki, w zależności od pierwiastków równania", "Przypadek I. Pierwiastki \\( \\hskip 0.3pc k_1, \\ldots ,k_s\\hskip 0.3pc \\) równania ( 5 ) są rzeczywiste i jednokrotne. Wtedy funkcje", "stanowią liniowo niezależny zbiór rozwiązań równania ( 2 ). Przypadek II. Niech \\( \\hskip 0.3pc k\\hskip 0.3pc \\) będzie pierwiatkiem rzeczywistym równania ( 5 ) o krotności \\( \\hskip 0.3pc r\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc r>1.\\hskip 0.3pc \\) Wtedy funkcje", "są liniowo niezależnymi rozwiązaniami równania ( 2 ) Przypadek III. Niech \\( \\hskip 0.3pc k =\\alpha +\\beta i\\hskip 0.3pc \\) będzie pierwiastkiem równania ( 5 ) o krotności \\( \\hskip 0.3pc r\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc r\\ge1\\hskip 0.3pc \\). Wtedy liczba sprzężona \\( \\hskip 0.3pc \\bar{k }=\\alpha -\\beta i\\hskip 0.3pc \\) też jest pierwiatkiem tego równania o krotności \\( \\hskip 0.3pc r\\hskip 0.3pc \\). Pierwiastkom tym odpowiadają nastepujące funkcje", "będące liniowo niezależnymi rozwiązaniami równania ( 2 )."], "definitions": [{"name": "Definicja 1:", "content": "\nRównaniem różniczkowym Eulera rzędu \\( \\hskip 0.3pc n\\hskip 0.3pc \\) nazywamy równanie postaci\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( a_nt^ny^{(n)}(t)+a_{n-1}t^{n-1}y^{(n-1)}(t)+\\cdots + a_{1}ty^\\prime(t)+a_{0}y(t)=f(t) \\)\n\ngdzie: \\( \\hskip 0.3pc a_0,\\ldots ,a_n\\hskip 0.3pc \\) są to stałe, \\( \\hskip 0.3pc a_n\\neq 0\\hskip 0.3pc \\) i \\( \\hskip 0.3pc f(t)\\hskip 0.3pc \\) jest funkcją ciągłą określoną w przedziale \\( \\hskip 0.3pc I\\subset \\mathbb{R}. \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 407, "subject": "Rozwiązywanie układów równań różniczkowych metodą operatorową (sprowadzanie układu równań do równania zwyczajnego rzędu wyższego)", "paragraphs": ["Przez \\( \\hskip 0.3pc D\\hskip 0.3pc \\) będziemy oznaczać operator różniczkowania - przyporządkowujący funkcji \\( \\hskip 0.3pc x(t)\\hskip 0.3pc \\) jej funkcję pochodną: \\( \\hskip 0.3pc Dx(t):=x^\\prime(t).\\hskip 0.3pc \\) Przez \\( \\hskip 0.3pc D^k\\hskip 0.3pc \\) będziemy oznaczać \\( \\hskip 0.3pc k\\hskip 0.3pc \\)-krotne złożenie operatora \\( \\hskip 0.3pc D\\hskip 0.3pc \\) i \\( \\hskip 0.3pc D^kx(t):=x^{(k)}(t).\\hskip 0.3pc \\) Jeżeli \\( \\hskip 0.3pc L\\hskip 0.3pc \\) jest operatorem określonym następująco", "gdzie \\( \\hskip 0.3pc a_0,\\ldots,a_k\\hskip 0.3pc \\)-są to dowolne stałe, to dla dowolnej funkcji \\( \\hskip 0.3pc x(t)\\hskip 0.3pc \\) \\( \\hskip 0.3pc k\\hskip 0.3pc \\)-krotnie różniczkowalnej mamy:", "Stosując powyższe oznaczenia układ równań ( 1 ) można zapisać następująco:", "gdzie : \\( \\hskip 0.3pc L_{11}=D^2+1, \\hskip 0.3pc L_{12}=2D, \\hskip 0.3pc L_{13}=-1, \\hskip 0.3pc \\) \\( \\hskip 0.3pc L_{21}=D^2-1,\\hskip 0.3pc \\) \\( \\hskip 0.3pc L_{22}=D^2+1, \\hskip 0.3pc \\) \\( \\hskip 0.3pc L_{23}=D,\\hskip 0.3pc \\) \\( \\hskip 0.3pc L_{31}=-D,\\hskip 0.3pc \\) \\( \\hskip 0.3pc L_{32}=D,\\hskip 0.3pc L_{33}=2D^2+1.\\hskip 0.3pc \\) Omówimy teraz rozwiązywanie układów równań postaci:", "gdzie operatory \\( \\hskip 0.3pc L_{ij}\\hskip 0.3pc \\) są postaci ( 2 ) Powyższy układ rozwiązuje się podobnie jak układ równań liniowych, z wykorzystaniem wzorów Cramera:", "gdzie", "Mnożeniu elementów przy liczeniu wyznacznika \\( W \\) odpowiada złożenie operatorów. Przy liczeniu wyznaczników \\( \\hskip 0.3pc W_i\\hskip 0.3pc \\) najpierw składamy odpowiednie operatory, a następnie wyliczamy wartość tak otrzymanego operatora dla funkcji \\( \\hskip 0.3pc f_k(t)\\hskip 0.3pc \\). Na przykład mnożąc elementy na przekątnej dostajemy :", "Pokażemy prawdziwość wzorów ( 4 ) dla \\( \\hskip 0.3pc n=2\\hskip 0.3pc \\). Rozważmy układ równań", "Pierwsze równanie układu ( 6 ) obkładamy obustronie operatorem \\( \\hskip 0.3pc L_{22}\\hskip 0.3pc \\) a drugie operatorem \\( \\hskip 0.3pc L_{12}\\hskip 0.3pc \\) i otrzymujemy następujący układ równań:", "dostajemy równanie różniczkowe zwyczajne o stałych współczynnikach odpowiedniego rzędu zmiennej \\( \\hskip 0.3pc x_1\\hskip 0.3pc \\):", "Analogicznie jeżeli pierwsze równanie układu ( 6 ) obłożymy obustronnie operatorem \\( \\hskip 0.3pc L_{21}\\hskip 0.3pc \\) a drugie \\( \\hskip 0.3pc L_{11}\\hskip 0.3pc \\) i odejmiemy stronami to otrzymamy", "Stąd mamy", "są takie, same."], "definitions": [{"name": "Definicja 1:", "content": " Przez układ równań różniczkowych będziemy rozumieli dwa lub więcej równań zawierających pochodne dwóch lub więcej nieznanych funkcji jednej zmiennej.\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 430, "subject": "Przykłady rozwiązywania układów równań różniczkowych metodą operatorową", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 431, "subject": "Przykład rozwiązywania układów równań z warunkami początkowymi metodą operatorową", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 408, "subject": "Układ normalny równań różniczkowych rzędu pierwszego", "paragraphs": ["Istotnie, określmy następująco nowe zmienne", "Wtedy równanie ( 3 ) można zapisać w postaci układu równań"], "definitions": [{"name": "Definicja 1:", "content": "\nUkładem normalnym równań różniczkowych rzędu pierwszego nazywamy układ równań postaci\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\begin{cases}x_1^\\prime(t)=f_1(t,x_1(t),\\ldots , x_n(t))&\\\\x_2^\\prime(t)=f_2(t,x_1(t),\\ldots ,x_n(t))&\\\\\\hskip 0.3 pc\\hskip 0.3 pc \\vdots &\\\\x_n^\\prime(t)=f_n(t,x_1(t),\\ldots ,x_n(t))& \\end{cases} \\)\n\ngdzie \\( \\hskip 0.3pc x_1,\\ldots ,\\hskip 0.3pc x_n\\hskip 0.3pc \\) są nieznanymi funkcjami zmiennej niezależnej \\( \\hskip 0.3pc t\\in I,\\hskip 0.3pc \\) a \\( \\hskip 0.3pc f_1,\\ldots,\\hskip 0.3pc f_n\\hskip 0.3pc \\) są danymi funkcjami określonymi w \\( \\hskip 0.3pc I\\times U,\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc I=(a,b),\\hskip 0.3pc \\), \\( \\hskip 0.3pc a\\hskip 0.3pc \\) i \\( \\hskip 0.3pc b\\hskip 0.3pc \\) mogą być nieskończonościami, \\( \\hskip 0.3pc U\\subset \\mathbb{R}^n.\\hskip 0.3pc \\)\n\n"}, {"name": "Definicja 2:", "content": "\nPrzez rozwiązanie układu równań rózniczkowych ( 1 ) rozumiemy funkcje różniczkowalne\n \\( \\hskip 0.3pc x_1,\\ldots ,\\hskip 0.3pc x_n\\hskip 0.3pc \\) spełniające dla każdego \\( \\hskip 0.3pc t\\in I\\hskip 0.3pc \\) układ równań ( 1 ).\n\n"}, {"name": "Definicja 3:", "content": " Jeżeli \\( \\hskip 0.3pc x_1,\\ldots ,\\hskip 0.3pc x_n\\hskip 0.3pc \\) są rozwiązaniem układu ( 1 ) to trajektorią rozwiązania nazywamy zbiór punktów w przestrzeni \\( \\hskip 0.3pc \\mathbb{R}^n\\hskip 0.3pc \\) określony następująco\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\{(x_1(t),x_2(t),\\ldots ,x_n(t)),\\hskip 0.3 pc\\hskip 0.3 pc t\\in I \\}. \\)\n\n"}, {"name": "Definicja 4:", "content": " Problem początkowy (Cauchy'ego) dla układu ( 1 ) polega na znalezieniu w przedziale \\( \\hskip 0.3pc I\\hskip 0.3pc \\) rozwiązania \\( \\hskip 0.3pc x_1(t),\\hskip 0.3pc x_2(t),\\ldots ,\\hskip 0.3pcx_n(t) \\) układu ( 1 ) spełniającego warunki początkowe\n\n\t\t\t\t\t(2)\n\n\t\t\t\t\t\t\t\t\\( x_1(t_0)=x_{01},\\hskip 0.3pc x_2(t_0)=x_{02},\\ldots ,\\hskip 0.3pcx_n(t_0)=x_{0n}, \\)\n\n\t\t\t\t\t\ngdzie \\( \\hskip 0.3pc x_{01},\\ldots ,\\hskip 0.3pc x_{0n}\\hskip 0.3pc \\) są dane, a \\( \\hskip 0.3pc t_0\\hskip 0.3pc \\) jest ustalonym punktem przedziału \\( \\hskip 0.3pc I\\hskip 0.3pc \\)."}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 409, "subject": "Układy równań różniczkowych liniowych rzędu pierwszego", "paragraphs": ["Zapis macierzowy układu ( 1 ). Wprowadzając następujące oznaczenia:", "układ ( 1 ) można zapisać w postaci", "a warunek początkowy ( 2 )", "Dowód tego twierdzenia jest przedstawiony w module \"Twierdzenia o istnieniu i jednoznaczności dla równań różniczkowych zwyczajnych\".", "Struktura zbioru rozwiązań układu jednorodnego:", "Niech", "będzie zbiorem wszystkich rozwiązań układu \\( \\hskip 0.3pc (5)\\hskip 0.3pc \\).", "Podamy teraz jak wyznacza się rozwiązanie układu niejednorodnego ( 3 ) gdy znamy już układ fundamentalny rozwiązań układu jednorodnego ( 5 )."], "definitions": [{"name": "Definicja 1:", "content": "\nUkładem normalnym równań różniczkowych liniowych rzędu pierwszego nazywamy układ równań postaci\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( \\begin{cases}x_1^\\prime(t)=a_{11}(t)x_1(t)+\\cdots +a_{1n}(t)x_n(t)+f_1(t)&\\\\ \\hskip 0.3 pc \\hskip 0.3 pc \\vdots &\\\\x_n^\\prime(t)=a_{n1}(t)x_1(t)+\\cdots +a_{nn}(t)x_n(t)+f_n(t)& \\end{cases} \\)\n\ngdzie \\( \\hskip 0.3pc x_1,\\ldots ,\\hskip 0.3pc x_n\\hskip 0.3pc \\) są nieznanymi funkcjami zmiennej niezależnej \\( \\hskip 0.3pc t\\in I,\\hskip 0.3pc \\) a współczynniki \\( \\hskip 0.3pc a_{ij}(t)\\hskip 0.3pc \\) i funkcje \\( \\hskip 0.3pc f_i(t)\\hskip 0.3pc \\) są danymi funkcjami określonymi w przedziale \\( \\hskip 0.3pc I =(a,b)\\hskip 0.3pc \\), gdzie \\( \\hskip 0.3pc a\\hskip 0.3pc \\) i \\( \\hskip 0.3pc b\\hskip 0.3pc \\) mogą być nieskończonościami.\n\n"}, {"name": "Definicja 2:", "content": "\nJeżeli \\( \\hskip 0.3pc f_i(t)=0,\\hskip 0.3 pc \\hskip 0.3 pc i=1,\\ldots, n,\\hskip 0.3 pc \\hskip 0.3 pc t\\in I,\\hskip 0.3pc \\) to układ ( 1 ) nazywamy jednorodnym.\n\n"}, {"name": "Definicja 3:", "content": "Rozwiązaniem układu ( 1 ) nazywamy funkcje \\( \\hskip 0.3pc x_1,\\ldots ,\\hskip 0.3pc x_n\\hskip 0.3pc \\) ciągłe i różniczkowalne w przedziale \\( \\hskip 0.3pc I,\\hskip 0.3pc \\) spełniające układ ( 1 ) dla każdego \\( \\hskip 0.3pc t\\in I.\\hskip 0.3pc \\)"}, {"name": "Definicja 4:", "content": "Warunkiem początkowym dla układu ( 1 ) nazywamy układ równości :\n\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( x_1(t_0)=x_{01},\\hskip 0.5 pc x_2(t_0)=x_{02},\\ldots ,\\hskip 0.3pc x_n(t_0)=x_{0n} \\)\n\n\n\ngdzie \\( \\hskip 0.3pc x_{01},\\ldots ,\\hskip 0.3pc x_{0n}\\hskip 0.3pc \\) są danymi stałymi, a \\( \\hskip 0.3pc t_0\\hskip 0.3pc \\) jest ustalonym punktem przedziału \\( \\hskip 0.3pc I\\hskip 0.3pc \\)."}, {"name": "Definicja 5:", "content": " Dowolną bazę \\( \\hskip 0.3pc x_1(t),\\ldots, x_n(t)\\hskip 0.3pc \\) przestrzeni \\( \\hskip 0.3pc V\\hskip 0.3pc \\) będziemy nazywać układem fundamentalnym dla równania ( 5 ). "}, {"name": "Definicja 6:", "content": "\nJeżeli \\( \\hskip 0.3pc x_1(t),\\ldots, x_n(t)\\hskip 0.3pc \\) jest układem fundamentalnym dla układu \\( \\hskip 0.3pc (5),\\hskip 0.3pc \\) to macierz \n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( X(t)=\\begin{bmatrix} x_{11}(t)& x_{12}(t)&\\ldots &x_{1n}(t)\\\\ \\vdots &\\vdots &\\ddots &\\vdots\\\\ x_{n1}(t)& x_{n2}(t)&\\ldots &x_{nn}(t) \\end{bmatrix} \\)\n\nnazywamy macierzą fundamentalną i spełnia ona równanie macierzowe\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( X^\\prime(t)=A(t)\\cdot X(t). \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 410, "subject": "Rozwiązywanie układów równań liniowych jednorodnych o stałych współczynnikach, gdy wartości własne są rzeczywiste i jednokrotne", "paragraphs": ["Rozważmy układ równań postaci", "gdzie", "Omówimy wyznaczanie układu fundamentalnego rozwiązań dla układu równań różniczkowych ( 1 ) gdy wartości własne macierzy \\( \\hskip 0.3pc A\\hskip 0.3pc \\) są rzeczywiste i jednokrotne. Rozwiązania układu ( 1 ) szukamy w postaci funkcji", "Podstawiamy \\( \\hskip 0.3pc x(t)\\hskip 0.3 pc \\) i \\( \\hskip 0.3 pc x^\\prime(t)=\\lambda ve^{\\lambda t}\\hskip 0.3pc \\) do równania ( 1 )", "Dzielimy powyższą równość obu stronie przez \\( \\hskip 0.3pc e^{\\lambda t}\\hskip 0.3pc \\)", "Stąd wynika, że \\( \\hskip 0.3pc \\lambda \\hskip 0.3pc \\) jest wartością własną macierzy \\( \\hskip 0.3pc A\\hskip 0.3pc \\) a \\( \\hskip 0.3pc v\\hskip 0.3pc \\)- wektorem własnym odpowiadającym tej wartości własnej. Z powyższych rozważań wynika, że chcąc wyznaczyć układ fundamentalny rozwiązań układu ( 1 ) należy w pierwszej kolejności wyznaczyć wartości własne macierzy \\( \\hskip 0.3pc A\\hskip 0.3pc \\) i odpowiadające im wektory własne. Wartości własne macierzy \\( \\hskip 0.3pc A\\hskip 0.3pc \\) są pierwiastkami wielomianu:", "gdzie \\( \\hskip 0.3pc I\\hskip 0.3pc \\) oznacza macierz jednostkową a \\( \\hskip 0.3pc p_0,\\ldots,p_n\\hskip 0.3pc \\)- są to liczby rzeczywiste. Jeśli \\( \\hskip 0.3pc \\lambda \\hskip 0.3pc \\) jest wartością własną macierzy \\( \\hskip 0.3pc A\\hskip 0.3pc \\) to przez", "oznaczać będziemy zbiór wektorów własnych odpowiadających wartości własnej \\( \\hskip 0.3pc \\lambda\\hskip 0.3pc \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 411, "subject": "Rozwiązywanie układów równań liniowych jednorodnych o stałych współczynnikach, gdy wartości własne są jednokrotne, ale nie wszystkie rzeczywiste", "paragraphs": ["Rozważmy układ równań różniczkowych postaci", "gdzie", "Omówimy wyznaczanie układu fundamentalnego dla układu ( 1 ) gdy wartości własne macierzy \\( \\hskip 0.3pc A\\hskip 0.3pc \\) są jednokrotne, ale nie wszyskie rzeczywiste.", "Wartości własne macierzy \\( \\hskip 0.3pcA\\hskip 0.3pc \\) są miejscami zerowymi wielomianu:", "Z uwagi 1 wynika, że jeżeli \\( \\hskip 0.3pc\\lambda\\hskip 0.3pc \\) jest zespoloną wartością własną macierzy \\( \\hskip 0.3pcA\\hskip 0.3pc \\) to \\( \\hskip 0.3pc\\overline{\\lambda}\\hskip 0.3pc \\) jest też wartością własną macierzy \\( \\hskip 0.3pcA\\hskip 0.3pc \\).", "Niech \\( \\hskip 0.3pc\\lambda =\\alpha+\\beta i\\hskip 0.3pc \\) będzie zespoloną wartością własną macierzy \\( \\hskip 0.3pcA\\hskip 0.3pc \\) a \\( \\hskip 0.3pc v\\hskip 0.3pc \\) wektorem własnym odpowiadającym tej wartości własnej.", "Z uwagi 2 wynika, że funkcje \\( \\hskip 0.3pc ve^{\\lambda t},\\hskip 0.3pc \\overline {v}e^{\\overline{\\lambda} t}\\hskip 0.3pc \\) są liniowo niezależnymi rozwiązaniami układu ( 1 ). Korzystając z zależności", "funkcje \\( \\hskip 0.3pc ve^{\\lambda t},\\hskip 0.3pc \\overline {v}e^{\\overline{\\lambda} t}\\hskip 0.3pc \\) można zapisać następująco:", "gdzie \\( \\hskip 0.3pc\\Re\\hskip 0.3pc \\) oznacza część rzeczywistą a \\( \\hskip 0.3pc\\Im\\hskip 0.3pc \\) część urojoną. Ponieważ zbiór rozwiązań układu równań różniczkowych ( 1 ) jest przestrzenią wektorową to następujące funkcje,", "Stąd wynika, że dla wartości własnych zespolonych \\( \\hskip 0.3pc\\lambda\\hskip 0.3pc \\) i \\( \\hskip 0.3pc\\overline {\\lambda}\\hskip 0.3pc \\) wystarczy wyznaczyć tylko wektor własny \\( \\hskip 0.3pc v\\hskip 0.3pc \\) dla wartości własnej \\( \\hskip 0.3pc \\lambda \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 412, "subject": "Rozwiązywanie układów równań liniowych jednorodnych o stałych współczynnikach, gdy macierz układu jest diagonalizowalna", "paragraphs": ["Rozważmy układ równań postaci", "gdzie", "Z kursu algebry liniowej wiemy, że macierz \\( \\hskip 0.3pc A\\hskip 0.3pc \\) jest diagonalizowalna jeżeli dla każdej watrości własnej wymiar podprzestrzeni własnej odpowiadającej tej wartości jest równy jej krotności.", "Jeżeli układ wektorów \\( \\hskip 0.3pc \\{v_1,\\ldots ,\\hskip 0.3pc v_k\\}\\hskip 0.3pc \\) jest bazę przestrzeni \\( \\hskip 0.3pc V_\\lambda\\hskip 0.3pc \\) to następujące funkcje"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 1459, "subject": "Rozwiązywanie układów równań liniowych jednorodnych o stałych współczynnikach, gdy macierz układu nie jest diagonalizowalna", "paragraphs": ["Rozważmy układ równań postaci", "gdzie", "Z algebry liniowej wiadomo, że macierz nie jest diagonalizowalna, jeżeli istnieje wartość własna, której krotność jest większa niż odpowiadający jej wymiar podprzestrzeni własnej.", "Na początek wprowadzimy pewne oznaczenia:", "Zbiory \\( \\hskip 0.3pc V_{\\lambda}^{(i)} \\hskip 0.6pc i=1,\\hskip 0.3pc 2,\\ldots \\hskip 0.3pc \\) - są podprzestrzeniami wektorowymi przestrzeni \\( \\hskip 0.3pc \\mathbb{R}^n\\hskip 0.3pc \\) i będziemy nazywać je podprzestrzeniami wektorów głównych rzędu \\( \\hskip 0.3pc i\\hskip 0.3pc \\). Podprzestrzenie wektorów głównych dla wartości własnej \\( \\hskip 0.3pc \\lambda\\hskip 0.3pc \\) tworzą ciąg wstępujący", "Dokładniej mówiąc, istnieje liczba naturalna \\( \\hskip 0.3pc m\\hskip 0.3pc \\) taka, że"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 414, "subject": "Przykłady rozwiązywania układów równań liniowych jednorodnych o stałych współczynnikach, gdy macierz układu nie jest diagonalizowalna", "paragraphs": ["Rozważmy układ równań postaci", "gdzie"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 415, "subject": "Macierz wykładnicza i jej własności", "paragraphs": ["Przez \\( \\hskip 0.3pc M(n\\times n,\\hskip 0.3pc\\mathbb{C})\\hskip 0.3pc \\) będziemy oznaczać zbiór macierzy o wymiarach \\( \\hskip 0.3pc n\\times n\\hskip 0.3pc \\) i wartościach zespolonych.", "Łatwo zauważyć, że zachodzi nierówność", "Dla \\( \\hskip 0.3pc t\\in \\mathbb{R}\\hskip 0.3pc \\) definiujemy ciąg macierzy \\( \\hskip 0.3pc\\{S_k(t)\\}\\hskip 0.3pc \\)", "Elementy macierzy \\( \\hskip 0.3pc S_k(t)\\hskip 0.3pc \\) będziemy oznaczać \\( \\hskip 0.3pc b_{ij}^{(k)}(t)\\hskip 0.3pc \\)", "Ponieważ dla każdego \\( \\hskip 0.6pc i,\\hskip 0.3pc j=1,\\ldots ,\\hskip 0.3pc n\\hskip 0.6pc \\) mamy nierówność", "więc z uwagi 1 wynika, że ciąg \\( \\hskip 0.3pc \\{b_{ij}^{(k)}(t)\\}\\hskip 0.3pc \\) jest ciągiem Cauchy'ego. Zatem istnieje granica tego ciągu", "Zatem rozwiązanie ogólne układu ( 7 ) przy użyciu macierzy \\( \\hskip 0.3pc e^{tA}\\hskip 0.3pc \\) można zapisać następująco:", "Natomiast rozwiązanie równania ( 7 ) z warunkiem początkowym \\( \\hskip 0.3pc x(t_0)=x_0\\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc x_0=\\begin{bmatrix}x_{01}\\\\ \\vdots \\\\x_{0n}\\end{bmatrix}\\hskip 0.3pc \\) można zapisać następująco:"], "definitions": [{"name": "Definicja 1:", "content": "\nNormę w przestrzeni \\( \\hskip 0.3pc M(n\\times n,\\hskip 0.3pc\\mathbb{C})\\hskip 0.3pc \\) określamy następująco:\n\n\n\t\t\t\t\t\t\t\t\\( \\lVert A\\lVert =\\max \\{|a_{ij}|,\\hskip 0.3pc\\hskip 0.3pci,j=1,\\ldots,n\\}. \\)\n\n"}, {"name": "Definicja 2:", "content": " Macierz wykładniczą \\( \\hskip 0.3pc e^{tA}\\hskip 0.3pc \\) definujemy jako granicę ciągu macierzy \\( \\hskip 0.5pc \\{S_k(t)\\}\\hskip 0.5pc \\):\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( e^{tA}=\\begin{bmatrix}b_{11}(t)\\ldots b_{1n}(t)\\\\ \\vdots \\ddots\\vdots\\\\ b_{n1}(t)\\ldots b_{nn}(t)\\end{bmatrix}=\\lim\\limits_{k\\rightarrow \\infty}\\begin{bmatrix}b_{11}^{(k)}(t)\\ldots b_{1n}^{(k)}(t)\\\\ \\vdots \\ddots\\vdots \\\\b_{n1}^{(k)}(t)\\ldots b_{nn}^{(k)}(t)\\end{bmatrix}=\\lim\\limits_{k\\rightarrow \\infty}S_k(t)=\\displaystyle\\sum_{i=0}^{\\infty }\\dfrac{t^i}{i!}A^i. \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 416, "subject": "Wyznaczanie macierzy wykładniczej", "paragraphs": ["Do wyznaczania macierzy wykładniczej \\( \\hskip 0.3pc e^{tA}\\hskip 0.3pc \\) wykorzystamy następujące twierdzenie:", "Omówimy teraz jak wyznacza się klatki Jordana i macierz nieosobliwą P.", "Niech \\( \\hskip 0.3pc A\\hskip 0.3pc \\) będzie rzeczywistą macierzą kwadratową wymiaru \\( \\hskip 0.3pc n\\times n,\\hskip 0.3pc \\) a \\( \\hskip 0.3pc\\lambda_1, \\ldots ,\\lambda_k,\\hskip 0.5pck\\le n\\hskip 0.3pc \\) będą wartościami własnymi macierzy \\( \\hskip 0.3pc A\\hskip 0.3pc \\). Niech", "będzie podprzestrzenią własną odpowiadająca wartości własnej \\( \\hskip 0.3pc \\lambda_i\\hskip 0.3pc \\). Rozważymy następujące przypadki.", "1. Wymiar przestrzeni \\( \\hskip 0.3pc V_i^{(0)}\\hskip 0.3pc \\) jest równy krotności wartości własnej \\( \\hskip 0.3pc\\lambda_i.\\hskip 0.3pc \\) Niech \\( \\hskip 0.3pc m\\hskip 0.3pc \\)- oznacza krotność wartości własnej \\( \\hskip 0.3pc \\lambda_i\\hskip 0.3pc \\) i niech układ wektorów \\( \\hskip 0.3pc \\{v_{i_1}^{(0)},\\ldots ,v_{i_m}^{(0)}\\}\\hskip 0.3pc \\) będzie bazą przestrzeni \\( \\hskip 0.3pc V_i^{(0)}\\hskip 0.3pc \\). Każdemu wektorowi \\( v_{i_j}^{(0)} \\) odpowiada pojedyncza klatka Jordana, którą będziemy oznaczać \\( \\hskip 0.3pc J_{i_j}=[\\lambda_i].\\hskip 0.3pc \\) W tym przypadku mamy \\( \\hskip 0.3pc m\\hskip 0.3pc \\) jednakowych pojedynczych klatek Jordana.", "2. Wymiar przestrzeni \\( \\hskip 0.3pc V_i^{(0)}\\hskip 0.3pc \\) jest mniejszy od krotności wartości własnej \\( \\hskip 0.3pc \\lambda_i\\hskip 0.3pc \\). Jeżeli \\( \\hskip 0.3pc m\\hskip 0.3pc \\)- jest krotnością wartości własnej \\( \\hskip 0.3pc\\lambda_i\\hskip 0.3pc \\) a \\( \\hskip 0.3pc r\\hskip 0.3pc \\)- wymiarem przestrzeni własnej \\( \\hskip 0.3pc V_i^{(0)},\\hskip 0.3pc \\) wtedy mamy \\( \\hskip 0.3pc m\\hskip 0.3pc \\) wektorów \\( \\hskip 0.3pc\\{v_{i_1}^{(0)},\\ldots ,v_{i_m}^{(0)}\\},\\hskip 0.3pc \\) z których tylko pierwszych \\( \\hskip 0.3pc r\\hskip 0.3pc \\) stanowi bazę przestrzeni \\( \\hskip 0.3pc V_i^{(0)}\\hskip 0.3pc \\) a pozostałe \\( \\hskip 0.3pc m-r\\hskip 0.3pc \\) wektorów są wektorami głównymi odpowiednich rzędów związanymi niekoniecznie ze wszystkimi wektorami własnymi \\( \\hskip 0.3pc\\{v_{i_1}^{(0)},\\ldots ,v_{i_r}^{(0)}\\}\\hskip 0.3pc \\). Każdemu wektorowi własnemu \\( \\hskip 0.3pc v_{i_1}^{(0)},\\ldots ,v_{i_r}^{(0)}\\hskip 0.3pc \\) odpowiada odpowiednio klatka Jordana \\( \\hskip 0.3pcJ_{i_1},\\ldots ,J_{i_r}. \\) Jeżeli wektorowi \\( \\hskip 0.3pc v_{i_j}^{(0)}\\hskip 0.3pc \\)- nie odpowiada żaden wektor główny, to klatka Jordana odpowiadająca wektorowi \\( \\hskip 0.3pc v_{i_j}^{(0)}\\hskip 0.3pc \\) jest jednoelementowa \\( \\hskip 0.3pc J_{i_j}=[\\lambda_i].\\hskip 0.3pc \\) Jeżeli natomiast wektorowi własnemu \\( \\hskip 0.3pc v_{i_j}^{(0)}\\hskip 0.3pc \\) odpowiadają wektory główne \\( \\hskip 0.3pc v_{i_j}^{(1)},\\ldots ,v_{i_j}^{(k)}\\hskip 0.3pc \\) związane z wektorem \\( \\hskip 0.3pc v_{i_j}^{(0)}\\hskip 0.3pc \\) zależnościami:", "W macierzy \\( \\hskip 0.3pc J_{i_j}\\hskip 0.3pc \\) jej pierwszej kolumnie odpowiada wektor własny \\( \\hskip 0.3pc v_{i_j}^{(0)}\\hskip 0.3pc \\), drugiej wektor główny \\( \\hskip 0.3pc v_{i_j}^{(1)},\\hskip 0.3pc \\) odpowiednio \\( \\hskip 0.3pc k+1\\hskip 0.2pc \\)-kolumnie wektor główny \\( \\hskip 0.3pc v_{i_j}^{(k)}\\hskip 0.3pc \\). Kolumnami macierzy nieosobliwej \\( \\hskip 0.3pc P\\hskip 0.3pc \\) są wektory własne i główne. Konstrukcje macierzy \\( \\hskip 0.3pc P\\hskip 0.3pc \\) wyjaśnimy na przykładzie. Niech macierz \\( \\hskip 0.3pc A\\hskip 0.3pc \\) wymiaru \\( \\hskip 0.3pc 5\\times 5\\hskip 0.3pc \\) ma dwie wartości własne: \\( \\hskip 0.3pc\\lambda_1\\hskip 0.3pc \\) o krotności \\( \\hskip 0.3pc 3,\\hskip 0.3pc \\) której odpowiadają wektory \\( v_1^{(0)},\\hskip 0.3pc v_1^{(1)},\\hskip 0.3pc v_1^{(2)}\\hskip 0.3pc \\) określone zależnością ( 1 ) oraz wartość własną \\( \\hskip 0.3pc\\lambda_2\\hskip 0.3pc \\) o krotności 2 , której odpowiadają wektory \\( \\hskip 0.3pc v_2^{(0)},\\hskip 0.3pc v_2^{(1)}\\hskip 0.3pc \\) określone zależnością ( 1 ). Wówczas klatki Jordana odpowiadające wartościom własnym \\( \\hskip 0.3pc \\lambda_1\\hskip 0.3pc \\) (odpowiednio \\( \\hskip 0.3pc \\lambda_2\\hskip 0.3pc \\)) mają postać", "Macierz Jordana \\( \\hskip 0.3pc J\\hskip 0.3pc \\) ma wtedy postać:", "a kolumnami macierzy \\( \\hskip 0.3pc P\\hskip 0.3pc \\) są odpowiednio współrzędne wektorów \\( \\hskip 0.3pc v_1^{(0)},\\hskip 0.3pc v_1^{(1)},\\hskip 0.3pc v_1^{(2)},\\hskip 0.3pc v_2^{(0)},\\hskip 0.3pc v_2^{(1)}.\\hskip 0.3pc \\) Macierz Jordana \\( \\hskip 0.3pc J\\hskip 0.3pc \\) można zapisać też w postaci", "ale wtedy kolumnami macierzy \\( \\hskip 0.3pc P\\hskip 0.3pc \\) są odpowiednio współrzędne wektorów \\( \\hskip 0.3pc v_2^{(0)},\\hskip 0.3pc v_2^{(1)},\\hskip 0.3pc v_1^{(0)},\\hskip 0.3pc v_1^{(1)},\\hskip 0.3pc v_1^{(2)}\\hskip 0.3pc \\).", "Niech \\( \\hskip 0.3pc J_i\\hskip 0.3pc \\) będzie klatką Jordana wymiaru \\( \\hskip 0.3pc s\\times s\\hskip 0.3pc \\)", "Macierz \\( \\hskip 0.3pc J_i\\hskip 0.3pc \\) możemy zapisać jako sumę macierzy", "gdzie", "Ponieważ \\( \\hskip 0.3pc D_i\\cdot M_i=M_i\\cdot D_i\\hskip 0.3pc \\) więc na mocy uwagi 4 mamy", "Policzymy teraz \\( \\hskip 0.3pc e^{tD_i}\\hskip 0.3pc \\). Ponieważ", "więc", "Policzymy teraz \\( \\hskip 0.3pc e^{tM_i}\\hskip 0.3pc \\).", "Zatem", "Wyznaczymy teraz macierze \\( \\hskip 0.3pc J,\\hskip 0.3pc P,\\hskip 0.3pc \\) i \\( \\hskip 0.3pc e^{tJ}\\hskip 0.3pc \\) dla niektórych przykładów z następujących modułów: \"Rozwiązywanie układów równań liniowych jednorodnych o stałych współczynnikach, gdy wartości własne są różne, ale nie wszystkie rzeczywiste\", \"Rozwiązywanie układów równań liniowych jednorodnych o stałych współczynnikach, gdy macierz układu jest diagonalizowalna\", \"Przykłady rozwiązywania układów równań liniowych jednorodnych o stałych współczynnikach, gdy macierz układu nie jest diagonalizowalna\"."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 417, "subject": "Przykłady rozwiązywania układów równań liniowych jednorodnych o stałych współczynnikach przy użyciu macierzy wykładniczej", "paragraphs": ["Przykład 2 pokazuje, że jeżeli macierz \\( \\hskip 0.3pc A\\hskip 0.3pc \\) ma wartości własne zespolone, to macierz \\( \\hskip 0.3pc P\\cdot e^{tJ}\\hskip 0.3pc \\) jest zespolona, natomiast macierz \\( \\hskip 0.3pc P\\cdot e^{tJ}\\cdot P^{-1}\\hskip 0.3pc \\) jest rzeczywista, dlatego musimy wyznaczyć macierz \\( \\hskip 0.3pc P^{-1},\\hskip 0.3pc \\) bo inaczej otrzymalibyśmy rozwiązanie zespolone układu."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 432, "subject": "Przykłady rozwiązywania układów równań liniowych niejednorodnych o stałych współczynnikach metodą uzmienniania stałych", "paragraphs": ["Rozważmy układ równań:", "gdzie", "Jeżeli funkcje", "stanowią układ fundamentalny rozwiązań dla układu jednorodnego :", "nazywamy macierzą fundamentalną układu ( 2 ). Z twierdzenia 3 wynika, że rozwiązanie ogólne układu równań ( 1 ) jest postaci", "gdzie \\( \\hskip 0.5pc C=\\begin{bmatrix}c_1\\\\ \\vdots \\\\c_n\\end{bmatrix}\\hskip 0.5pc \\), a \\( \\hskip 0.6pc c_1,\\ldots ,\\hskip 0.3pc c_n\\hskip 0.3pc \\)-są to dowolne stałe. Natomiast rozwiązanie układu równań ( 1 ) spełniającego warunek początkowy", "gdzie \\( \\hskip 0.3pc x_{01},\\hskip 0.3pc \\ldots ,\\hskip 0.3pc x_{0n},\\hskip 0.3pc \\) są dane, a \\( \\hskip 0.3pc t_0\\hskip 0.3pc \\) jest ustalonym punktem przedziału \\( \\hskip 0.3pc I,\\hskip 0.3pc \\) jest postaci:"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 421, "subject": "Rozwiązywanie układów równań liniowych niejednorodnych o stałych współczynnikach metodą przewidywań", "paragraphs": ["Rozważmy układ równań:", "gdzie \\( \\hskip 0.3pc x(t)= \\begin{bmatrix} x_1(t) \\\\ \\vdots \\\\x_n(t) \\end{bmatrix}, \\hskip 1pc A=\\begin{bmatrix} a_{11} & \\ldots & a_{1n} \\\\ \\vdots & \\ddots & \\vdots \\\\ a_{n1} & \\ldots & a_{nn} \\end{bmatrix}, \\hskip 1pc f(t)= \\begin{bmatrix} f_1(t) \\\\\t\\vdots \\\\ f_n(t) \\end{bmatrix}.\\hskip 0.3pc \\) Jeżeli \\( \\hskip 0.3pc x_c(t)\\hskip 0.3pc \\) jest rozwiązaniem ogólnym układu jednorodnego:", "Metoda przewidywań ma zastosowanie , jeżeli elementy macierzy \\( \\hskip 0.3pc f(t)\\hskip 0.3pc \\) są wielomianami, funkcjami wykładniczymi, funkcjami sinus lub cosinus, ewentualnie sumami lub iloczynami wymienionych funkcji.", "Algorytm postępowania przy wyznaczaniu rozwiązania układu ( 1 ) metodą przewidywań.", "3. Dla każdej funkcji \\( \\hskip 0.3pc f_i(t),\\hskip 0.3pc i=1,\\ldots,k \\hskip 0.3pc \\) wyznaczamy rozwiązanie szczególne \\( \\hskip 0.3pc x_{p_i}(t) \\hskip 0.3pc \\) układu równań", "W zależności od postaci funkcji \\( \\hskip 0.3pc f_i(t) \\hskip 0.3pc \\) przewidujemy rozwiązanie szczególne \\( \\hskip 0.3pc x_{p_i}(t) \\hskip 0.3pc \\) w postaci ( 3 ), ( 4 ) i ( 6 ) lub ( 7 ). Podstawiając \\( \\hskip 0.3pc x_{p_i}(t) \\hskip 0.3pc \\) i \\( \\hskip 0.3pc x_{p_i}^\\prime (t) \\hskip 0.3pc \\) do równania ( 8 ) otrzymamy równanie macierzowe, z kórego wyliczamy stałe \\( \\hskip 0.3pc d_{lj},\\hskip 0.3pc c_{lj}. \\)", "4. Rozwiązanie ogólne układu ( 1 ) zapisujemy jako sumę wyżej wymienionych rozwiązań:"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 422, "subject": "Przykłady rozwiązywania układów równań liniowych niejednorodnych o stałych współczynnikach metodą przewidywań", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 423, "subject": "Przykłady zastosowania układów równań różniczkowych", "paragraphs": ["Układy równań różniczkowych mają zastosowanie przy opisie wielu zagadnień fizycznych, technicznych i ekonomicznych."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 397, "subject": "Układy dynamiczne. Klasyfikacja punktów stacjonarnych na płaszczyźnie", "paragraphs": ["Rozpatrzmy układ \\( n \\) równań różniczkowych zwyczajnych, których prawe strony nie zależą od zmiennej \\( t \\):", "Będziemy zakładać, że funkcje \\( f_i, \\,\\,i=1,...n,\\, \\) są różniczkowalne w sposób ciągły po wszystkich zmiennych \\( x_i. \\) Układ ( 1 ) nazywa się układem autonomicznym, albo też układem dynamicznym.", "Zamiast pełnego układu ( 1 ), w małym otoczeniu punktu stacjonarnego można rozpatrywać jego linearyzację . Rozpatrzmy prawą stronę tego układu. Każdą funkcję \\( f_i(x_{1},\\,x_{2},...x_{n}) \\) można w otoczeniu punktu \\( \\left(x_{1,0},\\,x_{2,0},...x_{n,0}\\right) \\) przedstawić, zgodnie ze wzorem Taylora, w postaci", "gdzie \\( \\xi=\\sqrt{\\sum_{k=1}^n\\left(x_k-x_{k,0}\\right)^2} \\) oraz", "Zatem zachodzi", "Układ (2) nazywa się linearyzacją układu dynamicznego ( 1 ) w otoczeniu punktu stacjonarnego \\( (x_{1,0},\\,x_{2,0},...x_{n,0}) \\). Okazuje się, że przy pewnych warunkach, rozwiązania układu ( 1 ) oraz rozwiąznia układu liniowego ( 2 ) są w małym otoczeniu punktu stacjonarnego \"jakościowo identyczne\". Ponieważ rozwiązywać (analizować) układ liniowy jest na ogół niezmiernie prościej, niż układ pełny, opłaca się spróbować znaleźć warunki umożliwiające taką podmianę. To, czy zachowanie pełnego układu w otoczeniu punktu stacjonarnego jest rzeczywiście reprezentowane przez jego linearyzację, zależy od wartości własnych macierzy linearyzacji układu ( 2 ). Przeanalizujemy to na przykładzie układu w \\( R^2 \\), podając przy okazji klasyfikację prostych punktów stacjonarnych. Rozpatrzmy zatem układ równań", "Portretem fazowym układu ( 3 ) nazywamy zbiór krzywych sparametryzowanych", "które tworzą rozwiązania tego układu. Posługując się terminologią zapożyczoną w mechanice punktu materialnego, krzywe ( 4 ) nazywają też często trajektoriami lub trajektoriami fazowymi.", "Przystępujemy do klasyfikacji punktów stacjonarnych układu ( 3 ).", "1. Przypadek, gdy wartości własne \\( \\lambda_1,\\,\\,\\lambda_2 \\) macierzy \\( \\hat A \\) są rzeczywiste, różne, dodatnie. Niech na przykład \\( 0\\lt \\lambda_1\\,\\lt\\,\\lambda_2 \\). Wtedy punkt \\( (0,\\,0) \\) przestrzeni fazowej nazywa się źródłem. Wówczas da się znaleźć taką liniową zamianę zmiennych", "że układ ( 3 ) przybierze postać", "Rozwiązaniem tego układu są wówczas funkcje", "W przypadku, gdy \\( C_1 \\neq 0 \\), rozwiązanie to można przedstawić w postaci równoważnej, przedstawiając \\( y_2 \\) jako funkcję \\( y_1 \\) poprzez wyrugowanie \\( t \\):", "Portret fazowy układu ( 5 ) wygląda w tym przypadku tak, jak jest to pokazane na Rys. 1.", "Zwróćmy uwagę na to, że osie współrzędnych są trajektoriami fazowymi układu. Oś pozioma odpowiada przypadku \\( C_2=0 \\), zaś oś pionowa odpowiada przypadkowi osobliwemu \\( C_1=0 \\). Te dwie trajektorie fazowe nie są ujęte we wzorze ( 6 ).", "2. Wartości własne \\( \\lambda_1,\\,\\,\\lambda_2 \\) macierzy \\( \\hat A \\) są rzeczywiste, różne, ujemne.", "Niech na przykład \\( \\lambda_2\\,\\lt\\,\\lambda_1\\,\\lt\\,0 \\). Punkt \\( (0,\\,0) \\) przestrzeni fazowej nazywa się wówczas zlewem. Podobnie jak w przypadku poprzednim, istnieje liniowa zamiana zmiennych \\( (\\xi,\\,\\eta)\\rightarrow (y_1,\\,y_2) \\) taka, że w nowych zmiennych układ ( 3 ) ma postać", "Zauważmy teraz, że zamiana zmiennej niezależnej \\( t\\rightarrow\\tau=-t \\) odzworowuje układ ( 7 ) w układ", "równoważny układowi ( 5 ). Przekształcenie \\( t\\rightarrow\\tau=-t \\) nazywa się odbiciem zmiennej czasowej. Prowadzi ono do tego, że ruch wzdłuż każdej trajektorii fazowej odbywa się w przeciwnym kierunku. Poza tym portret fazowy pozostaje bez zmian. Wynika stąd, że portret fazowy układu ( 7 ) będzie taki, jak pokazano na Rys. 2.", "3. Przypadek gdy wartości własne \\( \\lambda_1,\\,\\,\\lambda_2 \\) macierzy \\( \\hat A \\) są rzeczywiste, niezerowe i mają różne znaki. Niech, na przykład, \\( \\lambda_1\\,\\gt\\,0\\,\\gt\\,\\lambda_2 \\). Wtedy punkt \\( (0,\\,0) \\) przestrzeni fazowej nazywa się siodłem. Wówczas istnieje liniowa zamiana zmiennych \\( (\\xi,\\,\\eta)\\rightarrow (y_1,\\,y_2) \\) taka że w nowych zmiennych układ ( 3 ) ma postać", "Rozwiązanie tego układu dane jest wzorami", "W przypadku, gdy \\( C_1 \\neq 0 \\), rozwiązanie to można też przepisać w postaci równoważnej, przedstawiając \\( y_2 \\) jako funkcję \\( y_1 \\) poprzez wyrugowanie zmiennej \\( t \\):", "gdzie", "Portret fazowy układu ( 9 ) w tym przypadku wygląda tak, jak to jest pokazane na Rys. 3. Zwrócmy uwagę na to, że osie współrzędnych są również trajektoriami fazowymi układu ( 10 ). Oś pozioma odpowiada przypadkowi \\( C_2=0 \\); oś pionowa odpowiada przypadku osobliwemu \\( C_1=0 \\). Te dwie trajektorie fazowe nie są wyrażone poprzez wzór ( 9 )", "4. Przypadek gdy wartości własne \\( \\lambda_1,\\,\\,\\lambda_2 \\) macierzy \\( \\hat A \\) są czysto urojone i róznią się znakiem: \\( \\lambda_{1,2}= \\pm\\,i\\,\\omega \\).", "W tym przypadku punkt \\( (0,\\,0) \\) przestrzeni fazowej nazywa się środkiem. Istnieje liniowa zamiana zmiennych \\( (\\xi,\\,\\eta)\\rightarrow (y_1,\\,y_2) \\) taka, że w nowych zmiennych układ ( 3 ) ma postać", "Rozwiązanie tego układu dane jest wzorami", "Rozwiązania te są funkcjami okresowymi. W płaszczyźnie fazowej na rysunku Rys. 4 są one przedstawione w postaci krzywych (orbit) zamkniętych.", "5. Przpadek gdy wartości własne \\( \\lambda_1,\\,\\,\\lambda_2 \\) macierzy \\( \\hat A \\) są zespolone, czyli \\( \\lambda_{1,2}=\\alpha\\,\\pm\\,i\\,\\omega \\). W tym przypadku punkt \\( (0,\\,0) \\) przestrzeni fazowej nazywa się ogniskiem niestabilnym w przypadku gdy \\( \\alpha\\,\\gt\\,0 \\) oraz stabilnym gdy \\( \\alpha\\lt 0 \\). Portret fazowy ogniska niestabilnego przedstawionno na Rys. 5. Portret fazowy ogniska stabilnego wygląda podobnie, przy czym trajektorie są tu skierowane do początku układu współrzędnych.", "Zachodzi"], "definitions": [{"name": "Definicja 1:", "content": "\nPunkt \\( (x_{1,0},\\,x_{2,0},...x_{n,0})\\in R^n \\) nazywa się punktem stacjonarnym układu ( 1 ), jeżeli \\( f_i(x_{1,0},\\,x_{2,0},...x_{n,0})=0, \\,\\,i=1,...n \\).\n\n"}, {"name": "Definicja 2:", "content": "\nZbiór zmiennych \\( (\\xi,\\,\\eta)\\in\\,R^2 \\) nazywamy płaszczyzną fazową układu ( 3 )\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 427, "subject": "Pojęcie całkowania jakościowego. Układy hamiltonowskie na płaszczyźnie", "paragraphs": ["Kompletne badanie układu dynamicznego polega na znalezieniu rozwiązania analitycznego dla dowolnego dobrze postawionego zagadnienia początkowego. Cel ten, jednak, jest osiągalny dla bardzo niewielkiej rodziny układów liniowych i to zwykle o stałych współczynnikach oraz tylko dla niektórych układów nieliniowych, które udaje się w ten czy inny sposób scałkować, wykorzystując ich szczególną sprzyjającą całkowaniu postać. W teorii jakościowej układów dynamicznych badania układu równań traktuje się nieco inaczej, gdyż główny nacisk w tym podejściu kładzie się na opis rozwiązań chzrakterystycznych dla danego układu. Badania jakościowe układu dynamicznego włączają takie elementy jak odnajdywanie punktów stacjonarnych oraz badanie ich charakteru, czy też badanie istnienia trajektorii okresowych oraz obserwacje zachowania się rozwiązań, przy wartościach argumentu dążących do nieskończoności. Zatem, zamiast próby scałkowania układu, która rzadko kiedy bywa skuteczna, usiłujemy uzyskać informację o charakterze rozwiązań jedynie na podstawie samej postaci układu dynamicznego. Okazuje się że analiza jakościowa jest wyjątkowo skuteczna w sytuacji, gdy układ dynamiczny jest hamiltonowski. Analizie pewnej rodziny układów hamiltonowskich, ważnej z punktu widzenia zastosowań, poświęcony jest w całości niniejszy moduł.", "Układ dynamiczny", "nazywa się układem hamiltonowskim, jeżeli istnieje różniczkowalna funkcja \\( H(x,\\,y) \\) taka, że zachodzą równości", "Dowód Niech funkcje \\( x(t),\\,\\,\\,y(t) \\) będą rozwiązaniami układu hamiltonowskiego. Wówczas, różniczkując funkcję \\( H[x(t),\\,\\,y(t)] \\) względem \\( t \\), otrzymamy:", "Równaniem które można sprowadzić do układu hamiltonowskiego, jest równanie", "opisujące ruch punktu materialnego o masie jednostkowej w polu sił potencjalnych. Wprowadzając zmienną \\( y(t)=\\dot x(t) \\), równanie to można przedstawić w postaci układu dynamicznego", "Dowód Rozpatrzmy układ równań", "Całkując względem zmiennej \\( y \\) pierwsze równanie otrzymamy funkcję", "gdzie nieznana funkcja \\( V(x) \\) pełni rolę stałej całkowania. Podstawiając ten wynik do drugiego równania, otrzymamy", "Zatem nieznaną funkcję można przedstawić w postaci", "Jak widać ze wzoru ( 2 ), dodanie do funkcji Hamiltona stałej adytywnej nie wpływa na postać funkcji \\( F(x,\\,y) \\) oraz \\( G(x,\\,y) \\). Dlatego, bez straty ogólności, możemy przyjąć, że \\( C_1=0. \\)", "1. Wszystkie punkty stacjonarne (zob. moduł Układy dynamiczne. Klasyfikacja punktów stacjonarnych na płaszczyźnie ) układu ( 6 ) znajdują się na osi \\( OX \\). Współrzędna \\( x_0 \\) punktu stacjonarnego spełnia równanie \\( \\phi(x_0)=0 \\).", "2. Każdą trajektorię fazową układu ( 6 ) można przedstawić w płaszczyźnie fazowej \\( (x,\\,y) \\) w postaci poziomicy funkcji \\( H(x,\\,y) \\);", "przy pewnej stałej \\( C \\).", "3. Funkcja Hamiltona układu ( 6 ) nie zmienia się pod działaniem transformacji \\( \\bar y=-y \\). Własność ta wynika bezpośrednio ze wzoru ( 7 ).", "4. Trajektorie fazowe przecinają oś \\( OX \\) pod kątem prostym, wszędzie za wyjątkiem, ewentualnie, punktów stacjonarnych.", "Dowód. Z ( 6 ) wynika równość", "Prawa strona tej równości dąży do \\( \\pm\\infty, \\) gdy \\( y \\) dąży do zera, chyba że \\( \\phi(x)=0 \\) (czyli \\( x \\) jest punktem stacjonarnym). Ponieważ \\( \\frac{d\\,y}{d\\,x} \\) pokrywa się z tangensem kąta stycznej do trajektorii, więc w miarę zbliżania się do punktu \\( (x,\\,0) \\) kąt ten dąży do \\( \\pm \\pi/2 \\).", "5. Następująca własność jest bardzo przydatna z punktu widzenia konstrukcji portretów fazowych. Z tego, że hamiltonian przybiera stałą wartość na rozwiązaniach układu dynamicznego, wynika równość", "Ponieważ człon po lewej stronie (energia kinetyczna) nie może być ujemny, więc trajektoria nie może mieć współrzędnej \\( x, \\) której odpowiada wartość funkcji \\( V(x)\\,\\gt\\,H_0 \\). Dlatego jeśli założymy, na przykład, że \\( V(x) \\) monotonicznie rośnie, to wówczas dla danej trajektorii istnieje maksymalna wartość \\( x_{M} \\) współrzędnej \\( x \\), określonej jako współrzędna przecięcia się wykresów odpowiednich funkcji, zob. Rys. 1.", "Z własności ( 3 ), ( 4 ), z kolei, wynika, że w punkcie \\( x_M \\) trajektoria fazowa doznaje odbicia, zob. Rys. 2", "6. Współrzędna \\( x \\) punktu stacjonarnego odpowiada ekstremum funkcji \\( V(x) \\). Punkt stacjonarny \\( (x_0,\\,0) \\) jest środkiem, jeżeli \\( V \\) ma w \\( x_0 \\) minimum lokalne; punkt stacjonarny \\( (x_1,\\,0) \\) jest siodłem, jeżeli w \\( V(x_1) \\) ma w \\( x_1 \\) maksimum lokalne. Dowód. Jeżeli \\( x_\\nu \\) jest punktem stacjonarnym, to \\( \\phi(x_\\nu)=0 \\). Stąd \\( V'(x_\\nu)=-\\phi(x_\\nu)=0 \\), a zatem punkt \\( x_\\nu \\) jest podejrzany o to, że jest on punktem ekstremalnym dla funkcji \\( V(x) \\). Licząc dalej macierz linaryzacji układu w punkcie \\( x_\\nu , \\) otrzymamy:", "Jak wiadomo, charakter punktu stacjonarnego zależy od wartości własnych macierzy linearyzacji. Obliczamy więc warości własne macierzy \\( M|_{x=x_\\nu}: \\)", "Zatem", "i punkt \\( (x_\\nu,\\,0) \\) jest środkiem;", "i punkt \\( (x_\\nu,\\,0) \\) jest siodłem.", "7. Trajektoria odpowiadająca poziomicy \\( H=H_0 \\), przecinającej jamę potencjalną (zob. Rys. 3, góra) jest trajektorią zamkniętą (zob. Rys. 3, dół), reprezentującą rozwiązanie okresowe."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 398, "subject": "Analiza jakościowa równania Duffinga", "paragraphs": ["W r. 1918 G. Duffing wyprowadził równanie, opisujące drgania rdzenia sprężystego, podwieszonego w silnym polu magnetycznym (zob. Rys. 1 ):", "Równanie to jest równoważne układowi hamiltonowskiemu", "z funkcją Hamiltona", "Przeanalizujemy energię potencjalną", "Ponieważ \\( V'(x)=x \\,(x-1)\\, (x+1) \\), więc ekstrema funkcji \\( V(x) \\) mogą się znajdywać w punktach \\( x_0=0,\\,\\,\\,x_{\\pm}=\\pm 1 \\). Badanie drugiej pochodnej pozwala orzec że w punkcie \\( x_0 \\) jest maksimum lokalne, natomiast w punktach \\( x_{\\pm}=\\pm 1 \\) znajdują się minima lokalne. Konsekwentnie, w punkcie \\( (0,\\,0) \\) płaszczyzny fazowej \\( (x,\\,y) \\) znajduje się siodło, natomiast w punktach \\( (\\pm1,\\,0) \\) znajdują się środki. Przebieg zmienności funkcji \\( V(x) \\) jest przedstawiony na Rys. 2.", "Funkcja \\( V(x) \\) ma dwa minima lokalne (zwane jamami potencjalnymi). Dąży ona asymptotycznie do \\( +\\infty , \\) gdy \\( |x| \\to \\pm \\infty \\). Na Rys. 2 przedstawione są również poziomice funkcji \\( H_0=H(x,\\,y) \\). Na Rys. 3 przedstawione są trajektorie fazowe odpowiadające tym poziomicom. Trajektorie okresowe otaczające środki odpowiadają poziomicom leżącym wewnątrz jam potencjalnych; trajektorie homokliniczne, bi-asymptotyczne do siodła, odpowiadają poziomicom przechodzącym przez maksimum lokalne (pogrubione linie przerywane na Rys. 2; poziomicy najwyżej położonej odpowiada trajektoria okresowa otaczająca oba środki.", "Interpretacja fizyczna omawianych rozwiązań jest następująca: ruchy okresowe dookoła punktów środkowych odpowiadają sytuacji, gdy rdzeń dokonuje małych drgań wokół jednego ze stabilnych punktów równowagi, które w obecności pola magnetycznego rdzeń posiada, gdy jest on odchylony od pionu w kierunku jednego z biegunów magnesu. Duże trajektorie okresowe otaczające oba środki odpowiadają dostatecznie dużym odchyleniom początkowym rdzenia. Trajektorie homokliniczne odpowiadają ruchom granicznym, oddzielającym małe lokalne drgania od dużych.", "Omówione rozwiązania wyczerpują wszystkie możliwe ruchy rdzenia wyprowadzonego z położenia równowagi w polu magnetycznym."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 399, "subject": "Analiza jakościowa równania opisującego ruch płaski wahadła matematycznego", "paragraphs": ["Rozpatrzmy model opisujący ruch płaski (czyli dwuwymiarowy) punktu materialnego o masie \\( m, \\) podwieszonego na nierozciągliwej nici długości \\( L, \\) w polu grawitacyjnym. Model fizyczny przedstawiony jest na Rys. 1.", "Na punkt materialny działa siła grawitacyjna \\( F_{gr}=m\\cdot g \\) skierowana w dół oraz siła naciągu nici \\( T \\), która w każdej chwili rekompensuje współrzędną podłużną siły grawitacji (warunek nierozciągliwości nici). Siłą wypadkową działającą na punkt materialny jest wówczas składowa poprzeczna siły grawitacji, wynosząca \\( m\\cdot g\\cdot \\sin{x} \\), gdzie \\( x \\) oznacza kąt odchylenia nici od pionu. Punkt materialny porusza się wzdłuż okręgu o promieniu \\( L \\); jego prędkość i przyspieszenie wynoszą odpowiednio \\( L \\dot x(t) \\) i \\( L \\ddot x(t) \\). Zgodnie z Zasady dynamiki Newtona-Druga zasada dynamiki Newtona, równanie ruchu ma postać", "Znak minus w prawej stronie wzoru odzwierciedla to, że siła poprzeczna, skierowana ku położeniu równowagi wahadła przeciwdziała wzrostowi kąta odchylenia. Napiszmy równanie ruchu w postaci:", "W przypadku gdy \\( |x|<<1 \\) (relacja \\( |x|<<1 \\) oznacza, że wartość bezwzględna \\( x \\) jest znacznie mniejsza od jedynki), \\( \\sin{x} \\) można zastąpić funkcją \\( x \\). Wówczas otrzymamy dobrze znane równanie liniowe, opisujące małe drgania punktu wokół położenia równowagi:", "Ogólne rozwiązanie równania ( 2 ) dane jest wzorem \\( x(t)=A\\,\\sin{(\\omega \\, t +\\phi)} \\). Poniżej przedstawiamy analizę zbioru rozwiazań równania ( 1 ). Ponieważ rozwiązań tych nie można opisać dokładnie poprzez funkcje elementarne, do ich analizy stosuje się metody jakościowe.", "Napiszmy równanie ( 1 ) w postaci równoważnego układu równań rzędu pierwszego:", "Dowód przeprowadza się bezpośrednim sprawdzeniem.", "Dowód wynika z niezmienniczości funkcji Hamiltona względem odbić \\( x\\rightarrow -x, \\) \\( y\\rightarrow -y \\) oraz okresowości funkcji \\( cos x \\). Przypomnijmy sobie, że każdą trajektorię fazową układu hamiltonowskiego można przedstawić w postaci \\( H(x,\\,y)=C, \\) przy pewnej stałej \\( C \\). Trajektorie układu (3) są symetryczne względem odbić od obu osi współrzędnych. Ponadto, na mocy trzeciej własności funkcji \\( H \\), wystarczy przeanalizować przebieg trajektorii fazowych na odcinku \\( (-\\pi,\\,\\,\\pi) \\) i dalej przedłużyć je na kolejne sąsiadujące ze sobą odcinki krotności \\( 2\\,\\pi \\).", "Wszystkie punkty stacjonarne układu (3) leżą na osi poziomej. Współrzędna \\( x \\) punktu stacjonarnego należy do zbioru \\( \\left\\{0,\\,\\pm \\pi,\\,\\pm 2\\,\\pi,...,\\pm\\,k\\,\\pi,...\\right\\} \\) \\( \\left\\{0,\\,\\pm \\pi,\\,\\pm 2\\,\\pi,...,\\pm\\,k\\pi,...\\right\\}, k\\in\\ N \\). Typy poszczególnych punktów stacjonarnych określa zachowanie funkcji", "opisującej energię potencjalną układu. Z wykresu tej funkcji, przedstawionego na Rys. 2 odczytujemy że punkty stacjonarne o współrzędnych \\( (\\pm 2\\,k\\,\\pi,\\,\\,0) \\) są środkami, wtedy gdy punkty stacjonarne o współrzędnych \\( \\left(\\pm ( 2\\,k+1)\\,\\pi,\\,\\,0\\right) \\) są siodłami.", "Fragment portretu fazowego układu (3) jest przedstawiony na Rys. 3.", "Fragmenty, nie pokazane na przedstawionym rysunku, uzyskuje się przeniesieniem portretu odpowiadającego odcinkowi \\( (-\\pi,\\,\\,\\pi) \\) o \\( 2\\,\\pi \\) w lewo i w prawo. Zauważmy że trajektoriom zamkniętym (oznaczonym kolorem niebieskim) odpowiadają nieliniowe rozwiązania okresowe, trajektoriom łączącym siodła (oznaczonym kolorem czerwonym) - rozwiązania heterokliniczne, trajektoriom leżacym poniżej lub powyżej heteroklinik (oznaczonym kolorem zielonym) - rozwiazania nieograniczone względem współrzędnej \\( x \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 389, "subject": "Nieliniowe rozwiązania okresowe w dwuwymiarowym układzie dynamicznym", "paragraphs": ["W module poświęconym klasyfikacji punktów stacjonarnych nie wchodząc w szczegóły wspominaliśmy o tym, że wszystkie omawiane punkty stacjonarne, poza środkiem, są odporne na małe zaburzenia. Zaburzenia takie mają rozmaity charakter. Zauważmy przede wszystkim, że układy dynamiczne służące do modelowania procesów naturalnych, uwzględniają zależności od rozmaitych parametrów, jak na przykład masy, przyspieszenia siły grawitacyjnej, współczynnika tarcia i wielu innych, dlatego typowy układ dynamiczny należałoby zapisać w postaci", "gdzie \\( \\mu=(\\mu_1,\\,...\\mu_m)\\,\\in\\,R^m \\) - zbiór parametrów. Charakter punktu stacjonarnego w ogólnym przypadku zależy od tego, jakie konkretne wartości przybierają parametry. Innym źródłem zaburzeń jest dodanie do układu zlinearyzowanego w małym otoczeniu punktu stacjonarnego odrzuconych członów szeregu Taylora:", "gdzie \\( \\xi^i=x^i-x_0^i \\), \\( DF[x_0]_j^i,\\,\\,D^2F[x_0]_{jk}^i,,... \\)- są to odpowiednio pierwsza, druga oraz wyższe pochodne cząstkowe \\( i \\)-tej skladowej wektor funkcji \\( F \\) obliczone w punkcie \\( x_0 \\). Otóż środek zmienia swój charakter pod wpływem zaburzeń zarówno pierwszego jak i drugiego rozaju. Rzeczywiście, przejście od macierzy niezaburzonej", "do macierzy zaburzonej", "czyni ze środka ognisko niestabilne przy dowolnie małym \\( \\mu>0 \\). Dodanie do układu zlinearyzowanego, opisujacego środek części nieliniowej, może mieć podobny efekt, jak w przypadku układu", "który opisuje ognisko stabilne. Można się o tym przekonać przechodząc do zmiennych biegunowych \\( \\rho=\\sqrt{x^2+y^2}, \\quad \\phi= \\arctan(y/x) \\). W zmiennych tych układ przekształca się w parę równań od siebie niezależnych", "Rozwiązania tych równań, jak łatwo się można przekonać, mają postać", "Widać, ze zmienna \\( \\rho(t) \\) dąży do zera gdy \\( t \\) dąży do \\( +\\infty \\), a więc portret fazowy układu w płaszczyźnie zmiennych ( \\( x,\\,\\,y \\)) powinien przypominać ognisko stabilne. Zauważmy też że przy \\( \\mu>0 \\) efekt zaburzenia części liniowej oraz efekt od dodania wyżej opisanej nieliniowości działają niejako w przeciwnych kierunkach. W wyniku takich jednoczesnych zburzeń, pojawia się nieliniowe rozwiązanie okresowe, zwane cyklem granicznym. Przebieg powstania takiego rozwiązania jest opisany niżej.", "Rozpatrzmy układ dwuwymiarowy", "Zakładamy, że układ ma punkt stacjonarny w zerze oraz, że przy \\( \\mu=0 \\) macierz linearyzacji \\( DF_0(0)=\\hat A \\) ma parę czysto urojonych wartości własnych \\( \\lambda_{1,\\,2}=\\pm\\,i\\,\\omega \\), natomiast przy \\( |\\mu|<<1 \\) — parę zespolonych wartości własnych \\( \\lambda_{1,\\,2}=\\mu\\,\\pm\\,i\\,\\omega(\\mu) \\). Zakładamy ponadto, że \\( |\\omega|=O(1) \\) oraz, że \\( \\omega(\\mu) \\) w sposób różniczkowalny zależy od parametra \\( \\mu \\), a zatem \\( \\omega(\\mu)=\\omega+O(|\\mu|) \\).", "Opiszemy poniżej procedurę przejścia do współrzędnych kanonicznych, w których macierz linearyzacji ma specyficzną postać. Punktem wyjścia będzie dla nas układ", "gdzie \\( \\hat A=D\\,F_\\mu[0] \\). Zakładamy, jak wyżej, że macierz ma parę zespolonych wartości własnych \\( \\lambda_{\\pm}=\\mu\\,\\pm\\,i\\,\\omega(\\mu) \\), którym odpowiada para zespolonych wektorów własnych \\( V_{\\pm}=R\\,\\pm i\\,I \\), \\( R,\\,I\\,\\in\\,R^2 \\). Założenie to można przedstawić w postaci wzoru", "lub, zapisując osobno część rzeczywistą i urojoną dla tej równości, w wposób następujący:", "Określmy macierz \\( P=\\left(R,\\,-I \\right) \\) oraz macierz \\( P^{-1} \\) do niej odwrotną", "gdzie \\( R^{-1}=(a_1,\\,a_2), \\,\\, I^{-1}=(b_1,\\,b_2) \\) są to wektory spełniające warunki", "Wykorzystując powyższe wzory, łatwo możemy wykazać następujący", "Dowód Działając na równanie ( 1 ) operatorem \\( P^{-1} \\) z lewej strony otrzymujemy:", "gdzie \\( (z_1,\\,z_2)^{tr} \\) oznacza operację transponowania wiersza. Rozważmy teraz macierz linearyzacji układu. Wykorzystując wzory ( 2 ) oraz relacje ortogonalności ( 3 ) otrzymamy:", "Zatem w nowych zmiennych układ przyjmuje postać", "gdzie", "Kolejnym krokiem jest sprowadzenie części nieliniowej układu ( 4 ) do postaci kanonicznej, umożliwiającej analizę powstania cyklu granicznego oraz jego stabilności (zob. też moduł Skalarne równanie quasiliniowe dla funkcji n zmiennych niezależnych ). Najprościej można to zrobić, przechodząc na zmienne zespolone \\( z=x+\\,i\\,y \\). Przejście to pozwala przedstawić układ ( 4 ) w postaci", "gdzie", "Interesować nas będą dwa pierwsze człony rozkładu funkcji \\( F[z,\\,\\bar z] \\) w szereg Taylora, dlatego funkcję \\( F[z,\\,\\bar z] \\) przedstawimy jako", "Dokonamy zamiany zmiennej", "gdzie \\( \\,\\,P_2= \\sum_{a+b=2}P^2_{a\\,b}w^a \\bar w^b\\,\\, \\), \\( P^2_{a\\,b} \\) będą na początek oznaczały dowolne współczynniki zespolone. Podstawiając ten wzór do równania ( 5 ), otrzymamy:", "gdzie \\( I_2 \\) jest to dwuwymiarowa macierz jednostkowa,", "Odtąd będziemy traktować przekształcenie ( 6 ) jako asymptotyczne, zatem obliczenia będziemy dokonywali z dokładnoscią do \\( O(|w|^3) \\). Mnożąc równanie ( 7 ) przez operator \\( \\left[ I_2-D\\,P_2\\right]+ \\) z lewej strony, otrzymujemy z żądaną dokładnością równanie", "gdzie", "Załóżmy, że \\( \\lambda = i \\omega \\). Założenie to nie wpłynie na wynik ostateczny, gdyż parametr \\( \\mu \\) jest niezależny i można go wybrać jako dowolnie mały. W nowych zmiennych współczynnik przy jednomianie \\( w^a \\bar w^b \\) zniknie jeżeli dokonamy następujacego wyboru \\( P^2_{a\\,b} \\):", "Wzór ( 10 ) ma sens, jeżeli \\( 1 - a + b \\neq 0 \\). Jednomiany dla których wzór ( 10 ) nie jest dobrze określony, noszą nazwę jednomianów nieusuwalnych, lub jednomianów rezonansowych. Obecność takich jednomianów drugiego stopnia można przeanalizować, rozwiązując układ równań", "Układ powyższy ma jedyne rozwiązanie \\( a=3/2,\\,\\,b=1/2 \\), więc nie spełnia go żadna para liczb \\( a,\\,\\,b\\,\\in \\,N \\bigcup\\,\\{0\\} \\). Wynika stąd, że wszystkie jednomiany stopnia 2 są usuwalne i przy odpowiednim doborze stałych \\( P^2_{a\\,b}, \\) układ ( 8 ) da się sprowadzić do postaci", "W celu usunięcia nierezonansowych jednomianów stopnia trzeciego, wykorzystamy zamianę zmiennych", "Po podstawieniu tego wyrażenia do ( 11 ) oraz po przemnożeniu uzyskanego wyrażenia przez operator \\( I_2 - D P_3 \\), otrzymamy układ (zob. też moduł Skalarne równanie quasiliniowe dla funkcji n zmiennych niezależnych )", "gdzie", "Zatem co najmniej niektóre z jednomianów trzeciego stopnia da się wyeliminować, dobierając \\( P^3_{m\\,n} \\) w postaci", "W celu sprawdzenia obecności jednomianów rezonansowych, rozważmy układ równań", "Układ ten ma jedyne rozwiązanie \\( m=2,\\,\\,n=1 \\), które, tym razem, należy do zbioru \\( N \\bigcup\\,\\{0\\}. \\) Tak więc, przy odpowiednim doborze współczynników \\( P^3_{m\\,n}, \\) pierwsze równanie układu (z ponownym uwzględnieniem parametru zaburzającego) można przedstawić w postaci", "Zmienną \\( v \\) można zapisać w postaci trygonometrycznej:", "Wstawiając to do powyższego wzoru, a następnie zapisując odpowiednie równania dla części rzeczywistej i zespolonej, otrzymamy układ dynamiczny", "Parametr \\( a \\), występujący w dwóch poprzednich wzorach, jest częścią rzeczywistą tzw. pierwszego indeksu Floqueta. Odgrywa on wiodącą rolę w badaniu narodzin cyklu granicznego oraz określeniu jego stabilności. Rozważamy równanie", "Ma ono zawsze punkt stacjonarny \\( \\rho_0=0 \\), a oprócz tego punkt stacjonarny \\( \\rho_1=\\sqrt{-\\frac{\\mu}{a}}\\,\\, \\) jednakże pod warunkiem, że \\( -\\frac{\\mu}{a}>0 \\). Zachodzą tu dwa przypadki:", "drugiego równania układu reprezentują na płaszczyźnie zmiennych fizycznych \\( \\left( Re (v),\\,\\,Im(v) \\right) \\) stabilne rozwiązanie okresowe. Ze względu na stabilność punktu stacjonarnego \\( \\rho_1, \\) wszystkie pobliskie trajektorie w trakcie ewolucji są przyciągane do opisanego wyżej rozwiazania okresowego, co właśnie cechuje jego stabilność.", "Na zakończenie tego punktu, przedstawimy wzór pozwalający określić parametr \\( a \\). W zmiennych występujących we wzorze ( 4 ), można go policzyć zgodnie z następującym wzorem 1", "gdzie"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 390, "subject": "Warunki powstania cyklu granicznego w równaniu typu Van der Pola", "paragraphs": ["Rozpatrzmy równanie (zob. też moduł Nieliniowe rozwiązania okresowe w dwuwymiarowym układzie dynamicznym ):", "Równanie to można przedstawić w postaci układu dynamicznego", "Rozwiązując równanie charakterystyczne", "otrzymamy:", "Zatem, przy \\( \\alpha=0, \\) macierz linearyzaji układu ( 2 ) w punkcie stacjonarnym \\( (0,\\,\\,0) \\) ma parę czysto urojonych wartości własnych \\( \\lambda_{\\pm}(0)=\\pm\\,i \\). Przeanalizujemy teraz warunki powstania cyklu granicznego w otoczeniu tego punktu, kładąc \\( \\alpha =0 \\). Obliczmy w tym celu macierz", "której kolumny \\( R=(R_1,\\,R_2)^{tr} \\), \\( -I=-(I_1,\\,I_2)^{tr} \\) spełniają równanie", "Równanie to jest równoważne układowi", "Zapiszmy pierwszy układ w postaci", "Zatem uklad ( 3 )-( 6 ) jest spełniony gdy \\( R_1=I_2 \\), \\( R_2=-I_1 \\), przy czym \\( I_1 \\), \\( I_2 \\) mogą być wybrane w dowolny sposób (eliminujemy, oczywiście, przypadek \\( I_1=I_2=0 \\)).", "Przyjmując, że \\( I_1=-1 \\), \\( I_2=0 \\) otrzymujemy następujący wzór:", "Mnożąc układ ( 1 ) z lewej strony przez \\( P^{-1}=P \\) oraz stosując zamianę zmiennych", "otrzymujemy", "Wykorzystując wzór na obliczenie pierwszego indeksu Floqueta 1", "gdzie", "otrzymujemy, że", "Z powyższego wzoru wynika, że w przypadku, gdy \\( \\beta>0 \\), układ posiada stabilne rozwiązanie okresowe przy małych \\( \\alpha>0 \\). Przy \\( \\beta<0 \\) oraz przy małych ujemnych wartościach \\( \\alpha, \\) w układzie realizują się niestabilne rozwiązania okresowe. Poniżej przedstawiono implementację w pakiecie \"Mathematica\" symulacji numerycznej równania Van der Pola. Na Rys. 1 przedstawiony jest portret fazowy ilustrujący przebieg rozwiązań w otoczeniu stabilnej trajektorii okresowej."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 428, "subject": "Skalarne quasiliniowe równanie cząstkowe", "paragraphs": ["Równania cząstkowe, są to równania wiążące funkcje wielu zmiennych oraz ich pochodne cząstkowe. Rozwiązywanie równań cząstkowych (w tych przypadkach, gdy jest to możliwe) wymaga opracowania metod istotnie różniących się od tych, które stosuje się w przypadku równań zwyczajnych. Istnieje jednak ważna klasa równań cząstkowych, która jest ściśle związana z układami równań zwyczajnych i których rozwiązywanie w dużej mierze opiera się na podejściach stosowanych w teorii równań zwyczajnych.", "Jeżeli funkcje \\( \\left\\{P_j\\right\\}_{j=1}^n \\) nie zależą od zmiennej \\( z \\), natomiast prawa strona równania ( 1 ) jest tożsamościowo równa zeru, wówczas równanie nazywa się liniowym jednorodnym. Wśród równań quasiliniowych wyróżniamy ważną podklasę równań o dwóch zmiennych niezależnych, dopuszczającą klarowną interpretację geometryczną. Będzie ona rozpatrzona w pierwszej kolejności, a następnie metody opracowane dla niej zostaną przeniesione na równania quasiliniowe o dowolnej ilości zmiennych niezależnych.", "Rozpatrzmy równanie postaci", "gdzie \\( z=z(x,\\,y) \\). Zakładamy że \\( P,\\,Q,\\,R \\) — są funkcjami ciągłymi w pewnym zbiorze otwartym \\( U\\,\\subset\\,R^3. \\) Ponadto zakładamy, że w zbiorze \\( U \\) nie ma żadnego punktu, w którym te funkcje zerują się jednocześnie. Rozpatrzmy funkcję wektorową", "gdzie \\( \\vec i,\\,\\vec j,\\,\\vec k \\) są to wektory o jednostkowej długości, skierowane odpowiednio wzdłuż osi \\( OX,\\,OY,\\,OZ. \\) Mówimy wówczas, że wzór ( 3 ) przyporządkowujący każdemu punktowi \\( (x,\\,y,\\,z) \\) pewien wektor przestrzenny, zadaje w obszarze \\( U\\,\\subset\\,R^3 \\) pole wektorowe.", "Rozpatrzmy teraz krzywą sparametryzowaną", "która w całości leży w \\( U \\) oraz spełnia warunek transwersalności", "Warunek ( 5 ) oznacza, że krzywa \\( \\Gamma \\) w żadnym punkcie nie jest styczna do pola \\( \\vec F(x,\\,y,\\,z). \\) W dalszym ciągu rozpatrzmy dwuparametrową rodzinę funkcji \\( x(t,\\,s),\\,y(t,\\,s),\\,z(t,\\,s) \\) będących rozwiązaniami zagadnienia początkowego", "Rodzina ta opisuje powierzchnię \\( \\Sigma \\) ( tzw. powierzchnię wektorową pola \\( \\vec F \\)), która cechuje się tym, że pole \\( \\vec F=(P,\\,Q,\\,R) \\) jest styczne do niej w każdym punkcie. Potocznie mówi się że powierzchnia \\( \\Sigma=(x(t,\\,s),\\,y(t,\\,s),\\,z(t,\\,s) ) \\) jest utkana z trajektorii pola wektorowego \\( \\vec F \\). Opis powierzchni \\( \\Sigma \\) można oprzeć na takiej obserwacji: jeżeli wzór", "opisuje pewną gładką powierzchnię w \\( R^3 \\), wówczas pole wektorowe", "zwane polem gradientowym powierzchni \\( \\Phi=C, \\) jest prostopadłe do tej powierzchni. Warunek prostopadłości można przedstawić w następującej postaci:", "Powyższy warunek wynika z tego, że pole \\( \\vec F \\) jest styczne do powierzchni \\( \\Sigma \\). Wówczas pole gradientowe jest w każdym punkcie do tej powierzchni prostopadłe. Powierzchnię tę można przedstawic w postaci funkcji", "Wówczas można przyjąć, że \\( \\Phi=\\phi(x,\\,y)-z \\) i warunek styczności przybiera postać równania", "które po dokonaniu podstawienia \\( \\phi(x,\\,y;\\,C)=z \\) oraz po przeniesieniu ostatniego wyrazu na prawą stronę, pokrywa się z ( 2 ). Jeżeli dla pewnego punktu \\( \\rho_0=(x_0,\\,y_0,\\,z_0) \\) spełniony jest warunek", "wówczas w pewnej kuli otwartej", "wzór \\( \\Phi (x,\\,y,\\,z)=C \\) zadaje w postaci uwikłanej pewną funkcję \\( z=\\psi(x,\\,y) \\), która jest określona w sposób jednoznaczny, przy ustalonej wartości parametru \\( C \\). Warunek prostopadłości zapisuje się wówczas w postaci jednorodnego równania liniowego", "Między quasiliniowym niejednorodnym równaniem ( 2 ), a liniowym jednorodnym równaniem ( 7 ) istnieje ścisły związek, który jest przedstawiony poniżej.", "Dowód Rzeczywiście, załóżmy że funkcja \\( z=\\phi(x,\\,y;\\,C) \\) jest określona równaniem", "Wówczas, różniczkując powyższą tożsamość najpierw względem \\( x \\), a następnie względem \\( y, \\) otrzymamy:", "Stąd mamy, że", "Podstawiając te wzory do ( 2 ) i mnożąc wynik przez \\( -{\\partial\\,\\Phi}/{\\partial\\,z}\\,\\, \\) otrzymamy, po elementarnych przeksztalceniach, żądaną tezę."], "definitions": [{"name": "Definicja 1:", "content": "\n Skalarnym niejednorodnym równaniem cząstkowym quasiliniowym nazywa się równanie postaci\n\n(1)\n\n\t\t\t\t\t\t\t\t\\( P_1(x_1,x_2,...x_n;z)\\frac{\\partial z}{\\partial x_1}+...+P_n(x_1,x_2,...x_n;z)\\frac{\\partial z}{\\partial x_n}=R(x_1,x_2,...x_n;z). \\)\n\n"}, {"name": "Definicja 2:", "content": "\n Liniami pola wektorowego \\( \\vec F(x,\\,y,\\,z) \\) nazywamy rozwiązania zagadnienia początkowego\n\n(4)\n\n\t\t\t\t\t\t\t\t\\( \\begin{cases}\\frac{d\\,x}{d\\,t}=P(x,\\,y,\\,z),& \\qquad x(t_0)=x_0, \\\\ \\\\ \\frac{d\\,y}{d\\,t}=Q(x,\\,y,\\,z),& \\qquad y(t_0)=y_0, \\\\ \\\\ \\frac{d\\,z}{d\\,t}=R(x,\\,y,\\,z),& \\qquad z(t_0)=z_0,\\end{cases} \\)\n\n\ngdzie \\( (x_0,\\,y_0,\\,z_0)\\,\\in\\,U. \\) Z interpretacji geometrycznej układu wynika, że pole wektorowe \\( \\vec F=(P,\\,Q,\\,R) \\) jest styczne do krzywej całkowej \\( \\left(x(t),\\,y(t),\\,z(t) \\right) \\) w każdym jej punkcie.\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 433, "subject": "Rozwiązanie ogólne równania quasiliniowego w przypadku funkcji dwóch zmiennych niezależnych", "paragraphs": ["Ponieważ każda powierzchnia całkowa równania", "może byc utkana z rozwiązań Skalarne quasiliniowe równanie cząstkowe-( 2 )", "to znalezienie rozwiązania ogólnego równania quasiliniowego sprowadza się do scałkowania stowarzyszonego z nim układu dynamicznego.", "Algorytm uzyskania rozwiązania ogólnego układu jest następujący:", "1. Rozwiązując układ ( 2 ), znajdujemy dwie niezależne całki pierwsze", "Funkcje te nazywamy charakterystykami. Sprawdzając, czy otrzymane charakterystyki sa niezależne, stosujemy następujące kryterium:", "2. Wybieramy dowolną gładką funkcję dwóch zmiennych \\( \\Phi(z_1,\\,z_2) \\), następnie rugując stałe \\( C_1,\\,\\, C_2 \\) z układu", "otrzymujemy równanie opisujące (dowolną) powierzchnię całkową", "Należy oczywiście sprawdzić, czy wzór rzeczywiście w sposób niejawny zadaje funkcję \\( z(x,\\,y) \\), spełniającą równanie. Dla sprawdzenia zrózniczkujmy więc wzór ( 3 ) względem \\( x \\) i \\( y \\):", "gdzie", "jest to pochodna zupełna względem \\( x \\), \\( D_y \\) określa się analogicznie; \\( \\Phi_1, \\,\\,\\Phi_2 \\) są to odpowiednio pochodne cząstkowe względem pierwszej i drugiej zmiennej funcji \\( \\Phi \\). Pochodne cząstkowe funkcji \\( z \\) mają wówczas postać", "Podstawiając powyższe wzory do lewej strony równania ( 1 ), otrzymamy:", "Ponieważ \\( \\psi^i \\) dla \\( i=1,\\,2 \\) spełniają układ ( 2 ) , zatem", "Podstawiając je do prawej strony wzoru ( 4 ), otrzymujemy równanie ( 1 ) i to konczy dowód."], "definitions": [{"name": "Definicja 1:", "content": "\nUkład\n\n(2)\n\n\t\t\t\t\t\t\t\t\\( \\frac{d\\,x}{{}P(x,y,z)}=\\frac{dy}{{}Q(x,y,z)}=\\frac{dz}{{}R(x,y,z)}=dt \\)\n\nnazywa się postacią charakterystyczną równania ( 1 ).\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 387, "subject": "Przykłady znajdowania rozwiązania ogólnego równania quasiliniowego o dwóch zmiennych niezależnych", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 388, "subject": "Rozwiązywanie zagadnienia początkowego równania quasiliniowego o dwóch zmiennych niezależnych", "paragraphs": ["Zanim przejdziemy do konkretnych przykładów, przypomnijmy sobie, że rozwiazanie ogólne równania", "opisuje rodzinę powierzchni wektorowych pola \\( \\vec F=\\left(P,\\,Q,\\,R \\right) \\) (zob. moduł Skalarne quasiliniowe równanie cząstkowe ) lub, innymi słowy, rodzinę powierzchni gładkich, do których pole \\( \\vec F \\) jest styczne w każdym punkcie. Powierzchnie te są utkane z krzywych całkowych stowarzyszonego z równaniem układu dynamicznego", "Konkretna powierzchnia będzie zadana w sposób jednoznaczny, jeżeli wskazana będzie gładka krzywa przestrzenna, w całości należąca do tej powierzchni. Ponieważ krzywa w \\( R^3 \\) jest miejscem geometrycznym przecięcia się pary powierzchni, można ją zadać podając parę równań", "opisujących te krzywą. Procedura znalezienia powierzchni całkowej pola \\( \\vec F \\), przechodzacej przez krzywą zadaną układem ( 3 ), polega na wspólnym rozwiązaniu układu", "Drugą parę równań tego układu stanowią równania niezależnych charakterystyk, spełniających układ", "Techniczne znalezienie powierzchni, przechodzącej przez linię zadaną równaniami, polega na wykluczeniu współrzędnych \\( (x,\\,y,\\,z) \\) z układu ( 4 ),( 5 ). Daje to w efekcie funkcję, wiążącą stałe \\( C_1 \\) i \\( C_2 \\)."], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 400, "subject": "Skalarne równanie quasiliniowe dla funkcji n zmiennych niezależnych", "paragraphs": ["Schemat rozwiązywania równania quasiliniowego można uogólnić na przypadek funkcji zależnej od \\( n \\) zmiennych ( \\( n\\,>\\,2 \\)). Rozpoczniemy od rozwiązywania równania liniowego jednorodnego", "Załóżmy że \\( P_i,\\,i=1...n, \\) są funkcjami ciągłymi, które nie zerują się jednocześnie w żadnym punkcie pewnego zbioru \\( U\\,\\subset\\,R^n. \\) Schemat rozwiązania równania jest następujący: zapisujemy układ równań", "i znajdujemy \\( \\,n-1\\, \\) niezależnych całek pierwszych", "tego układu. Funkcje \\( \\psi^1,....\\psi^{n-1} \\) nazywane są charakterystykami. Żeby przekonać się, że charakterystyki są niezależne, wystarczy sprawdzić, czy rząd macierzy Jacobiego", "w każdym punkcie \\( (x_1,\\,x_2,...x_n)\\,\\in\\,U \\) jest maksymalny, czyli równy \\( n-1 \\). Wykażemy", "Dowód Różniczkując równanie \\( \\,\\,\\psi^k(x_1,\\,x_2,....x_n)=C_k,\\, \\) otrzymujemy", "Ponieważ różniczka \\( d\\,t \\) nie jest równa zeru, więc", "Dowód Każda charakterystyka zachowuje stałą wartość na każdym rozwiązaniu układu ( 2 ), więc każda funkcja gładka, zależna wyłącznie od charakterystyk danego układu, również zachowuje stałą wartość na jego rozwiązaniach.", "Dowód Skorzystajmy ze wzoru na pochodną cząstkową złożonej funkcji", "Zatem", "Zmieniając kolejność sumowania, otrzymamy", "Ostatnia równość wynika stąd, że, na mocy lematu 1, suma w nawiasach klamrowych jest równa zeru. Zachodzi również", "Dowód tego twierdzenia pomijamy.", "Rozwiązanie", "1. Zapisujemy układ charakterystyczny:", "Całkując ostatnie równanie układu, otrzymujemy charakterystykę", "Przyrównując teraz po kolei pierwsze wyrażenie do drugiego, trzeciego i t.d., otrzymamy całkując pozostałe charakterystyki:", "2. Obliczamy macierz Jacobiego", "Skreślając pierwszą kolumnę macierzy \\( J \\), otrzymamy macierz kwadratową wymiaru \\( (n-1)\\,\\times\\,(n-1) \\)", "Rozwijając wyznacznik tej oraz kolejnych macierzy względem pierwszej kolumny, otrzymamy:", "Wyrażenie to nie jest równe zeru i jest dobrze okreslone w dowolnym obszarze, który nie przecina żadnej z osi współrzędnych.", "3. Przedstawiamy rozwiązanie ogólne równania w postaci", "Okazuje się, że rozwiązywanie quasiliniowego niejednorodnego równania skalarnego zawsze można sprowadzić do rozwiązywanie równania liniowego jednorodnego, w którym poszukiwana funkcja ma o jedną zmienną więcej. Rozpatrzmy równanie postaci u", "Analogicznie, jak dla przypadku funkcji zależnej od dwóch zmiennych, można poszukiwać rózwiązania równania ( 4 ) w postaci uwikłanej", "dodając warunek \\( u_z\\left(x_1,\\,x_2,....x_n;\\,z \\right)\\,\\neq\\,0, \\) który umożliwia przejście do jawnej postaci. Traktując w powyższym wzorze \\( z \\) jako funkcję zmiennych \\( x_1,\\,x_2,....x_n \\) i różniczkując względem \\( x_i \\) lewą i prawą stronę wzoru", "otrzymamy:", "Zatem", "Podstawiając ( 6 ) do równania ( 1 ), mnożąc przez \\( -u_z \\) i przenosząc wszystkie wyrazy na lewą stronę, otrzymamy liniowe jednorodne równanie względem funkcji \\( u \\):", "Żeby zatem określić rozwiązanie równania ( 4 ), należy rozwiązać równanie ( 7 ) wzlędem funkcji \\( u \\), a następnie, o ile jest to możliwe, uzyskać jawną postać \\( z=\\varphi(x_1,...x_n) \\), rozwikłując wzór \\( u\\left(x_1,\\,x_2,....x_n;\\,z \\right)=0 \\) względem ostatniej zmiennej. Procedura rozwiązania równania ( 7 ) jest nam już znana z poprzednimch rozważań: zapisujemy stowarzyszone równanie charakterystyczne", "znajdujemy \\( n \\) niezależnych całek pierwszych", "a następnie konstruujemy z nich rozwiązanie ogólne postaci", "gdzie \\( \\Phi \\) jest to dowolna funkcja \\( n \\) zmiennych, różniczkowalna w sposób ciągły po każdym ze swoich argumentów.", "Pokażemy że pole wektorowe skojarzone z rozpatrzonym wcześniej układem, w którym, na skutek bifurkacji Hopfa (zob. moduł Nieliniowe rozwiązania okresowe w dwuwymiarowym układzie dynamicznym ), powstaje nieliniowe rozwiązanie okresowe, posiada co najmniej jedno rozwiązanie osobliwe.", "Rozpatrzmy znany z Nieliniowe rozwiązania okresowe w dwuwymiarowym układzie dynamicznym układ dynamiczny", "dopełniony równaniem", "Układ jest postacią charakterystyczną równania", "Ponieważ analiza problemu w układzie katrezjańskim jest bardzo trudna, skorzystajmy, jak wyżej przy rozpatrzeniu bifurkacji Hopfa, z reprezentacji biegunowej. Najprościej można do niej przejść, wprowadzając zmienną zespolonąc \\( z=x+i\\,y \\) i zapisując postać zespoloną układu ( 10 ), ( 11 ) :", "(równanie ( 12 ) przy tym, oczywiście, nie ulegnie zmianie). Przechodząc dalej do reprezentacji biegunowej \\( z=r\\,e^{i\\,\\varphi} \\), otrzymamy równanie:", "Przyrównując do siebie części rzeczywiste i zespolone występujące w równaniu, oraz dodając ( 12 ), otrzymamy następujący układ charakterystyczny:", "Układowi temu odpowiada biegunowa reprezentacja równania ( 13 ):", "Przyrównując do siebie i całkując najpierw pierwszy i drugi, a następnie, na przykład, drugi i trzeci wyraz układu charakterystyk", "otrzymamy następujące całki pierwsze:", "Zatem równanie", "gdzie \\( \\Phi \\) jest to dowolna różniczkowalna funkcja dwóch zmiennych, określa w postaci niejawnej rozwiązanie ogólne równania ( 18 ).", "Rozpatrzmy teraz funkcję", "Działając na nią operatorem występującym w ( 18 ) otrzymamy, że", "Równanie \\( \\Phi_1=r^2-\\mu=0 \\) określa zatem rozwiązanie osobliwe nie należące do rodziny ( 19 ). Interpretację geometryczną wyjaśniającą genezę rozwiązania osobliwego można pokazać na Rys. 1. Jest tam pokazane pole wektorowe, odpowiadające prawym stronom układu ( 10 ) - ( 11 ) oraz trajektoria fazowa, odpowiadająca rozwiązaniu okresowemu, które jest reprezentowane równaniem \\( r^2-\\mu=0. \\)"], "definitions": []} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 424, "subject": "Twierdzenia o istnieniu i jednoznaczności dla równań różniczkowych zwyczajnych", "paragraphs": ["Niech \\( \\hskip 0.3pc x=(x_1,\\ldots,x_n)\\in \\mathbb{R}, \\hskip 0.3pc \\) przez \\( \\hskip 0.3pc\\|x\\| \\hskip 0.3pc \\) będziemy oznaczać normę w \\( \\hskip 0.3pc \\mathbb{R}^n \\hskip 0.3pc \\)określoną następująco:", "Niech \\( \\hskip 0.3pc I\\times \\Omega\\subset \\mathbb{R}^{n+1} \\hskip 0.3pc \\) gdzie \\( \\hskip 0.3pc I \\hskip 0.3pc \\) przedział w \\( \\hskip 0.3pc \\mathbb{R} \\hskip 0.3pc \\)a \\( \\hskip 0.3pc\\Omega \\hskip 0.3pc \\) podzbiór w \\( \\hskip 0.3pc \\mathbb{R}^n. \\)"], "definitions": [{"name": "Definicja 1:", "content": "Mówimy, że funkcja \\( \\hskip 0.3pc f : \\)\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( I\\times \\Omega\\ni (t,x)\\rightarrow f(t,x)=(f_1(t,x),\\ldots ,f_n(t,x))\\in \\mathbb{R}^n \\)\n\nspełnia warunek Lipschitza ze względu na \\( \\hskip 0.3pc x \\hskip 0.3pc \\) jeżeli\n\n\n\t\t\t\t\t\t\t\t\\( \\exists L>0\\,\\forall (t,x),\\,(t,\\tilde {x})\\in I\\times \\Omega:\\hskip 0.5pc \\|f(t,x)-f(t,\\tilde{x})\\|\\le L\\|x-\\tilde{x}\\|. \\)\n\n"}]} {"field": "Matematyka", "coursebook": "Równania różniczkowe zwyczajne", "chapter": "", "subject_id": 425, "subject": "Stabilność rozwiązań równań różniczkowych zwyczajnych", "paragraphs": ["Powyższy moduł jest poświęcony określeniu stabilności rozwiązań równań skalarnych i wektorowych rzędu pierwszego. Potocznie mówiąc rozwiązanie równania różniczkowego rzędu pierwszego jest stabine jeżeli niewiele zmieni się warunki początkowe to rozwiązania też niewiele się różnią od siebie.", "Rozważmy równanie:", "gdzie \\( \\hskip 0.3pc x=(x_1,\\ldots ,x_n),\\hskip 0.3pc t\\ge t_0 \\hskip 0.3pc \\) i \\( \\hskip 0.3pcf(t,x)=(f_1(t,x),\\ldots ,f_n(t,x)). \\)"], "definitions": [{"name": "Definicja 1: Stabilność w sensie Lapunowa", "content": "Rozwiązanie \\( \\hskip 0.3pc y(t) \\hskip 0.3pc \\) równania ( 1 ) jest stabilne w sensie Lapunowa, jeśli dla dowolnego \\( \\hskip 0.3pc \\varepsilon >0 \\hskip 0.3pc \\)istnieje \\( \\hskip 0.3pc \\delta>0, \\hskip 0.3pc \\) że każde rozwiązanie \\( \\hskip 0.3pc x(t) \\hskip 0.3pc \\) tego równania, gdy warunki początkowe spełniają nierówność\n\n\t\t\t\t\t\n\t\t\t\t\t\t\t\t\\( \\|x(t_0)-y(t_0)\\|<\\delta \\)\n\nto\n\n\n\t\t\t\t\t\t\t\t\\( \\|x(t)-y(t)\\|<\\varepsilon \\hskip 0.3pc{\\rm dla \\hskip 0.2pc każdego \\hskip0.4pc } t\\ge t_0\\hskip 0.3pc {\\rm gdzie \\hskip 0.2pc określone \\hskip 0.2pc są \\hskip 0.2pc oba \\hskip 0.2pc rozwiązania}. \\)\n\n"}, {"name": "Definicja 2: Asymptotyczna stabilność", "content": "Rozwiązanie \\( \\hskip 0.3pc y(t) \\hskip 0.3pc \\) równania ( 1 ) jest asymptotycznie stabilne jeżeli\ni. \\( \\hskip 0.3pc \\) jest stabilne w sensie Lapunowa\nii. \\( \\hskip 0.3pc \\) określone jest na przedziale \\( \\hskip 0.3pc [t_0,\\,\\infty ] \\hskip 0.3pc \\)\niii. \\( \\hskip 0.3pc \\) istnieje \\( \\hskip 0.3pc \\delta>0, \\hskip 0.3pc \\)że każde rozwiązanie \\( \\hskip 0.3pc x(t) \\hskip 0.3pc \\) równania ( 1 ) jest określone na przedziale \\( \\hskip 0.3pc [t_0,\\,\\infty ] \\hskip 0.3pc \\) gdy\n\n\n\t\t\t\t\t\t\t\t\\( \\|x(t_0)-y(t_0)\\|< \\delta \\hskip 0.8pc {\\rm i} \\hskip 0.8pc \\displaystyle\\lim\\limits_{t\\rightarrow \\infty}\\|x(t)-y(t)\\|=0. \\)\n\n\n\n"}]} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 144, "subject": "Definicja szeregu liczbowego", "paragraphs": ["Komentarz Zauważamy, że w szeregu \\( ( (a_n ),(S_n ) ) \\) wyrazy ciągu sum częściowych \\( (S_n) \\) są wyznaczone jednoznacznie przez wyrazy ciągu \\( (a_n) \\). Również wyrazy ciągu \\( (a_n) \\) są wyznaczone jednoznacznie przez wyrazy ciągu \\( (S_n) \\) wzorem rekurencyjnym", "Możemy zatem podawać postać tylko jednego z tych ciągów, aby jednoznacznie określić postać szeregu \\( ( (a_n ),(S_n ) ) \\).", "Komentarz Zauważmy, że \\( R_{mn}=a_m+a_{m+1}+⋯+a_n \\) i jeżeli szereg \\( \\sum_{n=1}^{\\infty}a_n \\) jest zbieżny do sumy \\( S \\), to \\( m \\)-tą resztę szeregu możemy wyrazić wzorem \\( R_m=S-S_{m-1} \\)."], "definitions": [{"name": "Definicja 1: Szereg liczbowy", "content": " Niech \\( (a_n) \\) , dla \\( n \\in \\mathbb{N}_+ \\) będzie nieskończonym ciągiem liczbowym. Szeregiem liczbowym o wyrazach \\( a_n \\) nazywamy uporządkowaną parę ciągów \\( ( (a_n ),(S_n ) ) \\) , gdzie wyrazy ciągu \\( S_n \\) określone są jako \\( S_n=a_1+a_2+⋯+a_n \\) i nazywane \\( n \\)-tymi sumami częściowymi szeregu."}, {"name": "Definicja 2: Szereg zbieżny", "content": " Mówimy, że szereg \\( \\sum_{n=1}^{\\infty}a_n \\) jest zbieżny do sumy \\( S \\), jeżeli istnieje właściwa granica ciągu sum częściowych \\( (S_n) \\) szeregu równa \\( S \\) tzn. \\( \\lim\\limits_{n \\to \\infty}⁡S_n =S \\). Mówimy wtedy, że liczba \\( S \\) jest sumą szeregu \\( \\sum_{n=1}^{\\infty}a_n \\)."}, {"name": "Definicja 3: Szereg rozbieżny do \\( + \\infty \\) albo do \\( - \\infty \\)", "content": "\n\n\nJeżeli ciąg sum częściowych \\( (S_n) \\) szeregu \\( \\sum_{n=1}^{\\infty}a_n \\) ma granicę niewłaściwą \\( + \\infty \\), albo \\( - \\infty \\) to mówimy, że szereg \\( \\sum_{n=1}^{\\infty}a_n \\) jest rozbieżny do \\( + \\infty \\), albo do \\( - \\infty \\). "}, {"name": "Definicja 4: Szereg rozbieżny", "content": "Jeżeli ciąg sum częściowych \\( (S_n) \\) szeregu \\( \\sum_{n=1}^{\\infty}a_n \\) nie ma granicy, to mówimy, że szereg \\( \\sum_{n=1}^{\\infty}a_n \\) jest rozbieżny."}, {"name": "Definicja 5: Reszta szeregu", "content": " Jeżeli przez \\( R_{mn} \\), dla \\( m \\lt n \\) oznaczymy różnicę \\( n \\)-tej i \\( (m-1) \\)-szej sumy częściowej szeregu \\( \\sum_{n=1}^{\\infty}a_n \\) , tzn. \\( R_{mn}=S_n-S_{m-1} \\), to \\( m \\)-tą reszta szeregu \\( \\sum_{n=1}^{\\infty}a_n \\) nazywamy liczbę \\( R_m=\\lim\\limits_{n \\to \\infty} ⁡R_{mn } \\). "}]} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 145, "subject": "Własności szeregów zbieżnych", "paragraphs": ["Komentarz Zbadanie warunku koniecznego zbieżności szeregu nic nie mówi o zbieżności wtedy, gdy jest spełniony, ale gdy nie jest spełniony, to wiemy, że szereg jest rozbieżny (na podstawie prawa kontrapozycji: \\( (p \\Rightarrow q) \\Leftrightarrow ( \\sim q \\Rightarrow \\sim p) \\), gdzie \\( p \\) i \\( q \\) są zdaniami logicznymi)."], "definitions": [{"name": "Definicja 1: szeregu o wyrazach nieujemnych", "content": " Mówimy, że szereg \\( \\sum_{n=1}^{\\infty}a_n \\) jest szeregiem o wyrazach nieujemnych, jeżeli wszystkie wyrazy \\( a_n \\) szeregu są nieujemne.\n"}, {"name": "Definicja 2: szeregu o wyrazach dodatnich", "content": " Mówimy, że szereg \\( \\sum_{n=1}^{\\infty}a_n \\) jest szeregiem o wyrazach dodatnich, jeżeli wszystkie wyrazy \\( a_n \\) szeregu są dodatnie.\n"}, {"name": "Definicja 3: szeregu naprzemiennego", "content": " Mówimy, że szereg \\( \\sum_{n=1}^{\\infty}a_n \\) jest szeregiem naprzemiennym, jeżeli dla każdej liczby naturalnej \\( n \\), zachodzi warunek \\( a_{n+1} \\cdot a_n < 0 \\).\n"}]} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 146, "subject": "Zbieżność szeregów harmonicznego i geometrycznego", "paragraphs": [], "definitions": [{"name": "Definicja 1: Szereg harmoniczny rzędu \\( \\alpha >1 \\) ", "content": " Szeregiem harmonicznym rzędu \\( \\alpha \\) nazywamy szereg postaci \\( \\sum_{n=1}^{\\infty} \\frac{1}{n^{\\alpha}} \\), gdzie \\( \\alpha \\in \\mathbb{R} \\)."}, {"name": "Definicja 2: Szereg geometryczny", "content": " Szeregiem geometrycznym o ilorazie \\( q \\in \\mathbb{R} \\) nazywamy szereg postaci \\( \\sum_{n=1}^{\\infty} aq^{n-1} \\), gdzie \\( a \\in \\mathbb{R} \\). "}]} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 147, "subject": "Kryterium porównawcze zbieżności i rozbieżności szeregów", "paragraphs": ["Komentarz Zauważamy, że kryterium porównawcze można zastosować zarówno wtedy, gdy chcemy pokazać, że badany szereg o wyrazach nieujemnych jest zbieżny, jak i w przypadku gdy pokazujemy, że jest on rozbieżny. Istota kryterium porównawczego kryje się w tym, czy wyrazy badanego szeregu o wyrazach nieujemnych ograniczamy od góry, czy od dołu. Oczywiście ograniczenie od góry przez wyrazy nowego szeregu, który jest zbieżny, stosujemy, gdy podejrzewamy, że badany szereg jest zbieżny, natomiast w przeciwnym przypadku szukamy szeregu o wyrazach mniejszych, o którym wiemy, że jest rozbieżny. Cała trudność kryterium porównawczego leży w znalezieniu odpowiedniego szeregu, który ma wyrazy większe, albo mniejsze od badanego i którego zbieżność potrafimy określić. W tym celu często stosuje się standardowe zasady mówiące jak ograniczać ułamki, a także znane nierówności dla funkcji elementarnych lub też wykorzystuje się monotoniczność tych funkcji."], "definitions": []} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 148, "subject": "Kryterium ilorazowe zbieżności i rozbieżności szeregów", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 149, "subject": "Kryterium całkowe zbieżności i rozbieżności szeregów", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 150, "subject": "Kryterium Cauchy’ego zbieżności i rozbieżności szeregów", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 151, "subject": "Kryterium d’Alemberta zbieżności i rozbieżności szeregów", "paragraphs": [], "definitions": []} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 152, "subject": "Bezwzględna zbieżność szeregów", "paragraphs": [], "definitions": [{"name": "Definicja 1: Bezwzględna zbieżność szeregu", "content": "Mówimy, że szereg \\( \\sum_{n=1}^{\\infty}{a_n} \\) jest bezwzględnie zbieżny, jeżeli szereg \\( \\sum_{n=1}^{\\infty}{|a_n|} \\) jest zbieżny."}, {"name": "Definicja 2: Warukowa zbieżność szeregu", "content": "Mówimy, że szereg \\( \\sum_{n=1}^{\\infty}{a_n} \\) jest warunkowo zbieżny, jeżeli szereg \\( \\sum_{n=1}^{\\infty}{a_n} \\) jest zbieżny, ale nie jest bezwzględnie zbieżny. "}]} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 153, "subject": "Kryterium Leibniza zbieżności szeregów naprzemiennych", "paragraphs": ["Komentarz Kryterium Leibniza stosujemy dla szeregów naprzemiennych wtedy, gdy nie działa WK bezwzględnej zbieżności, czyli w przypadku, gdy szereg naprzemienny nie jest bezwzględnie zbieżny. Jeżeli okazuje się, że szereg, który nie jest bezwzględnie zbieżny, jest zbieżny, to mamy zbieżność warunkową tego szeregu."], "definitions": []} {"field": "Matematyka", "coursebook": "Szeregi liczbowe", "chapter": "", "subject_id": 154, "subject": "Kryteria Dirichleta i Abela zbieżności szeregów", "paragraphs": [], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "", "subject_id": 1775, "subject": "Informacja o podręczniku", "paragraphs": ["E-podręcznik jest skierowany do studentów i doktorantów uczelni technicznych, którzy nie posiadają specjalistycznej wiedzy ekonomicznej, ale również do wszystkich zainteresowanych wiedzą na temat finansów. Jest on napisany w miarę prostym językiem, aby umożliwić szerokiemu gronu Czytelników zapoznanie się z podstawowymi pojęciami i zagadnieniami ze świata finansów. Niektóre moduły oraz terminy tylko sygnalizują istnienie danego tematu lub problemu, aby zachęcić do jego samodzielnego zgłębiania.", "Modułowa konstrukcja podręcznika oraz liczne podlinkowania umożliwiają łatwe poruszanie się pomiędzy modułami i zagadnieniami, które w ten sposób tworzą całość obrazu finansów sfery finansowej i realnej. Podręcznik zawiera dużą liczbę przykładów, ilustrujących poszczególne treści i pomagających Czytelnikowi lepiej je zrozumieć.", "E-podręcznik jest finansowany ze środków Europejskiego Funduszu Społecznego w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014-2020, Zintegrowany Program Rozwoju Akademii Górniczo-Hutniczej w Krakowie, nr POWR.03.05.00-00-Z309/18 oraz POWR.03.05.00-00-Z307/17."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "", "subject_id": 1776, "subject": "Wstęp", "paragraphs": ["Za system ekonomiczny uważa się gospodarkę oddzielnego kraju. Tworzą go podmioty gospodarcze o różnym profilu działalności. Wyjątkową funkcję w gospodarce krajowej pełnią jednak instytucje finansowe, które dostarczają podmiotom gospodarczym pieniądz i organizują jego obieg. Poza tym, umożliwiają przekształcenie oszczędności w inwestycje rzeczowe i kontrolują wielkość masy pieniężnej oraz pieniądza kredytowego w celu stabilizacji cen w gospodarce.", "W ramach gospodarki krajowej finanse można poklasyfikować według kryterium podmiotowego dzieląc je na ( Rys. 1):", "Oddzielną dziedzinę stanowią finanse międzynarodowe, które obejmują finanse organizacji międzynarodowych, systemy walutowe różnych krajów i ich współdziałanie, bilanse płatnicze poszczególnych państw, międzynarodowy rynek finansowy oraz międzynarodowe organizacje finansowe.", "Niniejszy podręcznik składa się z trzech części (wprowadzenie w temat finansów, finanse sfery finansowej, finanse sfery realnej) i skupia swoją uwagę na finansach krajowych.", "Pierwsza część podręcznika przytacza krótką historię rozwoju gospodarczego i wprowadza Czytelnika w świat finansów. Ponieważ każda gospodarka składa się z dwóch sfer – sfery realnej (produkującej dobra i świadczącej usługi) oraz sfery finansowej (obsługującej podmioty sfery realnej i finansowej), to kolejne dwie części poświęcono roli, strukturze i mechanizmom sfery finansowej oraz gospodarce finansowej typowych przedstawicieli sfery realnej (przedsiębiorstw). Na pierwszą część składają się dwa rozdziały:", "Druga część podręcznika dostarcza Czytelnikowi ogólną wiedzę dotyczącą struktury systemu finansowego i roli, jaką odgrywają w nim poszczególne grupy jednostek. Szczególną uwagę zwrócono na rynek finansowy, jego sektory, regulację i segmentację. Opisano cechy podstawowych rodzajów papierów wartościowych oraz instrumentów pochodnych. W podręczniku skrótowo wspomniano o roli systemu bankowego, jednak pominięto analizę finansów publicznych i finansów międzynarodowych, które są przedmiotem licznych opracowań naukowych i dydaktycznych. Do drugiej części podręcznika można zaliczyć następujące rozdziały:", "Celem trzeciej części podręcznika jest przedstawienie podstawowych zagadnień związanych z finansami przedsiębiorstw. Opisano w niej własne i obce źródła finansowania podmiotów gospodarczych oraz omówiono sposoby ustalania kosztu kapitału własnego i obcego. Pokazano, jak można ocenić zyskowność działalności gospodarczej na podstawie analizy progu rentowności. Opisano możliwe formy opodatkowania podatkiem dochodowym, w zależności od formy organizacyjno-prawnej prowadzonej działalności gospodarczej. Omówiono sprawozdanie finansowe przedsiębiorstwa i pokazano, jak na jego podstawie można ocenić kondycję finansową przedsiębiorstw w aspekcie ich płynności, zadłużenia, sprawności działania i rentowności. Przedstawiono również metody oceny efektywności projektów inwestycyjnych. Do trzeciej części zalicza się więc poniższe rozdziały:", "Oczywiście każdy z rozdziałów można rozbudować w oddzielny podręcznik, jednak celem autorek było przekazanie najważniejszych informacji, które pomogą Czytelnikowi odnaleźć się w świecie finansów i będą przydatne w podejmowaniu trafnych decyzji finansowych związanych z lokowaniem kapitału (inwestycjami) na rynku finansowym i/lub prowadzeniem własnej działalności gospodarczej."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Rola pieniądza w gospodarce", "subject_id": 2085, "subject": "Od gospodarki naturalnej do gospodarki towarowo-pieniężnej", "paragraphs": ["Choć w kolejnych etapach rozwoju społecznego ludzie zaczęli uprawiać rolę i hodować zwierzęta, jednak cała ich działalność była nastawiona jedynie na zaspokojenie naturalnych potrzeb własnej społeczności.", "Zostało to odzwierciedlone w nazwie tego typu gospodarki – gospodarka naturalna. Obecnie gospodarka naturalna występuje jedynie w społecznościach odizolowanych geograficznie.", "Do najważniejszych cech gospodarki naturalnej można zaliczyć:", "Z biegiem lat w gospodarstwach zaczęły powstawać nadwyżki, które można było wymieniać na inne dobra, których dana społeczność nie posiadała i nie produkowała. Jedno dobro można było wymienić na inne – w określonej proporcji, pod warunkiem spełnienia kryterium zgodności potrzeb obu stron transakcji wymiennej.", "Z rozwojem gospodarczym i cywilizacyjnym zaczął kształtować się rynek (miejsce, gdzie dokonywano wymiany), a dobra stały się towarem wymiennym. Stąd nazwa gospodarki – towarowa (wymienna, barterowa). Jej uwarunkowania przyczyniły się do powstania prywatnej własności, społecznego podziału pracy i specjalizacji w wytwarzaniu określonych dóbr. W rezultacie wzrósł stopień wykorzystania zasobów lokalnej gospodarki i efektywności jej funkcjonowania.", "Niestety wymiana „towar za towar” była dość kosztowna i skomplikowana, wymagała bowiem dużo czasu i wysiłku, aby strony osiągnęły postawiony cel – niekiedy należało dokonać wielu kolejnych transakcji wymiennych, aby zdobyć upragnione dobra lub usługi. Problemów też przysparzały przeliczniki wymiany jednego towaru na inny, z uwagi na to, że były wyrażone w jednostkach fizycznych. Poza tym, trudno (a czasem nawet niebezpiecznie) było je przewozić na większe odległości.", "Wymianę towarów ułatwił pieniądz – specyficzny towar, który dostawał sprzedawca za swoje dobra lub usługi. Jego specyfika polegała z jednej strony na powszechnym zaufaniu społecznym, z drugiej zaś – na jego cechach fizycznych (był bowiem trwały, podzielny i łatwy do przenoszenia). W ten sposób gospodarka towarowa przekształciła się w gospodarkę towarowo-pieniężną.", "Kupno-sprzedaż towarów usprawniła też grupa zawodowych pośredników handlowych – kupców. Przyczynili się oni do zwiększenia dostępności towarów oraz zmniejszenia czasu i kosztów transakcji. Do rozwoju swego biznesu (m.in. wynajęcia statków do wypraw dalekomorskich) potrzebowali dodatkowego kapitału, który zdobywali dzięki pożyczkom lub udziałom pieniężnym. W ten sposób potrzeba finansowania przedsięwzięć handlowych przyczyniła się do rozwoju rynku finansowego, najpierw w postaci kredytu a następnie – papierów wartościowych."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Rola pieniądza w gospodarce", "subject_id": 1650, "subject": "Pieniądz, jego cechy i funkcje", "paragraphs": ["W odniesieniu do pieniędzy emitowanych w innych krajach używa się określenia waluta obca albo pieniądz dewizowy. Służą one do rozrachunków w transakcjach zagranicznych, tzn. między podmiotami mającymi swoje siedziby w różnych krajach. Transakcje mogą mieć charakter handlowy (eksport, import) lub przepływów kapitałowych z innych operacji rynkowych.", "Banki centralne wielu krajów na wypadek wystąpienia kryzysów tworzą rezerwy z metali szlachetnych (złoto, srebro) oraz walut obcych – najczęściej są to waluty kilku krajów wysoko rozwiniętych gospodarczo (np. dolar USA, euro, frank szwajcarski, funt brytyjski czy jen japoński). Importerzy również utrzymują część swoich kapitałów w walucie obcej, na poczet przyszłych rozrachunków za dostarczone dobra lub usługi. Walutę obcą mogą też gromadzić inwestorzy, pragnący obniżyć ryzyko utraty wartości posiadanych oszczędności.", "Ponieważ pieniądz na przestrzeni historii przyjmował wiele różnych form, w ramach ogólnej klasyfikacji można wyodrębnić takie jego grupy i podgrupy:", "Rozróżnia się dwie grupy funkcji, jakie we współczesnej gospodarce pełni pieniądz:", "Do pierwszej grupy zalicza się takie funkcje:", "Funkcja behawioralna (zachowawcza)", "Pieniądz jest środkiem determinującym ludzkie zachowania, ponieważ jest ekwiwalentem wszystkiego, co jest człowiekowi niezbędne do życia. Kształtuje pragnienia, sposób myślenia, styl życia i konsumpcji. Stał się przedmiotem pragnień, co nie zawsze prowadzi do pozytywnych zjawisk (np. chciwość, skąpstwo, przekupstwo itp.) [2].", "Funkcja motywacyjna", "Chęć posiadania pieniądza motywuje ludzi do podejmowania działań w celu jego pozyskania. Działania te mogą mieć dwojaki charakter: 1) społecznie uznane – uczciwa praca za odpowiednim wynagrodzeniem; 2) nieuczciwe – wynikające z chęci szybkiego wzbogacenia się, np. płatne zabójstwa, handel ludźmi, korupcja itp. Funkcja motywacyjna pieniądza jest powszechnie stosowana przez pracodawców w celu pobudzenia pracowników do efektywniejszej pracy [2].", "Funkcja informacyjna (komunikacyjna)", "Pieniądze stanowią źródło informacji o sytuacji ekonomicznej państwa, które je emituje. Z kolei wygląd, technika wykonania, oraz materiał z jakiego został wykonany pieniądz informują o poziomie kultury danego społeczeństwa. Płaca natomiast nie jest jedynie miarą wysiłku pracownika, ale informacją co we własnym i społecznym interesie zrobił [2].", "Funkcja dezintegracyjna", "Pieniądz powoduje rozpad struktur społecznych i powstawanie nowych. Dążenie do wzbogacenia się wywołuje wiele różnic między grupami społecznymi. Uwidacznia się rozwarstwienie społeczeństwa pod względem ilości posiadanego pieniądza, a co za tym idzie - władzy, wpływów, sławy itp. Pokusa zdobycia pieniędzy za wszelką cenę determinuje rozwój przestępczości. Środki z nielegalnej działalności wprowadzane do państwowego obiegu wpływają niekorzystnie na stabilność finansową państwa [2].", "Funkcja integrująco-instytucjonalna", "Pieniądz wpływa na powstanie i kształtowanie się stosunków między ludźmi. Na ich podłożu powstają instytucje społeczno-finansowe (banki, giełdy, fundacje, zakłady ubezpieczeniowe), które mają za zadanie zaspokajanie społecznych potrzeb. Pieniądz jest też efektywnym narzędziem kontrolowania działalności tych instytucji [2].", "Z kolei do drugiej grupy zaliczamy następujące funkcje:", "Funkcja cyrkulacyjna", "Ta funkcja oznacza, że pieniądz stał się środkiem wymiany, za który oddawano towar (świadczono usługę); można było go następnie wymienić na inny towar lub usługę. Dzięki tej funkcji transakcja wymienna została podzielona na dwie części (pieniądz stał się zaufanym pośrednikiem) i nastąpiło ich rozdzielenie w czasie i przestrzeni.", "Funkcja miernika wartości", "Funkcja miernika wartości wynika z tego, że pieniądz służy do określenia ekonomicznej wartości nabywanych dóbr (usług), wyrażonej w ich cenie. Dzięki tej funkcji stało się możliwe łatwe porównywanie wartości towarów i usprawniło handel nimi. Co ważne, ta funkcja nie wymaga posiadania pieniędzy, gdyż ceny możemy porównywać abstrakcyjnie. Ta funkcja również jest użyteczna do określenia siły nabywczej pieniądza.", "Funkcja środka płatniczego", "Pełnienie przez pieniądz funkcji środka płatniczego jest możliwe dzięki oddzieleniu się ruchu towarów od ruchu pieniądza. Dzięki temu zapłata za towar nie musi być zgrana w czasie z jego dostawą – może nastąpić w terminie późniejszym lub na raty. Oznacza to, że pieniądz spełnia funkcję płatniczą w sytuacji, gdy najpierw powstaje zobowiązanie, a dopiero później jego spłata. Z rozwojem gospodarczym ta funkcja nabiera większego znaczenia, ponieważ coraz częściej zakupów dokonuje się na kredyt i dominują rozliczenia bezgotówkowe (które trwają nieco dłużej niż gotówkowe).", "Funkcja tezauryzacyjna", "Wynika ona z gromadzenia i przechowywania bogactwa poza systemem bankowym. Przejawia się wówczas, gdy uzyskane dochody nie są wydatkowane w całości, więc powstają oszczędności. Mogą one zostać przekształcone w inne aktywa (kruszce szlachetne, dzieła sztuki, nieruchomości), lecz pieniądz gotówkowy ma najwyższą płynność. Pojęcie płynność tu oznacza szybkość i pewność, z jaką dane aktywo zostanie zamienione na gotówkę.", "Funkcja pieniądza światowego", "Ta funkcja dotyczy tylko niektórych walut, które były lub nadal są uznawane za środek płatniczy w innych krajach. Pełniąc tę funkcję pieniądz światowy ułatwił przebieg procesów produkcji, wymiany i podziału na całym świecie, umożliwił też intensyfikację wykorzystania przewagi konkurencyjnej poszczególnych krajów. Dzięki specjalizacji gospodarek nastąpiła racjonalizacja procesów gospodarowania w skali globalnej, z której efektów korzysta ludzkość. Oficjalnie – na mocy porozumienia z Bretton Woods – funkcję pieniądza światowego od 1944 roku do 1971 roku pełnił dolar USA."], "definitions": [{"name": " Definicja 1: Pieniądz ", "content": " Pieniądz to powszechnie akceptowany (z mocy prawa lub zwyczaju)\nekwiwalent dóbr i usług, służący do dokonywania płatności i regulowania innych zobowiązań w danej grupie\nspołecznej. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Sfera finansowa w systemie ekonomicznym", "subject_id": 1651, "subject": "System ekonomiczny i jego ewolucja", "paragraphs": ["Mianem społeczeństwa określa się grupę obywateli zamieszkujących wyodrębnione terytorium.", "System polityczny tworzą partie polityczne, organizacje i grupy społeczne. Z kolei system prawny (organizacyjno-regulacyjny) to zestaw norm prawnych akceptowanych przez dane społeczeństwo. Tworzą go:", "System ekonomiczny w swojej ewolucji przechodził różne etapy, poczynając od gospodarki naturalnej, przez gospodarkę kapitalistyczną i nakazowo-rozdzielczą, aż po gospodarkę mieszaną.", "Gospodarka naturalna opierała się na naturalnym podziale pracy i była nastawiona na zaspokojenie własnych potrzeb konsumpcyjnych. Podstawą jej organizacji i funkcjonowania były zwyczaje i tradycje, a nie prawo własności.", "Podstawą gospodarki kapitalistycznej jest prywatna własność, która stanowi podstawę prowadzenia działalności gospodarczej. Aby mogła ona sprawnie funkcjonować, musi być dobrze rozwinięty i zorganizowany system wymiany towarowo-pieniężnej, czyli rynek i jego otoczenie regulacyjno-prawne. Poza tym, ważnymi warunkami są swoboda prowadzenia działalności gospodarczej i konkurencja między podmiotami gospodarczymi. Rola państwa jest ograniczona do niezbędnego minimum.", "Gospodarka wolnorynkowa (rynkowa) to idealny typ gospodarki – gospodarki, którą rządzi rynek. Istnieje tylko prywatna własność, która jest rozdzielona między członkami danego społeczeństwa. Wszystkie decyzje dotyczące produkcji i konsumpcji są podejmowane przez podmioty gospodarcze, które kierują się zasadami racjonalnego postępowania i własnym interesem. W swoich decyzjach muszą jednak uwzględniać informacje płynące z rynku, m.in. dotyczące dostępności oraz cen czynników produkcji (pracy, ziemi, kapitału). Pewne cechy gospodarki rynkowej można dostrzec również w gospodarce kapitalistycznej.", "Całkowitą odwrotnością do gospodarki rynkowej jest gospodarka nakazowo-rozdzielcza (centralnie planowana), w której wiodącą rolę pełni państwo – przejmuje ono dużą część własności materialnej (tworząc własność publiczną), dokonuje alokacji zasobów w gospodarce oraz decyduje o tym, co, jak i dla kogo wytwarzać. W tego typu gospodarkach prywatna własność odgrywa minimalną rolę, nie ma konkurencji między producentami, często zdarzają się braki niektórych grup towarów, a bezrobocie nosi ukryty charakter. Kraje, w których występuje gospodarka nakazowo-rozdzielcza nie mają szans na szybki rozwój ekonomiczno-społeczny.", "Obecnie w większości krajów mamy do czynienia z gospodarką mieszaną, w której sektor prywatny współpracuje z sektorem państwowym. Sektor prywatny w swojej działalności kieruje się własnym interesem, jednak to państwo decyduje o zakresie swobód ekonomicznych uczestników relacji rynkowych. Państwo finansuje sektor publiczny, a w razie potrzeby (w interesie społecznym), podejmuje interwencje rynkowe. Inni uczestnicy relacji rynkowych muszą dzielić się swoimi dochodami z państwem (w postaci różnych podatków i opłat)."], "definitions": [{"name": " Definicja 1: System ekonomiczny ", "content": " System ekonomiczny to system norm prawnych, regulacyjnych i\nzwyczajowych, które obowiązują wszystkich uczestników procesów gospodarczych w danym kraju i są przez nich\nakceptowane. Składa się ze sfery realnej i finansowej. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Sfera finansowa w systemie ekonomicznym", "subject_id": 1653, "subject": "Podział systemu ekonomicznego na sfery", "paragraphs": ["Na sferę realną składa majątek rzeczowy takich podmiotów (Rys. 2):", "Pierwsze cztery z nich tworzą rynkowy system realny, natomiast ostatni – publiczny system realny.", "Sfera finansowa służy do usprawniania funkcjonowania gospodarki towarowo-pieniężnej. Tworzą ją m.in. banki, giełdy, elektroniczne systemy obrotu instrumentami finansowymi, towarzystwa ubezpieczeniowe, fundusze zbiorowego inwestowania, fundusze emerytalne oraz inne instytucje związane z organizacją i funkcjonowaniem rynku finansowego. Ich rola sprowadza się do dwóch głównych zadań:", "Obydwie sfery muszą ściśle współpracować z systemem prawnym oraz innymi systemami w gospodarce (Rys. 3).", "Sfera finansowa obejmuje tę część gospodarki, w której się dokonuje kreacji pieniądza oraz organizuje przepływ jego strumieni. Główną jej rolą jest zaopatrywanie gospodarki realnej w pieniądz. Sferę tę tworzą instytucje finansowe, z udziałem innych podmiotów danego systemu ekonomicznego (społeczno-gospodarczego).", "W gospodarkach mieszanych za skuteczność i bezpieczeństwo funkcjonowania tej sfery odpowiada państwo.", "System finansowy to inne określenie sfery finansowej gospodarki. Z upływem lat jego rola i wpływy stawały się coraz większe, a w ślad za tym jego struktura oraz wzajemne powiązania stawały się coraz bardziej rozbudowane i skomplikowane. Obecnie system finansowy jest nazywany „układem krwionośnym” sfery realnej, gdyż bez niego gospodarka już nie może funkcjonować. Ułatwia on nie tylko krążenie siły nabywczej (pieniądza), lecz również:", "Sferę finansową można podzielić na dwa obszary (Rys. 4):", "System finansowy jest nierozerwalnie związany z systemem politycznym i prawnym danego kraju. Zasady jego funkcjonowania są tworzone przez organy administracji centralnej i znajdują swój wyraz w zatwierdzanych aktach prawnych.", "System finansowy służy przede wszystkim do zaopatrzenia gospodarki w pieniądz. Do emisji pieniądza krajowego jest upoważniony jedynie bank centralny (w Polsce – Narodowy Bank Polski), który drukuje pieniądze papierowe i bije monety (bilon) o różnych nominałach. Poza tym do zadań banku centralnego należy m.in.:", "Podkreślić należy, że większość gotówki, którą operuje system bankowy (w ramach akcji kredytowych) pochodzi z oszczędności podmiotów niefinansowych, głównie gospodarstw domowych.", "Aby jednak możliwe stało się bezpieczne funkcjonowanie systemu finansowego, system bankowy musi cieszyć się wysokim stopniem zaufania ze strony wszystkich obywateli. Jest to jedno z najważniejszych zadań państwa – rząd oraz inne organy nadzorcze (bank centralny, komisja nadzoru finansowego, urząd skarbowy, służba celna etc.) muszą stale monitorować i kontrolować działanie systemu finansowego."], "definitions": [{"name": " Definicja 1: System finansowy ", "content": " „System finansowy jest układem wzajemnie powiązanych instytucji\nfinansowych, rynków finansowych oraz elementów infrastruktury systemu finansowego; poprzez ten układ\npodmioty sfery realnej (przede wszystkim gospodarstwa domowe, przedsiębiorstwa i rząd) mogą pozyskiwać\nfundusze, inwestować oszczędności oraz zaspokajać pozostałe potrzeby związane z finansową sferą\nfunkcjonowania” [1]. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Sfera finansowa w systemie ekonomicznym", "subject_id": 1655, "subject": "Struktura systemu finansowego", "paragraphs": ["W pierwszym modelu to banki pełnią wiodącą rolę w dostarczaniu oszczędności przedsiębiorstwom na realizację celów inwestycyjnych. Gromadzą je w operacjach depozytowych (głównie lokaty bankowe), a udostępniają w postaci kredytów średnio- i długoterminowych. Mogą też udzielać kredytów na krótkie okresy czasu, które wspomagają ciągłość działania przedsiębiorstw.", "Natomiast w drugim modelu podstawowym źródłem inwestycyjnych środków pienieżnych jest emisja i sprzedaż papierów wartościowych. W tym modelu udział banków sprowadza się do zaspokajania krótkoterminowego popytu na kapitał i pełnienia roli pośrednika na rynku papierów wartościowych.", "Niezależnie od modelu organizacyjnego, każdy system finansowy (sfera finansowa) dzieli się na dwa podstawowe segmenty (Rys. 1):", "Głównymi instytucjami rynkowego systemu finansowego są:", "Zaopatrywanie gospodarki realnej w pieniądz odbywa się za pomocą dwustopniowego systemu bankowego, tworzonego przez bank centralny i banki komercyjne. Banki komercyjne zaopatrują gospodarkę w pieniądz kredytowy, prowadzą konta bankowe podmiotów rynkowych i umożliwiają rozrachunki między nimi. Tworząc pieniądz kredytowy stają się pośrednikami pomiędzy podmiotami deficytowymi sfery realnej a podmiotami nadwyżkowymi (w sensie gotówki), co umożliwia transformację wolnych środków pienieżnych w inwestycje gospodarcze.", "W pełnieniu tej funkcji bierze też udział rynek papierów wartościowych. Emitenci sprzedając swoje papiery na rynku pierwotnym pozyskują wolne środki pieniężne na inwestycje. Z kolei inwestorzy, którzy je zakupili mogą sprzedać papiery wartościowe na rynku wtórnym przed terminem ich wygaśnięcia, co zwiększa płynność takich inwestycji.", "Strukturę rynkowego systemu finansowego tworzą (Rys. 2):", "Instytucja finansowa to podmiot, który świadczy usługi o charakterze finansowym. Do instytucji finansowych zalicza się: banki, domy maklerskie, fundusze inwestycyjne, towarzystwa ubezpieczeniowe, fundusze emerytalne, inne podmioty świadczące usługi finansowe.", "Ogólnie można powiedzieć, że rynek finansowy to miejsce, w którym odbywa się obrót instrumentami finansowymi. Tworzą go giełdy papierów wartościowych, giełdy walutowe, elektroniczne systemy obrotu.", "Do instrumentów finansowych zaliczamy:", "Zasady i regulacje dla instytucji, rynków i instrumentów finansowych tworzą zarówno organy krajowe (Parlament, Komisja Nadzoru Finansowego, Krajowy Depozyt Papierów Wartościowych), jak i organizacje międzynarodowe (np. organy UE, Bank Światowy).", "Głównym zadaniem publicznego systemu finansowego jest finansowanie dóbr publicznych i usług społecznych. Strukturę publicznego systemu finansowego tworzą:", "Obydwa systemy finansowe ściśle ze sobą współpracują tworząc jeden spójny rynek finansowy w danym kraju."], "definitions": [{"name": " Definicja 1: Rynkowy system finansowy ", "content": " Rynkowy system finansowy to taki system, który tworzy\nmechanizm przepływu środków pieniężnych i ich współtworzenia przez instytucje finansowe oraz inne\npodmioty rynkowe. "}, {"name": " Definicja 2: Publiczny system finansowy ", "content": " Publiczny system finansowy to taki system, który\nzapewnia przepływ środków pieniężnych i ich współtworzenie, a także umożliwią dostarczanie dóbr i usług\npublicznych oraz świadczeń społecznych. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Sfera finansowa w systemie ekonomicznym", "subject_id": 1656, "subject": "Funkcje systemu finansowego", "paragraphs": ["Do najważniejszych funkcji rynkowego systemu finansowego można zaliczyć:", "Z kolei publiczny system finansowy pełni takie funkcje:", "System finansowy z uwagi na pełnione funkcje jest bardzo wrażliwy na różne informacje i zmiany w otoczeniu zewnętrznym. Do najważniejszych czynników zewnętrznych zaliczyć można:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Rynek finansowy elementem systemu finansowego", "subject_id": 1658, "subject": "Rynek finansowy i jego funkcje", "paragraphs": ["Instrumenty pożyczkowe działają na zasadzie zwrotności po określonym czasie użytkowania kapitału – kredyty, pożyczki, instrumenty dłużne. Instrumenty udziałowe umożliwiają nabycie części majątku, nabywane są przez inwestorów rynku finansowego w celach zarobkowych. Instrumenty rozrachunkowe służą do natychmiastowego rozrachunku między podmiotami rynkowymi. Z kolei instrumenty terminowe służą do rozrachunku w terminie późniejszym niż zawarcie umowy między podmiotami.", "Biorąc pod uwagę powyższe, wszystkie instrumenty rynku finansowego można podzielić na trzy grupy (Rys. 1):", "Rynek finansowy pełni wiele różnych funkcji, które można ułożyć w kilka grup:", "Popyt na rynku finansowym kreują jednostki, potrzebujące kapitału do realizacji zamierzonych przedsięwzięć konsumpcyjnych i produkcyjnych. Nazywa się ich użytkownikami kapitału.", "Wszystkich użytkowników kapitału można podzielić na cztery podstawowe grupy (Rys. 2):", "Gospodarstwa domowe mogą potrzebować kapitału do sfinansowania zakupu dóbr trwałego użytku, pojazdów czy nieruchomości. Najczęściej taki popyt jest zaspokajany poprzez zaciągnięcie kredytów bankowych. Przedsiębiorstwa i instytucje finansowe korzystają z dwóch możliwości – kredytów bankowych oraz emisji i sprzedaży papierów wartościowych (dłużnych i udziałowych).", "Podobnie lokalne organy państwowe – korzystają z pożyczek w systemie bankowym oraz na rynku papierów wartościowych (komunalne papiery dłużne). Centralne organy państwowe preferują (w niektórych przypadkach jest to wymóg ustawowy) emisję skarbowych papierów dłużnych.", "Podaż na rynku finansowym generują jednostki dysponujące wolnymi środkami pieniężnymi. Ich celem jest ulokowanie tych środków w taki sposób, aby z upływem czasu nie traciły one na wartości (z powodu inflacji), a nawet przynosiły dodatkowy dochód.", "Czynność zyskownego lokowania pieniędzy jest nazywana inwestowaniem, a tych, którzy tworzą podaż kapitału na rynku finansowym – inwestorami. Inwestorem może być:", "Pierwsza grupa dysponuje oszczędnościami, które pochodzą z niewydatkowanego na bieżącą konsumpcję dochodu. Choć pojedyncze kwoty oszczędności są stosunkowo niewielkie, to sumaryczna wartość kapitału jest imponująca – z uwagi na dużą liczbę osób fizycznych. Choć osoby prawne również mogą lokować czasowo wolne środki pieniężne na rynku finansowym, jednak częściej występują po stronie popytowej (jako użytkownicy kapitału).", "Dzięki uplasowaniu kapitału na rynku finansowym – w systemie bankowym lub na rynku papierów wartościowych – zwiększa się efektywność jego wykorzystania w gospodarce, na czym korzysta całe społeczeństwo, powstają bowiem nowe miejsca pracy, rosną dochody podmiotów gospodarczych, a co za tym idzie – zwiększają się wpływy do budżetu państwa (z tytułu podatków i innych opłat), co przekłada się na wzrost dobrobytu społeczeństwa i jego ochronę socjalną."], "definitions": [{"name": " Definicja 1: Rynek finansowy ", "content": "\nRynek finansowy to miejsce zorganizowane w sensie instytucjonalnym, w którym spotyka się popyt na\nkapitał (środki pieniężne) z jego podażą. Służy do transformacji wolnych środków pieniężnych w\ninne formy majątkowe (materialne, niematerialne), za pośrednictwem instrumentów finansowych.\n"}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Rynek finansowy elementem systemu finansowego", "subject_id": 1660, "subject": "Inwestycje i inwestorzy", "paragraphs": ["Zatem każdego, kto lokuje w nie środki pieniężne można nazwać inwestorem, aczkolwiek w kontekście rozważań na temat rynku finansowego, jego instrumentów i uczestników, pojęcia inwestor używa się zwykle do osób nabywających instrumenty finansowe w celu uzyskania dochodu.", "Pod względem zachowania na rynku finansowym inwestorów dzieli się na dwie grupy – aktywnych i pasywnych. Odpowiednio inwestowanie nazywano aktywnym lub pasywnym.", "Aktywni inwestorzy ciągle monitorują zmiany na rynku finansowym w celu uniknięcia negatywnych skutków ryzyka oraz wykorzystania pozytywnych skutków zachodzących zmian. W rezultacie często zmieniają skład portfela inwestycyjnego i poświęcają dużo czasu na zbieranie i analizę informacji oraz prognozowanie przyszłych trendów na rynku finansowym. Zanim jednak podejmą decyzję inwestycyjną, wykonują szereg analiz, takich jak na przykład analiza techniczna, analiza portfelowa czy analiza fundamentalna. Podkreślić należy, że aktywne portfele zwykle są skoncentrowane na pewnej grupie instrumentów (ew. rynków, branż) a ich ryzyko jest dość wysokie.", "Oprócz samodzielnego zarządzania portfelem inwestycyjnym istnieje też możliwość nabycia jednostek funduszy inwestycyjnych zarządzanych aktywnie. Różnorodność takich funduszy na polskim rynku jest dość duża, poczynając od funduszy o bardzo zachowawczych ryzyku (czyli niskiego ryzyka) aż po fundusze nastawione na wyższą stopę zwrotu (czyli wysokiego ryzyka). Ta pierwsza grupa skupia się głównie na papierach dłużnych z przewagą skarbowych, natomiast druga – na akcjach.", "Pasywni inwestorzy stosują zwykle strategię „kup i trzymaj”. Portfele pasywne są bardziej zdywersyfikowane (pod względem rodzajów instrumentów, emitentów, branż, walut etc.), a tym samym nie ma potrzeby pilnego śledzenie trendów na rynku finansowym, bo ryzyko portfela jest stosunkowo niskie. Przy czym zamiast kupowania oddzielnych grup/rodzajów instrumentów finansowych, inwestorzy stosujący takie podejście mogą wybrać odpowiadające ich preferencjom pasywne fundusze inwestycyjne i dokonać zakupu emitowanych przez nie jednostek uczestnictwa.", "Pasywne fundusze skupiają swoją uwagę na znanych indeksach giełdowych (np. WIG20), co ułatwia śledzenie zmian na rynku kapitałowym. Takie fundusze są nazywane indeksowymi. W ciągu ostatniej dekady coraz bardziej popularną staje się odmiana tych funduszy nazywana ETF (ang. Exchange Traded Fund). Różni się ona od zwykłych funduszy indeksowych tym, że jej jednostki są dopuszczone do obrotu giełdowego."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Rynek finansowy elementem systemu finansowego", "subject_id": 1661, "subject": "Regulacje rynku finansowego w Polsce", "paragraphs": ["Podstawowymi źródłami prawa, jakie regulują działalność na rynku finansowym są ustawy, dyrektywy i rozporządzenia europejskie oraz rozporządzenia krajowe.", "Poniżej wymieniono wybrane akty prawne z każdej grupy.", "Ustawy", "Dyrektywy i rozporządzenia organów UE", "Rozporządzenia organów UE", "Rozporządzenia krajowe", "Istnieje też szereg innych aktów prawnych, które zawierają regulacje oraz wytyczne dotyczące operacji na rynku finansowym oraz działalności poszczególnych jego uczestników.", "Nadzór nad rynkiem finansowym w Polsce sprawuje Komisja Nadzoru Finansowego (KNF), która została powołana na mocy ustawy z dnia 21 lipca 2006 r. o nadzorze nad rynkiem finansowym (t.j. Dz. U. z 2023 r. poz. 753) [1]. Jest to centralny organ administracji rządowej odpowiedzialny za prawidłowość funkcjonowania instytucji finansowych oraz operacji dokonywanych na rynku finansowym.", "19 września 2006 roku KNF przejęła kompetencje Komisji Nadzoru Ubezpieczeń i Funduszy Emerytalnych, Komisji Papierów Wartościowych i Giełd oraz Rzecznika Ubezpieczonych. Od 1 stycznia 2008 roku nadzór finansowy sprawowany przez Komisję objął także nadzór bankowy oraz nadzór nad instytucjami pieniądza elektronicznego sprawowany wcześniej przez Komisję Nadzoru Bankowego https://encyklopedia.pwn.pl/haslo/Komisja-Nadzoru-Finansowego;4653183.html.", "Obecnie głównym zadaniem KNF jest sprawowanie nadzoru nad sektorem bankowym, rynkiem kapitałowym, ubezpieczeniowym, emerytalnym, nadzór nad instytucjami płatniczymi i biurami usług płatniczych, instytucjami pieniądza elektronicznego oraz nad sektorem kas spółdzielczych. Z kolei celem nadzoru jest zapewnienie prawidłowego funkcjonowania tego rynku, jego stabilności, bezpieczeństwa oraz przejrzystości, zaufania do rynku finansowego, a także zapewnienie ochrony interesów uczestników tego rynku. Nadzór nad działalnością Urzędu Komisji sprawuje Prezes Rady Ministrów https://www.knf.gov.pl/o_nas/komisja.", "Powyższe cele KNF realizuje pełniąc następujące funkcje: licencyjną, regulacyjną, kontrolną i dyscyplinującą. KNF wydaje bowiem zezwolenia na prowadzenie działalności przez banki, spółdzielcze kasy oszczędnościowo-kredytowe, krajowe instytucje płatnicze, zakłady ubezpieczeń i zakłady reasekuracji, otwarte fundusze emerytalne, fundusze inwestycyjne czy firmy inwestycyjne. Ustawodawca nadał KNF także szereg kompetencji w zakresie stosowania środków nadzorczych. KNF na bieżąco analizuje raporty przesyłane przez instytucje finansowe oraz ocenia, czy wypełniają one określone przepisami prawa wymogi kapitałowe. Do kompetencji KNF należy również prowadzenie kontroli w podmiotach nadzorowanych https://www.knf.gov.pl/dla_konsumenta/Ochrona_klienta_na_rynku_uslug_finansowych/KNF."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Struktura rynku finansowego", "subject_id": 1663, "subject": "Rynek papierów wartościowych", "paragraphs": ["Pierwsze trzy segmenty nie funkcjonują odosobniono, zachodzą bowiem między nimi różne relacje i powiązania (Rys. 2). Dlatego to na nich będzie skupiona uwaga w danym podręczniku. Skrótowo natomiast zostanie poddany analizie rynek depozytowo-kredytowy, z uwagi na ten fakt, że jest on szczegółowo opisany w podręcznikach z bankowości.", "Obecnie w Polsce, zgodnie z art. 3 ustawy z dnia 29 lipca 2005 r. o obrocie instrumentami finansowymi (t.j. Dz. U. z 2022 r. poz. 1500, 1488, 1933, 2185) [1], przez papiery wartościowe rozumie się:", "Tradycyjnie mianem papierów wartościowych określano instrumenty finansowe, które były handlowane na rynku kasowym (tzw. rynku spot). Najbardziej znane wśród nich są akcje i obligacje. Na przestrzeni wieków były one emitowane w postaci papierowej, a ich zabezpieczenie przed podrabianiem było podobne do zabezpieczenia banknotów (pieniędzy papierowych). Pod koniec ubiegłego stulecia sytuacja na rynku finansowym zaczęła szybko się zmieniać. Przyczyniły się ku temu m.in.:", "Wymusiło to wprowadzenia nowych form handlu na rynku oraz ewidencji instrumentów finansowych. W rezultacie, aby sprostać nowym uwarunkowaniom zaczęto wprowadzać zdematerializowaną formę papierów wartościowych, które istnieją w postaci zapisu elektronicznego. Co więcej, zmniejszyły się też koszty emisji i obsługi tych instrumentów. W odniesieniu do dematerializacji powyższa Ustawa (art. 5. ust. 1) wskazuje, że: „Papiery wartościowe:", "– nie mają formy dokumentu od chwili ich zarejestrowania na podstawie umowy, której przedmiotem jest rejestracja tych papierów wartościowych w depozycie papierów wartościowych (dematerializacja)”.", "W kontekście zagadnień rynku finansowego często zamiennie używa się pojęć papiery wartościowe i instrumenty finansowe. Jednak pojęcie instrumentu finansowego jest szersze od pojęcia papieru wartościowego. Obejmuje ono wiele instrumentów o różnym działaniu i przeznaczeniu, będących obecnie przedmiotem transakcji na rynku finansowym.", "Ustawa z dnia 29 lipca 2005 r. o obrocie instrumentami finansowymi [1] w art. 2 ust. 1 określa pojęcie instrumentu finansowego, którym mogą być:", "Dlatego pojęcie instrumentu finansowego jest używane zarówno w odniesieniu do papierów wartościowych, jak i innych instrumentów rynku finansowego, w tym instrumentów pochodnych."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Struktura rynku finansowego", "subject_id": 1664, "subject": "Rynek terminowy", "paragraphs": ["W pierwszym przypadku zawarcie umowy kupna-sprzedaży określonego towaru/waloru po wyznaczonej cenie zbiega się w czasie z zapłatą za nie. W przypadku rozliczeń bezgotówkowych dopuszcza się 2-3 dni robocze na zapłatę. Tego typu transakcje najczęściej dotyczą papierów wartościowych i walut.", "W drugim przypadku, w dniu zawarcia umowy kupna-sprzedaży ustala się wszystkie szczegóły transakcji co do ilości i cech przedmiotu umowy oraz przyszły termin jego dostawy i formę rozrachunku. Zatem dostawa i rozliczenie będą miały miejsce w pewnym terminie w przyszłości. Dlatego tego typu umowy potocznie są nazywane kontraktami terminowymi. Inna ich nazwa to instrumenty pochodne – nawiązuje ona do faktu, że każdy kontrakt opiewa na jakiś towar (dobro, walor) albo „pochodzi od jakiegoś towaru”.", "Derywaty mogą być wystawiane na całą gamę instrumentów pierwotnych (Rys. 2):", "Obrót derywatów odbywa się na rynkach terminowych.", "Te obietnice mogą mieć formę kontraktów terminowych typu forward lub futures, kontraktów wymiany swap oraz opcji i warrantów. Mogą one być handlowane na rynku giełdowym i pozagiełdowym, w zależności od rodzaju derywatu."], "definitions": [{"name": " Definicja 1: Instrument pochodny ", "content": " Instrument pochodny to taki instrument finansowy, którego\nwartość zależy od wartości innego instrumentu (zwanego bazowym, pierwotnym lub podstawowym), a\nrozliczenie następuje w pewnym momencie (okresie) czasu w przyszłości. W odniesieniu do instrumentów\npochodnych używa się również nazwy „derywaty” (ang. derivatives). "}, {"name": " Definicja 2: Rynek terminowy ", "content": " Rynek terminowy to taki segment rynku finansowego, w którym\nhandluje się obietnicami (zobowiązaniami) kupna-sprzedaży instrumentów pierwotnych w przyszłości.\n \n \n"}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Struktura rynku finansowego", "subject_id": 1665, "subject": "Rynek walutowy i depozytowo-kredytowy", "paragraphs": ["Istnieje też szereg innych powodów niezmiennie wysokiego popytu na wybrane waluty, mianowicie:", "Kurs walutowy (cena waluty) kształtuję się na podstawie popytu i podaży na rynku walutowym (w systemie kursu płynnego).", "Kupno i sprzedaż poszczególnych walut organizują banki, kantory i giełdy walutowe. Oprócz tego walutowymi derywatami handlują inne giełdy, np. Giełda Papierów Wartościowych w Warszawie czy Warszawska Giełda Towarowa.", "Rynek depozytowo-kredytowy tworzą banki komercyjne, które prowadzą tradycyjną działalność bankową – przyjmują depozyty i udzielają kredytów. Najważniejsze w pełnieniu tej funkcji jest to, że banki kumulują kapitał pieniężny (powstający z drobnych wpłat depozytowych), aby móc udzielać kredytów inwestycyjnych opiewających na duże kwoty.", "Poza tym banki świadczą wiele innych usług, których liczba i zakres stają się coraz bardzie rozbudowane (z wykorzystaniem najnowocześniejszych technologii) i dopasowane do wymogów współczesnego społeczeństwa.", "Co ważne, ryzyko związane z udzielanymi kredytami banki komercyjne biorą na siebie. Zatem ryzyko klientów, którzy ulokowali swoje oszczędności w systemie bankowym nie jest wysokie. Tym bardziej, że o bezpieczeństwo klientów dbają też bank centralny i nadzór bankowy – w Polsce to Narodowy Bank Polski, Komisją Nadzoru Finansowego i Bankowy Fundusz Gwarancyjny.", "Podstawowym celem działalności NBP jest utrzymanie stabilnego poziomu cen, przy jednoczesnym wspieraniu polityki gospodarczej rządu, o ile nie ogranicza to podstawowego celu NBP. Zapewnia on sprawne działanie systemu płatniczego, który umożliwia szybki i bezpieczny przepływ pieniędzy pomiędzy ludźmi, jak i podmiotami gospodarczymi. W tym celu NBP:", "NBP działa na rzecz stabilności systemu finansowego oraz kształtuje warunki niezbędne do rozwoju systemu bankowego. W tym celu:", "Komisja Nadzoru Finansowego sprawuje nadzór nad sektorem bankowym, rynkiem kapitałowym, ubezpieczeniowym, emerytalnym, nadzór nad instytucjami płatniczymi i biurami usług płatniczych, instytucjami pieniądza elektronicznego oraz nad sektorem kas spółdzielczych. Celem nadzoru nad rynkiem finansowym jest zapewnienie prawidłowego funkcjonowania tego rynku, jego stabilności, bezpieczeństwa oraz przejrzystości, zaufania do rynku finansowego, a także zapewnienie ochrony interesów uczestników tego rynku. Do zadań KNF należy ponadto:", "Bankowy Fundusz Gwarancyjny (BFG) działa na rzecz stabilności krajowego systemu finansowego: gwarantuje depozyty zgromadzone w bankach i kasach oraz odpowiada za przeprowadzanie przymusowej restrukturyzacji instytucji finansowych zagrożonych bankructwem. Podstawowe zadania BFG:", "Narodowy Bank Polski wraz Ministerstwem Finansów, Komisją Nadzoru Finansowego i Bankowym Funduszem Gwarancyjnym tworzą Komitet Stabilności Finansowej, który sprawuje nadzór makroostrożnościowy w Polsce.", "Nadzór makroostrożnościowy obejmuje identyfikację, ocenę i monitorowanie ryzyka systemowego oraz działania mające na celu ograniczenie tego ryzyka poprzez zastosowanie instrumentów makroostrożnościowych. Celem nadzoru makroostrożnościowego jest ograniczanie ryzyka systemowego, w szczególności poprzez wzmacnianie odporności systemu finansowego i w konsekwencji wspieranie długookresowego i zrównoważonego wzrostu gospodarczego kraju. https://nbp.pl/system-finansowy/nadzor-makroostroznosciowy/"], "definitions": [{"name": " Definicja 1: Rynek walutowy ", "content": " Rynek walutowy to całokształt transakcji oraz warunków\nw jakich się one odbywają, dotyczących wymiany waluty jednego kraju na walutę kraju innego.\n"}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Segmentacja rynku papierów wartościowych", "subject_id": 1667, "subject": "Rynek pieniężny i kapitałowy", "paragraphs": ["Poszczególne papiery wartościowe (instrumenty finansowe) mogą być kwalifikowane jednocześnie do różnych segmentów, w zależności od stosowanego kryterium.", "Jednym z najważniejszych kryteriów podziału jest termin zwrotu kapitału, który wyodrębnia:", "Jeśli termin zwrotu kapitału jest krótszy aniżeli jeden rok, mamy do czynienia z rynkiem pieniężnym. Jeśli jest dłuższy lub nieoznaczony – z rynkiem kapitałowym.", "Jest to ważny podział, z uwagi na ryzyko dla inwestora – im dłuższy bowiem jest termin zwrotu kapitału, tym większe ryzyko wiąże się z danym walorem (zob. Zakup papierów wartościowych a ryzyko inwestora).", "Ryzyko wynika z dłuższego czasu oddziaływania czynników zewnętrznych, które mogą spowodować pogorszenie się wyników finansowych emitenta, a nawet doprowadzić do jego upadłości.", "Dla inwestora (zob. Inwestycje i inwestorzy) nabywającego walor danego emitenta, oznacza to częściową lub całkowitą utratę zainwestowanego kapitału i ewentualnego zysku. Wobec tego regulacje rynku kapitałowego są bardziej restrykcyjne niż rynku pieniężnego."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Segmentacja rynku papierów wartościowych", "subject_id": 1668, "subject": "Rynek pierwotny i wtórny", "paragraphs": ["Obrót papierami wartościowymi w tym segmencie rynku określa się mianem obrotu pierwotnego. W roli emitentów występują przedsiębiorstwa, instytucje finansowe oraz państwo. Największą grupę pod względem liczebności tworzą jednak przedsiębiorstwa zabiegające o wolne środki pieniężne, które następnie zamierzają wykorzystać do sfinansowania różnego rodzaju przedsięwzięć, z przewagą tych o charakterze inwestycyjnym.", "Rynek pierwotny umożliwia efektywną alokację kapitału, czyli dopływ do tych emitentów, którzy najlepiej sobie radzą gospodarczo, a tym samym zapewniają wyższe stopy zwrotu ze swoich papierów wartościowych, znajdujących się w posiadaniu inwestorów.", "Rynek, na którym obrót instrumentami finansowymi odbywa się już między inwestorami nazywamy wtórnym, a handel na tym rynku – obrotem wtórnym. Tu dokonuje się realokacji kapitału – inwestorzy pod wpływem wielu czynników podejmują decyzje o kupnie lub sprzedaży papierów wartościowych. Większy popyt oznacza, że rentowność tych walorów wzrasta, co przekłada się na ich wyższą cenę rynkową i zwiększenie dopływu kapitału z kolejnych emisji do tego samego emitenta."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Segmentacja rynku papierów wartościowych", "subject_id": 1669, "subject": "Rynek publiczny i niepubliczny", "paragraphs": ["W Unii Europejskiej kwestie oferty publicznej reguluje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/1129 z dnia 14 czerwca 2017 r. w sprawie prospektu, który ma być publikowany w związku z ofertą publiczną papierów wartościowych lub dopuszczeniem ich do obrotu na rynku regulowanym oraz uchylenia dyrektywy 2003/71/WE (tzw. Rozporz. 1129) (Dziennik Urzędowy Unii Europejskiej 168/12) [1]. W myśl art. 3 tego rozporządzenia, papiery wartościowe są przedmiotem oferty publicznej i mogą być dopuszczone do obrotu na rynku regulowanym w Unii Europejskiej dopiero po opublikowaniu prospektu emisyjnego (wg zasad określonych w tym rozporządzeniu) (dalej: Rozporządzenie 1129).", "Wspomniane rozporządzenie nie ma zastosowania do oferty publicznej papierów wartościowych o łącznej wartości w UE mniejszej niż 1 000 000 EUR, przy czym kwota ta jest obliczana za okres 12 miesięcy (Rozporządzenie 1129, art. 1 ust. 3).", "W Polsce tę kwestię reguluje Ustawa z dnia 29 lipca 2005 r. o ofercie publicznej i warunkach wprowadzania instrumentów finansowych do zorganizowanego systemu obrotu oraz o spółkach publicznych (t.j. Dz. U. z 2022 r. poz. 2554) [2]. Określa ona nie tylko zasady i warunki oferty publicznej, lecz również wprowadzenia do obrotu na rynku regulowanym, a także obowiązki emitentów i pośredników na tym rynku i ważne kwestie związane ze spółkami publicznymi. Według art. 3 ust. 1a, oferta publiczna papierów wartościowych, w przypadku której liczba osób, do których jest ona kierowana, wraz z liczbą osób, do których kierowane były oferty publiczne tego samego rodzaju papierów wartościowych, dokonane w okresie poprzednich 12 miesięcy, przekracza 149, wymaga opublikowania memorandum informacyjnego. W kolejnych ustępie zaznaczono, że przedmiotem oferty publicznej w Polsce nie mogą być jednostki uczestnictwa w instytucjach wspólnego inwestowania typu otwartego.", "Rynek niepubliczny to każdy rynek, który nie jest rynkiem regulowanym. Nie ma więc wymogu dostosowania dokonywanych na nim transakcji do powyższych regulacji. Oferta sprzedaży papierów wartościowych na tym rynku jest określana mianem oferty prywatnej."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Segmentacja rynku papierów wartościowych", "subject_id": 1670, "subject": "Rynek regulowany i nieregulowany", "paragraphs": ["Funkcjonowanie rynku regulowanego w Polsce podlega pod ustawę z dnia 29 lipca 2005 r. o obrocie instrumentami finansowymi (t.j. Dz. U. z 2022 r. poz. 1500, 1488, 1933, 2185) [1] (dalej: Ustawa). Art. 14 ust. 1 tej Ustawy definiuje rynek regulowany jako „działający w sposób stały wielostronny system zawierania transakcji, których przedmiotem są instrumenty finansowe dopuszczone do obrotu w tym systemie, zapewniający inwestorom powszechny i równy dostęp do informacji rynkowej w tym samym czasie przy kojarzeniu ofert nabycia i zbycia instrumentów finansowych oraz jednakowe warunki nabywania i zbywania tych instrumentów, zorganizowany i podlegający nadzorowi właściwego organu na zasadach określonych w przepisach ustawy, jak również uznany przez państwo członkowskie za spełniający te warunki i wskazany Komisji Europejskiej jako rynek regulowany”.", "W myśl art. 21 ust. 1 rynek regulowany może być prowadzony wyłącznie przez spółkę akcyjną.", "Art. 31 wspomnianej ustawy [1] określa, kto może być stroną transakcji na rynku regulowanym. Zalicza się do nich:", "Poza tym, na określonych warunkach mogą zostać do nich dopuszczone inne podmioty nabywające i zbywające instrumenty finansowe we własnym imieniu i na własny rachunek:", "Przy czym o dopuszczeniu instrumentów finansowych do obrotu na rynku regulowanym decyduje zarząd spółki, która prowadzi rynek regulowany – ma na to 14 dni od dnia złożenia wniosku.", "W Ustawie rozróżnia się też pojęcia rozliczenia i rozrachunku. W myśl art. 45b, rozliczenie – to ustalenie wysokości świadczeń pieniężnych i niepieniężnych wynikających z zawartych transakcji, w ramach przyjętego sposobu rozliczeń; natomiast pod rozrachunkiem rozumie się obciążenie lub uznanie konta depozytowego, rachunku zbiorczego lub rachunku papierów wartościowych…, odpowiednio w związku z transakcją zbycia lub nabycia instrumentów finansowych, a także odpowiednio do ustalonych w trakcie rozliczenia kwot świadczeń, uznanie lub obciążenie rachunku bankowego lub rachunku pieniężnego wskazanego przez uczestnika będącego stroną transakcji albo stroną rozliczenia.", "Dzięki nadzorowi regulatora finansowego rynek regulowany zapewnia jego uczestnikom większą transparentność emitentów (poprzez regularne dostarczanie informacji finansowych i niefinansowych o ich działalności) i bezpieczeństwo zawieranych transakcji.", "Rynek nieregulowany to każdy inny rynek. Handluje się na nim wszystkimi papierami wartościowymi – dopuszczonymi do obrotu giełdowego i niedopuszczonymi. Transakcje na tym rynku najczęściej zawierane pomiędzy instytucjami finansowymi (np. bankami, domami maklerskimi) oraz innym klientami. Warunkiem bezpieczeństwa jest zawieranie transakcji z jednostkami, które się znają i darzą wzajemnym zaufaniem."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obrót na rynku papierów wartościowych", "subject_id": 1671, "subject": "Instrumenty rynku pieniężnego", "paragraphs": ["Ich obrót i emisja są regulowane odmiennymi przepisami, niż obrót papierami wartościowymi rynku kapitałowego. Przepisy te są mniej rygorystyczne, z uwagi na krótszą żywotność krótkoterminowych papierów dłużnych (tj. do 1 roku), a co za tym idzie – niższe ryzyko dla inwestora. Termin ważności krótkoterminowych papierów dłużnych może być wyrażony w dniach (np. 7 dni), tygodniach (np. 13, 26, 52 tygodni) lub miesiącach (np. 3, 6 miesięcy). Dochód inwestora posiadającego walory tego typu może być liczony w dwojaki sposób:", "Dla inwestora zakup krótkoterminowych papierów dłużnych jest alternatywą do lokowania wolnych środków pieniężnych na lokacie bankowej lub na rynku kapitałowym. Taka inwestycja ma liczne zalety:", "Dla emitentów krótkoterminowych papierów wartościowych są one instrumentami stosunkowo szybkiego pozyskiwania środków pieniężnych na krótkie okresy, zamiast zaciągania kredytu bankowego. Umożliwiają one szybkie pozyskanie gotówki w razie nagłego zapotrzebowania (np. spadku płynności finansowej emitenta).", "Zalety emisji krótkoterminowych papierów dłużnych w porównaniu do kredytu bankowego:", "Na rynku handluje się dwoma rodzajami tych walorów, w zależności od tego, do kogo skierowana jest oferta:", "Jak już zostało wspomniane, dochód z tych walorów może mieć dwie postacie, w zależności od tego, jaki był stosowany tryb sprzedaży tych instrumentów na rynku pierwotnym:", "Wobec tego istnieją dwa sposoby sprzedaży krótkoterminowych papierów dłużnych:", "W pierwszym przypadku wszyscy chętni nabywają walory po tej samej cenie (np. nominalnej). Natomiast w drugim – każdy potencjalny nabywca zgłasza swoją cenę (pomniejszoną o dyskonto) a organizator emisji wybiera spośród nich najbardziej atrakcyjne, z zastrzeżeniem, że nie mogą one być niższe niż cena minimalna zgłoszona w warunkach emisji.", "Tego typu przetarg jest nazywany aukcją amerykańską."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obrót na rynku papierów wartościowych", "subject_id": 1672, "subject": "Instrumenty rynku kapitałowego", "paragraphs": ["Instrumenty rynku kapitałowego można podzielić na dwie podstawowe grupy (Rys. 1):", "Wspólną cechą instrumentów dłużnych jest to, że zaciągnięta przez emitenta pożyczka musi zostać zwrócona wierzycielowi w określonym czasie wraz z opłatą za jej korzystanie. Najbardziej popularne w tej grupie instrumentów są obligacje, które mogą być emitowane zarówno przez instytucje finansowe, jak i niefinansowe.", "Emisję i rozprowadzenie obligacji na rynku pierwotnym często nazywa się pożyczką obligacyjną. Cecha zbywalności korzystnie wyróżnia ten rodzaj pożyczki w porównaniu do kredytów bankowych, które najczęściej uważa się za jej alternatywę. Oznacza to, że posiadacz obligacji może w łatwy sposób przekazać tę wierzytelność innej osobie, co jest o wiele trudniejsze (a niekiedy nawet niemożliwe) w przypadku kredytu bankowego. Podobną funkcję pełnią też listy zastawne, z tym że grupa potencjalnych emitentów tych walorów jest ograniczona jedynie do banków hipotecznych.", "Instrumenty udziałowe z kolei poświadczają, że ich posiadacz ma prawo do części majątku emitenta. W tym przypadku nie chodzi o pożyczkę, lecz o nabycie części tego majątku – nie powstaje więc żadne zobowiązanie ze strony emitenta i nie ma on obowiązku zwrotu otrzymanych środków. Inwestor może zamienić zakupione aktywa na gotówkę lub inne walory sprzedając je na rynku wtórnym. Typowymi papierami wartościowymi w tym przypadku są akcje, reprezentujące określoną część majątku spółki akcyjnej (lub komandytowo-akcyjnej). Zatem emisja akcji to forma pozyskiwania lub powiększenia własnego kapitału przez wspomniane spółki.", "Uogólniając można sformułować takie podstawowe funkcje rynku kapitałowego:", "Sprawnie funkcjonujący rynek kapitałowy przynosi korzyści emitentom papierów wartościowych (poszukujących kapitału), inwestorom (lokującym wolne środki pieniężne w zyskowny sposób) oraz gospodarce jako całości. Dlatego państwo czuwa nad bezpieczeństwem funkcjonowania tego rynku, organizując obrót (giełdy papierów wartościowych, systemy obrotu) i sprawując nadzór nad nim (ustawodawstwo, Komisja Nadzoru Finansowego)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obrót na rynku papierów wartościowych", "subject_id": 1673, "subject": "Organizacja obrotu papierami wartościowymi w Polsce", "paragraphs": ["Giełda handluje zarówno instrumentami kasowymi, jak i pochodnymi. Wśród kasowych należy wymienić m.in. akcje, prawa do akcji, prawa poboru, prawa pierwszeństwa, obligacje, certyfikaty inwestycyjne.", "Natomiast wśród terminowych – kontrakty futures (na akcje, indeksy giełdowe, obligacje skarbowe i kurs walutowy) oraz opcje (na akcje oraz indeksy giełdowe).", "Giełda Papierów Wartościowych w Warszawie prowadzi:", "W ramach GPW funkcjonują Rynek Regulowany GPW (GPW RR) oraz Rynek Alternatywny GPW (GPW ASO).", "Najważniejszymi indeksami giełdowymi rynku głównego są: WIG, WIG20, MWIG40 i SWIG80.", "W skład grupy kapitałowej GPW wchodzą też: spółka BondSpot i Towarowa Giełda Energii.", "BondSpot S.A. prowadzi:", "Przy czym dwa ostatnie rynki funkcjonują w ramach, organizowanego wspólnie z GPW, systemu rynków obligacji Catalyst https://www.bondspot.pl/o_spolce.", "Rynek Treasury BondSpot Poland jest integralną częścią systemu Dealerów Skarbowych Papierów Wartościowych (DSPW), opracowanego przez Ministerstwo Finansów przy współudziale Narodowego Banku Polskiego oraz środowiska bankowego. Jest to hurtowy rynek obrotu obligacjami skarbowymi oraz bonami skarbowymi. Minimalna jednostka obrotu wynosi 5 mln zł https://www.bondspot.pl/o_rynku.", "Rynek Regulowany BondSpot i Alternatywny Systemu Obrotu BondSpot zostały włączone do systemu obrotu Catalyst jako jego platformy. Zasady notowań sesyjnych na rynkach regulowanych i alternatywnych są identyczne. Jedyne różnice dotyczą sposobu zawierania transakcji pakietowych. Na wszystkich rynkach tworzących Catalyst realizacja transakcji gwarantowana jest przez Krajowy Depozyt Papierów Wartościowych, a na emitentach spoczywają obowiązki informacyjne dotyczące raportów bieżących i okresowych https://www.bondspot.pl/rynek_regulowany.", "System obrotu Catalyst prowadzony jest na platformach transakcyjnych GPW S.A. i BondSpot S.A. Tworzą go cztery platformy obrotu (Rys. 1):", "Na pierwszych dwóch platformach jednostką transakcyjną jest jedna obligacja, natomiast na dwóch ostatnich jednostka transakcyjna wyrażona wartościowo – ma wartość co najmniej 100 tys. zł lub odpowiednio 100 tys. waluty obcej. Przedmiotem transakcji na rynku mogą być zdematerializowane obligacje, listy zastawne i inne dłużne instrumenty finansowe inkorporujące prawa majątkowe odpowiadające prawom wynikającym z zaciągnięcia długu, emitowane na podstawie właściwych przepisów prawa polskiego lub obcego, wprowadzone do obrotu na rynku. Taka architektura Catalyst sprawia, że jest on dostosowany do emisji o różnych wielkościach i różnej charakterystyce, a także do potrzeb różnych inwestorów – hurtowych i detalicznych, instytucjonalnych i indywidualnych https://www.bondspot.pl/rynek_regulowany.", "Przykładowo w lutym 2023 roku na rynku Catalyst były dostępne takie rodzaje papierów dłużnych: obligacje skarbowe, komunalne, spółdzielcze, korporacyjne oraz listy zastawne. Przy czym były one notowane zarówno w walucie krajowej (PLN) jak i zagranicznej (EUR) https://gpwcatalyst.pl/."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obrót na rynku papierów wartościowych", "subject_id": 1674, "subject": "Oferty rynkowe papierów wartościowych w Polsce", "paragraphs": ["Bonami też handluje Bank Gospodarstwa Krajowego (BGK), który ma w swojej ofercie nie tylko bony skarbowe, lecz również bony pieniężne NBP https://www.bgk.pl/files/public/Pliki/Przedsiebiorstwa/Produkty_skarbowe/Prezentacja_-_informacja_o_skarbowych_DPW.pdf.", "Biuro maklerskie PKO BP też sprzedaje obligacje skarbowe (klientom indywidualnym i instytucjonalnym). W stałej ofercie detalicznej banku zawsze znajduje się cały wachlarz instrumentów dłużnych, o różnym oprocentowaniu, strukturze i terminach wygaśnięcia.", "Przykładowo w lutym 2023 roku znajdowały się wśród nich:", "Dla klientów indywidualnych Biuro Maklerskie ma w ofercie również obligacje korporacyjne https://www.bm.pkobp.pl/oferta/klient-indywidualny/obligacje/obligacje-korporacyjne/.", "Z kolei dla klientów instytucjonalnych świadczy usługi kupna i sprzedaży zarówno obligacji, jak i akcji https://www.bm.pkobp.pl/klient-instytucjonalny/. Wtórny obrót obligacjami organizują też rynek Catalyst (sprzedaż detaliczna) i platforma BondSpot (sprzedaż hurtowa). Można tam znaleźć obligacje skarbowe, komunalne, spółdzielcze i korporacyjne. Przy czym są one notowane zarówno w walucie krajowej (PLN), jak i zagranicznej (EUR).", "Oferta listów zastawnych na rynku pierwotnym jest zwykle kierowana do podmiotów instytucjonalnych, m.in. do banków, funduszy inwestycyjnych, funduszy emerytalnych i towarzystw ubezpieczeniowych.", "Wtórny obrót listów zastawnych organizuje rynek Catalyst (oferta detaliczna) i platforma BondSpot (oferta hurtowa). Przykładowo w lutym 2023 roku w ofercie rynku Catalyst były listy zastawne wyemitowane przez ING Bank Hipoteczny, MBank Hipoteczny, PEKAO Bank Hipoteczny https://gpwcatalyst.pl/notowania-obligacji-listy-zastawne.", "Mogą nimi też handlować banki – na przykład informuje o tym BGK https://www.bgk.pl/files/public/Pliki/Przedsiebiorstwa/Produkty_skarbowe/Broszura_informacyjna.pdf.", "Można tu nabyć certyfikaty inwestycyjne funduszy zamkniętych (oraz jednostki uczestnictwa funduszy otwartych) https://www.aliorbank.pl/biuro-maklerskie/fundusze-inwestycyjne.html.", "Akcje i certyfikaty inwestycyjne można też zakupić w ofercie wtórnej na rynku giełdowym i pozagiełdowym.", "W przypadku transakcji giełdowej konieczny jest udział instytucji finansowej uprawnionej do zawierania transakcji na danej giełdzie (najczęściej są to biura i domy maklerskie)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Bony", "subject_id": 1675, "subject": "Bony skarbowe", "paragraphs": ["Są to papiery dłużne o krótkim terminie ważności, nie przekraczającym jednego roku. Wśród nich to bony dominują pod względem liczbowym i rodzajowym.", "Bon skarbowy ma charakter dyskontowy, tzn. odsetki z tego papieru wartościowego są liczone jako różnica między jego nominałem (ceną, po której będzie wykupywany przez emitenta) a ceną zapłaconą przez inwestora. Wielkość odsetek jest niezmienna w czasie.", "Bony skarbowe są emitowane przez Ministerstwo Finansów (w imieniu Rządu). Wartość nominalna bonów wynosi 10 000 zł, a okres ważności może być ustalony w dniach (od 1 do 90) lub tygodniach (od 1 do 52) https://www.bgk.pl/files/public/Pliki/Przedsiebiorstwa/Produkty_skarbowe/Prezentacja_-_informacja_o_skarbowych_DPW.pdf.", "Standardowe terminy to 13 i 52 tygodni.", "Na rynku pierwotnym oferta jest kierowana do banków, które posiadają status dealera skarbowych papierów wartościowych (DSPW). Sprzedaż bonów skarbowych odbywa się na przetargach organizowanych przez Ministerstwo Finansów za pośrednictwem NBP.", "Na rynku wtórnym bony skarbowe mogą być kupowane i sprzedawane przez osoby prawne lub spółki nieposiadające osobowości prawnej. Obrót odbywa się za pośrednictwem banków, a minimalna kwota transakcji wynosi 50 000 PLN https://www.bgk.pl/male-i-srednie-przedsiebiorstwa/produkty-skarbowe/zarzadzanie-nadwyzkami-finansowymi/bony-skarbowe/.", "Za pomocą bonów skarbowych państwo finansuje przejściowe braki gotówki, niezbędnej do finansowania bieżących zobowiązań wobec własnego społeczeństwa. Braki te wynikają z rozbieżności między terminami wpływu do budżetu państwa strumieni pienieżnych (podatki, cła, opłaty skarbowe, sądowe, notarialne etc.) a terminami wydatkowania środków na pokrycie własnych zobowiązań.", "Choć bony skarbowe są emitowane na krótkie okresy, termin korzystania z pożyczki można wydłużyć dokonując systematycznych emisji tych papierów wartościowych, z czego często korzystają rządy wielu państw, regularnie powtarzając emisje.", "Bony mogą nabywać zarówno inwestorzy indywidualni, jak i instytucjonalni. Jednym z nich jest Narodowy Bank Polski, który następnie wykorzystuje te walory w operacjach otwartego rynku – w celu regulowania ilości pieniądza w obiegu, w ramach polityki drogiego lub taniego pieniądza, realizowanej na zlecenie rządu."], "definitions": [{"name": " Definicja 1: Bony skarbowe ", "content": " Bony skarbowe to takie papiery wartościowe, które potwierdzają\nzaciągnięcie pożyczki przez Skarb Państwa i zobowiązanie do jej zwrotu w okresie krótszym aniżeli jeden rok,\nwraz z należnymi odsetkami. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Bony", "subject_id": 1676, "subject": "Bony bankowe", "paragraphs": ["Bony są emitowane na okaziciela i wystawiane na okresy od 1 do 364 dni (1, 7, 14, 28, 91, 182 oraz 364), jednak najczęściej – jest to 7 dni. Rentowność bonów jest stała i równa stopie referencyjnej NBP. W przetargach mogą brać udział tylko te banki krajowe i oddziały banków zagranicznych działających w Polsce, które posiadają status dealera rynku pieniężnego. Bony pieniężne NBP może też nabyć Bankowy Fundusz Gwarancyjny https://www.bgk.pl/files/public/Pliki/Przedsiebiorstwa/Produkty_skarbowe/Informacja_dla_klienta_o_dluznych_papierach_wartosciowych.pdf.", "Banki komercyjne oraz inne instytucje finansowe mogą handlować bonami pieniężnymi NBP na rynku wtórnym. Bony cieszą się dużym zainteresowaniem wśród inwestorów instytucjonalnych, z uwagi na wysoki poziom bezpieczeństwa i stosunkowo wysoką rentowność.", "Bony pieniężne NBP to podstawowe instrumenty realizacji restrykcyjnej i ekspansywnej polityki monetarnej, są kupowane i sprzedawane na rynku międzybankowym w operacjach otwartego rynku. Celem polityki monetarnej jest oddziaływanie na wysokość stóp procentowych, regulowanie ilości pieniędzy w obiegu i płynności sektora bankowego w krótkim horyzoncie czasowym.", "Bank emituje certyfikat depozytowy (dewizowy), aby pozyskać czasowo wolne środki pieniężne, które ma zamiar wykorzystać w celach zarobkowych w krótkim okresie. Wystawia je klientom powierzającym mu określoną kwotę pieniężną na określony czas, po upływie którego bank jest zobowiązany zwrócić posiadaczowi certyfikatu zdeponowaną w nim kwotę powiększoną o należne odsetki. Dokument certyfikatu powinien zawierać wszystkie niezbędne informacje m.in.:", "Zaletą tych walorów w porównaniu do zwykłej lokaty jest ich zbywalność – certyfikaty są handlowane na rynku wtórnym. Oznacza to o wiele wyższą płynność certyfikatów niż lokat bankowych. Na cenę rynkową certyfikatu na rynku wtórnym składa się bieżąca cena tego waloru oraz odsetki przypadające za miniony okres. Wierzycielem, który otrzyma środki pieniężne od emitenta jest ostatni posiadacz tego dokumentu.", "Certyfikat może też mieć formę zdematerializowaną – w postaci zapisu komputerowego w odpowiedniej bazie danych. Obecnie większość certyfikatów ma właśnie taką formę, co upraszcza i przyspiesza ich obrót.", "Choć większą popularnością cieszą się zbywalne certyfikaty depozytowe wystawione na okaziciela, to istnieje również możliwość uzyskania niezbywalnego certyfikatu – na wyraźne żądanie klienta.", "Zaletą certyfikatu jest wyższe oprocentowanie, w porównaniu do papierów skarbowych. Wynika to z ogólnej zasady rynku finansowego – im większe ryzyko, tym większa cena kapitału inwestycyjnego.", "Istnieją cztery podstawowe rodzaje certyfikatów depozytowych:", "Certyfikaty depozytowe często wykorzystują w swojej działalności banki inwestycyjne, zamiast lokowania nadwyżek gotówki na lokatach międzybankowych. Stosunkowo wysoka płynność tych instrumentów pozwala bankom na szybkie i sprawne regulowanie swojej płynności finansowej."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Bony", "subject_id": 1677, "subject": "Bony komercyjne", "paragraphs": ["Nazwy tych papierów dłużnych są ściśle związane z podstawą prawną ich emisji. Jeśli jest to:", "Celem emisji bonów komercyjnych jest pozyskanie zewnętrznych źródeł finansowania bieżącej działalności przedsiębiorstw. Dla emitentów bony są alternatywą dla kredytu bankowego oraz emisji długoterminowych papierów wartościowych. Emitent może przedłużyć okres korzystania z pozyskanych kapitałów poprzez tzw. rolowanie długu, jeśli wykupi wcześniej emitowane bony za środki pozyskane dzięki nowej emisji papierów wartościowych.", "Bony komercyjne mogą być emitowane jako papiery imienne lub na okaziciela, w postaci materialnej lub zdematerializowanej. Ostatnio przewagę zyskały bony zdematerializowane.", "Szczegółowe warunki dla każdej emisji podaje się w memorandum informacyjnym, który przygotowuje agent emisyjny – instytucja, pośrednicząca w jej organizacji (najczęściej rolę pośrednika pełnią banki i biura maklerskie). Typowe terminy ważności bonów ustala się w przedziale od 7 do 12 miesięcy https://businessinsider.com.pl/gielda/bon-komercyjny-co-to-jest-i-do-czego-sluzy/3ht39xf.", "Oferta na rynku pierwotnym najczęściej ma charakter niepubliczny, a zadaniem agenta emisyjnego jest znalezienie potencjalnych nabywców i uplasowanie walorów na rynku. Poszukuje się ich głównie wśród inwestorów instytucjonalnych, ponieważ bony opiewają na dość wysokie kwoty nominalne. Wtórny obieg tych papierów wartościowych odbywa się na rynku pozagiełdowym (ang. Over-the-counter, OTC).", "Główną zaletą bonów jest ich zbywalność, czyli obrót na zorganizowanych rynkach wtórnych, co zapewnia im większą płynność. Poza tym, dla emitenta zazwyczaj ten rodzaj pożyczki jest tańszy niż zaciągnięcie kredytu bankowego, nawet po uwzględnieniu kosztów emisji.", "Dla inwestora bony są alternatywą do lokaty bankowej oraz zakupu innych instrumentów na rynku pieniężnym i/lub kapitałowym. Z punktu widzenia świadczeń dla inwestora, bony komercyjne dzieli się na dwie podstawowe grupy:", "W pierwszej grupie walory są sprzedawane z dyskontem a wykupywane według wartości nominalnej. Wysokość dyskonta często jest przywiązana do pewnej wartości rynkowej, np. stopy WIBOR lub innej stopy rynkowej (często rynku międzybankowego). W drugiej zaś grupie walory są sprzedawane po cenie emisyjnej a dochód nabywcy jest określony przez wyraźnie oznaczoną stopę procentową.", "Bony komercyjne to niezabezpieczone papiery wartościowe, w związku z czym ich ryzyko jest wysokie, ale w ślad za tym – wyższy dochód dla inwestora. Głównym zabezpieczeniem bonów komercyjnych jest renoma firmy-emitenta, dlatego po ten rodzaj pożyczki na rynku pieniężnym najczęściej sięgają duże firmy o wysokiej kapitalizacji, które działają na rynku od wielu lat i mają wysoką wiarygodność kredytową. W Polsce głównymi emitentami bonów komercyjnych zazwyczaj są spółki giełdowe oraz polskie oddziały wielkich koncernów zagranicznych."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Bony", "subject_id": 1678, "subject": "Obliczenie wartości i rentowności bonów", "paragraphs": ["\\(F_b\\) – wartość nominalna bonu otrzymywana w momencie wykupu,", "\\(r_b\\) – wymagana stopa zwrotu z inwestycji w bony,", "\\(t\\) – liczba dni do wykupu,", "\\(D\\) – liczba dni w roku (może być 360, 365 lub 366)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Weksle", "subject_id": 1679, "subject": "Istota weksla i jego funkcje", "paragraphs": ["W obiegu gospodarczym znajdują się dwa rodzaje weksli:", "Weksel własny zawiera przyrzeczenie jego wystawcy do zapłaty wymienionej na nim sumy pieniężnej. W tym przypadku to wystawca weksla jest głównym dłużnikiem wekslowym.", "W wekslu trasowanym wystawca (trasant) zleca trasatowi zapłatę wymienionej sumy pieniężnej na rzecz remitenta (posiadacza weksla, wierzyciela). Dopiero po akceptacji weksla przez trasata (który staja się akceptantem) staje się on głównym dłużnikiem wekslowym.", "Zaznaczony na wekslu termin płatności może mieć takie oznaczenia:", "W gospodarce weksel pełni wiele ważnych funkcji, m.in.:", "Należy podkreślić, że weksel stanowi podstawę i jednocześnie przyczynę zobowiązania wekslowego (czyli opiewa na wierzytelność) a jego egzekucja jest wyposażona w specjalny rygor – tzw. rygor wekslowy, który oznacza, że weksel nie może zawierać żadnych uwarunkowań dotyczących zapłaty."], "definitions": [{"name": " Definicja 1: Weksel ", "content": " Weksel jest to dokument sporządzony w formie przewidzianej przez prawo, który\nzawiera bezwzględne zobowiązanie do zapłaty określonej osobie (remitentowi) wymienionej na nim sumy\npieniężnej, w ustalonym miejscu i czasie. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Weksle", "subject_id": 1680, "subject": "Weksel własny i weksel trasowany", "paragraphs": ["Jeśli dokument nie będzie zawierał co najmniej jednego z tych elementów, nie będzie uważany za weksel własny. Od tej reguły są pewne wyjątki:", "Zgodnie z ustawą Prawo wekslowe powinien on zawierać takie elementy:", "Dokument, w którym zabraknie któregoś z wymienionych wyżej elementów, nie może być uznany za weksel trasowany, z takimi wyjątkami:", "W myśl art. 3 Prawa wekslowego, trasatem może być zarówno sam wystawca weksla trasowanego, jak i osoba trzecia. W dwóch rodzajach weksli (płatnym za okazaniem, płatnym w pewien czas po okazaniu) wystawca może zastrzec oprocentowanie sumy wekslowej w postaci stopy odsetek – w przeciwnym razie zastrzeżenie uważa się za nienapisane. Odsetki są liczone albo od daty wystawienia weksla, albo od daty w nim wskazanej."], "definitions": [{"name": " Definicja 1: Weksel własny ", "content": " Weksel własny jest to dokument sporządzony maszynowo lub\nodręcznie, w którym jego wystawca bezwarunkowo zobowiązuje się wypłacić wymienioną na nim sumę\npieniężną, we wskazanym miejscu i czasie, określonej osobie (remitentowi). "}, {"name": " Definicja 2: Weksel trasowany ", "content": " Weksel trasowany jest to dokument, w którym wystawca (trasant)\nzleca trasatowi zapłatę wymienionej sumy pieniężnej na rzecz remitenta. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Weksle", "subject_id": 1682, "subject": "Poręczenie wekslowe i dłużnicy wekslowi", "paragraphs": ["Każdy poręczyciel odpowiada wekslowo na równi z osobą, której poręczenia udzielił.", "Głównymi dłużnikami wekslowymi są:", "Do ubocznych dłużników zalicza się:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Weksle", "subject_id": 1685, "subject": "Inne rodzaje weksli", "paragraphs": ["Takie rozróżnienie ma istotne znaczenie, ponieważ jeszcze przed wygaśnięciem weksla remitent może starać się o pozyskanie kredytu dyskontowego w banku komercyjnym. Bank chętniej udzieli kredytu, jeśli jest on zabezpieczony wekslem towarowym.", "Wynika to z prowadzonej przez bank centralny polityki redyskontowej (nastawionej na wsparcie małych i średnich przedsiębiorstw), w ramach której bank komercyjny (w razie trudności z utrzymaniem płynności) może zwrócić się do banku centralnego po kredyt redyskontowy. Taki kredyt może być zabezpieczony jedynie wekslem towarowym, przy czym termin do jego wygaśnięcia nie może przekraczać 90 dni.", "Weksel można wykorzystać jako zabezpieczenie zaciągniętego kredytu, wówczas jest nazywany wekslem gwarancyjnym.", "Jeśli ma posłużyć jako potwierdzenie, że dłużnik zdeponował określoną sumę pieniężną, która stanowi przyszłe świadczenia na rzecz wierzyciela, nazywa się go wekslem depozytowym.", "Jeśli jego rola sprowadza się do gwarantowania wykonania pewnego zobowiązania i będzie stanowić odszkodowanie w razie jego niedopełnienia – wekslem kaucyjnym.", "Weksel może też być wystawiony in blanco – jako niewypełniony weksel. Musi jednak zawierać podpis wystawcy weksla własnego lub te elementy weksla trasowanego, od których zależy jego ważność.", "Weksel in blanco może posłużyć do zabezpieczenia przyszłych roszczeń, których wielkość w chwili jego wystawienia jest nieznana. Zobowiązanie z tego weksla wiąże się z podpisaniem dodatkowej umowy (tzw. deklaracji wekslowej) między wystawcą weksla a remitentem. Umowa ta powinna zawierać szczegółowy opis sposobu wypełnienia weksla – w razie zaistnienia uwarunkowań umownych. Weksel in blanco może być przenoszony przez indos, podobnie jak inne rodzaje weksli."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Weksle", "subject_id": 1686, "subject": "Indosowanie i dyskontowanie weksli", "paragraphs": ["Art. 12 Prawa wekslowego stanowi: „Indos powinien być bezwarunkowy. Warunki, od których uzależniono indos, uważa się za nienapisane. Indos częściowy jest nieważny. Indos na okaziciela jest równoznaczny z indosem in blanco”. Indos więc musi być bezwarunkowy, choć warunek weksla nie unieważnia (warunek uważa się za nienapisany). Przekreślony indos uważa się za niebyły.", "Indos musi opiewać na całą kwotę weksla. Jeśli indosów jest więcej niż jeden, musi być zachowany ciąg indosów. W praktyce stosuje się różne rodzaje indosów:", "Indos imienny wskazuje osobę fizyczną lub prawną, która przejmuje wszystkie uprawnienia z weksla. W przypadku indosu pełnomocniczego indosatariusz ma prawo do wykonywania w imieniu indosanta przysługujących mu praw wekslowych; przy czym każdy kolejny indos będzie już tylko pełnomocniczy. Indos zastawniczy pełni rolę zastawu u indosatariusza.", "Indos in blanco, to taki zapis na odwrocie weksla lub na jego przedłużku, który zawiera jedynie podpis indosanta, tzn. brakuje w nim wskazania indosatariusza. W tym przypadku posiadacz weksla może go uzupełnić, wpisując dowolnego indosatariusza. Ma też dwie inne możliwości: albo indosować weksel dalej jako in blanco, albo przekazać innej osobie bez indosowania.", "Redyskonto weksla – jest to kupno przez bank centralny (w Polsce – Narodowy Bank Polski) od banku komercyjnego weksla wcześniej w nim zdyskontowanego, przed terminem jego wygaśnięcia, za kwotę pomniejszoną o kolejne dyskonto (nazywane redyskontem).", "Bank centralny ustala też wymagania do materiału wekslowego, tzn. jakie weksle przyjmie on do redyskonta. Najczęściej wymóg dotyczy terminu do wygaśnięcia weksla – nie może on być dłuższy niż 90 dni, i musi mieć charakter weksla handlowego – aby wspierać działalność małych i średnich przedsiębiorstw, które najczęściej posługują się w swoich rozrachunkach wekslem."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obligacje", "subject_id": 1688, "subject": "Istota obligacji i warunki ich emisji", "paragraphs": ["Artykuł 4 ust. 1 ustawy z dnia 15 stycznia 2015 r. o obligacjach (t.j. Dz. U. z 2022 r. poz. 454, 872) [1] (dalej: Ustawa o obligacjach) definiuję obligację, jako papier wartościowy emitowany w serii, w którym emitent stwierdza, że jest dłużnikiem właściciela obligacji, zwanego „obligatariuszem”, i zobowiązuje się wobec niego do spełnienia określonego świadczenia. Przy czym określenie „emitowane w serii” oznacza, że takie obligacje reprezentują prawa majątkowe podzielone na określoną liczbę równych jednostek.", "Świadczenia i prawa wynikające z obligacji oraz sposób ich realizacji muszą być dokładnie opisane w dokumencie zawierającym warunki emisji (np. w prospekcie emisyjnym). W Polsce opis warunków sporządza się w języku polskim, a w przypadku obligacji o wartości (lub równowartości) 100 000 euro może być sporządzony w języku angielskim.", "Warunki emisji mogą też zawierać inne ważne informacje, jak na przykład cel zaciągana pożyczki obligacyjnej albo sposób zabezpieczenia wierzytelności wynikających z obligacji. Jeśli cel emisji jest określony, emitent nie może wykorzystać pożyczonego kapitału na inny cel. Przy czym, art. 32 ust. 1 stanowi, że w przypadku, gdy „emitentem jest jednostka samorządu terytorialnego, związek tych jednostek lub jednostka władz regionalnych lub lokalnych innego niż Rzeczpospolita Polska państwa członkowskiego Unii Europejskiej, określenie celu emisji jest obowiązkowe”.", "Przez cały okres trwania pożyczki obligacyjnej, emitent jest zobowiązany regularnie dostarczać obligatariuszom rocznych sprawozdań finansowych, z wyjątkiem emitentów, których obligacje „zostały dopuszczone do obrotu na rynku regulowanym lub wprowadzone do alternatywnego systemu obrotu” (art. 41 Ustawy o obligacjach).", "W myśl art. 8 wspomnianej Ustawy obligacje nie mogą mieć formy dokumentu, lecz podlegają zarejestrowaniu w Krajowym Depozycie Papierów Wartościowych. Emisja obligacji może nastąpić w trybie oferty publicznej lub w inny sposób.", "W pierwszym przypadku sprzedaż na rynku pierwotnym nie może przekroczyć 3 miesięcy, licząc od dnia rozpoczęcia emisji (art. 43 ust. 1). W drugim zaś – 3 tygodnie (dla pierwszej propozycji) i następne 3 tygodnie (dla kolejnych propozycji) (art. 44). Przy czym emitent może ustalić tzw. próg emisji, czyli minimalną liczbę subskrybowanych obligacji, która wyznacza sukces emisji. Jeśli próg nie został osiągnięty, to uznaje się, że emisja nie doszła do skutku."], "definitions": [{"name": " Definicja 1: Obligacja ", "content": " Obligacja to dokument, który potwierdza zaciągnięcie przez emitenta\npożyczki (w wysokości nominału obligacji) i zobowiązanie do jej zwrotu w ustalonym terminie, wraz z\nnależnymi odsetkami. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obligacje", "subject_id": 1690, "subject": "Cena i wartość obligacji", "paragraphs": ["Wartość nominalna (nominał obligacji) to kwota, którą emitent zwróci w dniu wygaśnięcia obligacji. Dawniej była ona umieszczana na płaszczu obligacji wraz z innymi szczegółowymi informacjami o emitencie i zasadach rozliczania obligacji. Obecnie obligacje są emitowane w postaci zdematerializowanej, a ich wartość nominalna oraz inne ważne informacje są zapisywane w odpowiedniej bazie elektronicznej tej instytucji, która prowadzi ich ewidencję. W większości przypadków nominał obligacji jest wartością stałą, z wyjątkiem obligacji indeksowanych.", "Cena emisyjna to kwota, którą musi zapłacić pierwszy nabywca obligacji (tzw. subskrybent) na rynku pierwotnym, czyli emitentowi. Może ona być równa wartości nominalnej lub różnić się od niej. Wpływ na cenę emisyjną ma atrakcyjność obligacji oraz warunki, w jakich przebiega ich pierwotna sprzedaż.", "Wyższą cenę emisyjną stosuje się wtedy, gdy trzeba obniżyć nieco dochodowość obligacji. Zdarza się to w sytuacji, gdy:", "W ten sposób emitent może obniżyć koszty obsługi pożyczki obligacyjnej. Z kolei niższą cenę stosuje się w sytuacji, gdy oprocentowanie jest mało konkurencyjne i trzeba podwyższyć dochodowość obligacji w celu przyciągnięcia większej liczby inwestorów.", "Cena rynkowa (bieżąca) obligacji to cena, która kształtuje się na rynku wtórnym, na podstawie równoważenia popytu i podaży na te walory. W okresie ważności obligacji cena rynkowa może silnie odbiegać od ceny nominalnej czy emisyjnej, na skutek wpływu różnych czynników zewnętrznych. Do najważniejszych z nich można zaliczyć:", "Nie mniej, w miarę zbliżania się do terminu zapadalności obligacji, jej cena rynkowa będzie coraz bardziej się zbliżała do tej kwoty, którą otrzyma obligatariusz.", "Cena rozliczeniowa uwzględnia cenę rynkowa oraz odsetki narosłe do momentu odsprzedaży obligacji."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obligacje", "subject_id": 1691, "subject": "Emitent obligacji, subskrybent i obligatariusz", "paragraphs": ["Natomiast nabywcę obligacji nazywa się:", "Subskrybent jest to posiadacz obligacji, który nabył ją od emitenta na rynku pierwotnym. Jeśli dotrzyma obligację do dnia jej wykupu, to stanie się obligatariuszem.", "Obligatariusz to kolejny nabywca obligacji, który zakupił ją na rynku wtórnym od subskrybenta lub innego obligatariusza.", "Do obu kategorii używa się ogólnej nazwy – inwestor.", "Dla emitenta obligacja jest alternatywną formą pozyskiwania kapitału na dłuższe okresy. W porównaniu do kredytu bankowego może mieć takie zalety:", "Jeśli obligacje emituje spółka akcyjna (lub komandytowo-akcyjna), to alternatywą może być emisja nowych akcji. W tym przypadku, do zalet obligacji można zaliczyć takie:", "Natomiast dla długoterminowego obligacja jest alternatywą do:", "W pierwszym przypadku zaletami obligacji są:", "W drugim zaś przypadku do zalet można zaliczyć:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obligacje", "subject_id": 1695, "subject": "Obliczenie wartości i rentowności obligacji", "paragraphs": ["Poniższe wzory do obliczenia kuponów odsetkowych można znaleźć na stronie https://www.bankier.pl/wiadomosc/Matematyka-obligacji-1880750.html.", "Kupon odsetkowy dla okresów rocznych można obliczyć za pomocą wzoru:", "Kupon odsetkowy dla okresów półrocznych oblicza się za pomocą takiego wzoru:", "Z kolei kupon odsetkowy dla okresów kwartalnych można obliczyć za pomocą wzoru:", "\\(c\\) – roczne oprocentowanie obligacji,", "\\(N\\) – nominał obligacji.", "Ważne informacje dla inwestora niesie wskaźnik rentowności (stopy zwrotu z) obligacji. Rozróżnia się dwa wskaźniki rentowności:", "Nominalny wskaźnik rentowności oblicza się według wzoru:", "Z kolei bieżący wskaźnik rentowności można obliczyć tak:", "gdzie", "\\(W_n\\) – wartość nominalna obligacji,", "\\(P\\) – cena rynkowa obligacji,", "\\(C\\) – kupon odsetkowy z obligacji.", "Wzór do obliczeń wartości obligacji odsetkowych (o stałych i zmiennych kuponach):", "gdzie:", "\\(C_i\\) – wielkości kuponów odsetkowych w poszczególnych okresach,", "\\(W_w\\) – wartość wykupu obligacji (zazwyczaj jest to wartość nominalna),", "\\(YTM\\) – stopa zwrotu w terminie do wykupu,", "\\(n\\) – liczba okresów odsetkowych.", "Wzór do wyceny obligacji zerokuponowej:", "gdzie:", "\\(P_z\\) – cena rynkowa obligacji zerokuponowej."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obligacje", "subject_id": 2086, "subject": "Rodzaje obligacji według oznaczenia obligatariuszy i przysługujących im świadczeń", "paragraphs": ["W przypadku obligacji imiennych ich zbywalność często jest ograniczona, co jest podawane w opisie warunków emisji. Ograniczenie może sprowadzać się do uzyskania zgody emitenta na sprzedaż obligacji. Natomiast w przypadku obligacji wystawionych na okaziciela, emitent nie może zastosować żadnych ograniczeń – dlatego tylko takie obligacje są dopuszczane do obrotu publicznego.", "Istnieje wiele rodzajów obligacji, z punktu widzenia różnorodności korzyści, jakie mogą przynosić ich właścicielom. W tym przypadku rozróżnia się:", "Oprocentowanie może też być zmienne – zmieniać się z okresu na okres (równy okresowi wypłaty odsetek), w zależności od ustalonej częstotliwości wypłat odsetek (np. co kwartał, co pół roku, co roku). Takie obligacje są nazywane zmiennoprocentowymi albo zmiennokuponowymi. Algorytm obliczania odsetek (nazywanych kuponami) dla obligacji zmiennoprocentowych jest ustalany w zależności od jakiegoś wskaźnika ekonomicznego (np. stopy pożyczek na rynku międzybankowym, stopy inflacji, oprocentowania bonów skarbowych) w okresie poprzedzającym wypłatę odsetek. Zmienne oprocentowanie najczęściej stosuje się w warunkach niestabilności gospodarczej i wahań koniunkturalnych.", "Ich emitentami mogą być m.in.: jednostki samorządu terytorialnego, Bank Gospodarstwa Krajowego, Polski Fundusz Rozwoju S.A., niektóre spółki akcyjne i spółki z ograniczoną odpowiedzialnością (szczegóły w art. 25 ust. 1). Przy czym emitent obligacji przychodowych przed każdą wypłatą świadczeń musi przekazać obligatariuszom informacje dotyczące wielkości przychodu z przedsięwzięcia (finansowanego dzięki tym obligacjom), struktury jego kosztów i wypłat z dochodu, za poprzedni okres. Ustawa o obligacjach nakłada też inne obowiązki związane z tego typu obligacjami oraz ograniczenia odnośnie rozporządzania składnikami majątkowymi przedsięwzięcia (art. 25 ust. 2-7)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obligacje", "subject_id": 1698, "subject": "Rodzaje obligacji według rodzaju emitenta", "paragraphs": ["Instytucjonalnymi obligatariuszami mogą być m.in. banki komercyjne, firmy ubezpieczeniowe, towarzystwa emerytalne. Od lat cieszą się one nieustannym powodzeniem również wśród ludności.", "Nabywając obligacje bankowe inwestor powinien pamiętać, że są one obarczone nieco większym ryzykiem w porównaniu z obligacjami skarbowymi czy komunalnymi. Z drugiej strony ryzyko to jest mniejsze niż w przypadku obligacji korporacyjnych czy papierów udziałowych. Porównując obligacje z lokatą bankową, należy stwierdzić, że zwykle przynosi ona większy dochód obligatariuszowi, a skala ryzyka jest porównywalna.", "Obligacje korporacyjne mogą emitować tylko podmioty ściśle określone w ustawie z dnia 15 stycznia 2015 r. o obligacjach (t.j. Dz. U. z 2022 r. poz. 454, 872) [1]. Najczęściej czynią to duże spółki prawa handlowego (spółki akcyjne, spółki z o.o., spółki komandytowo-akcyjne), stąd też nazwa tych obligacji. Emitent ma trzy możliwości plasowania swoich obligacji na rynku pierwotnym:", "Większość obligacji korporacyjnych jest emitowana jako papiery niezabezpieczone, tzn. ich zabezpieczeniem jest jedynie płynność emitenta. Z tego względu ich oprocentowanie może kształtować się w dużym przedziale. Wiąże się to z ryzykiem emitenta – jest ono wyższe w przypadku mniejszych spółek, które mogą łatwo utracić płynność lub nawet splajtować.", "Istnieje też możliwość emisji obligacji zabezpieczonych – posiadają one dodatkowe źródło spłaty zobowiązań emitenta, w postaci np. hipoteki, zastawu rejestrowego, gwarancji czy blokady środków finansowych. Oprocentowanie takich obligacji będzie nieco niższe, z uwagi na mniejsze ryzyko dla obligatariuszy.", "Aby zmniejszyć ryzyko inwestycji w obligacje korporacyjne, warto monitorować zdolność emitenta do obsługi zadłużenia, m.in. za pomocą wskaźnika liczonego jako relacją długu netto do kapitału własnego firmy. Im wyższy jest wskaźnik, tym większe jest ryzyko inwestora."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Listy zastawne", "subject_id": 1699, "subject": "Istota listów zastawnych", "paragraphs": ["Wszystkie kwestie związane z emisją listów zastawnych reguluje Ustawa z dnia 29 sierpnia 1997 r. o listach zastawnych i bankach hipotecznych (t.j. Dz. U. z 2022 r. poz. 581, 872) [1] (dalej: Ustawa o listach zastawnych).", "List zastawny może być wystawiony jako papier wartościowy:", "Nie może jednak mieć formy dokumentu – jest papierem wartościowym zdematerializowanym. Wyjątek stanowi „list zastawny o jednostkowej wartości nominalnej równej kwocie stanowiącej równowartość 100000 euro lub przekraczającej tę kwotę, ustaloną przy zastosowaniu średniego kursu euro ogłaszanego przez Narodowy Bank Polski, obowiązującego w dniu podjęcia przez emitenta decyzji o emisji” (art. 5a ust. 2). Może on mieć formę dokumentu, a ustawa o listach zastawnych określa jego formę. Musi on zawierać (art. 6):", "Listy zastawne podlegają zarejestrowaniu w Krajowym Depozycie Papierów Wartościowych."], "definitions": [{"name": " Definicja 1: List zastawny ", "content": " List zastawny jest to dłużny papier wartościowy, który bardzo\nprzypomina obligację odsetkową. Jest to dokument, w którym emitent potwierdza zaciągnięcie pożyczki\npieniężnej i zobowiązuje się do jej zwrotu w ustalonym z góry terminie, wraz z należnymi odsetkami.\nOprocentowanie listów zastawnych może być stałe lub zmienne. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Listy zastawne", "subject_id": 1700, "subject": "Rodzaje listów zastawnych", "paragraphs": ["Kryterium tego podziału jest forma zabezpieczenia kredytów, które bank hipoteczny zamierza refinansować za pomocą kapitału pozyskanego dzięki sprzedaży listów zastawnych.", "Hipoteczne listy zastawne służą refinansowaniu kredytów, wiarygodność spłaty których jest zabezpieczona zastawem na nieruchomości dłużnika, wpisanym do księgi wieczystej.", "Natomiast przy publicznych listach zastawnych jako zabezpieczenie może posłużyć gwarancja lub poręczenie, udzielone przez instytucje o wysokiej wiarygodności finansowej, jak np.:", "Poza tym podstawą do ich emisji mogą być:", "Z kolei art. 7d ust. 1 Ustawy o listach zastawnych dopuszcza oznaczenie listów zastawnych jako „europejski list zastawny” lub „europejska obligacja zabezpieczona”, taki papier musi jednak posiadać tłumaczenie tego oznaczenia na wszystkie języki urzędowe Unii Europejskiej.", "Na rynku pierwotnym listy zastawne najczęściej są nabywane przez inwestorów instytucjonalnych. Natomiast wtórny ich obrót organizują rynek Catalyst (oferta detaliczna), platforma BondSpot (oferta hurtowa) i niektóre banki komercyjne. Jeśli chodzi o emitentów, to w ofercie z 2023 roku były listy zastawne wyemitowane przez ING Bank Hipoteczny, MBank Hipoteczny i PEKAO Bank Hipoteczny."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Akcje", "subject_id": 1701, "subject": "Istota akcji, ich emisja i subskrypcja", "paragraphs": ["Według Kodeksu spółek handlowych (dalej: Kodeksu, ksh), przy założeniu spółki akcyjnej, jej kapitał zakładowy powinien wynosić nie mniej niż 100 000 złotych, a minimalna wartość nominalna akcji nie mniej niż 1 grosz. Przy czym akcje nie mogą być obejmowane poniżej wartości nominalnej, a jeśli są obejmowane po cenie wyższej, to „nadwyżka powinna być uiszczona w całości przed zarejestrowaniem spółki”.", "Do najważniejszych organów spółki akcyjnej należą:", "Zarząd spółki", "Członków zarządu (na okres do pełnych 5 lat) powołuje i odwołuje (może to zrobić w każdej chwili) rada nadzorcza. Jednak wymagania, jakie powinni spełniać kandydaci na stanowisko członka zarządu określa już statut spółki lub uchwała walnego zgromadzenia akcjonariuszy. Członek zarządu reprezentuje spółkę we wszystkich czynnościach sądowych i pozasądowych spółki. Choć członek zarządu nie musi posiadać akcji, niemniej ma prawo uczestniczyć w walnym zgromadzeniu akcjonariuszy.", "Rada nadzorcza spółki", "Członków rady nadzorczej spółki powołuje (na kadencję trwającą nie dłużej niż 5 lat) walne zgromadzenie akcjonariuszy. Do jej zadań należy sprawowanie stałego nadzoru nad działalnością spółki. Członek rady nadzorczej ma prawo uczestniczenia w walnym zgromadzeniu akcjonariuszy, bez względu na to czy posiada akcje.", "Walne zgromadzenie akcjonariuszy", "Najważniejszym organem spółki jest walne zgromadzenie akcjonariuszy, które posiada największy zakres praw. Może dokonywać zmian w statucie, zatwierdzać sprawozdania, podejmować decyzje dotyczące rozporządzania zyskiem, powiększenia lub pomniejszenia majątku rzeczowego, tworzenia kapitału zapasowego i rezerwowego, a także wielkości i rodzaju emisji papierów wartościowych. Co ważne, walne zgromadzenie jest ważne bez względu na liczbę reprezentowanych na nim akcji. Zgromadzenia odbywają regularnie (w ustalonych z góry terminach) lub na zawołanie (tzw. nadzwyczajne).", "Akcje mogą być obejmowane za wkłady pieniężne lub niepieniężne (rzeczowe, aportowe). Jednak zasady nabywania akcji za aporty muszą być jasno określone w warunkach emisji.", "Akcje spółki niebędącej spółką publiczną muszą być zarejestrowane w rejestrze akcjonariuszy, prowadzonym w postaci elektronicznej. Rejestr akcjonariuszy prowadzą podmioty, uprawnione do prowadzenia rachunków papierów wartościowych, zgodnie z ustawą z dnia 29 lipca 2005 r. o obrocie instrumentami finansowymi [2]. Tego typu akcje mogą też byż zarejestrowane w depozycie papierów wartościowych, z zastrzeżeniem art. 32812, który stanowi, że „akcje tej samej spółki nie mogą być zarejestrowane jednocześnie w rejestrze akcjonariuszy i depozycie papierów wartościowych”.", "Zgodnie z art. 343 Kodeksu za akcjonariusza uważa się „tylko tę osobę, która jest wpisana do rejestru akcjonariuszy, z uwzględnieniem ustawy z dnia 29 lipca 2005 r. o obrocie instrumentami finansowymi”.", "Obecnie akcje mają formę zdematerializowaną, tzn. istnieją w postaci zapisu w odpowiedniej bazie elektronicznej, a zmiana ich własności wiąże się z dokonaniem zmian w tej bazie.", "Istnieją pewne zasady dotyczące sprzedaży akcji na rynku pierwotnym, a tym samym ich subskrypcji przez inwestorów (subskrybentów).", "Subskrypcja akcji z nowej emisji nie może przekraczać trzech miesięcy, licząc od dnia otwarcia zapisów na te papiery wartościowe. Emisja uznaje się za dokonaną, jeśli zostanie objęta i opłacona cała pula nowych akcji lub przynajmniej minimalna ich liczba. W międzyczasie subskrybenci otrzymują zastępczy papier wartościowy pod nazwą Prawo do (nowych) akcji.", "Więcej na ten temat można znaleźć w module Instrumenty związane z akcjami.", "Jeśli subskrypcja doszła do skutku, to subskrybent otrzyma przydzieloną mu liczbę akcji. W przeciwnym razie emitent musi zwrócić wpłacone dotychczas kwoty w nieprzekraczalnym terminie dwóch tygodni.", "Akcje mogą być sprzedawane w ramach:", "Sprzedaż w ofercie publicznej oznacza, że oferta jest skierowana do więcej niż 149 nabywców lub do nieoznaczonego nabywcy. Natomiast oferta prywatna to oferta skierowana do mniejszej liczby potencjalnych nabywców i/lub znanych z góry nabywców.", "W ramach oferty prywatnej, akcje mogą być przydzielane pracownikom spółki jako:", "Takie działania podejmowane są w celu zwiększenia motywacji pracowników do osiągnięcia lepszych wyników (tzw. programy motywacyjne).", "Więcej na temat oferty publicznej i prywatnej można znaleźć w module Rynek publiczny i niepubliczny."], "definitions": [{"name": " Definicja 1: Akcja ", "content": " Akcja to zbywalny i niepodzielny papier wartościowy, który potwierdza\nbezwarunkowe uczestnictwo jej właściciela w kapitale spółki akcyjnej. Uprawnia do otrzymywania\nczęści dochodu spółki (w postaci dywidend) oraz części majątku spółki - w razie jej likwidacji.\n"}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Akcje", "subject_id": 1702, "subject": "Cena i wartość akcji", "paragraphs": ["Wartość nominalna akcji jest podawana przed rejestracją emisji i jej plasowaniem na rynku pierwotnym. Jest obliczana jako stosunek kapitału akcyjnego spółki do liczby wyemitowanych akcji.", "Cena emisyjna akcji to cena podawana w prospekcie emisyjnym (lub innym podobnym dokumencie), po jakiej będzie ona sprzedawana na rynku pierwotnym. Cena emisyjna może być wyższa (nie może być niższa) od wartości nominalnej. Nadwyżka powiększa kapitał zapasowy spółki.", "Wartość księgowa akcji to wartość majątku spółki przypadająca na jedną akcję. Jest obliczana jako stosunek wartości aktywów (po odjęciu wszystkich zobowiązań) do liczby wyemitowanych akcji.", "Rynkowa (bieżąca) cena to cena akcji, po której można ją nabyć na rynku wtórnym. Kształtuje się ona jako wynik konfrontacji aktualnego popytu na te walory i ich podaży. Z kolei popyt i podaż reagują na takie czynniki wewnętrzne i zewnętrzne:", "Szacowanie ceny akcji jest ważnym instrumentem oceny ryzyka inwestycji w dane instrumenty finansowe.", "Cenę rynkową akcji (przy założeniu, że będą wypłacane dywidendy) oblicza się według wzoru [1]:", "gdzie", "\\(d_i,i=1,\\cdots ,n\\) – dywidendy w poszczególnych latach (okresach),", "\\(r\\) – wymagana stopa zwrotu,", "\\(P_a\\) – cena akcji w roku n-tym (końcowym).", "Zakładając, że spółka planuje regularnie wypłacać dywidendy D, których wielkość będzie rosła ze stałym współczynnikiem \\(g\\) (w nieograniczonym horyzoncie czasowym), cenę akcji można obliczyć korzystając z modelu Gordona-Shapiro (tzw. modelu stałego wzrostu dywidendy) według wzoru [2]:", "gdzie", "\\(D\\) – prognozowana dywidenda w kolejnym roku,", "\\(r\\) – wymagana stopa zwrotu,", "\\(g\\) – stopa wzrostu dywidendy.", "Dodatkowe informacje dotyczące rentowności i ryzyka związanego z inwestycjami w akcje można znaleźć w module Ryzyko papierów udziałowych."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Akcje", "subject_id": 1705, "subject": "Prawa i obowiązki akcjonariusza", "paragraphs": ["Prawa korporacyjne dają akcjonariuszowi możliwość udziału w funkcjonowaniu spółki akcyjnej oraz sprawowania kontroli nad organami zarządzającymi i kontrolnymi spółki. Zalicza się do nich:", "Statut spółki może też przewidywać dodatkowe, osobiste uprawnienia dla wybranych akcjonariuszy. Zgodnie z art. 354 Kodeksu mogą one dotyczyć m.in.:", "W odróżnieniu od innych praw związanych z przekazywaniem akcji innej osobie, powyższe uprawnienia nie mogą być przekazywane, związane bowiem nierozerwalnie z konkretną osobą i wygasają w momencie, kiedy przestaje ona być akcjonariuszem.", "Akcjonariusz nie odpowiada za zobowiązania spółki. Ryzyko akcjonariusza jest ograniczone do wysokości wniesionego wkładu. Jedynym i głównym obowiązkiem akcjonariusza jest pełna zapłata za akcje – musi on dokonać wpłaty bezpośrednio (lub za pośrednictwem firmy inwestycyjnej) „na rachunek spółki akcyjnej prowadzony przez bank na terytorium Unii Europejskiej lub państwa będącego stroną umowy o Europejskim Obszarze Gospodarczym” (art. 329 ksh)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Akcje", "subject_id": 1706, "subject": "Stopa dywidendy i stopa zwrotu", "paragraphs": ["Częstotliwość wypłat dywidendy i jej wysokość zależą od statutu spółki, jej wyników finansowych oraz decyzji walnego zgromadzenia akcjonariuszy co do wielkości części wypracowanego zysku, jaka zostanie przeznaczona na wypłatę dywidend.", "Istnieją różne strategie odnośnie wypłat i wysokości dywidend, a wśród nich:", "Jednak kwota przeznaczona na wypłatę dywidend, zgodnie z art. 348. § 1 Ustawy z dnia 15 września 2000 r. Kodeks spółek handlowych (t.j. Dz. U. z 2022 r. poz. 1467, 1488, 2280, 2436, z 2023 r. poz. 739) [2] (dalej: ksh):", "Stopę dywidendy (ang. Dividend Yield) można obliczyć jako stosunek wypłaconej przez spółkę w ciągu roku dywidendy do ceny rynkowej jej akcji:", "Dywidendy w spółce niebędącej spółką publiczną są wypłacane akcjonariuszom, którym przysługiwały akcje w dniu powzięcia uchwały o podziale zysku. Statut może upoważnić walne zgromadzenie do określenia dnia, według którego ustala się listę akcjonariuszy uprawnionych do dywidendy za dany rok obrotowy (dzień dywidendy) (art. 348 § 2 ksh [2]). Dzień dywidendy ustala walne zgromadzenie akcjonariuszy.", "Czym innym dla inwestora jest stopa zwrotu z akcji. Uwzględnia ona dodatkowo różnicę między ceną zakupu a ceną sprzedaży akcji.", "Stopa zwrotu z inwestycji w akcje w ciągu jednego roku (lub krótszego umownego okresu) wyrażona jest wzorem [3]:", "gdzie", "\\(r\\) – minimalna oczekiwana stopa zwrotu z inwestycji w akcję,", "\\(P_1\\) – rynkowa cena akcji w roku bieżącym,", "\\(P_0\\) – rynkowa cena akcji w roku poprzednim (po której została ona zakupiona),", "\\(d_1\\) – dywidenda wypłacona w ciągu roku, w którym akcję utrzymywano w portfelu."], "definitions": [{"name": " Definicja 1: Dywidenda ", "content": " Dywidenda to ta część wypracowanego przez spółkę akcyjną zysku, która\nzostała przeznaczona przez walne zgromadzenie na wypłatę dla akcjonariuszy. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Akcje", "subject_id": 1707, "subject": "Rodzaje akcji według sposobu oznaczenia akcjonariusza", "paragraphs": ["Podstawowa różnica pomiędzy tymi akcjami dotyczy ich zbywalności.", "Przekazanie innym osobom akcji imiennych może być ograniczone przez statut spółki, który musi określić jasne zasady wydawania zgody na sprzedaż akcji imiennych. W nieprzekraczalnym terminie dwóch miesięcy zarząd spółki (lub inny wskazany w statucie organ) musi wskazać potencjalnego nabywcę, cenę (ew. sposób jej określenia) oraz termin zapłaty. Wyjątek stanowi sprzedaż akcji w postępowaniu egzekucyjnym, kiedy nie wymaga się takiej zgody. Warto podkreślić, że z akcją imienną często wiążą się dodatkowe świadczenia niepieniężne na rzecz spółki.", "Natomiast nie ma żadnych ograniczeń odnośnie przekazania (sprzedaży) akcji wystawionych na okaziciela."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Akcje", "subject_id": 1708, "subject": "Rodzaje akcji według zakresu uprawnień akcjonariusza", "paragraphs": ["Nabywcy akcji zwykłych posiadają równe prawa. Tego typu akcje mogą być zarówno akcjami na okaziciela, jak i imiennymi. Natomiast posiadacz akcji uprzywilejowanych ma większe uprawnienia niż posiadacz akcji zwykłych, określone w danym przywileju. Przy czym akcje uprzywilejowane (z wyjątkiem akcji niemych) muszą być imienne.", "Przywileje posiadaczy akcji uprzywilejowanych mogą dotyczyć:", "Przy czym, statut może uzależniać przyznanie szczególnych uprawnień od spełnienia dodatkowych świadczeń na rzecz spółki, upływu terminu lub ziszczenia się warunku (art. 351, § 3 ksh [1])."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Akcje", "subject_id": 1709, "subject": "Instrumenty związane z akcjami", "paragraphs": ["Więcej informacji na temat warrantów można znaleźć w module Warranty subskrypcyjne i opcyjne.", "Natomiast opcje są szczegółowo opisane w modułach Opcje standardowe i Opcje niestandardowe.", "Kwit depozytowy (certyfikat akcyjny, ADR, GDR) – jest to dokument, który inkorporuje prawa własności dotyczące akcji zagranicznego emitenta. Może opiewać na jedną akcję, jej ułamek lub wielokrotność. Posiadacze kwitów depozytowych mają wszelkie prawa przysługujące innym akcjonariuszom, z tą różnicą, że wykonują je za pośrednictwem banku, który zdeponował te akcje. Certyfikaty dają możliwość notowania akcji na rynkach zagranicznych.", "Ustawa z dnia 29 lipca 2005 r. o obrocie instrumentami finansowymi (t.j. Dz. U. z 2022 r. poz. 1500, 1488, 1933, 2185) [2] w art. 3 definiuje kwit depozytowy jako papier wartościowy wyemitowany przez instytucję finansową z siedzibą na terytorium państwa członkowskiego lub innego państwa należącego do OECD:", "Kwit depozytowy może mieć formę ADR (ang. American Depositary Receipt) lub GDR (ang. Global Depositary Receipt). Jako pierwsze kwity depozytowe (ADR) pojawiły się w Stanach Zjednoczonych na początku XX wieku i były wystawiane przez bank JP Morgan, w oparciu o akcje emitowane w Wielkiej Brytanii. Podobne dokumenty wystawione w innych krajach nazywa się GDR.", "Kwity depozytowe mogą być wystawiane również na inne rodzaje papierów wartościowych. Dawniej umożliwiały inwestowanie na rynkach zagranicznych i wykonywania swoich praw z papierów wartościowych, bez konieczności podróżowania do kraju, gdzie znajduje się emitent. Obecnie ta zaleta nie ma już tak wielkiego znaczenia, jednak pozostają inne zalety, jak np. zakup/sprzedaż walorów według zasad i zwyczajów w kraju ojczystym (które inwestorom lepiej znane), wykonywanie czynności w języku ojczystym, brak ryzyka kursowego (gdyż kwity wystawiane w walucie krajowej)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Certyfikaty inwestycyjne", "subject_id": 1710, "subject": "Fundusze inwestycyjne", "paragraphs": ["Działalność funduszy inwestycyjnych w Polsce reguluje Rozporządzenie Ministra Finansów z dnia 30 maja 2018 r. w sprawie trybu i warunków postępowania firm inwestycyjnych, banków, o których mowa w art. 70 ust. 2 ustawy o obrocie instrumentami finansowymi, oraz banków powierniczych (Dz. U. 2018 poz. 1112) [1].", "Fundusz Inwestycyjny Zamknięty to fundusz, który emituje certyfikaty inwestycyjne mające status papierów wartościowych.", "Natomiast Fundusze Inwestycyjne Otwarte oraz Specjalistyczne Fundusze Inwestycyjne Otwarte wydają swoim udziałowcom tytuły uczestnictwa (jednostki uczestnictwa), które nie są papierami wartościowymi i nie mogą brać udziału w obrocie na rynku wtórnym. Służą jedynie do potwierdzenia wpłaty udziału pieniężnego oraz otrzymania przysługującej posiadaczowi kwoty pieniężnej w razie ich umorzenia (wykupu przez fundusz na żądanie klienta).", "W zależności od określonego w statucie funduszu sposobu plasowania certyfikatów inwestycyjnych rozróżnia się:", "Pierwsze emitują certyfikaty publiczne, czyli dopuszczone do obrotu na rynku publicznym. Natomiast drugie – certyfikaty niepubliczne.", "Fundusze często są tworzone na określoną jednostkę czasu i specjalizują się na wybranej klasie aktywów np.:", "Kapitał finansowy funduszu jest inwestowany w różne instrumenty finansowe, tworząc z nich zdywersyfikowane portfele aktywów, zarządzane przez wykwalifikowanych specjalistów. Skuteczność zarządzania weryfikuje rynek poprzeć wycenę certyfikatów."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Certyfikaty inwestycyjne", "subject_id": 1711, "subject": "Papiery udziałowe zamkniętych funduszy inwestycyjnych", "paragraphs": ["Liczba certyfikatów emitowanych w danej serii jest stała. Natomiast liczba jednostek uczestnictwa ciągle się zmienia, ponieważ fundusze otwarte mają obowiązek ciągłego przyjmowania wkładów oraz ich umarzania – na żądanie klientów."], "definitions": [{"name": " Definicja 1: Certyfikat inwestycyjny ", "content": " Certyfikaty inwestycyjne to niepodzielne papiery wartościowe\nemitowane przez fundusze inwestycyjne zamknięte (FIZ), specjalistyczne fundusze zamknięte i fundusze\nmieszane. Mogą być wydawane jako papiery imienne lub na okaziciela. Zaliczane do grupy papierów\nwartościowych udziałowych, poświadczających tytuł uczestnictwa jego posiadacza w funduszu inwestycyjnym.\n"}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Terminowy rynek instrumentów finansowych", "subject_id": 1712, "subject": "Transakcje natychmiastowe i terminowe", "paragraphs": ["Podstawą transakcji natychmiastowej jest zawarcie umowy kupna-sprzedaży określonej ilości dobra (waloru, towaru) po wyznaczonej cenie, z natychmiastową dostawą i zapłatą.", "Z kolei transakcja terminowa odbywa się w dwa etapy:", "Przedmiot umowy terminowej – dobro, walor, towar – jest nazywany instrumentem bazowym, podstawowym lub pierwotnym.", "Z kolei transakcje terminowe potocznie są nazywane:", "W myśl art. 3 Ustawy z dnia 29 lipca 2005 r. o obrocie instrumentami finansowymi (t.j. Dz. U. z 2022 r. poz. 1500, 1488, 1933, 2185) [1] do instrumentów pochodnych zalicza się:", "Do podstawowych instrumentów pochodnych (derywatów) zalicza się:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Terminowy rynek instrumentów finansowych", "subject_id": 1714, "subject": "Instrumenty bazowe i klasyfikacja instrumentów pochodnych", "paragraphs": ["Do najczęściej spotykanych na rynku instrumentów bazowych zaliczyć należy:", "Istnieje wiele klasyfikacji instrumentów pochodnych, według różnych kryteriów.", "Biorąc pod uwagę rodzaj instrumentu bazowego, można wyodrębnić dwie grupy instrumentów pochodnych:", "W pierwszej grupie instrumentem bazowym mogą być takie instrumenty finansowe: papiery wartościowe, stopy procentowe, kursy walutowe, indeksy giełdowe etc. Natomiast w drugiej – ceny towarów i surowców: metali, ropy naftowej, gazu, zboża, kawy, cukru, kakao etc.", "Oddzielną grupę wśród instrumentów pochodnych tworzą:", "Instrumenty kredytowe służą do transferu ryzyka kredytowego. Natomiast pogodowe – chronią przed ryzykiem pogodowym rozumianym jako nietypowe dla danej destynacji warunki pogodowe (lecz nie katastrofy naturalne).", "Ze względu na prawdopodobieństwo wykonania kontraktu rozróżnia się:", "Oznacza to, że instrumenty z pierwszej grupy zobowiązują obydwie strony do wykonania kontraktu. Zatem do jego rozliczenia na pewno dojdzie. Natomiast konstrukcja instrumentów z drugiej grupy przewiduje prawo dla jednej ze stron decydowania o tym, czy kontrakt zostanie wykonany. Druga strona tego kontraktu musi go wykonać, na żądanie tej pierwszej.", "Według kryterium symetrii praw i obowiązków stron kontraktu, instrumenty pochodne dzieli się na:", "Symetryczne instrumenty oznaczają, że obydwie strony kontraktu mają obowiązek jego wykonania, niezależnie od warunków rynkowych. Natomiast w przypadku niesymetrycznych tylko jedna strona posiada taki obowiązek, druga zaś – tylko prawo.", "W praktyce nie zawsze dochodzi do fizycznej dostawy przedmiotu kontraktu. Istnieje też możliwość jego rozliczenia poprzez porównanie ceny wykonania przedmiotu kontraktu z jego ceną rynkową (ceną spot). Wówczas różnicę płaci ta strona, która traci na tym porównaniu.", "Wobec powyższego, instrumenty pochodne można też podzielić według sposobu rozliczenia transakcji na rynku terminowym. Mogą to być instrumenty:", "Biorąc pod uwagę miejsce obrotu, instrumenty pochodne można podzielić na:", "Sektor giełdowy – jak wskazuje na to jego nazwa – tworzą giełdy. Mogą to być „stare” giełdy, które wzbogacają swoją ofertę o instrumenty pochodne. Powstają też nowe giełdy, które specjalizują się stricte w handlu instrumentami pochodnymi. Z kolei rynek pozagiełdowy obejmuje nieregulowany rynek prywatny oraz nowopowstałe elektroniczne platformy obrotu, które mogą być częściowo regulowane."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Terminowy rynek instrumentów finansowych", "subject_id": 1716, "subject": "Zastosowania instrumentów pochodnych", "paragraphs": ["Wobec tego, instrumenty pochodne są wykorzystywane w takich celach:", "W pierwszym przypadku, inwestor planujący zakup instrumentów finansowych i obawiający się wzrostu ich ceny, może zawrzeć kontrakt gwarantujący mu zakup waloru (określonej jego ilości) po uzgodnionej cenie.", "Drugi przypadek dotyczy inwestorów, którzy już posiadają pewne walory w swoim portfelu, lecz mają zamiar je sprzedać – wówczas ich obawy wiążą się z ewentualnym spadkiem cen. Aby zredukować to ryzyko, muszą zawrzeć kontrakt gwarantujący sprzedaż określonej liczby walorów (instrumentów bazowych) po uzgodnionej cenie.", "Trzeci przypadek dotyczy zarówno importerów, jak i eksporterów. Importerzy pragną zagwarantować sobie zakup pewnej ilości waluty obcej po uzgodnionej cenie w przyszłości, aby móc dokonać planowanego zakupu dóbr u zagranicznych producentów. Muszą więc zająć w kontrakcie pozycję długą. Z kolei eksporterzy, którzy dostają zapłatę za dostarczone dobra lub wyświadczone usługi w walucie obcej, pragną zagwarantować sobie jej odsprzedaż po satysfakcjonującej cenie w przyszłości. W tym celu muszą zająć krótką pozycję w kontrakcie terminowym.", "Ostatni, czwarty przypadek dotyczy tych uczestników rynku terminowego, którzy pragną zarobić na swoich prognozach dotyczących kształtowania się cen wybranych walorów. Nazywano ich spekulantami i to oni najczęściej przejmują ryzyko w tych pierwszych trzech przypadkach. Ich prognozy mogą się różnić od prognoz większości uczestników rynku. Zabezpieczeniem ich pozycji przed ryzykiem jest tworzenie bardzo zdywersyfikowanych portfeli instrumentów finansowych, w oparciu o zaawansowane metody zarządzania ryzykiem."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Bezwarunkowe instrumenty pochodne", "subject_id": 1719, "subject": "Pozagiełdowe kontrakty terminowe typu forward", "paragraphs": ["Kontrakty terminowe typu forward są użyteczne dla podmiotów gospodarczych w dwóch przypadkach:", "W pierwszym przypadku podmiot występuje jako strona kupująca (zajmuje pozycję długą), zabezpieczając się w ten sposób przed ewentualnym wzrostem ceny przedmiotu kontraktu. W drugim przypadku musi wystąpić jako strona sprzedająca ( pozycja krótka), aby uchronić się przed spadkiem ceny przedmiotu kontraktu. Zatem każda ze stron pragnie zapewnić sobie stałą cenę dla przyszłej transakcji. Dodatkową zaletą takiej transakcji jest to, że w momencie zawierania kontraktu forward żadna ze stron nie ponosi kosztów.", "Wadą takich derywatów jest to, że w razie nieprzewidzianych zmian na rynku instrumentu bazowego (ceny spot) strona występująca w kontrakcie może ponieść dodatkowe koszty – zapłacić cenę wyższą od rynkowej (przy kupnie) albo otrzymać cenę niższą od rynkowej (przy sprzedaży) instrumentu bazowego.", "Oprócz zwykłych kontraktów forward na rynku pozagiełdowym (ang. over-the-counter, OTC) można też spotkać takie jego odmiany:", "Pieniężne rozliczenie stron kontraktu odbywa się poprzez porównanie ceny jego wykonania z ceną rynkową instrumentu bazowego. W tym przypadku możliwe są trzy warianty:", "Powyżej przyjęto takie oznaczenia:", "S – cena spot instrumentu bazowego,", "K – cena wykonania kontraktu forward.", "Profil zysku dla pozycji długiej (kupującego kontrakt) zaprezentowano na Rys. 1.", "Z kolei profil zysku dla pozycji krótkiej (sprzedającego kontrakt) zaprezentowano na Rys. 2.", "Możliwa też jest dostawa fizyczna przedmiotu umowy, a rozliczenie pieniężne wynika z założenia, że dostarczony fizycznie przedmiot umowy został natychmiast sprzedany na rynku spot."], "definitions": [{"name": " Definicja 1: Kontrakt forward ", "content": " Terminowy kontrakt forward to umowa zawarta w bieżącym\nmomencie czasu, która bezwzględnie zobowiązuje pozycję krótką do sprzedaży a pozycję długą do kupna\nokreślonej ilości instrumentu bazowego, w wyznaczonym terminie w przyszłości, po cenie, która została\nuzgodniona przez strony w momencie zawarcia umowy. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Bezwarunkowe instrumenty pochodne", "subject_id": 1718, "subject": "Giełdowe kontrakty terminowe typu futures", "paragraphs": ["Konstrukcja kontraktu futures jest bardzo podobna do konstrukcji kontraktu forward, tzn. jedna strona kontraktu zobowiązuje się do sprzedaży a druga do kupna określonej ilości dobra (instrumentu finansowego) po wyznaczonej cenie w przyszłości.", "Choć definicja kontraktu futures jest podobna do definicji kontraktu forward, istnieje jednak między nimi wiele różnić, m.in. strony się nie znają, ilość instrumentu bazowego i cenę ustala giełda (stąd określenie oznaczona cena a nie uzgodniona) i to ona dokonuje ostatecznego rozrachunku kontraktu w ustalonych przez siebie terminach.", "Najczęściej na giełdach można spotkać kontrakty futures wystawione na:", "Głównymi zaletami kontraktów futures są wysoka płynność i gwarancja ich rozliczenia.", "Główną wadą kontraktów futures jest trudność dostosowania ich parametrów do indywidualnych potrzeb inwestora.", "Więcej różnić jest opisanych w module Giełdowy i pozagiełdowy obrót instrumentami pochodnymi.", "Kontrakty futures są rozliczane według tych samych wzorów, co kontrakty forward, z tą różnicą, że izba rozliczeniowa codziennie rozlicza pozycje w tym kontrakcie. Przy czym, profil zysku będzie analogiczny jak w przypadku kontraktu forward, jedynie dotyczyć będzie codziennego zysku jednej ze stron."], "definitions": [{"name": " Definicja 1: Kontrakt futures ", "content": " Terminowy kontrakt futures to giełdowa umowa zawarta w bieżącym\nmomencie czasu, która bezwzględnie zobowiązuje pozycję krótką do sprzedaży a pozycję długą do kupna\nstandardowej ilości instrumentu bazowego, w wyznaczonym terminie w przyszłości, po oznaczonej cenie, która\nukształtowała się na giełdzie w momencie zawarcia umowy. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Bezwarunkowe instrumenty pochodne", "subject_id": 1717, "subject": "Pozagiełdowe kontrakty wymiany typu swap", "paragraphs": ["Zalety i wady dla stron walutowego kontraktu swap wiążą się z zajętą pozycją, tzn. jeśli strona zabezpiecza się przed wzrostem kursu jakiejkolwiek waluty, to nie skorzysta z zalet wynikających z jej spadku. I na odwrót.", "Ponieważ tak naprawdę stóp nie da się wymienić czy sprzedać, w tym kontrakcie musi też być wskazana suma kapitałowa (ang. notional pricipal), która posłuży do rozliczenia między stronami. W ramach tych kontraktów następuje więc wymiana serii płatności odsetkowych, liczonych od sumy kapitałowej (wartości nominalnej), ale naliczanych według odmiennych zasad.", "Swap stopy procentowej istnieje w dwóch odmianach:", "W tym samym czasie strona X zobowiązuje się do wypłat stronie Y kwot równych oprocentowaniu tej samej kwoty nominału, ale liczonych według zmiennej stopy procentowej (ang. floating coupon). Przy czym, nominał i strumienie płatności są wyrażone w tej samej walucie.", "Proces przepływu płatności kuponowych pokazano na Rys. 1.", "W swapach kuponowych jedna strona, chcąc uniknąć ryzyka związanego z wahaniami oprocentowania kredytu, dokonuje zamiany zmiennej stopy procentowej na stałą, co umożliwia jej spokojne planowanie i prowadzenie działalności gospodarczej.", "Druga strona z kolei przejmuje to ryzyko na siebie, mając jednocześnie nadzieję, że rynkowe stopy zaczną spadać. Zaletą dla strony kupującej stałą stopę jest ochrona przed wzrostem rynkowych stóp procentowych, wadą zaś – niemożność skorzystania z pozytywnych skutków spadku stóp procentowych.", "Ponieważ na rynku pozagiełdowym trudno znaleźć partnera, który będzie zainteresowany zamianą stóp procentowych dotyczących kredytu o tej samej wartości nominalnej, w proces ten często włączają się pośrednicy, którzy zarabiają na tego typu operacjach.", "Proces wymiany zmiennych kuponów odsetkowych pokazano na Rys. 4.", "Może to być na przykład zamiana stopy LIBOR na stopę EURIBOR dotycząca pożyczki wyrażonej w dolarach USA.", "Po swapach walutowych i procentowych na rynku pojawił się swap walutowo-procentowy (nazywany też kapitałowym swapem walutowym), w którym wymiana waluty jest połączona ze zmianą sposobu oprocentowania, co umożliwia zawarcie kontraktu wymiany na dłuższe okresy. Wiadomo bowiem, że oprocentowanie kredytów (i depozytów) w różnych walutach może mocno się różnić, co jest związane ze zmiennością kursów tychże walut.", "Na rynku można również spotkać inne rodzaje swapów, służących do przenoszenia ryzyka:", "Cechą charakterystyczną kontraktów swap jest to, że zawierane są na dość długie okresy (od 1 do nawet 30 lat) i przewidują regularne przepływy strumieni pieniężnych wynikających z różnic wartości instrumentów bazowych. Pomagają one zarządzać aktywami i pasywami banków, inwestorów indywidualnych i instytucjonalnych oraz innych podmiotów gospodarczych."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Warunkowe instrumenty pochodne", "subject_id": 1722, "subject": "Opcje standardowe", "paragraphs": ["Za nabyte prawo nabywca opcji musi wnieść opłatę zwaną premią opcyjną (ang. option premium). W zamian wystawca opcji (ang. writer) – sprzedający opcję i pobierający premię opcyjną (krótka pozycja) – zobowiązuję się do wykonania kontraktu opcyjnego na żądanie posiadacza opcji (długa pozycja). Zakup kontraktu opcyjnego oznacza zajęcie długiej pozycji – bez względu na to, czy nabywca otrzyma prawo do kupna czy sprzedaży instrumentu bazowego.", "Zaletą opcji dla jej wystawcy jest pobierana premia opcyjna (dochód wystawcy), która może być natychmiast zainwestowana w zyskowny sposób. Z kolei nabywcy opcja daje możliwość kupna/sprzedaży instrumentu bazowego po gwarantowanej cenie, co chroni go przed dodatkowymi kosztami przyszłych transakcji na rynku spot instrumentu bazowego, wynikającymi ze zmienności jego ceny (wartości).", "Początkowo, kiedy opcje dopiero zostały wprowadzone do obrotu rynkowego, posiadacz opcji mógł skorzystać z przynależnych mu praw jedynie w dniu wygaśnięcia tego derywatu. Taki styl wykonania opcji nazwano europejskim, choć nie jest on domeną jedynie rynków europejskich. Zwyczajowo opcje wykonywane w tym trybie nazywano europejskimi.", "Z czasem pojawiła się inna odmiana opcji, którą można było wykonać w dowolnym dniu jej ważności, według uznania posiadacza tego derywatu. Taki styl nazwano amerykańskim, a opcje – amerykańskimi, choć nie są one przywiązane stricte do obrotu na rynku amerykańskim.", "W przypadku kontraktu opcyjnego mówi się o aktywnej i pasywnej stronie kontraktu. Stroną aktywną jest posiadacz opcji, który może decydować o jej wykonaniu – raczej wykona opcję w sytuacji, gdy może to przynieść mu korzyści finansowe. Natomiast pasywną stroną jest wystawca opcji, który musi ją wykonać na żądanie posiadacza opcji.", "W związku z tym również ryzyko stron nie jest jednakowe (symetryczne). Ryzyko wystawcy opcji jest podobne do ryzyka w kontraktach forward, futures i swap, natomiast ryzyko nabywcy opcji jest ograniczone do wysokości zapłaconej premii opcyjnej."], "definitions": [{"name": " Definicja 1: Opcja ", "content": " Opcja to umowa zawarta między nabywcą opcji a jej wystawcą, dotycząca\nmożliwości dokonania zakupu lub sprzedaży instrumentu bazowego po określonej z góry cenie, w określonym\nczasie w przyszłości.\nNabywca opcji (ang. holder) kupuje prawo do kupna (w opcji kupna – ang. call option) lub sprzedaży (w\nopcji sprzedaży – ang. put option) pewnej ilości instrumentu bazowego na powyższych warunkach.\n"}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Warunkowe instrumenty pochodne", "subject_id": 1805, "subject": "Funkcja wypłaty z opcji standardowej", "paragraphs": ["Można to zapisać w postaci funkcji wypłaty.", "Funkcję wypłaty dla opcji kupna mozna zapisać w takiej postaci:", "Natomiast dla opcji sprzedaży funkcja wypłaty przyjmie taką postać:", "gdzie", "\\(S_t\\) – cena spot instrumentu bazowego w momencie wykonania opcji \\(t\\),", "\\(K\\) – cena wykonania kontraktu opcyjnego."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Warunkowe instrumenty pochodne", "subject_id": 1806, "subject": "Profile zysku dla krótkiej i długiej pozycji w opcji", "paragraphs": ["Z kolei na Rys. 3 zilustrowano profil zysku dla długiej pozycji w opcji call, a na Rys. 4 - dla długiej pozycji w opcji put."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Warunkowe instrumenty pochodne", "subject_id": 1807, "subject": "Określenie pozycji opcji na rynku", "paragraphs": [], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Warunkowe instrumenty pochodne", "subject_id": 1808, "subject": "Wycena opcji standardowej", "paragraphs": ["Przez długi czas opcje nie były przedmiotem zainteresowania inwestorów. Problem polegał na tym, że nie istniało ogólnie akceptowanej metody ustalania godziwej ceny dla tego derywatu. Spowalniało to obrót opcjami na rynku pozagiełdowym, a tym bardziej nie było nawet mowy o ich wprowadzeniu do obrotu giełdowego.", "Przełom nastąpił po opublikowaniu artykułu Fishera Blacka i Myrona Scholesa w 1973 roku [1], w którym zaproponowali oni model wyceny europejskiej opcji wystawionej na cenę akcji, na którą nie wypłacano dywidendy. Autorzy przyjęli też szereg innych założeń, które upraszczały proces modelowania.", "Założenia modelu Blacka-Scholesa (modelu B-S) można zapisać w pięciu punktach:", "Według modelu B-S cenę europejskiej opcji z prawem kupna akcji można obliczyć według wzoru:", "Natomiast cenę europejskiej opcji z prawem sprzedaży akcji można obliczyć według następującego wzoru:", "\\(S\\) – cena rynkowa instrumentu bazowego (akcji) w bieżącym momencie czasu,", "\\(K\\) – cena wykonania opcji,", "\\(T\\) – czas do wygaśnięcia opcji,", "\\(r\\) – stopa procentowa bez ryzyka (najczęściej jest to oprocentowanie lokat na rynku międzybankowym),", "\\(\\sigma \\) – zmienność wartości instrumentu bazowego (odchylenie standardowe),", "\\(N(d_i)\\) – funkcja standardowego rozkładu normalnego dla zmiennej losowej \\(d_i, i=1,2\\).", "Mimo że model B-S jest bardzo uproszczony, jednak to on założył podwaliny inżynierii finansowej w zakresie wyceny opcji i tworzenia ich nowych form nazywanych opcjami niestandardowymi.", "Z biegiem czasu pojawiały się też inne modele, a wśród nich np.:", "W 1976 roku model B-S został rozwinięty na przypadek wypłaty dywidend na akcje. Jego autorami byli Fisher Black, Myron Scholes i Robert C. Merton. W modelu B-S-M ceny opcji kupna i opcji sprzedaży można obliczyć według wzorów, odpowiednio [2]:", "gdzie", "\\(g\\) – stopa zwrotu z instrumentu bazowego (np. stopa dywidendy na akcję)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Warunkowe instrumenty pochodne", "subject_id": 1721, "subject": "Opcje niestandardowe", "paragraphs": ["Ogólnie można powiedzieć, że wszystkie opcje, w których warunki kontraktu kształtują się odmiennie niż w opcjach standardowych uważa się za niestandardowe albo egzotyczne (ang. exotic options).", "Ze względu na swój niestandardowy charakter, opcje egzotyczne najczęściej są przedmiotem obrotu na rynku pozagiełdowym (ang. over-the-counter, OTC), gdzie jest możliwość ich elastycznego dopasowania do indywidualnych potrzeb klienta. Najbardziej popularne z nich stopniowo zaczęto wprowadzać do obrotu giełdowego.", "Jednak różnorodność opcji egzotycznych (względem ich konstrukcji i działania) stwarza trudności z ich klasyfikacją. Jedna z nich opiera się na takich kryteriach:", "W oparciu o powyższe kryteria wyróżnia się sześć głównych grup opcji egzotycznych:", "Rodzaje opcji barierowych zależą od takich parametrów:", "Poza tym, bariera może być:", "Taka różnorodność umożliwia skonstruowanie opcji według indywidualnych potrzeb inwestora.", "Średnia wartość instrumentu bazowego może być liczona jako:", "Takie opcje są mało wrażliwe na chwilowe wahania ceny instrumentu bazowego, więc zabezpieczają przed działaniami niekiedy podejmowanymi przez spekulantów tuż przed wygaśnięciem opcji o europejskim stylu wykonania.", "Występują one w kilku postaciach:", "Takie opcje są podobne do zakładu i dość proste w swojej konstrukcji, co przesądza o ich popularności. Z drugiej zaś strony są bardzo ryzykowne dla inwestora, gdyż mało elastyczne.", "Teoretycznie istnieje możliwość tworzenia opcji o wyższym stopniu włożenia (np. call on call on call), jednak ze względu na mniejszą przejrzystość i trudność ich wyceny rzadziej one występują w praktyce."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Warunkowe instrumenty pochodne", "subject_id": 1720, "subject": "Warranty subskrypcyjne i opcyjne", "paragraphs": ["Warrant subskrypcyjny daje możliwość zakupu akcji, ale nie jest obowiązkiem dla jego posiadacza. Skorzysta on z tej możliwości, jeśli przyniesie mu dodatkowe korzyści – np. cena zakupu akcji wynikająca z warrantu będzie niższa niż cena rynkowa tych samych akcji z poprzednich emisji notowanych na rynku wtórnym.", "Na wzór warrantu subskrypcyjnego instytucje finansowe stworzyły warrant opcyjny, który został uzupełniony o drugą możliwość – prawo do sprzedaży. Warrant opcyjny stał się praobrazem dla stworzenia kontraktów opcyjnych.", "Różnice między warrantem subskrypcyjnym a opcyjnym polegają na tym, że:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obrót instrumentami pochodnymi", "subject_id": 1727, "subject": "Giełdowy i pozagiełdowy obrót instrumentami pochodnymi", "paragraphs": ["Obecnie kontrakty terminowe (instrumenty pochodne) są handlowane również na giełdach, jednak tylko wybrane ich rodzaje. Obydwa sektory rynku terminowego (giełdowy i pozagiełdowy) mają swoje zalety, więc inwestorzy mogą dostosować swoje potrzeby do możliwości, jakie dają im instrumenty pochodne handlowane w tych sektorach.", "W Polsce finansowe instrumenty pochodne są przedmiotem obrotu na rynku giełdowym i pozagiełdowym (ang. over-the-counter, OTC), a także na wielostronnych platformach obrotu (ang. multilateral trading facility, MTF). Rynek OTC podlega regulacjom (rozporządzenia EMIR i MiFIR) oraz wymaganiom pod względem dokumentacji prawnej i umów zabezpieczających (ang. Credit Support Annex, CSA). Trzeci typ rynku, czyli MTF, nie ma tak dużego znaczenia jak rynki: regulowany i OTC. W Polsce rynek instrumentów pochodnych to głównie rynek pozagiełdowy, na którym rolę animatorów przyjęły banki [1].", "Przejrzystość rynku zapewnia się poprzez podawanie do publicznej wiadomości (z niewielkim opóźnieniem) podstawowych informacji o jego funkcjonowaniu. Dawniej giełdy publikowały ceduły giełdowe, które były wywieszane poza siedzibą giełdy. Wiele informacji ukazywało się też w codziennych wydaniach gazet.", "Współczesne giełdy udostępniają informacje na swoich stronach internetowych, niektóre jedynie z kilkuminutowym opóźnieniem, co daje możliwość śledzenia operacji giełdowych niemal na bieżąco.", "Standaryzacja dotyczy pewnych (znanych z góry) parametrów przedmiotów obrotu, mianowicie minimalnego pakietu instrumentów finansowych, ich rodzaju i terminu wygaśnięcia. Przy większym zapotrzebowaniu istnieje możliwość zakupu więcej niż jednego pakietu, jednak nie ma możliwości jego podziału.", "Takie rozwiązanie zapewnia sektorowi giełdowemu wyjątkowo wysoką płynność, a co za tym idzie – niewielkie różnice między ceną kupna a ceną sprzedaży tego samego instrumentu.", "W przypadku transakcji giełdowych ryzyko rozrachunków, czyli niewywiązania ze swoich obowiązków jednej ze stron umowy giełdowej jest znikome, ponieważ giełda (a właściwie jej izby rozliczeniowa i rozrachunkowa) występują w roli gwaranta.", "Dzieje się tak dzięki codziennym rozliczeniom pozycji giełdowych każdego uczestnika zawieranych na giełdzie transakcji. Aby jednak było to możliwe, pobierany jest depozyt zabezpieczający od obu stron kontraktów, co stanowi dodatkowy koszt uczestnictwa (w sensie zamrożenia kapitału).", "Sektor pozagiełdowy ma zdecydowanie mniej zalet, a główna z nich sprowadza się do możliwości dopasowania warunków transakcji do indywidualnych potrzeb stron kontraktu terminowego, co nie jest możliwe przy standaryzacji kontraktów giełdowych.", "Inną ważną zaletą jest to, że rynek pozagiełdowy występuje w roli przestrzeni, gdzie przechodzą aprobatę nowe instrumenty finansowe. Istnieje zatem możliwość tworzenia instrumentów odpowiadających bieżącym potrzebom rynku, który zmienia się bardzo dynamicznie.", "Te instrumenty, które pomyślnie przejdą aprobatę, na długo zagoszczą na rynku pozagiełdowym, a ta ich część, która cieszyła się wzmożonym zainteresowaniem inwestorów ma szansę znaleźć się na jakiejś giełdzie. Tak było na przykład z warrantami, opcjami standardowymi i niektórymi opcjami niestandardowymi."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obrót instrumentami pochodnymi", "subject_id": 1723, "subject": "Instrumenty pochodne na rynku globalnym i w Polsce", "paragraphs": ["Statystyka giełdowych instrumentów pochodnych (ang. Exchange-Traded Derivatives, XTD) obejmuje obrót i otwarte pozycje kontraktów terminowych futures na waluty i stopy procentowe oraz opcji. Statystyki tworzone są na podstawie komercyjnych źródeł danych i obejmują kontrakty będące przedmiotem obrotu na ponad 50 zorganizowanych giełdach. Główną wartością dodaną BIS jest przeliczanie danych o liczbie kontraktów na kwoty nominalne z wykorzystaniem informacji o wielkości kontraktów. Umożliwia to spójne porównywanie poziomów i trendów aktywności na różnych giełdach. BIS nie zestawia statystyk XTD dla kontraktów na akcje, towary lub kredytowe instrumenty pochodne, ani dla instrumentów pochodnych, które odnoszą się do niestandardowych instrumentów bazowych (np. kontraktów inflacyjnych, pogodowych lub energetycznych) https://www.bis.org/statistics/about_derivatives_stats.htm?m=2639.", "Podawane są w nich dane historyczne dla kontraktów terminowych futures i kontraktów opcyjnych (wyrażone w dolarach USD), w przekroju lokalizacyjnym (miejsca obrotu) i walutowym (waluty kontraktu) https://www.bis.org/statistics/extderiv.htm?m=2616.", "W Tabela 1 wymieniono giełdy, które handlowały i/lub nadal handlują kontraktami futures i opcjami.", "Jeśli chodzi o rynek krajowy, jako pierwsza obrót derywatami zorganizowała GPW S.A. w Warszawie. Pierwsze instrumenty pochodne – kontrakty terminowe na WIG20 – pojawiły się na warszawskiej giełdzie w 1998 roku https://www.gpw.pl/instrumenty-pochodne.", "Obecnie giełda organizuje obrót kontraktami futures opiewającymi na kilka odmian indeksu WIG, na akcje spółek notowanych na tejże giełdzie oraz na pary walutowe (USD/PLN, GPB/PLN, EUR/PLN, CHF/PLN). Jednocześnie handluje kontraktami opcyjnymi, jednak ich oferta jest zawężona jedynie do opcji wystawionych na indeks WIG20.", "Kolejną giełdą krajową jest Warszawska Giełda Towarowa S.A. (WGT), gdzie pierwsze kontrakty terminowe (futures) wprowadzono do obrotu 20 stycznia 1999 roku. Były to kontrakty na dolara i markę niemiecką, zastąpioną w kwietniu 1999 roku przez euro. W 2002 roku wprowadzono kontrakty na obligacje 2, 5 i 10 letnie. W 2003 roku poszerzono ofertę o kolejne kontrakty m.in. euro/dolar, korona czeska, frank szwajcarski, euro/forint węgierski https://www.bis.org/statistics/derstats.htm?m=2071.", "Obecnie WGT handluje walutowymi kontraktami futures i opcjami na futures na takie pary walutowe jak: USD/PLN, EUR/PLN, CHF/PLN, USD/EUR.", "Statystyki BIS dotyczące instrumentów pochodnych rynku pozagiełdowego uwzględniają pozycje dealerów instrumentów pochodnych, głównie banków. Obejmują one pozostającą do spłaty wartość nominalną, wartość rynkową i ekspozycję kredytową pozagiełdowych instrumentów walutowych, stóp procentowych, akcji, towarów i kredytowych instrumentów pochodnych… Dealerzy raportują w ujęciu skonsolidowanym na całym świecie, z uwzględnieniem pozycji ich zagranicznych oddziałów i z wyłączeniem pozycji wewnątrzgrupowych. Statystyki są zbierane pod auspicjami Komitetu ds. Globalnego Systemu Finansowego i zgłaszane do BIS na poziomie kraju, a nie indywidualnego dealera. Statystyki składają się z danych zgłaszanych co sześć miesięcy przez dealerów w 12 jurysdykcjach (Australia, Kanada, Francja, Niemcy, Włochy, Japonia, Holandia, Hiszpania, Szwecja, Szwajcaria, Wielka Brytania i Stany Zjednoczone) oraz danych zgłaszanych co trzy lata przez dealerów w ponad 30 dodatkowych jurysdykcjach. W okresach między przeglądami trzyletnimi BIS szacuje pozycje dealerów w tych dodatkowych jurysdykcjach https://www.bis.org/statistics/about_derivatives_stats.htm?m=2639.", "Dane dotyczące obrotu pozagiełdowego BIS publikuje z większym opóźnieniem, niż dane giełdowe. Dotyczą one instrumentów pochodnych wystawionych na kursy walutowe, stopy procentowe, ceny towarów, indeksy powiązane z akcjami oraz instrumentów na ryzyko kredytowe https://www.bis.org/statistics/derstats.htm?m=2071.", "W Polsce pozagiełdowy rynek instrumentów pochodnych tworzą głównie banki, m.in. Bank Gospodarstwa Krajowego (BGK) sprzedaje FX Forward, FX Swap, opcje walutowe, kontrakty FRA, IRS, CIRS https://www.bgk.pl/files/public/Pliki/Przedsiebiorstwa/Produkty_skarbowe/Grupy_docelowe.pdf.", "Statystyki dotyczące obrotu derywatów na rynku OTC co 3 lata podaje w swoich raportach NBP. Z ostatniego raportu wynika, że stanem na kwiecień 2022 roku wśród walutowych derywatów przedmiotem obrotu na rynku OTC były kontrakty forward, FX swap, CIRS i currency options. Natomiast w klasie procentowych derywatów – kontrakty FRA, OIS, IRS, interest rate options. Raport sporządzono na danych 12 banków: Alior Bank SA, Bank Gospodarstwa Krajowego, Bank Handlowy w Warszawie SA, Bank Millennium SA, Bank Polska Kasa Opieki SA, BNP Paribas Bank Polska SA, BNP Paribas SA Oddział w Polsce, ING Bank Śląski SA, mBank SA, Powszechna Kasa Oszczędności Bank Polski SA, Santander Bank Polska SA, Société Générale SA Oddział w Polsce https://www.nbp.pl/en/systemfinansowy/Poland2022.pdf."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ryzyko inwestycji na rynku finansowym", "subject_id": 1729, "subject": "Zakup papierów wartościowych a ryzyko inwestora", "paragraphs": ["Źródłem ryzyka jest ciągła zmienność otaczającego nas świata, której skutki są trudne do przewidzenia. Mogą one mieć zarówno pozytywny, jak i negatywny wpływ na podmioty i ich działalność. Pozytywna strona ryzyka oznacza, że mogą one zyskać na zaistniałych zmianach, np. otrzymać większy od oczekiwanego dochód. Z kolei negatywna strona oznacza, że podmiot nie uzyska założonych wyników lub, co gorsza, poniesie dodatkowe koszty. I to ta druga – negatywna – strona ryzyka przyciąga uwagę wszystkich podmiotów rynkowych, ponieważ nieprzewidziane dodatkowe koszty mogą przyczynić się do strat zagrażających ciągłości działania a nawet doprowadzić ich do bankructwa.", "Zakup papierów wartościowych przez posiadaczy wolnych środków pieniężnych jest uznawany za inwestycję finansową, a podmiot dokonujący zakupu – za inwestora. Ważną kwestią przy tego typu inwestycjach jest świadome podejście do wyboru przedmiotów inwestycji z punktu widzenia ryzyka, jakie w sobie niosą.", "Ryzyko inwestycji wzrasta wraz z wydłużeniem się czasu oczekiwania na zwrot pożyczonego kapitału. Z tego względu papiery wartościowe rynku pieniężnego będą obarczone mniejszym ryzykiem niż papiery rynku kapitałowego, których termin zwrotu jest o wiele dłuższy.", "Popyt na papiery wartościowe często jest związanych z fazami cyklu koniunkturalnego, które wywołują pewne zachowania wśród inwestorów.", "W zależności od fazy cyklu, w jakiej znajduje się gospodarka emitenta, inwestorzy zmieniają swoje preferencje względem papierów wartościowych:", "W pierwszym przypadku gospodarka dobrze prosperuje, przedsiębiorstwa się rozwijają, a zagrożenie upadłością jest znikome – w rezultacie papiery udziałowe przynoszą inwestorom większy dochód, a ryzyko inwestycji jest niewysokie.", "W drugim zaś – gospodarka hamuje, wzrasta liczba bankructw, a tym samym ryzyko inwestora. Jeśli jednak postanowi on dalej inwestować, to bezpieczniejsze będą papiery dłużne (mimo niższej stopy zwrotu), które stanowią zobowiązanie emitenta, więc w postepowaniu upadłościowym muszą być spłacone przed papierami udziałowymi. Potwierdza to art. 13 ustawy z dnia 15 stycznia 2015 r. o obligacjach (t.j. Dz. U. z 2022 r. poz. 454, 872) [2], który stanowi: „Za zobowiązania wynikające z obligacji emitent odpowiada całym swoim majątkiem”. Jednak, zgodnie z art. 14 tejże ustawy: „Roszczenia wynikające z obligacji, w tym roszczenia o świadczenia okresowe, przedawniają się z upływem 10 lat”. Oznacza to, że jeśli cały proces upadłościowy potrwa dłużej, to odzyskanie zainwestowanego w obligacje kapitału będzie niemożliwe.", "Oczywiście, na zachowania inwestorów wywiera wpływ wiele innych czynników, zarówno pochodzących z ogólnego otoczenia zewnętrznego, jak i związanych z poszczególnymi walorami w portfelu inwestycyjnym oraz stopniem jego zabezpieczenia przed ryzykiem."], "definitions": [{"name": " Definicja 1: Ryzyko gospodarcze ", "content": " Ryzyko gospodarcze „jest to ryzyko związane z przedsiębiorczą\ndziałalnością podmiotu dążącą do uzyskania maksymalnego zysku na bazie obowiązujących realiów rynkowych.\nDlatego jest ono zwykle rozpatrywane, nie tylko jako zjawisko powstające w procesie sprzedaży\ntowarów i usług, ale jako ryzyko związane z końcowym wynikiem finansowym wszelkich działań” [1].\n"}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ryzyko inwestycji na rynku finansowym", "subject_id": 1730, "subject": "Ryzyko papierów dłużnych", "paragraphs": ["Oczywiście, pod uwagę należy też brać rodzaj papieru wartościowego, zwłaszcza w przypadku korporacji i innych przedsiębiorstw, które mogą emitować papiery o różnej nazwie, w zależności od podstawy prawnej ich emisji. Poza tym, warto zwracać uwagę na różne zabezpieczenia walorów, jak np. zastaw czy gwarancje.", "Generalnie można wymienić kilka rodzajów ryzyka, na które mogą być narażeni posiadacze papierów dłużnych (na przykładzie obligacji):", "Ryzyko emitenta wiążę się z jego sytuacją finansową. Może ono sprowadzać się do opóźnień lub zaprzestania wypłat odsetek. W skrajnym przypadku (upadłości) emitent nie zwróci pożyczonego kapitału.", "Ryzyko stopy procentowej zagraża obligatariuszowi, który zamierza sprzedać obligację na rynku wtórnym przed terminem jej zapadalności. Narażone na nie częściej obligacje stałokuponowe, zwłaszcza w sytuacji wzrostu rynkowych stóp procentowych. Z uwagi na niższe oprocentowanie takich walorów, ich cena rynkowa spada. W odwrotnej sytuacji – spadku rynkowych stóp procentowych – można dostrzec pozytywną stronę ryzyka, która przejawia się we wzroście rynkowej ceny obligacji.", "Ryzyko inflacji jest nieco podobne do ryzyka stopy procentowej. W okresach wzrostu stopy inflacji rośnie też rynkowa stopa procentowa, która przewyższa oprocentowanie obligacji, na skutek czego obligacja staje się mniej atrakcyjna dla inwestorów. W rezultacie zmniejszenia popytu wobec zwiększonej podaży, cena rynkowa obligacji maleje.", "Ryzyko rynkowe wynika ze zmienności cen obligacji na rynku wtórnym (przed terminem ich zapadalności), kiedy cena sprzedaży kształtuje się poniżej ceny zakupu przez inwestora. Może to być związane z wieloma czynnikami, jak choćby zmianami w sytuacji polityczno-gospodarczej kraju emitenta (fazy cyklu koniunkturalnego), wydarzeniami geopolitycznymi, alternatywnymi możliwościami inwestycyjnymi, informacjami spekulacyjnymi etc. Pozytywna strona tego ryzyka może się przejawić, jeśli inwestor zakupił obligację po cenie niższej od nominału obligacji, a w dniu wykupu otrzymał od emitenta pełną kwotę nominalną.", "Ryzyko płynności oznacza, że posiadacz obligacji nie będzie mógł jej upłynnić (zamienić na gotówkę) przed terminem zapadalności. Powodem takiej sytuacji może być brak ofert zakupu od innych inwestorów, którzy z jakiegoś powodu nie postrzegają danego waloru jako atrakcyjnego.", "Ryzyko walutowe dotyczy papierów wartościowych denominowanych w walucie obcej i przejawia się w stratach (negatywna strona) lub zyskach (pozytywna strona) pod czas operacji wymiennych na walutę krajową.", "Ryzyko prawne wynika ze zmian w ustawodawstwie i innych regulacjach prawnych, które przekładać się mogą na ryzyko rachunkowe czy operacyjne zarówno emitenta, jak i inwestora.", "Ryzyko podatkowe oznacza możliwość poniesienia strat na skutek zapłacenia kary za niewłaściwe rozliczanie podatku związanego z daną transakcją na rynku papierów wartościowych.", "Mimo dużej różnorodności obligacji, najczęściej spotkać można walory o stałym i zmiennym oprocentowaniu (tzw. stałokuponowe i zmiennokuponowe). Jeśli inwestor posiada te pierwsze, to może liczyć na stały dochód – jest to dobry wybór w okresie stabilności gospodarczej. Natomiast w okresach zawirowań gospodarczych, lepszym rozwiązaniem będzie zakup obligacji o zmiennej stopie procentowej, która będzie podążała za jakimś indeksem rynkowym wrażliwym na zmiany w gospodarce (np. stopa inflacja, stopa procentowa rynku międzybankowego). Jeżeli w tym czasie jest się posiadaczem stałokuponowej obligacji, to otrzymane odsetki tylko częściowo pokryją utratę siły nabywczej zainwestowanego kapitału.", "Oddzielną grupę stanowią obligacje śmieciowe (tandetne), z góry obarczone wysokim ryzykiem, które nie zaleca się kupować początkującym inwestorom. Bardziej specjalizują się w tego typu inwestycjach fundusze, które potrafią tworzyć portfele inwestycyjne nawet o zerowym ryzyku.", "W ocenie ryzyka obligacji (jak również innych instrumentów dłużnych), emitowanych przez organizacje rządowe, pozarządowe oraz znane na świecie firmy i instytucje, pomocne mogą być ratingi, przypisywane przez agencje ratingowe poszczególnym emitentom.", "Rating jest systemem oceny i kwalifikacji ryzyka inwestycji w papiery dłużne. Sporządzany na podstawie wnikliwej analizy sytuacji finansowej emitenta, jego ryzyka i rzetelności w wywiązywaniu się ze zobowiązań w przeszłości. Skala ocen ratingowych może być różna, w zależności od agencji ratingowej.", "Obecnie rynek usług ratingowych jest zdominowany przez trzy agencje:", "Skala ocen agencji ratingowych zazwyczaj ma dwa poziomy: inwestycyjny i spekulacyjny. Może zmieniać się od najwyższej oceny AAA do najniższej oceny D (lub C).", "W Tabela 1 zaprezentowano skale ocen dla obligacji, opracowane przez wspomniane agencje ratingowe.", "Kategorie mogą być doprecyzowywane przez dodanie znaków plus i minus (Standard and Poor’s, Moody’s) albo cyfr 1, 2, 3 (Fitch), gdzie im większa liczba, tym większe ryzyko.", "Pierwsze cztery kategorie (licząc od góry tabeli) – to kategorie inwestycyjne. Sygnalizują one inwestorom, że można śmiało inwestować w papiery dłużne tych emitentów, którym te kategorie przyznano.", "Natomiast kolejne sześć kategorii – to kategorie spekulacyjne. Inwestycje w papiery dłużne emitentów o tych kategoriach wymagają dodatkowej analizy i zastanowienia się przez inwestorów. Przy czym, im niżej w tabeli znajduje się przypisana kategoria, tym większe ryzyko niesie dla inwestora.", "Choć zobowiązania i dochód z listów zastawnych mogą być podobne do obligacji, to ich ryzyko jest zdecydowanie niższe dzięki co najmniej dwóm odpowiedzialnym za ich spłatę – odpowiada za nie bank hipoteczny oraz kredytobiorca, który zaciągnął w tym banku kredyt. Poza tym, bezpieczeństwo zwiększa zastaw na nieruchomości (listy hipoteczne) lub udzielone solidne gwarancje (listy publiczne).", "Niemniej jednak, inwestor powinien wziąć pod uwagę wszystkie wymienione rodzaje ryzyka dotyczące obligacji, z tym że należy rozróżniać emitentów (bank hipoteczny) i użytkownika kapitału (kredytobiorca).", "Istnieją też regulacje, które zwiększają bezpieczeństwo tego typu papierów wartościowych. Wymienia je np. PKO Bank Hipoteczny S.A., który w swoim przewodniku po listach zastawnych wskazuje, że bezpieczeństwo listów zastawnych jest związane ściśle z regulacjami ustawowymi, dotyczącymi ich emisji:"], "definitions": [{"name": " Definicja 1: Rating ", "content": " Rating – ocena wiarygodności kredytowej będącej miarą ryzyka związanego z\ninwestycją w papiery dłużne emitenta. Rating nadawany jest przez agencję ratingową na podstawie oceny\nryzyka ekonomicznego, politycznego i społecznego https://www.gov.pl/web/finanse/rating.\n"}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ryzyko inwestycji na rynku finansowym", "subject_id": 1731, "subject": "Ryzyko papierów udziałowych", "paragraphs": ["Ponieważ inwestor jest jednocześnie akcjonariuszem (współwłaścicielem spółki), musi być świadom tego, że wszystkie rodzaje ryzyka, jakie zagrażają spółce, są też jego ryzykami.", "Na ogólne ryzyko inwestycji w akcje składają się takie jego rodzaje:", "Wśród papierów udziałowych rynku kapitałowego dominują akcje. Inwestor, który zamierza nabyć tego typu walory powinien skupić swoją uwagę na spółkach, które są notowane na giełdach. Spółki giełdowe mają bowiem obowiązek regularnego ujawniania swoich sprawozdań finansowych. Dlatego analiza ryzyka inwestycji w akcje powinna opierać się właśnie na tych danych.", "Akcje to jedne z najbardziej dochodowych a jednocześnie najbardziej niebezpiecznych papierów wartościowych rynku kapitałowego. Niezmiennie jednak cieszą się zainteresowaniem inwestorów, ponieważ dają możliwość osiągania ponadprzeciętnych zysków, w warunkach dobrej koniunktury gospodarczej.", "Niestety okresy prosperity nie są wieczne, na zmianę im przychodzą „chude lata” niosące wiele zagrożeń. Inwestorzy zamierzający inwestować w akcje muszą być świadomi tej cykliczności, wynikających z niej zagrożeń oraz stopnia ich wpływu na sytuację emitenta. Muszą też być przygotowani na podejmowanie szybkich działań obniżających ryzyko.", "Do analizy ryzyka (i rentowności) inwestycji na rynku akcji stosuje się różne metody, które można podzielić na trzy grupy:", "Pomocne w tym mogą być takie wskaźniki:", "Wskaźnik „cena – zysk” (C/Z) jest jednym z najpopularniejszych wśród inwestorów wskaźników, daję bowiem możliwość oceny dochodowości akcji. Jest on obliczany na podstawie ceny rynkowej akcji oraz zysku netto spółki akcyjnej (komadytowo-akcyjnej) za ostatnie cztery kwartały:", "Wskaźnik C/Z umożliwia porównanie efektywności inwestowania w akcje danej spółki z efektywnością inwestowania w akcje innych spółek. Wzrost wskaźnika jest sygnałem do zwiększenia ceny akcji na rynku, zaś jego spadek – do zmniejszenia tej ceny.", "Praktyka jednak pokazuję, że wskaźnik ten nie jest jednoznaczny, ponieważ w czasie recesji gospodarczej zysk może spadać, a nawet przyjmować wartości ujemne, a mimo to jest to okres, w którym warto zastanowić się nad zakupem tanich akcji. Tabela 1 zawiera teoretyczne interpretacje wyników obliczenia wskaźnika C/Z, które mogą pomóc w ocenie sytuacji na rynku akcji https://admiralmarkets.com/pl/education/articles/fundamental-analysys/najpopularniejsze-wskazniki-gieldowe.", "Stopa dywidendy (WCD) określa stopę zwrotu z zainwestowanego kapitału. Jest obliczana na podstawie wzoru:", "Większa wartość wskaźnika WCD oznacza większe korzyści dla inwestora, aczkolwiek często wiąże się też z wyższym ryzykiem inwestycyjnym.", "Wskaźnik „zysk na akcję” (ZNA) pokazuje jaki zysk przypada na jedną akcję spółki i można go obliczyć jako:", "Wskaźnik ZNA określa pozycję spółki na rynku. Najczęściej jest obliczany co kwartał, na podstawie danych z kwartalnych raportów spółek akcyjnych. Dla każdego akcjonariusza pożądana jest wzrostowa dynamika tego wskaźnika, co świadczyłoby o dobrej kondycji finansowej i dobrze zapowiadającej się przyszłości danej spółki.", "Należy jednak być ostrożnym, jeśli walne zgromadzenie akcjonariuszy nadal przeznacza duże kwoty na wypłatę dywidend, w sytuacji, gdy spółka kolejny rok z rzędu odnotowuje straty. Poza tym, bardzo wysokie dywidendy mogą być wypłacane kosztem zmniejszenia inwestycji na rozwój spółki, co też stanowi sygnał ostrzegawczy, zwłaszcza jeśli inwestycji dokonuje pasywny inwestor.", "Wskaźnik „cena – wartość księgowa” (C/WK) pokazuje, na ile rynek wycenia jednostkę pieniężną wartości księgowej spółki (majątku netto). Wartość księgowa jest obliczana jako różnicą między aktywami a zobowiązaniami spółki.", "Jest to jeden z podstawowych wskaźników giełdowych, który powinien znać każdy inwestor. Oblicza się go według wzoru:", "Choć nie jest to najważniejszy wskaźnik, który zapowiadałby wysokie zyski z inwestycji, niemniej dostarcza inwestorom ważnych informacji na temat perspektyw rozwoju spółki. Jeśli otrzymany wynik jest mniejszy od jedności, oznacza to niską cenę akcji. Dobrze prosperująca spółka zawsze ma ten wskaźnik powyżej jedności – oznacza to, że posiada ona inne wartości (np. kapitał intelektualny, innowacyjność, klimat organizacyjny), które wysoko plasują spółkę pod względem perspektyw rozwojowych. Jednak, jeśli wynik obliczeń przekracza 3, to trzeba zachować ostrożność, bo sygnalizuje on o przewartościowaniu spółki, a co za tym idzie – rychłym spadku cen jej akcji.", "Otrzymane w ramach analizy fundamentalnej wartości wskaźników należy porównać z wynikami spółki z poprzednich okresów, a także z wynikami analizy wskaźnikowej wykonanej dla innych spółek, najlepiej z tej samej branży.", "Wiadomo, że najlepszą metodą obniżenia ryzyka inwestycji jest dywersyfikacja aktywów. Zestaw aktywów finansowych posiadanych przez jednego inwestora zwykle określa się mianem portfela inwestycyjnego. Oprócz instrumentów finansowych w takim portfelu mogą się znaleźć m.in.: lokaty bankowe, kruszce szlachetne, instrumenty pochodne, dzieła sztuki, nieruchomości, waluty obce.", "Dotyczy tylko instrumentów finansowych, które składają się na portfel inwestycyjny. Składniki portfela są dobierane w taki sposób, aby jego ryzyko było najniższe. Podstawą analizy portfelowej jest obliczanie stopy zwrotu i szacowanie ryzyka dla każdego składnika portfela. Ryzyko jest szacowane na podstawie takich wskaźników jak wariancja, odchylenie standardowe i współczynnik zmienności. Uwzględnia też korelacje, jakie zachodzą pomiędzy wartościami poszczególnym składników.", "Przy wyborze przedmiotu inwestycji, poza wymienionymi wyżej czynnikami i wskaźnikami, należy też brać pod uwagę nastroje inwestorów, modę, tradycje, możliwości okazjonalne. Mają one odzwierciedlenie w danych dotyczących kursów i obrotów z poprzednich okresów na rynkach poszczególnych papierów wartościowych. Analizą publikowanych danych zajmuje się analiza techniczna.", "Skupia się ona na danych historycznych, które służą do tworzenia prognoz na przyszłość, w odniesieniu do wybranych instrumentów finansowych. Prognozy te są wykorzystywane do wyboru najlepszego momentu dla kupna lub sprzedaży danego instrumentu finansowego."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ryzyko inwestycji na rynku finansowym", "subject_id": 1733, "subject": "Ryzyko transakcji na rynku terminowym", "paragraphs": ["Mogą je zawierać tylko te podmioty, które:", "Kontrakty forward, swap i futures są instrumentami o ryzyku symetrycznym. Oznacza to, że obydwie strony kontraktu mogą ponieść straty, a strata jednej z nich będzie zyskiem drugiej. Zajęcie pozycji w jednym z takich kontraktów powinno wiązać się ze szczegółową analizą ryzyka, a przede wszystkim – ryzyka przedmiotu umowy (instrumentu bazowego).", "Jeśli jest to np. akcja, to należy przeprowadzić analizę ryzyka inwestycji w akcję. Jeśli jest to wymiana walut, to analizie poddać należy rynek tych walut. Jeśli przedmiotem umowy jest stopa procentowa lub obligacja odsetkowa, uwzględnić należy ryzyko stopy procentowej, ryzyko inflacji oraz ryzyko koniunkturalne.", "W przypadku instrumentu obiegu pozagiełdowego (forward i swap) szczegółowej analizie należy poddać sytuację finansową i reputację kontrahenta, gdyż to jego ryzyko przełoży się na wykonalność kontraktu.", "Nieco bardziej zabezpieczone są pozycje w kontraktach futures. Co prawda nie chronią one przed zmiennością i ryzykiem na rynku instrumentu bazowego, jednak gwarantowane (przez giełdę) jest wykonanie tego typu kontraktów. Poza tym giełda (rozliczając codziennie kontrakty) na bieżąco sygnalizuje o zmianach na rynku kasowym instrumentu bazowego.", "Ryzyko stron kontraktu opcyjnego zależy od zajętej pozycji:", "Warranty subskrypcyjne (z prawem kupna) nie niosą w sobie żadnego ryzyka, ani opłat dla jego posiadacza, a zobowiązanie do wykonania warrantu leży jedynie po stronie emitenta warrantu. Z kolei ryzyko warrantu opcyjnego jest podobne do ryzyka kontraktu opcyjnego.", "Ponieważ opcje i warranty są handlowane zarówno na rynku pozagiełdowym, jak i giełdowym, należy pamiętać o większym ryzyku kontrahenta operacji zawieranych w tym pierwszym segmencie rynku terminowego."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ryzyko inwestycji na rynku finansowym", "subject_id": 1734, "subject": "Ryzyko transakcji walutowych i bankowych", "paragraphs": ["Na kurs walutowy (a tym samym na ryzyko walutowe) wpływ wywiera wiele czynników, jak np.:", "Przy zawieraniu transakcji na rynku walutowym należy pamiętać, że niewielkie zmiany kursu mogą spowodować duże straty (zyski), a ich skala zależy od wysokości kwoty wymienianej waluty.", "Generalnie ryzyko transakcji bankowych nie jest wysokie, z uwagi na tę szczególną rolę jaką odgrywa system bankowy w każdej gospodarce. W celu zapewnienia bezpieczeństwa banków tworzone są liczne regulacje usprawniające i kontrolujące ich działalność. Działalność banków komercyjnych jest na bieżąco monitorowana przez Komisję Nadzoru Finansowego oraz Narodowy Bank Polski.", "Jeszcze większą ochroną są objęte depozyty klientów banków, zwłaszcza o charakterze oszczędnościowym. W tym celu w Polsce powołany został Bankowy Fundusz Gwarancyjny, który wypłaca w pełni (do pewnej wysokości) albo częściowo (powyżej tej wyskokości) środki pieniężne ulokowane na depozytach bankowych przez gospodarstwa domowe.", "Nie oznacza to bynajmniej zerowego ryzyka, bo jak pokazują wydarzenia z 2008 roku oraz z marca 2023 roku - banki mogą bankrutować. Największe ryzyko w tej sytuacji zagraża posiadaczom papierów wartościowych wyemitowanych przez te banki. Przy czym, wieksze szanse odzyskania pieniędzy mają obligatariusze i posiadacze listów zastawnych, najmniejsze zaś - akcjonariusze."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Wartość pieniądza w czasie", "subject_id": 1736, "subject": "Wartość przyszła pieniądza", "paragraphs": ["Szczególnym przypadkiem kapitalizacji złożonej jest kapitalizacja ciągła, w której odsetki są dopisywane – jak nazwa wskazuje - w sposób ciągły.", "Kapitalizacja prosta stosowana jest zazwyczaj przy oprocentowaniu kapitału do jednego roku oraz przy rachunku wekslowym. Kapitalizacja złożona z dołu występuje dużo częściej w praktyce życia gospodarczego niż kapitalizacja złożona z góry.", "W metodzie actual/actual uwzględnia się rzeczywistą liczbę dni odsetkowych i rzeczywistą liczbę dni w roku (365 lub 366). Metoda actual/365 różni się od pierwszej tym, że rok przestępny również liczy 365 dni. W metodzie actual/360 uwzględnia się rzeczywistą liczbę dni odsetkowych i zakłada się, że rok liczy 360 dni. W metodzie 30/360 każdy miesiąc obejmuje 30 dni, a rok 360 dni. Przykładowo, banki w Polsce naliczają odsetki według metody actual/365, a rentowność inwestycji w bony skarbowe ustala się według metody actual/360.", "Przy jednokrotnej kapitalizacji w ciągu roku, czyli dla m=1, powyższy wzór przyjmuje postać:", "Przy jednokrotnej kapitalizacji w ciągu roku, czyli dla m=1, powyższy wzór przyjmuje postać:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Wartość pieniądza w czasie", "subject_id": 1737, "subject": "Wartość obecna pieniądza", "paragraphs": ["Wartość obecna (teraźniejsza, bieżąca) pieniądza wiąże się z dyskontowaniem, które jest działaniem odwrotnym do kapitalizacji, tj. oprocentowania kapitału (por. Wartość przyszła pieniądza). Dyskontowanie oznacza sprowadzanie znanej, przyszłej wartości kwoty pieniężnej do jej wartości teraźniejszej. Jaka jest wartość obecna przykładowej kwoty 1000 zł, którą uzyskamy za trzy lata? Odpowiedź na to pytanie zależy od przyjętej stopy procentowej, nazywanej stopą dyskontową i od sposobu oprocentowania kapitału. Analogicznie do sposobów obliczania wartości przyszłej kapitału, tj. kapitalizacji prostej (odsetki naliczane tylko od wartości początkowej kapitału) i kapitalizacji złożonej (odsetki naliczane od sumy wartości początkowej kapitału i zgromadzonych odsetek z dołu, z góry lub w sposób ciągły), możemy wyróżnić:", "a) w oprocentowaniu z dołu, przy stałej stopie dyskontowej:", "b) w oprocentowaniu z dołu, przy zmiennej stopie dyskontowej:", "a) w oprocentowaniu z góry, przy stałej stopie dyskontowej:", "b) w oprocentowaniu z góry, przy zmiennej stopie dyskontowej:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Wartość pieniądza w czasie", "subject_id": 1738, "subject": "Efektywna stopa procentowa", "paragraphs": ["W celu zapewnienia porównywalności atrakcyjności oprocentowania lokat lub kredytów o różnej częstotliwości kapitalizacji odsetek w ciągu roku, stosuje się efektywną stopę procentową, wyrażoną następującym wzorem (dla kapitalizacji złożonej z dołu):", "Dla kapitalizacji złożonej z góry efektywna stopa procentowa określona jest wzorem:", "Efektywna stopa procentowa przyniesie taki sam wzrost wartości kapitału przy jednokrotnej kapitalizacji odsetek w ciągu roku, co nominalna stopa procentowa przy m-krotnej kapitalizacji. Jeżeli odsetki od lokaty (lub kredytu) są dopisywane raz w ciągu roku, efektywna stopa procentowa lokaty (lub kredytu) jest równa nominalnej stopie procentowej. Stopa efektywna jest większa od stopy nominalnej, jeżeli odsetki są dopisywane częściej niż raz w roku."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Wartość pieniądza w czasie", "subject_id": 1739, "subject": "Renta wieczysta", "paragraphs": ["Koncepcja renty wieczystej ma zastosowanie m.in. w wycenie akcji w tzw. modelu Gordona i w wycenie wartości przedsiębiorstwa do szacowania strumienia przepływów pieniężnych netto, jaki przedsiębiorstwo może przynieść jego właścicielom po okresie szczegółowej prognozy.", "Dla renty wieczystej nie jest możliwe wyznaczenie wartości przyszłej (tzn. wartość przyszła niekończącego się strumienia płatności jest nieskończenie duża), ale można obliczyć jej wartość obecną.", "Wartość obecną renty wieczystej (z ang. present value of perpetuity - PVP) stanowi wielkość początkowego kapitału, która jest równoważna serii nigdy nie kończących się płatności w stałej wysokości w równych odstępach czasu przy danym oprocentowaniu:", "Jeżeli płatności wzrastają o pewną stałą, określoną procentowo, wielkość, to wzór (1) na wartość obecną renty wieczystej przyjmuje postać:", "Można wyznaczyć wartość obecną renty wieczystej zgodnej z podanymi wzorami (1) i (2) przy założeniu, że r > 0 oraz r > g. Stopa procentowa i stopa wzrostu płatności dotyczą okresu, na końcu którego występuje płatność (np. jeżeli płatność jest co kwartał, to przyjmujemy kwartalną stopę procentową i – ewentualnie – kwartalną stopę wzrostu płatności)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Wartość pieniądza w czasie", "subject_id": 1740, "subject": "Sposoby spłaty kredytów – raty równe i malejące", "paragraphs": ["Rata kapitałowa stanowi część kwoty udzielonego kredytu. Jej spłata oznacza zmniejszenie kwoty długu wobec banku. Rata odsetkowa stanowi wynagrodzenie dla banku za udostępnienie kapitału. Jej wysokość jest obliczana od kwoty kredytu pozostałego do spłaty w danym okresie procentowym.", "Wyróżnia się dwa sposoby spłaty rat kredytu:", "W przypadku rat równych (annuitetowych) wysokość każdej spłacanej przez kredytobiorcę raty kredytu jest taka sama, przy założeniu stałego oprocentowania kredytu. Jeżeli oprocentowanie jest zmienne, wysokość raty kredytu może podlegać podwyższeniu lub obniżeniu w zależności od zmian stopy bazowej kredytu. Rata równa kredytu (przy założeniu spłaty rat z dołu, w terminach zgodnych z okresem kapitalizacji odsetek) określona jest wzorem [1]:", "Udziały raty kapitałowej i odsetkowej w (łącznej) równej racie kredytu są wielkościami zmiennymi w każdym okresie procentowym, przy czym stopniowo rośnie udział raty kapitałowej kosztem raty odsetkowej. Wysokość odsetek w n-tej racie równej wyznacza się na podstawie stanu zadłużenia (tj. kredytu pozostałego do spłaty) na początku n-tego okresu procentowego. Z kolei rata kapitałowa zawarta w n-tej racie równej jest różnicą między ratą równą a wysokością odsetek [1].", "Ratę kapitałową oblicza się dzieląc wielkość zaciągniętego kredytu przez liczbę okresów procentowych. Przykładowo przy kredycie w wysokości 24 000 zł spłacanym co miesiąc przez 2 lata, rata kapitałowa wyniesie 1 000 zł. Odsetki są płacone od wielkości kredytu pozostałego do spłaty na początku danego okresu procentowego"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Podstawowe pojęcia związane z gospodarką finansową przedsiębiorstw", "subject_id": 1741, "subject": "Majątek trwały i obrotowy", "paragraphs": ["Ze względu na okres wykorzystywania składniki majątku w przedsiębiorstwie można podzielić na:", "Do majątku trwałego należą składniki o charakterze:", "Do majątku obrotowego należą składniki o charakterze:", "Majątek trwały i obrotowy charakteryzują się odmienną płynnością, rozumianą jako łatwość, z jaką składniki majątkowe mogą być zamienione na gotówkę. Majątek trwały stanowią aktywa o niskiej płynności, a majątek obrotowy – aktywa o wysokiej płynności. Wielkość majątku trwałego, w szczególności środków trwałych, wpływa na wysokość ponoszonych kosztów stałych. Koszty stałe to takie koszty, które nie zależą od rozmiaru prowadzonej działalności (np. amortyzacja, koszty serwisowania i konserwacji, czy podatek od nieruchomości).", "Zestawienie składników majątkowych przedsiębiorstwa z podziałem na aktywa trwałe i obrotowe jest zawarte w bilansie."], "definitions": [{"name": " Definicja 1: Majątek trwały ", "content": " Majątek trwały obejmuje składniki majątkowe przeznaczone do\nużytkowania, zbycia lub osiągania korzyści finansowych w postaci odsetek i dywidend w okresie dłuższym niż\n12 miesięcy. "}, {"name": " Definicja 2: Majątek obrotowy ", "content": " Majątek obrotowy obejmuje składniki majątkowe przeznaczone do\nużytkowania, zbycia lub osiągania korzyści finansowych w postaci odsetek i dywidend w okresie nie dłuższym\nniż 12 miesięcy. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Podstawowe pojęcia związane z gospodarką finansową przedsiębiorstw", "subject_id": 1742, "subject": "Przychody versus wpływy", "paragraphs": ["Przychody netto oznaczają przychody bez naliczonego podatku od towarów i usług (podatku VAT - value added tax), natomiast przychody brutto to przychody uwzględniające naliczony podatek VAT. Jeżeli przedsiębiorstwo sprzedaje produkty, towary lub świadczy usługi, za które nie otrzymuje od razu zapłaty, to powstaje należność przedsiębiorstwa, która „zniknie” w momencie otrzymania wpływu od kontrahenta. Na wysokość płaconego podatku dochodowego od osób prawnych i osób fizycznych związanego z prowadzoną działalnością gospodarczą wpływ ma m.in. wysokość uzyskanych przychodów, ale nie wpływów.", "Możliwe są następujące sytuacje w odniesieniu do występowania przychodów i wpływów:"], "definitions": [{"name": " Definicja 1: Przychód ", "content": " Przychód to kwota należna, ale niekoniecznie otrzymana z tytułu sprzedaży\nproduktów, towarów i usług, świadczenia pracy i posiadanych aktywów. "}, {"name": " Definicja 2: Wpływ ", "content": " Wpływ to przyrost środków pieniężnych. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Podstawowe pojęcia związane z gospodarką finansową przedsiębiorstw", "subject_id": 1743, "subject": "Koszty versus wydatki", "paragraphs": ["Możliwe są następujące sytuacje w odniesieniu do występowania kosztów i wydatków:"], "definitions": [{"name": " Definicja 1: Koszt ", "content": " Koszt to celowe zużycie zasobów w celu osiągnięcia określonego efektu. "}, {"name": " Definicja 2: Wydatek ", "content": " Wydatek to rozchód środków pieniężnych. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Podstawowe pojęcia związane z gospodarką finansową przedsiębiorstw", "subject_id": 1744, "subject": "Wynik finansowy versus przepływy pieniężne netto", "paragraphs": ["Wynik finansowy z całokształtu działalności przedsiębiorstwa nazywany jest zyskiem brutto lub stratą brutto. Zysk brutto pomniejszony o podatek dochodowy stanowi zysk netto. Powstałej straty brutto nie pomniejsza się o podatek dochodowy (strata brutto oznacza stratę netto).", "Przepływy pieniężne netto nazywane są również saldem przepływów pieniężnych. Może ono być dodatnie lub ujemne:", "Przepływy pieniężne netto mogą być określane dla całokształtu, jak również dla poszczególnych rodzajów działalności przedsiębiorstwa:", "Wynik finansowy przedsiębiorstwa jest ustalany w rachunku zysków i strat, a przepływy pieniężne netto – w rachunku przepływów pieniężnych. Rachunek zysków i strat sporządza się według zasady memoriałowej, zgodnie z którą przychody i koszty ujmowane są w tym okresie, którego dotyczą, niezależnie od otrzymania wpływów lub dokonania wydatków. Rachunek przepływów pieniężnych sporządza się zgodnie z zasadą kasową, zgodnie z którą uwzględniane są finansowe skutki operacji gospodarczych związane z ruchem środków pieniężnych.", "Wynik finansowy jest podstawowym miernikiem efektywności działalności przedsiębiorstwa, jednak bardziej podatnym – w porównaniu z przepływami pieniężnymi netto – na wpływ stosowanej przez przedsiębiorstwo polityki rachunkowości.", "W praktyce gospodarczej przedsiębiorstwo może osiągnąć:", "Osiąganie dodatniego wyniku finansowego (zysku netto) oznacza, że działalność przedsiębiorstwa jest rentowna i stwarza możliwość otrzymania dywidendy przez właścicieli przedsiębiorstwa, natomiast wypracowanie dodatnich przepływów pieniężnych netto wskazuje, że przedsiębiorstwo jest zdolne wygospodarować nadwyżkę środków pieniężnych, co umożliwia zachowanie płynności finansowej, czyli regulowanie bieżących zobowiązań.", "Osiągnięcie straty netto oznacza, że przedsiębiorstwo prowadzi deficytową działalność. Strata netto jest pokrywana z kapitału własnego lub z dopłat akcjonariuszy (udziałowców, wspólników). Występowanie ujemnych przepływów pieniężnych netto w danym okresie sprawozdawczym oznacza zmniejszenie stanu środków pieniężnych, jakimi przedsiębiorstwo dysponowało na początku tego okresu.", "Możliwa jest zatem sytuacja, że przedsiębiorstwo prowadzące rentowną działalność, czyli osiągające zysk netto, upadnie ze względu na brak zdolności wygenerowania dodatniego salda przepływów pieniężnych (w danym roku lub kolejnych latach), np. z powodu trudności w ściąganiu należności od kontrahentów."], "definitions": [{"name": " Definicja 1: Wynik finansowy ", "content": " Wynik finansowy to różnica między przychodami i kosztami.\n"}, {"name": " Definicja 2: Przepływy pieniężne netto ", "content": " Przepływy pieniężne netto to różnica między wpływami i\nwydatkami. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Źródła finansowania działalności przedsiębiorstw", "subject_id": 1745, "subject": "Własne źródła finansowania", "paragraphs": ["Pierwotnym źródłem finansowania działalności przedsiębiorstwa jest kapitał wnoszony przez właścicieli przy jego tworzeniu, tzw. kapitał założycielski. Jest on niezbędny do pokrycia wydatków związanych z utworzeniem danej formy organizacyjno-prawnej prowadzenia określonej działalności gospodarczej (np. opłaty notarialne, opłaty za wpis do Krajowego Rejestru Sądowego, opłaty za wydanie pozwoleń i uzyskanie koncesji w przypadku działalności regulowanej) oraz z uruchomieniem produkcji, rozpoczęciem działalności usługowej lub handlowej (np. zakup maszyn i urządzeń, towarów, materiałów, kasy fiskalnej, stworzenie strony internetowej, rekrutacja pracowników, kampania reklamowa).", "Ze względu na formę organizacyjno-prawną prowadzonej działalności gospodarczej kapitał założycielski nosi różne nazwy:", "W przypadku spółek kapitałowych (spółki z ograniczoną odpowiedzialnością, prostej spółki akcyjnej i spółki akcyjnej) oraz spółki komandytowo-akcyjnej określona jest minimalna wielkość kapitału założycielskiego. Właściciele, wnosząc kapitał do przedsiębiorstwa nabywają prawo do uczestniczenia w podziale wypracowanego zysku, a w razie jego likwidacji - do zwrotu kapitału (ale dopiero po zaspokojeniu roszczeń wierzycieli). Kapitał założycielski w związku z koniecznością finansowania potrzeb rozwojowych przedsiębiorstwa lub pokrycia powstałej straty z działalności może być zwiększony w trakcie funkcjonowania przedsiębiorstwa lub obniżony w zależności od potrzeb właścicieli. Zwiększenie kapitału założycielskiego polega zasadniczo na wniesieniu nowych wkładów (w spółkach jawnych, partnerskich i komandytowych), ustanowieniu nowych udziałów (w spółkach z o.o.) i emisji nowych akcji (w spółkach akcyjnych, prostych akcyjnych i komandytowo-akcyjnych) lub podwyższeniu wartości nominalnej dotychczasowych wkładów, udziałów lub akcji. Kapitał zakładowy spółki akcyjnej i komandytowo-akcyjnej dzieli się na akcje o równej wartości nominalnej. Wartość nominalna akcji nie może być niższa niż 1 grosz. Kapitał zakładowy spółki z o.o. dzieli się na udziały o równej albo nierównej wartości nominalnej. Minimalna wartość nominalna udziału wynosi 50 zł. Akcje i udziały nie mogą być obejmowane poniżej ich wartości nominalnej. Jeżeli są obejmowane po cenie wyższej od wartości nominalnej, to uzyskana nadwyżka zasila kapitału zapasowy, stanowiący element kapitału własnego spółek. W prostej spółce akcyjnej akcje nie posiadają wartości nominalnej i są obejmowane w zamian za wkłady pieniężne lub niepieniężne. Wkładem niepieniężnym na pokrycie akcji może być wszelki wkład mający wartość majątkową, w tym również świadczenie pracy lub usług. Na poczet kapitału akcyjnego, stanowiącego kapitał założycielski prostej spółki akcyjnej, są zaliczane jedynie wkłady pieniężne oraz niepieniężne stanowiące zbywalne prawa majątkowe. Akcjonariusz w prostej spółce akcyjnej ma prawo do udziału w zysku oraz prawo do wypłaty z kapitału akcyjnego w kwocie wynikającej z rocznego sprawozdania finansowego, która została przeznaczona do wypłaty w uchwale akcjonariuszy.", "Dodatkowym źródłem finansowania własnego mogą być:", "Zgodnie z Kodeksem spółek handlowych [1], umowa spółki z ograniczoną odpowiedzialnością może zobowiązywać udziałowców do dopłat w granicach liczbowo oznaczonej wysokości w stosunku do udziału (np. do 1/3 wartości udziału). Dopłaty są uiszczane przez wszystkich udziałowców równomiernie w stosunku do posiadanych przez nich udziałów. Mogą one być zwrotne lub bezzwrotne. Dopłaty nie podlegają zwrotowi, jeżeli były wniesione z przeznaczeniem na pokrycie straty netto wykazanej w sprawozdaniu finansowym lub jeżeli tak stanowi umowa spółki. Dokonanie dopłat nie zwiększa wartości dotychczasowych udziałów i tym samym nie powoduje zmiany wartości kapitału zakładowego spółki. Zwiększa natomiast kapitał rezerwowy, stanowiący jeden z elementów kapitału własnego wykazywanego w bilansie spółki. W przypadku spółek akcyjnych i spółek komandytowo-akcyjnych dopłaty do kapitału są możliwe, jeżeli przewidziano je w statucie spółki. Dopłaty uiszczają akcjonariusze w zamian za przyznanie szczególnych uprawnień ich dotychczasowym akcjom, w szczególności prawa głosu, prawa do dywidendy lub podziału majątku w przypadku likwidacji spółki. Analogicznie jak w przypadku spółek z o.o. dopłaty do kapitału uiszczone przez akcjonariuszy nie zwiększają wartości posiadanych przez nich akcji (i tym samym nie mają wpływu na wielkość kapitału zakładowego), ale zasilają kapitał zapasowy, pod warunkiem, że dopłaty nie będą wykorzystane na pokrycie straty netto.", "W niektórych spółkach część wygospodarowanego zysku netto musi być obligatoryjnie zatrzymana zwiększając kapitał własny spółek. Spółki akcyjne i komandytowo-akcyjne są zobowiązane do dokonywania odpisów z zysku netto w wysokości 8% za dany rok obrotowy na kapitał zapasowy, dopóki kapitał ten nie osiągnie co najmniej jednej trzeciej kapitału zakładowego. W prostej spółce akcyjnej istnieje wymóg zasilania kapitału akcyjnego na pokrycie strat w kwocie co najmniej 8% zysku netto za dany rok obrotowy, jeżeli kapitał akcyjny nie osiągnął 5% sumy zobowiązań spółki wynikającej z zatwierdzonego sprawozdania finansowego za ostatni rok obrotowy."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Źródła finansowania działalności przedsiębiorstw", "subject_id": 1746, "subject": "Obce źródła finansowania", "paragraphs": ["Do obcych źródeł finansowania przedsiębiorstwa należą:", "Przedsiębiorstwa mogą korzystać z kredytów w celu finansowania bieżącej działalności (np. zakupu towarów, wypłaty wynagrodzeń pracownikom, spłaty zobowiązań wobec dostawców) lub finansowania przedsięwzięć inwestycyjnych (np. zakupu linii produkcyjnej, rozbudowy zakładu produkcyjnego). W pierwszym przypadku mamy do czynienia z kredytami obrotowymi, w drugim – z kredytami inwestycyjnymi. Kredyty obrotowe są udzielane na krótsze okresy niż kredyty inwestycyjne. Jedynymi podmiotami uprawnionymi do udzielania kredytów są banki. Zgodnie z przepisami ustawy Prawo bankowe „przez umowę kredytu bank zobowiązuje się oddać do dyspozycji kredytobiorcy na czas oznaczony w umowie kwotę środków pieniężnych z przeznaczeniem na ustalony cel, a kredytobiorca zobowiązuje się do korzystania z niej na warunkach określonych w umowie, zwrotu kwoty wykorzystanego kredytu wraz z odsetkami w oznaczonych terminach spłaty oraz zapłaty prowizji od udzielonego kredytu [1]”. Kredytobiorca jest obowiązany umożliwić podejmowanie przez bank czynności związanych z oceną jego sytuacji finansowej oraz kontrolę wykorzystania i spłaty kredytu.", "Kredyty różnią się pod pewnymi względami od pożyczek. Pożyczki (pieniężne) mogą być udzielane nie tylko przez banki, ale również przez firmy pożyczkowe, spółdzielcze kasy oszczędnościowo-kredytowe, podmioty gospodarcze, osoby fizyczne i inne podmioty, posiadające zdolność do czynności prawnych. Środki pieniężne z kredytu mogą być wydane tylko na cel określony w umowie kredytowej, natomiast środki pieniężne z pożyczki mogą być wykorzystane dowolnie. Pożyczka może być nieodpłatna (z wyjątkiem pożyczek udzielanych przez banki), otrzymanie kredytu oznacza zawsze konieczność uiszczenia prowizji i odsetek. Przyznanie pożyczki wiąże się zazwyczaj z bardziej uproszczoną procedurą i mniejszymi formalnościami niż przyznanie kredytu. Kwoty pożyczek są z reguły niższe niż kwoty kredytów.", "Emisja obligacji stanowi źródło finansowania dostępne tylko dla niektórych podmiotów gospodarczych. Należą do nich spółki kapitałowe (spółki akcyjne, proste spółki akcyjne i spółki z ograniczoną odpowiedzialnością) oraz spółki komandytowo-akcyjne, które zgodnie z ustawą o obligacjach [2] mogą być emitentami obligacji. Obligacja jest papierem wartościowym emitowanym w serii, w którym emitent stwierdza, że jest dłużnikiem właściciela obligacji i zobowiązuje się wobec niego do spełnienia określonego świadczenia [2], pieniężnego (najczęściej) lub niepieniężnego. Świadczenie pieniężne polega na wypłacie odsetek i wykupie obligacji na końcu okresu zapadalności obligacji. W praktyce gospodarczej występują różne rodzaje obligacji (por. Rodzaje obligacji według oznaczenia obligatariuszy i przysługujących im świadczeń). Rodzaj i wysokość oprocentowania oraz długość okresów odsetkowych obligacji jest ustalana przez ich emitenta, w przeciwieństwie do kredytu, w przypadku którego zasadniczo sam bank określa jego oprocentowanie i warunki spłaty. Natomiast dla emisji obligacji charakterystyczna jest niepewna wielkość pozyskanego kapitału, dlatego istotne jest ustalenie rodzaju i wysokości oprocentowania obligacji, atrakcyjnego dla potencjalnych inwestorów i jednocześnie nie stanowiącego zbyt dużego obciążenia finansowego dla emitenta.", "Przedsiębiorstwo może pozyskać źródła finansowania działalności w wyniku odpowiedniego ułożenia stosunków handlowych ze swoimi dostawcami i odbiorcami, tj. może skorzystać z tzw. kredytu kupieckiego (kredytu dostawcy) lub tzw. kredytu odbiorcy. Kredyt kupiecki polega na stosowaniu odroczonego terminu płatności przez dostawcę dóbr i usług zakupionych przez przedsiębiorstwo (najczęściej bez pobierania odsetek). Kredyt odbiorcy polega na otrzymaniu zaliczki (przedpłaty) od klientów za produkty lub towary jeszcze niedostarczone lub usługi jeszcze niewykonane. Uzyskiwane od dostawców kredyty kupieckie, a od odbiorców zaliczkowe zapłaty są liczącym, a często nawet decydującym źródłem finansowania bieżącej działalności gospodarczej przedsiębiorstw [3].", "Źródłem finansowania są również zobowiązania wobec instytucji publicznoprawnych oraz zobowiązania wobec pracowników. Odroczenie płatności może wynikać z przepisów prawa, z warunków zawartych w umowie, ze stosowanych form rozliczeń pieniężnych itp. W przypadku z nieuregulowaniem płatności w obowiązującym terminie naliczane są odsetki ustawowe. Zobowiązania wobec instytucji publicznoprawnych powstają z tytułu naliczonych, a nie zapłaconych podatków, opłat, ceł, składek na ubezpieczeń społecznych i zdrowotnych oraz innych tytułów. Są one wynikiem tego, że data powstania obowiązku podatkowego i ustawowy termin płatności nie pokrywają się. Prawie zawsze podatnik ma pewien czas na uregulowanie zobowiązania podatkowego. Zobowiązania wobec pracowników dotyczą najczęściej wynagrodzeń pracowniczych wypłaconych z pewnym opóźnieniem oraz nierozliczonych wydatków poniesionych przez pracowników na zakup np. materiałów biurowych, środków czystości na potrzeby działalności przedsiębiorstwa.", "Faktoring to usługa nabycia przez instytucję faktoringową (faktora) należności od faktoranta (przedsiębiorstwa) z tytułu zrealizowanych dostaw wyrobów, towarów albo świadczonych usług, które wynikają z zawartych umów z odbiorcami, pomniejszonej o opłatę za tę usługę na rzecz faktora. Należności, które są przedmiotem faktoringu, spełniają następujące warunki [4]:", "Ze względu na kryterium odpowiedzialności za niewypłacalność dłużnika (odbiorcy), wyróżnia się faktoring niepełny (z regresem) i pełny (bez regresu). W faktoringu niepełnym ryzyko niewypłacalności dłużnika ponosi faktorant. W przypadku nieotrzymania zapłaty od dłużnika, instytucja faktoringowa będzie domagać się od faktoranta zwrotu przekazanych wcześniej środków pieniężnych wynikających z umowy. W faktoringu pełnym odpowiedzialność za niewypłacalność dłużnika ponosi faktor. Jeżeli dłużnik spóźni się z płatnością (albo w ogóle nie zapłaci), faktorant nie musi zwracać otrzymanych środków pieniężnych od faktoranta. Opłaty z tytułu faktoringu pełnego uiszczane na rzecz instytucji faktoringowej są - z racji większego ryzyka przez nią ponoszonego - wyższe niż w w przypadku faktoringu niepełnego. Jako źródło finansowania przedsiębiorstwa należy traktować faktoring niepełny, który w swoim charakterze podobny jest do pożyczki (w wyniku umowy faktoringowej powstaje zobowiązanie faktoranta wobec faktora). Faktoring pełny stanowi zamianę mniej płynnego składnika majątkowego (należności z tytułu dostaw) na bardziej płynny (środki pieniężne) i przyczynia się do poprawy płynności finansowej przedsiębiorstwa.", "Omówione powyżej obce źródła finansowania przedsiębiorstw to źródła o charakterze zewnętrznym, czyli pochodzące spoza podmiotu gospodarczego. Wewnętrzne obce źródła finansowania stanowią rezerwy na zobowiązania, tworzone przez przedsiębiorstwa w ciężar kosztów. Ustawa o rachunkowości [5] (art. 35d) nakłada na jednostkę gospodarczą obowiązek tworzenia rezerw na:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Koszt kapitału", "subject_id": 1747, "subject": "Kapitał i jego koszt", "paragraphs": ["Ze względu na źródło pochodzenia kapitału wyróżnia się:", "Kapitał własny nie ma określonego terminu zwrotu. Obejmuje kapitał własny wewnętrzny i zewnętrzny. Kapitał własny wewnętrzny stanowi zysk zatrzymany, tj. wypracowany w przedsiębiorstwie w danym roku zysk netto pomniejszony o dokonane wypłaty na rzecz właścicieli (dywidendy), zarządu i pracowników. Źródłami kapitału własnego zewnętrznego są: emisja akcji (zwykłych, uprzywilejowanych) w przypadku spółki akcyjnej (por. Rys. 1), ustanowienie udziałów w spółce z ograniczoną odpowiedzialnością i wniesienie wkładów przez wspólników spółek osobowych.", "Kapitał obcy ma zawsze określony termin zwrotu. Dzieli się na kapitał krótko- i długoterminowy, tj. o terminie zwrotu - odpowiednio - do jednego roku i powyżej jednego roku. Kapitał obcy stanowią zaciągnięte kredyty i pożyczki oraz wyemitowane obligacje i inne dłużne papiery wartościowe.", "Z punktu widzenia kapitałodawcy (właściciela, wierzyciela) koszt kapitału jest synonimem oczekiwanej przez niego stopy zwrotu przy danym poziomie ryzyka. Stopa ta może się różnić od kosztu kapitału ponoszonego przez kapitałobiorcę (przedsiębiorstwo). Dla kapitałobiorcy koszt kapitału jest niższy od stopy zwrotu wymaganej przez wierzyciela, w przypadku wystąpienia korzyści podatkowych związanych ze zmniejszeniem podstawy opodatkowania podatkiem dochodowym przez płacone odsetki od zaciągniętego długu. Koszt kapitału dla kapitałobiorcy może być również wyższy niż stopa zwrotu dla kapitałodawcy w przypadku ponoszenia przez kapitałobiorcę dodatkowych kosztów pozyskania kapitału, takich jak np. koszty związane z emisją akcji czy obligacji [3].", "Koszt kapitału własnego jest z reguły wyższy od kosztu kapitału obcego. Wynika to z większego ryzyka ponoszonego przez właścicieli przedsiębiorstwa niż przez wierzycieli. Ci ostatni podejmują decyzję dotyczącą udostępnienia posiadanych zasobów finansowych na ściśle określony czas i według jednoznacznie określonych warunków, dotyczących m.in. oprocentowania. Niewywiązanie się terminowe ze zobowiązań wobec wierzycieli pociąga za sobą sankcje prawne, włączając postawienie przedsiębiorstwa w stan upadłości. Dodatkowo wierzyciele mogą zabezpieczać swoje interesy poprzez ustanawianie klauzul restrykcyjnych (np. kowenantów w obligacjach), ograniczających swobodę menedżerów w zakresie podejmowania decyzji. Właściciele przedsiębiorstwa nie mają zagwarantowanego czasu ani wysokości zwrotu kapitału [4].Ponadto w postępowaniu upadłościowym i likwidacyjnym przedsiębiorstwa należności właścicieli są zaspokajane na końcu, po zaspokojeniu roszczeń wierzycieli.", "Ustalanie kosztu kapitału własnego jest z reguły trudniejsze niż kosztu kapitału obcego i polega na szacowaniu stóp zwrotu oczekiwanych przez właścicieli kapitału od zaangażowanego w przedsiębiorstwie kapitału własnego. W przypadku kapitału obcego wysokość jego oprocentowania jest określona: bezpośrednio (oprocentowanie stałe) lub pośrednio (oprocentowanie zmienne zależne od ustalonego parametru, np. stopy WIBOR lub WIRON).", "Kategoria kosztu kapitału jest wykorzystywana w ocenie efektywności projektów inwestycyjnych (jako podstawa określenia poziomu stopy dyskontowej), przy określaniu wartości przedsiębiorstwa i w ocenie możliwych źródeł finansowania przedsiębiorstwa z punktu widzenia minimalizacji kosztów ich pozyskania."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Koszt kapitału", "subject_id": 1748, "subject": "Koszt kapitału własnego", "paragraphs": ["Wielkość dywidendy dla posiadaczy akcji uprzywilejowanych jest ustalana z reguły w relacji do wartości nominalnej akcji i jest określana w statucie spółki akcyjnej. Wpływy netto z emisji akcji uprzywilejowanych stanowią wpływy z emisji pomniejszone o koszty tej emisji i sprzedaży, np. prowizję dla pośrednika. W przypadku akcji uprzywilejowanych co do wypłaty dywidendy, dla których można określić ich wartość rynkową, koszt ponoszony przez spółkę można określić następującym wzorem [2]:", "Prawidłowe oszacowanie kosztu kapitału z akcji zwykłych w oparciu o model Gordona zależy od poprawności ustalenia przewidywanego tempa wzrostu dywidendy. Oczekiwane stałe tempo wzrostu dywidendy ustala się zazwyczaj na podstawie danych historycznych lub ewentualnie wykorzystując prognozy analityków finansowych.", "Nowa emisja akcji zwykłych zwiększa koszt kapitału akcyjnego zwykłego z powodu konieczności poniesienia kosztów emisji i sprzedaży akcji. Należy się liczyć również z przynajmniej przejściowym spadkiem wartości dywidendy na jedną akcję zwykłą po dodatkowej emisji. Koszt kapitału akcyjnego zwykłego z nowej emisji (w oparciu o model Gordona) można obliczyć następująco [3]:", "Zastosowanie modelu Gordona do wyceny kapitału akcyjnego zwykłego jest uzasadnione jedynie dla spółek, które regularnie wypłacają dywidendę, a tempo jej wzrostu jest stałe.", "Koszt kapitału akcyjnego zwykłego może być również wyceniony na podstawie modelu wyceny aktywów kapitałowych (z ang. capital asset pricing model – CAPM). W modelu CAPM koszt kapitału własnego jest określony jako stopa zwrotu wolna od ryzyka powiększona o iloczyn ryzyka systematycznego (wyrażonego tzw. współczynnikiem beta) i premii za ryzyko rynkowe:", "Premia za ryzyko rynkowe stanowi nadwyżkę stopy zwrotu z portfela rynkowego nad stopę zwrotu wolną od ryzyka. Jako portfel rynkowy przyjmuje się zazwyczaj indeks giełdowy obejmujący największą liczbę spółek giełdowych notowanych na danej giełdzie papierów wartościowych (np. indeks WIG). Jako stopę zwrotu wolną od ryzyka uznaje się rentowność skarbowych papierów wartościowych, tj. obligacji lub bonów.", "Współczynnik \\(\\beta \\) jest ilorazem kowariancji stopy zwrotu akcji danej spółki i stopy zwrotu z portfela rynkowego oraz wariancji stopy zwrotu z portfela rynkowego. Wyznacza się go według poniższego wzoru:", "Współczynnik \\(\\beta \\) wyznacza się w praktyce na podstawie danych historycznych przy założeniu, że dotychczasowe ryzyko systematyczne nie zmieni się w najbliższej przyszłości. W obliczeniach współczynnika \\(\\beta \\) wykorzystuje się najczęściej dzienne lub tygodniowe stopy zwrotu. Stopy zwrotu ustala się zazwyczaj na podstawie kursów zamknięcia. Należy pamiętać o zgodności analizowanych stóp zwrotu z akcji danej spółki i portfela rynkowego pod względem czasu, tzn. jeżeli przykładowo obliczamy dzienne stopy zwrotu z akcji spółki w okresie 12.02.2020-11.02.2023, to w ten sam sposób powinniśmy ustalać stopy zwrotu z portfela rynkowego.", "Współczynnik \\(\\beta \\) jest miarą ryzyka systematycznego i odzwierciedla zmienność kursu akcji danej spółki w stosunku do zmienności indeksu giełdowego. Im wyższy jest jego (bezwzględny) poziom, tym większa zmienność kursu akcji i większe ryzyko inwestycyjne związane z akcjami. Poziom współczynnika β większy od 1 oznacza, że ceny akcji danej spółki wzrastają (spadają) przeciętnie w większym stopniu niż ceny ogółu akcji na rynku giełdowym. Przykładowo, jeżeli współczynnik \\(\\beta \\) wynosi 1,2; to wzrostowi wartości indeksu giełdowego o 3% towarzyszy wzrost cen akcji danej spółki o 3,6%. Współczynnik \\(\\beta \\) może przyjąć również wartości ujemne, co oznacza, że zmiany cen akcji spółki są (przeciętnie) przeciwne do zmian wartości indeksu giełdowego. Taka sytuacja jest jednak rzadko spotykana.", "W zależności od przyjętych założeń, tj. m.in. od wyboru instrumentu finansowego wyznaczającego stopę zwrotu wolną od ryzyka i okresu, na podstawie którego szacuje się wartość współczynnika \\(\\beta \\), można uzyskać - w oparciu o model CAPM - różne poziomy kosztu kapitału akcyjnego zwykłego. Ponadto w przypadku ujemnej wartości współczynnika \\(\\beta \\) wykorzystanie modelu CAPM w szacowaniu kosztu kapitału własnego traci swój ekonomiczny sens. Oznaczałoby bowiem, że akcjonariusze pomniejszają stopę zwrotu wolną od ryzyka o premię związaną z inwestycją w akcje danej spółki na określonym rynku. Analogiczna sytuacja (brak ekonomicznego uzasadnienia dla wykorzystania modelu CAPM) występuje, kiedy w oparciu o historyczne stopy zwrotu ustalona premia za ryzyko rynkowe jest ujemna."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Koszt kapitału", "subject_id": 1749, "subject": "Koszt kapitału obcego", "paragraphs": ["Nominalny koszt kapitału obcego stanowi procentową relację odsetek i ewentualnie innych płatności do wartości tego kapitału. W przypadku stałego oprocentowania można dokładnie określić w momencie zaciągnięcia długu wysokość wszystkich płatności odsetkowych. Jeżeli oprocentowanie długu jest zmienne, to możliwe jest jedynie określenie wysokości płaconych odsetek w bieżącym lub w bieżącym i kolejnym okresie odsetkowym (w zależności od tego, czy uwzględnia się zmienną stopę bazową z bieżącego czy z poprzedniego okresu odsetkowego).", "Płacone przez przedsiębiorstwo odsetki oraz niektóre płatności związane z zaciągniętym długiem (jak np. prowizje od udzielonego kredytu, koszty przeprowadzenia emisji obligacji) stanowią koszty finansowe, które obniżają podstawę opodatkowania podatkiem dochodowym, a tym samym należny podatek dochodowy. Wobec tego rzeczywisty koszt kapitału obcego, uwzględniający efekt tzw. osłony podatkowej jest niższy od nominalnego kosztu tego kapitału. Oblicza się go według wzoru:", "Osłona podatkowa nazywana jest również tarczą podatkową.", "Można ustalić również efektywny koszt kapitału obcego, uwzględniając zmienną wartość pieniądza w czasie i występowanie w różnych okresach wpływów i wydatków związanych z pozyskaniem kapitału obcego i jego spłatą. Efektywny koszt kapitału obcego jest stopą dyskontową \\(k_{ef}\\), która równoważy wartość wpływów z kredytu (pożyczki, emisji obligacji) z wartością obecną wydatków związanych z zaciągniętym długiem. Koszt ten stanowi wewnętrzną stopę zwrotu (por. Wewnętrzna stopa zwrotu) przepływów pieniężnych wynikających z wykorzystania kapitału obcego w finansowaniu przedsiębiorstwa. Można go obliczyć rozwiązując poniższe równanie:", "Efektywny koszt kredytu można obliczyć (na podstawie powyższego wzoru) wykorzystując funkcję IRR w arkuszu kalkulacyjnym Excel. W obliczaniu efektywnego kosztu kapitału uwzględnia się osłonę podatkową i wszystkie wydatki związane z zaciągnięciem i spłatą długu, takie jak odsetki i raty kapitałowe kredytu (pożyczki), prowizja, ubezpieczenie kredytu, wydatki na przeprowadzenie emisji obligacji, odsetki od obligacji i wykup obligacji w wartości nominalnej."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Koszt kapitału", "subject_id": 1750, "subject": "Średni ważony koszt kapitału", "paragraphs": ["Średni ważony koszt kapitału zależy od struktury kapitału przedsiębiorstwa i od wysokości kosztów poszczególnych składników kapitału. Struktura kapitału jest efektem decyzji podejmowanych przez menedżerów odnośnie wyboru źródeł finansowania. Udziały składników kapitału mogą być obliczone na podstawie wartości księgowych lub rynkowych. Wartości księgowe i rynkowe kapitału zarówno własnego, jak i obcego mogą się istotnie różnić zwłaszcza w sytuacji bardzo dobrej lub bardzo złej sytuacji finansowej przedsiębiorstwa.", "W teorii zaleca się wykorzystanie wartości rynkowych, ze względu na to, że precyzyjniej odzwierciedlają aktualne uwarunkowania prowadzenia działalności przez przedsiębiorstwo i są bardziej odpowiednim punktem odniesienia przy określaniu stóp zwrotu dla inwestorów niż wartości księgowe. Jednak w praktyce udziały składników kapitału są ustalane często na podstawie wartości księgowych z powodu trudności w szacowaniu wartości rynkowej kapitału (związane m.in. ze zmiennością wartości rynkowej akcji i obligacji, koniecznością przyjęcia - niekiedy subiektywnych – założeń i brakiem wyceny rynkowej kredytów i pożyczek). Wartości księgowe kapitału własnego i obcego można łatwo ustalić na podstawie bilansu przedsiębiorstwa. Należy zaznaczyć, że udziały wszystkich składników kapitału mogą być obliczane wyłącznie albo na podstawie wartości księgowych, albo wartości rynkowych.", "Średni ważony koszt kapitału wyraża przeciętną oczekiwaną stopę zwrotu z kapitału zainwestowanego w przedsiębiorstwo przez jego właścicieli i – ewentualnych – wierzycieli. W przypadku wykorzystania przez przedsiębiorstwo kapitału obcego, w obliczaniu WACC wykorzystuje się koszt tego kapitału uwzględniający korzyści podatkowe związane ze zmniejszeniem podstawy opodatkowania podatkiem dochodowym przez płacone odsetki."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Próg rentowności", "subject_id": 1751, "subject": "Koszty stałe i zmienne", "paragraphs": ["Suma kosztów stałych i zmiennych wyznacza poziom kosztów całkowitych. Koszty stałe mogą być przeliczone na jednostkę produkcji. Jednostkowe koszty stałe są kosztami malejącymi, gdyż wraz ze wzrostem wielkości produkcji na jednostkę produkcji przypada coraz mniejsza kwota kosztów stałych. Ze względu na kierunek i stopień natężenia zmian poziomu kosztów w wyniku zmian produkcji można wyróżnić koszty zmienne:", "Koszty zmienne proprcjonalne rosną w takim samym tempie, co wielkość produkcji. Jednostkowy koszt zmienny jest w tym przypadku stały. Koszty zmienne progresywne pojawiają się wtedy, gdy przyrostom wielkości produkcji odpowiadają większe przyrosty kosztów. Jednostkowy koszt zmienny progresywny jest rosnący. Koszty zmienne regresywne występują wówczas, gdy poziom kosztów ulega obniżeniu wraz ze wzrostem produkcji. Jednostkowy koszt zmienny jest w tym przypadku malejący. Ten rodzaj kosztów zmiennych jest najrzadziej spotykany w praktyce gospodarczej. Koszty zmienne degresywne pojawiają się wtedy, gdy przyrosty wielkości produkcji powodują coraz mniejsze przyrosty kosztów zmiennych. Koszty te rosną wolniej niż produkcja.Jednostkowy koszt zmienny degresywny jest kosztem malejącym [1].", "Przykładami kosztów stałych są:", "Przykładami kosztów zmiennych są:", "Koszty stałe i zmienne mogą być wyodrębnione za pomocą:", "Metoda księgowa (ekspercka) ma charakter subiektywny i polega na tym, że pracownicy działu finansowo-księgowego dokonują podziału kosztów całkowitych na stałe i zmienne na podstawie swoich dotychczasowych obserwacji i doświadczenia. W metodzie regresji liniowej przyjmuje się założenie, że koszty całkowite są funkcją liniową rozmiaru produkcji, co można przedstawić następująco:", "Na podstawie danych historycznych dotyczących wielkości produkcji i poniesionych kosztów całkowitych szacuje się parametry kosztów stałych i jednostkowego kosztu zmiennego.", "Występowanie kosztów stałych powoduje, że każdy przyrost przychodów ze sprzedaży (produktów, usług, towarów) przyniesie przedsiębiorstwu ponadproporcjonalny wzrost zysku operacyjnego, rozumianego jako dodatnia różnica między przychodami ze sprzedaży a kosztami całkowitymi. Wzrostowi przychodów ze sprzedaży towarzyszy bowiem wzrost kosztów zmiennych, przy niezmienionym poziomie kosztów stałych. Taką sytuację określa się pojęciem dźwigni operacyjnej.", "Miarą zmian zysku operacyjnego w wyniku zmian przychodów ze sprzedaży jest stopień dźwigni operacyjnej (z ang.degree of operating leverage - DOL):", "Stopień dźwigni operacyjnej informuje, jaka będzie procentowa zmiana zysku operacyjnego, jeżeli przychody ze sprzedaży zmienią się o 1%. Przykładowo, jeżeli DOL wynosi 4,8; to znaczy, że zmiana zysku operacyjnego wyniesie 4,8% przy założeniu 1% zmiany przychodów ze sprzedaży."], "definitions": [{"name": " Definicja 1: Koszty stałe ", "content": " Koszty stałe to koszty, które są niezależne od wielkości produkcji.\n"}, {"name": " Definicja 2: Koszty zmienne ", "content": " Koszty zmienne to koszty, które zmieniają się wraz ze zmianą wielkości\nprodukcji. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Próg rentowności", "subject_id": 1752, "subject": "Próg rentowności", "paragraphs": ["Ustalenie progu rentowności wymaga podziału kosztów całkowitych na stałe i zmienne.", "Przy obliczaniu progu rentowności przyjmuje się następujące założenia:", "Próg rentowności może być wyrażony ilościowo lub wartościowo."], "definitions": [{"name": " Definicja 1: Próg rentowności ", "content": " Próg rentowności (z ang. break even point – BEP) oznacza punkt\nrównowagi działalności przedsiębiorstwa, w którym przychody ze sprzedaży są równe kosztom całkowitym, tzn.\nprzedsiębiorstwo nie osiąga zysku, ani nie ponosi straty. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Próg rentowności", "subject_id": 1753, "subject": "Ilościowy próg rentowności", "paragraphs": ["Produkcja na poziomie ilościowego progu rentowności (BEPi) pozwala osiągnąć przychody ze sprzedaży (P), które pokryją koszty całkowite (Kc), będące sumą kosztów stałych (Ks) i zmiennych (Kz). W tej sytuacji przedsiębiorstwo osiąga zerowy wynik ze sprzedaży. Jeżeli przedsiębiorstwo będzie wytwarzać i sprzedawać produkty w ilości większej (mniejszej) niż BEPi, będzie osiągało zysk (ponosiło stratę) (por. Rys. 1).", "Ilościowy próg rentowności dla produkcji jednoasortymentowej można obliczyć według poniższego wzoru:", "gdzie: \\(BEP_i\\) – ilościowy próg rentowności, \\(K_s\\) – koszty stałe, \\(k_z\\) – jednostkowy koszt zmienny, \\(c\\) - jednostkowa cena sprzedaży produktu.", "Ilościowy próg rentowności dla produkcji wieloasortymentowej można ustalić dzieląc koszty stałe pomiędzy poszczególne asortymenty produktów i obliczając próg rentowności dla każdego asortymentu oddzielnie, tak jak dla produkcji jednoasortymentowej. W przypadku dużej liczby asortymentów (np. w fabryce obuwia, w sklepie spożywczym) lub trudności z podziałem kosztów stałych na poszczególne asortymenty lepszym rozwiązaniem jest ustalenie wartościowego progu rentowności.", "Próg rentowności w wymiarze ilościowym może być wyrażony również jako procent zdolności produkcyjnych, zgodnie z poniższym wzorem:"], "definitions": [{"name": " Definicja 1: Ilościowy próg rentowności ", "content": " Ilościowy próg rentowności to taka wielkość produkcji, przy\nktórej koszty całkowite są równe przychodom ze sprzedaży. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Próg rentowności", "subject_id": 1754, "subject": "Wartościowy próg rentowności", "paragraphs": ["Wartościowy próg rentowności dla produkcji jednoasortymentowej można obliczyć według poniższego wzoru:", "Wartościowy próg rentowności stanowi iloczyn jednostkowej ceny sprzedaży produktu i ilościowego progu rentowności:", "W przypadku produkcji wieloasortymentowej, dla której można przyporządkować koszty stałe do poszczególnych asortymentów, wartościowy próg rentowności można obliczyć dla każdego asortymentu oddzielnie, tak jak dla produkcji jednoasortymentowej. Jeżeli natomiast koszty stałe są przypisane do całości przedsiębiorstwa, to wartościowy próg rentowności (przy danej strukturze asortymentowej produkcji) można ustalić według następującego wzoru [1]:", "Zmiana struktury asortymentowej produkcji powoduje zmianę wartościowego progu rentowności. Obliczając planowany BEPw’ można uwzględnić w powyższym wzorze liczbę sprzedanych wyrobów poszczególnych asortymentów (Qi) dla dowolnie przyjętej skali działalności, z uwzględnieniem danej struktury asortymentowej."], "definitions": [{"name": " Definicja 1: Wartościowy próg rentowności ", "content": " Wartościowy próg rentowności to taka wartość\nprzychodów ze sprzedaży, która pokrywa koszty całkowite. "}]} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obciążenia podatkowe przedsiębiorstw", "subject_id": 1755, "subject": "Wpływ formy organizacyjno-prawnej prowadzenia działalności gospodarczej na wybór formy opodatkowania podatkiem dochodowym", "paragraphs": ["Zasady wykonywania jednoosobowej działalności gospodarczej są określone w ustawie Prawo przedsiębiorców [1]. Funkcjonowanie spółki cywilnej jest uregulowane w Kodeksie cywilnym [2], natomiast spółki prawa handlowego, czyli spółki osobowe i kapitałowe działają na podstawie przepisów zawartych w Kodeksie spółek handlowych [3]. Różnice między wymienionymi formami organizacyjno-prawnymi działalności gospodarczej dotyczą m.in. osobowości prawnej, sposobu rejestrowania, odpowiedzialności za zobowiązania, minimalnego kapitału założycielskiego, rodzaju księgowości oraz możliwości wyboru formy opodatkowania podatkiem dochodowym.", "Dochody z działalności gospodarczej są opodatkowane podatkiem dochodowym od osób fizycznych lub podatkiem dochodowym od osób prawnych (por. Rys. 1). W poniższej tabeli (tab. (1)) przedstawiono dostępne formy opodatkowania podatkiem dochodowym w zależności od formy organizacyjno-prawnej prowadzonej działalności gospodarczej. Możliwość wyboru ryczałtu od przychodów ewidencjonowanych i estońskiego podatku dochodowego od osób prawnych jest dodatkowo uwarunkowana spełnieniem określonych kryteriów zawartych w przepisach prawa podatkowego. Należy mieć na uwadze, że prawo podatkowe podlega stosunkowo częstym zmianom.", "Osoby fizyczne osiągające przychody z jednoosobowej działalności gospodarczej mogą skorzystać z jednej z trzech form opodatkowania podatkiem dochodowym od osób fizycznych. W przypadku spółek cywilnych, spółek jawnych oraz spółek partnerskich podatnikami podatku dochodowego nie są te spółki, lecz ich wspólnicy. Dochody każdego ze wspólników określone proporcjonalnie do ich udziału w spółce (cywilnej, jawnej, partnerskiej) podlegają opodatkowaniu podatkiem dochodowym od osób fizycznych. Wspólnicy będący osobami fizycznymi mogą wybrać jedną z form opodatkowania podatkiem dochodowym od osób fizycznych przewidzianą dla danej spółki (por. tab. (1)). Ryczałt od przychodów ewidencjonowanych może zostać zastosowany przez wspólników spółki cywilnej i jawnej, tylko wtedy jeżeli wszyscy wspólnicy wybiorą ryczałt jako formę opodatkowania. Jedynym wyjątkiem od tych zasad opodatkowania jest spółka jawna, której wspólnikami nie są wyłącznie osoby fizyczne i która nie złoży przed rozpoczęciem roku obrotowego informacji o podatnikach posiadających prawa do udziału w zysku tej spółki do odpowiedniego naczelnika urzędu skarbowego. W tym przypadku spółka jawna jest podatnikiem podatku dochodowego od osób prawnych.", "Spółki kapitałowe oraz spółki komandytowe i komandytowo-akcyjne są podatnikami podatku dochodowego od osób prawnych. W przypadku tych spółek ma miejsce podwójne opodatkowanie. Polega ono na opodatkowaniu dochodu najpierw na poziomie spółki, a następnie – w momencie wypłaty dywidendy dla wspólników (akcjonariuszy, udziałowców, komplementariuszy, komandytariuszy) – na poziomie wspólników. Wypłacona dywidenda jest opodatkowana zryczałtowanym podatkiem dochodowym w wysokości 19%."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obciążenia podatkowe przedsiębiorstw", "subject_id": 1756, "subject": "Podatek dochodowy od osób prawnych", "paragraphs": ["Podatek CIT jest uregulowany w ustawie z dnia 15 lutego 1992 r. o podatku dochodowym od osób prawnych, która była wielokrotnie nowelizowana [1].", "Przedmiotem opodatkowania CIT jest dochód, który przedsiębiorstwo osiągnęło w danym roku podatkowym, stanowiący sumę:", "Dochód stanowi nadwyżkę przychodów nad poniesionymi kosztami. Do przychodów z zysków kapitałowych zalicza się przychody z praw majątkowych (np. z praw autorskich, licencji, prawa własności przemysłowej oraz know-how).", "Przedsiębiorstwa, które mają siedzibę lub zarząd w Polsce podlegają nieograniczonemu obowiązkowi podatkowemu, tzn. opodatkowana jest całość ich dochodów bez względu na miejsce ich osiągania. Przedsiębiorstwa, które nie mają w Polsce siedziby lub zarządu podlegają ograniczonemu obowiązkowi podatkowemu i płacą podatek tylko od dochodów uzyskanych na terytorium Polski.", "Przychodami podatkowymi w CIT są przychody należne z prowadzonej działalności gospodarcze oraz otrzymane pieniądze, wartości pieniężne, różnice kursowe i wartość nieodpłatnie lub częściowo odpłatnie otrzymanych rzeczy, praw lub innych świadczeń. Przychody należne powstają nie później niż w dniu wystawienia faktury bez względu na to, czy przedsiębiorstwo otrzymało zapłatę z nimi związaną.", "Kosztami uzyskania przychodów w CIT są koszty poniesione w celu osiągnięcia przychodów, jak również koszty związane z zapewnieniem właściwego funkcjonowania przedsiębiorstwa (tj. koszty zachowania lub zabezpieczenia źródła przychodów).", "Podstawę opodatkowania CIT stanowi suma dochodów z zysków kapitałowych oraz innych źródeł przychodów, po ewentualnym skorzystaniu przez podatnika z przysługujących mu odliczeń. Od dochodu mogą zostać odliczone m.in. darowizny na cele publiczne na rzecz organizacji pożytku publicznego, poniesiona strata (nadwyżka kosztów uzyskania przychodów nad przychodami) z lat ubiegłych oraz koszty poniesione przez przedsiębiorstwo na działalność badawczo-rozwojową.", "Stawki podatku CIT wynoszą:", "Podatnicy CIT są zobowiązania do prowadzenia pełnej księgowości, czyli prowadzenia szczegółowej ewidencji zdarzeń gospodarczych w księgach rachunkowych. Na podstawie danych z ksiąg rachunkowych podatnicy sporządzają obowiązkowo sprawozdanie finansowe."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Obciążenia podatkowe przedsiębiorstw", "subject_id": 1757, "subject": "Podatek dochodowy od osób fizycznych", "paragraphs": ["W ramach podatku PIT wyróżnia się cztery formy opodatkowania:", "Opodatkowanie w formie karty podatkowej jest możliwe jedynie dla przedsiębiorców, którzy korzystali z tego sposobu płacenia podatku przed 2022 r. i kontynuują w następnych latach wybór tej formy opodatkowania działalności gospodarczej.", "Skala podatkowa jest „domyślną” formą opodatkowania działalności gospodarczej, tzn. przedsiębiorca, który nie wybierze innego sposobu opodatkowania, będzie płacił podatek według zasad ogólnych. Wielkość płaconego podatku według skali podatkowej zależy od wielkości osiągniętego dochodu z działalności gospodarczej. Dochód z działalności gospodarczej stanowi różnicę pomiędzy przychodami z działalności gospodarczej a kosztami ich uzyskania poniesionymi w celu osiągnięcia przychodów, zachowania lub zabezpieczenia działalności gospodarczej. Jeżeli przedsiębiorca poniesie stratę (przychody z działalności gospodarczej będą niższe od kosztów ich uzyskania), to może ją odliczyć od dochodu w kolejnych pięciu następujących po sobie latach podatkowych. W opodatkowaniu dochodu na zasadach ogólnych obowiązuje dwustopniowa skala podatkowa: stawki 12% i 32%. Wyższa stawka ma zastosowanie do nadwyżki dochodu ponad określoną wielkość (120 000 zł w 2023 r.). W obliczaniu podatku uwzględnia się również kwotę zmniejszającą podatek.", "W przypadku podatku liniowego, analogicznie do skali podatkowej, opodatkowaniu podlega dochód z działalności gospodarczej. Bez względu na wysokość dochodu stosowana jest jedna stawka podatkowa wynosząca 19%. W przeciwieństwie do skali podatkowej, dochody z działalności gospodarczej nie mogą być łączone z dochodami z innych źródeł. Nie uwzględnia się również kwoty zmniejszającej podatek. Wybór podatku liniowego wyklucza możliwość skorzystanie z pewnych ulg, które są dostępne dla przedsiębiorców wykorzystujących skalę podatkową. Rozliczając się w formie podatku liniowego, jak również opodatkowania na zasadach ogólnych, przedsiębiorcy są zobowiązani do prowadzenia podatkowej księgi przychodów i rozchodów. Jeżeli ich przychody netto (czyli bez podatku VAT) za poprzedni rok obrotowy wyniosły co najmniej równowartość w złotych 2 mln euro, to wymagane jest prowadzenie pełnej księgowości (ksiąg rachunkowych) i sporządzanie sprawozdań finansowych.", "Ryczałt od przychodów ewidencjonowanych stanowi uproszczoną formą opodatkowania działalności gospodarczej, w której podstawą opodatkowania jest przychód (bez uwzględniania kosztów jego osiągnięcia). Ta forma opodatkowania może być niekorzystna dla przedsiębiorców, którzy ponoszą wysokie koszty związane z prowadzoną działalnością ze względu na brak możliwości ich rozliczenia. Ryczałt od przychodów ewidencjonowanych mogą stosować przedsiębiorcy, którzy w poprzednim roku nie przekroczyli limitu przychodów wynoszącego równowartość w złotych 2 mln euro. Limit ten dotyczy również sumy przychodów wszystkich wspólników w spółce cywilnej lub jawnej. Ponadto niektóre rodzaje działalności zostały wyłączone z możliwości opodatkowania ryczałtem:", "Stawki ryczałtu od przychodów ewidencjonowanych wynoszą od 2% do 17% w zależności od rodzaju wykonywanej działalności. Przedsiębiorcy są zobowiązania do prowadzenia uproszczonej księgowości (ewidencji przychodów).", "Wysokość podatku dochodowego w formie karty podatkowej na dany rok dla indywidualnego podatnika określa naczelnik urzędu skarbowego. Zależy ona m.in. od rodzaju prowadzonej działalności, liczby zatrudnionych oraz liczby mieszkańców w miejscu prowadzenia działalności. Osiągane przychody i ponoszone koszty przez przedsiębiorcę nie mają znaczenia dla wysokości obciążenia podatkowego. Przedsiębiorcy korzystający z karty podatkowej są zwolnieni z obowiązku prowadzenia księgowości i składania zeznań podatkowych. Ta forma opodatkowania jest możliwa dla osób prowadzących jeden z rodzajów działalności wskazanych w wykazie działalności, które mogą być opodatkowane kartą podatkową, np. usługi transportowe, gastronomiczne i edukacyjne.", "W tabeli poniżej przedstawiono podobieństwa i różnice między czterema formami opodatkowania podatkiem dochodowym od osób fizycznych."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena sytuacji finansowej przedsiębiorstwa", "subject_id": 1758, "subject": "Sprawozdanie finansowe przedsiębiorstwa", "paragraphs": ["Sprawozdanie finansowe składa się z:", "Bilans przedstawia składniki majątkowe (aktywa) jednostki gospodarczej i źródła ich finansowania (pasywa) na dzień bilansowy. Rachunek zysków i strat jest zestawieniem przychodów i kosztów ich uzyskania oraz wyników finansowych na różnych poziomach działalności przedsiębiorstwa osiągniętych w okresie sprawozdawczym. Informacja dodatkowa zawiera opis przyjętych przez przedsiębiorstwo zasad (polityki) rachunkowości, szczegółowe dane na temat poszczególnych pozycji bilansu i rachunku zysków i strat oraz inne istotne dane i objaśnienia, które mają ułatwić zrozumienie sytuacji finansowej i majątkowej przedsiębiorstwa przez odbiorców sprawozdania finansowego.", "Sporządzanie sprawozdania finansowego jest obowiązkowe dla jednostek gospodarczych, które zgodnie z wymogami ustawy o rachunkowości [1], muszą prowadzić księgi rachunkowe (tzw. pełną księgowość), w tym m.in. dla:", "Sprawozdanie finansowe sporządzają również te podmioty gospodarcze, które dobrowolnie wybrały prowadzenie ksiąg rachunkowych jako formę ewidencji księgowej.", "W przypadku niektórych jednostek, sprawozdanie finansowe obejmuje dodatkowo:", "Rachunek przepływów pieniężnych dostarcza informacji o ruchu środków pieniężnych w przedsiębiorstwie i jest zestawieniem wszystkich wpływów i wydatków dotyczących przedsiębiorstwa w danym okresie sprawozdawczym. Zestawienie zmian w kapitale (funduszu) własnym przedstawia informacje o zwiększeniach i zmniejszeniach poszczególnych składników kapitału własnego z uwzględnieniem przyczyn tych zmian (np. wypłata dywidendy, emisja akcji) w danym okresie sprawozdawczym.", "Sporządzanie rachunku przepływów pieniężnych oraz zestawienia zmian w kapitale (funduszu) własnym jest obligatoryjne dla jednostek, których sprawozdanie finansowe musi być corocznie badane przez biegłego rewidenta (firmę audytorską). Należą do nich m.in. spółki akcyjne, a także jednostki, która sporządziły w poprzednim roku obrotowym sprawozdanie finansowe i spełniły co najmniej dwa z trzech warunków:", "Badanie sprawozdania finansowego służy zwiększeniu zaufaniu jego użytkowników do informacji w nim zawartych (np. inwestorów, kredytodawców i pożyczkodawców, organów podatkowych) i ma na celu ustalenie, czy sprawozdanie przedstawia rzetelnie i jasno sytuację finansową i majątkową oraz wynik finansowy przedsiębiorstwa."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena sytuacji finansowej przedsiębiorstwa", "subject_id": 1759, "subject": "Bilans", "paragraphs": ["W tabeli poniżej przedstawiono bilans przedsiębiorstwa z uwzględnieniem głównych grup aktywów i pasywów. Szczegółowy wzór bilansu jest zawarty w załączniku nr 1 do ustawy o rachunkowości [1] (UoR).", "W bilansie wartość aktywów jest zawsze równa wartości pasywów. Wartość aktywów (pasywów) to inaczej suma bilansowa (por. Rys. 1).", "Aktywa trwałe obejmują składniki majątku o przewidywanym okresie użytkowania dłuższym niż 12 miesięcy licząc od dnia bilansowego, tj. dnia, na który sporządzono bilans. Aktywa obrotowe to te składniki majątku, które są przeznaczone do zbycia lub zużycia w ciągu 12 miesięcy od dnia bilansowego lub w ciągu normalnego cyklu operacyjnego właściwego dla danej działalności, jeżeli trwa on dłużej niż 12 miesięcy. Do wartości niematerialnych i prawnych zalicza się:", "Zgodnie z UoR wartość firmy stanowi różnicę między ceną nabycia określonej jednostki lub zorganizowanej jej części a niższą od niej wartością godziwą przejętych aktywów netto. Aktywa netto to aktywa jednostki pomniejszone o zobowiązania, odpowiadające wartościowo kapitałowi własnemu. Wartość godziwa określonych aktywów i zobowiązań jest zdefiniowana w art. 44b UoR.", "W skład rzeczowych aktywów trwałych wchodzą środki trwałe, w tym również w budowie oraz zaliczki na środki trwałe w budowie. Środki trwałe obejmują grunty, budynki, lokale, prawa do lokali, obiekty inżynierii lądowej i wodnej, urządzenia techniczne, maszyny, środki transportu i inwentarz żywy. Należności długoterminowe to należności, których termin wymagalności jest dłuższy niż 12 miesięcy od dnia bilansowego, np. z tytułu zwrotu podatku. Wyjątkiem są należności z tytułu dostaw i usług o terminie zapłaty powyżej 12 miesięcy, które zgodnie z UoR są zaliczane do należności krótkoterminowych. Inwestycje długoterminowe obejmują długoterminowe aktywa finansowe (np. posiadane udziały, akcje, obligacje, długoterminowe lokaty bankowe) oraz te nieruchomości i wartości niematerialne i prawne, które nie są użytkowane przez jednostkę, lecz zostały nabyte w celu osiągnięcia korzyści ekonomicznych wynikających z przyrostu ich wartości. Długoterminowe rozliczenia międzyokresowe dotyczą poniesionych kosztów, których rozliczenie nastąpi w okresie przekraczającym 12 miesięcy (np. zapłacone z góry odsetki od zaciągniętego kredytu, opłacony z góry czynsz za wynajem). Do zapasów (inaczej rzeczowych aktywów obrotowych) zalicza się materiały przeznaczone do zużycia na własne potrzeby, wytworzone produkty gotowe (wyroby i usługi) zdatne do sprzedaży lub w toku produkcji, półprodukty oraz towary. Należności krótkoterminowe obejmują ogół należności z tytułu dostaw i usług (bez względu na termin zapłaty) oraz należności z innych tytułów o terminie wymagalności nie dłuższym niż 12 miesięcy od dnia bilansowego. Inwestycje krótkoterminowe obejmują krótkoterminowe aktywa finansowe (np. posiadane udziały, akcje, obligacje, lokaty bankowe) o terminie zapadalności nie dłuższym niż 12 miesięcy od dnia bilansowego lub przeznaczone do sprzedaży w ciągu najbliższego roku obrotowego oraz gotówkę w kasie, środki pieniężne na rachunkach bankowych, czeki i weksle. Krótkoterminowe rozliczenia międzyokresowe dotyczą poniesionych kosztów, których rozliczenie nastąpi w okresie nie dłuższym niż 12 miesięcy. W bilansie po stronie aktywów, oprócz aktywów trwałych i obrotowych, znajdują się jeszcze dwie pozycje:", "Pasywa w bilansie dzielą się na kapitał (fundusz) własny oraz zobowiązania i rezerwy, czyli kapitały (fundusze) obce.", "Kapitał (fundusz) podstawowy stanowi równowartość wniesionych wkładów przez akcjonariuszy, udziałowców i wspólników. Kapitał (fundusz) zapasowy jest obowiązkowo tworzony przez spółki akcyjne i dobrowolnie przez spółki z o.o. i inne jednostki, m.in. z odpisów z zysku netto. Jego głównym przeznaczeniem jest pokrycie ewentualnych przyszłych strat. Kapitał (fundusz) z aktualizacji wyceny obejmuje skutki aktualizacji wartości środków trwałych oraz inwestycji długoterminowych. Pozostałe kapitały (fundusze) rezerwowe są tworzone na podstawie umowy, statutu lub podjętej stosownej uchwały na określone cele, np. na finansowanie inwestycji, na wypłatę przyszłych dywidend, na nabycie udziałów (akcji) własnych. Składnikiem kapitału (funduszu) własnego jest również wynik finansowy z lat ubiegłych (zysk (strata) z lat ubiegłych) i z danego okresu sprawozdawczego (zysk (strata) netto). Odpisy z zysku netto w ciągu roku obrotowego obejmują wypłacone w ciągu roku zaliczki na poczet dywidendy w spółkach kapitałowych lub na poczet zysku dla wspólników za rok obrotowy. Rezerwy tworzy się na przyszłe zobowiązania, których termin wymagalności lub kwota nie są pewne. Rezerwy na zobowiązania obejmują rezerwę z tytułu odroczonego podatku dochodowego, rezerwę na świadczenia emerytalne i podobne oraz inne rezerwy, np. związane z toczącym się postępowaniem sądowym, z tytułu udzielonych gwarancji. Zobowiązania długoterminowe to zobowiązania wynikające z innych tytułów niż dostawy i usługi, które są wymagalne w okresie dłuższym niż 12 miesięcy od dnia bilansowego. Zalicza się do nich m.in. długoterminowe kredyty i pożyczki, zobowiązania z tytułu emisji obligacji i leasingu. Zobowiązania krótkoterminowe obejmują ogół zobowiązań z tytułu dostaw i usług (bez względu na termin zapłaty) oraz zobowiązania z innych tytułów o terminie wymagalności nie dłuższym niż 12 miesięcy od dnia bilansowego. Rozliczenia międzyokresowe obejmują ujemną wartość firmy (por. przykład (1)) oraz rozliczenia międzyokresowe przychodów (np. otrzymane dotacje, subwencje i dopłaty)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena sytuacji finansowej przedsiębiorstwa", "subject_id": 1760, "subject": "Rachunek zysków i strat", "paragraphs": ["W rachunku zysków i strat przedstawione przychody i koszty są pogrupowane według rodzajów działalności, których dotyczą: działalności operacyjnej (podstawowej i pozostałej) oraz działalności finansowej.", "Podstawowa działalność operacyjna stanowi zasadniczy przedmiot działalności danego przedsiębiorstwa i może nią być działalność produkcyjna, handlowa lub usługowa. Uwzględnia się tutaj przychody ze sprzedaży produktów (tj. wyrobów, robót i usług), materiałów i towarów oraz koszty działalności operacyjnej.", "Pozostała działalność operacyjna jest pośrednio związana z działalnością właściwą (może nią być np. działalność socjalna, sprzedaż zbędnych środków trwałych, przekazywanie i otrzymywanie darowizn). Przychody i koszty, które dotyczą tego rodzaju działalności nazywane są - odpowiednio - pozostałymi przychodami operacyjnymi i pozostałymi kosztami operacyjnymi.", "Działalność finansowa, która wiąże się z powstaniem przychodów i kosztów finansowych, dotyczy zaciągania kredytów i pożyczek, udzielania pożyczek, otrzymywania dywidend z posiadanych akcji i udziałów, dokonywania transakcji papierami wartościowymi i utrzymywania środków na lokatach bankowych.", "Celem sporządzania rachunku zysków i strat jest ustalenie końcowego wyniku finansowego z całokształtu działalności, jakim jest zysk lub strata netto. Ten końcowy wynik finansowy ustala się w sposób segmentowy (por. Rys. 1). Najpierw - przez porównanie przychodów netto ze sprzedaży produktów, materiałów i towarów i kosztów operacyjnych - ustala się wynik ze sprzedaży. Po dodaniu do wyniku ze sprzedaży pozostałych przychodów operacyjnych i odjęciu od niego pozostałych kosztów operacyjnych, otrzymuje się wynik z działalności operacyjnej. Ten wynik, zwiększony o przychody finansowe i zmniejszony o koszty finansowe, tworzy w rezultacie zysk lub stratę brutto. Następnie po uwzględnieniu podatku dochodowego i innych obowiązkowych obciążeń wyniku finansowego brutto otrzymuje się zysk (stratę) netto.", "Rachunek zysków i strat może być sporządzany w wariancie porównawczym lub kalkulacyjnym. Wybór jednego z nich należy do kierownictwa jednostki gospodarczej. Wzory rachunku zysków i strat w wariancie porównawczym i kalkulacyjnym są podane w załączniku nr 1 do ustawy o rachunkowości [1] (por. tab. (1)).", "Wariant porównawczy i kalkulacyjny różnią się sposobem ujmowania kosztów z podstawowej działalności operacyjnej (por. górną i dolną część tab. (1)). W wariancie porównawczym koszty są wyszczególnione ze względu na ich rodzaj (np. amortyzacja, wynagrodzenia), natomiast w wariancie kalkulacyjnym – ze względu na miejsce powstawania kosztów (np. koszty wytworzenia sprzedanych produktów, koszty sprzedaży). Obliczając wynik ze sprzedaży uzyskamy w obu wariantach oczywiście taką samą wielkość."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena sytuacji finansowej przedsiębiorstwa", "subject_id": 1761, "subject": "Rachunek przepływów pieniężnych", "paragraphs": ["Działalność operacyjna stanowi podstawowy rodzaj działalności jednostki (produkcyjna, usługowa, handlowa), wynikający z jej statutu i obejmuje również inne rodzaje działalności, niezaliczone do działalności inwestycyjnej lub finansowej. Działalność inwestycyjna polega na nabywaniu lub zbywaniu przez jednostkę gospodarczą składników aktywów trwałych (np. środków trwałych, nieruchomości inwestycyjnych) i krótkoterminowych aktywów finansowych (np. udziałów, akcji, obligacji o terminie wymagalności lub przeznaczonych do zbycia w ciągu 12 miesięcy). Działalność finansowa oznacza pozyskiwanie lub utratę źródeł finansowania jednostki gospodarczej (np. zaciąganie i spłatę kredytów, emisję akcji i obligacji).", "Metody bezpośrednia i pośrednia różnią się jedynie sposobem ustalania przepływów pieniężnych netto z działalności operacyjnej (por. górną i dolną część tab. (1)).", "W metodzie bezpośredniej wpływom z działalności operacyjnej (pochodzącym głównie ze sprzedaży produktów, towarów i usług oraz z innych źródeł) przeciwstawiane są wydatki dotyczące tej działalności (np. płatności z tytułu dostaw, płatności związane z wynagrodzeniami pracowników). Różnica między tymi wpływami i wydatkami stanowi przepływy pieniężne netto osiągnięte z podstawowej działalności jednostki gospodarczej.", "Metoda pośrednia polega na korygowaniu wyniku finansowego netto (ustalanego w rachunku zysków i strat) o:", "Obliczając przepływy pieniężne netto z działalności operacyjnej uzyskamy w metodzie bezpośredniej i pośredniej taką samą wielkość. Przepływy pieniężne netto z działalności inwestycyjnej i finansowej w obu metodach obliczane poprzez odjęcie wydatków od wpływów (czyli na zasadach metody bezpośredniej dotyczących działalności operacyjnej).", "W ramach poszczególnych rodzajów działalności jednostki gospodarczej mogą występować dodatnie lub ujemne przepływy pieniężne netto oraz będące ich sumą dodatnie lub ujemne przepływy pieniężne netto z całokształtu działalności. Rachunek przepływów pieniężnych oprócz informacji o przepływach pieniężnych netto z działalności operacyjnej, inwestycyjnej i finansowej, zawiera w końcowej części również informacje związane z uzgodnieniem przepływów pieniężnych netto ze stanem środków pieniężnych i innych aktywów pieniężnych w bilansie.", "Rachunek przepływów pieniężnych informuje o tym, jakie są efekty działalności przedsiębiorstwa, wyrażone wygenerowaniem nadwyżki lub niedoboru środków pieniężnych, niezbędnych m.in. do regulowania bieżących zobowiązań i wypłaty dywidendy. Pokazuje, na ile wykazywany przez przedsiębiorstwo zysk netto znajduje odzwierciedlenie w nadwyżce gotówki."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena sytuacji finansowej przedsiębiorstwa", "subject_id": 1762, "subject": "Analiza finansowa przedsiębiorstwa", "paragraphs": ["Celem analizy finansowej jest dostarczenie informacji użytecznych w ocenie kondycji finansowej przedsiębiorstwa i w podejmowaniu decyzji gospodarczych przez kierownictwo przedsiębiorstwa, właścicieli, potencjalnych inwestorów, doradców inwestycyjnych, kredytodawców, pożyczkodawców, firmy leasingowe oraz – w mniejszym stopniu - dostawców i pracowników.", "Zakres i szczegółowość wykorzystywanych informacji przez poszczególnych użytkowników analizy finansowej jest różny. Przykładowo kredytodawcy, pożyczkodawcy, firmy leasingowe oraz inwestorzy – nabywcy obligacji i dostawcy są zainteresowani informacjami, które pozwolą im ocenić zdolność przedsiębiorstwa do terminowej spłaty zaciągniętych zobowiązań. Kierownictwo przedsiębiorstwa potrzebuje informacji, które będą przydatne m.in. w podjęciu decyzji dotyczących poprawy efektywności działania przedsiębiorstwa. Pracownicy są z reguły zainteresowani głównie wielkością osiąganych wyników finansowych przez przedsiębiorstwo, które mogłyby stanowić podstawę do stawiania żądań płacowych wobec pracodawcy.", "Analizę finansową przedsiębiorstwa można podzielić na analizę wstępną i analizę wskaźnikową (por. Rys. 1).", "Analiza wstępna polega na analizie poszczególnych pozycji bilansu, rachunku zysków i strat oraz rachunku przepływów pieniężnych i obejmuje:", "Analiza pionowa bilansu polega na badaniu struktury aktywów ogółem i pasywów ogółem oraz wewnętrznej struktury wybranych pozycji bilansowych (np. zapasów). Analiza pionowa rachunku zysków i strat oznacza badanie struktury przychodów i kosztów i relacji między poszczególnymi kategoriami wyniku finansowego. W analizie pionowej rachunku przepływów pieniężnych ocenia się strukturę wpływów i wydatków oraz kierunki (dodatnie lub ujemne wartości) przepływów pieniężnych netto z poszczególnych rodzajów działalności (operacyjnej, inwestycyjnej i finansowej).", "W ramach analizy poziomej bilansu, rachunku zysków i strat oraz rachunku przepływów pieniężnych można wykorzystać następujące mierniki dynamiki badanych wielkości finansowych [1]:", "W analizie zmian w czasie w okresie wieloletnim baza porównań może być stała (porównujemy zawsze do tego samego roku) lub zmienna (do roku poprzedzającego). Tempo zmian i indeks dynamiki są lepsze od przyrostu absolutnego w tym sensie, że pokazują relatywne zmiany w czasie. Jednak powstaje problem przy tempie zmian i wskaźniku dynamiki, kiedy porównywane wielkości przyjmują wielkości zero lub przynajmniej jedna z nich jest ujemna (np. w roku bazowym występuje strata netto, a w roku badanym zysk netto). W drugim przypadku można wykorzystać wartości bezwzględne.", "Przedmiotem analizy pionowo-poziomej bilansu są powiązania pomiędzy poszczególnymi pozycjami aktywów i pasywów, tj. aktywami trwałymi, aktywami obrotowymi, kapitałem stałym i zobowiązania krótkoterminowymi.W szczególności analiza pionowo-pozioma obejmuje określenie wielkości kapitału obrotowego netto i sprawdzenie, czy jest spełniona tzw. złota (lub srebrna) reguła bilansowa.", "Kapitał stały jest sumą kapitału własnego i kapitału obcego długoterminowego (tj. zobowiązań długoterminowych).", "Kapitał obrotowy netto stanowi tę część kapitału stałego, który finansuje aktywa obrotowe:", "Przedsiębiorstwa mogą posiadać różny poziom kapitału obrotowego: dodatni, ujemny lub zerowy. Dodatni poziom kapitału obrotowego netto sprzyja zachowaniu płynności finansowej, gdyż część aktywów obrotowych jest finansowana kapitałem długoterminowym. Ujemny poziom kapitału obrotowego netto oznacza, że aktywa trwałe są w części finansowane zobowiązaniami krótkoterminowymi, co zwiększa ryzyko wyprzedaży majątku trwałego w celu zachowania płynności finansowej w sytuacji braku możliwości odnowienia zobowiązań krótkoterminowych. W przypadku zerowego kapitału obrotowego netto, aktywa trwałe są całości finansowane kapitałem stałym, a aktywa obrotowe – zobowiązaniami krótkoterminowymi.", "Okres wymagalności pasywów (źródeł finansowania) powinien być zasadniczo dopasowany do okresu wykorzystywania przez przedsiębiorstwo aktywów finansowanych tymi pasywami, gdyż zapewnia to stabilność finansowania działalności jednostki. Jeśli aktywa trwałe są w pełni pokryte kapitałem własnym, to wówczas zachowana jest złota reguła bilansowa. Jej bardziej liberalną wersją jest srebrna reguła bilansowa, zgodnie z którą aktywa trwałe powinny być finansowane w całości kapitałem stałym [2].", "Analiza wskaźnikowa stanowi rozwinięcie analizy wstępnej sprawozdania finansowego i jest najważniejszą częścią analizy finansowej. Polega na ocenie płynności, zadłużenia, sprawności działania oraz rentowności przy wykorzystaniu odpowiednich wskaźników finansowych. Wskaźnik finansowy wyraża określoną relację co najmniej dwóch wielkości finansowych i przypisana jest mu odpowiednia interpretacja [3]. Jeżeli we wskaźniku wykorzystywane są dane zarówno z bilansu (wielkości zasobowe, na dany dzień) oraz dane z rachunku zysków i strat i/lub rachunku przepływów pieniężnych (wielkości strumieniowe, za dany okres sprawozdawczy), to najczęściej dane z bilansu ujmowane są jako wartości średnie (średnia stanu z początku i z końca okresu sprawozdawczego). Obliczane wartości wskaźników finansowych mogą być:", "Niewielka część wskaźników ma ustalone pożądane, konkretne wartości liczbowe (m.in. wskaźnik bieżącej i szybkiej płynności, wskaźnik ogólnego zadłużenia). Dla wielu wskaźników określony jest pożądany kierunek zmian, np. im wyższe wartości wskaźników rentowności, tym lepsza sytuacja finansowa przedsiębiorstwa."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena sytuacji finansowej przedsiębiorstwa", "subject_id": 1763, "subject": "Wskaźniki płynności", "paragraphs": ["Do oceny płynności finansowej przedsiębiorstwa można wykorzystać:", "Z wyżej wymienionych wskaźników w praktyce najczęściej stosuje się wskaźnik bieżącej płynności i wskaźnik szybkiej płynności.", "Wskaźnik bieżącej płynności (WBP) (inne nazwy to wskaźnik bieżący, wskaźnik płynności III stopnia) oblicza się według wzoru [1]:", "Aktywa bieżące oznaczają aktywa obrotowe pomniejszone o należności z tytułu dostaw i usług o terminie płatności powyżej 12 miesięcy. Zobowiązania bieżące to suma zobowiązań krótkoterminowych (pomniejszonych o zobowiązania z tytułu dostaw i usług o terminie wymagalności powyżej 12 miesięcy), rezerw krótkoterminowych i krótkoterminowych rozliczenia międzyokresowych.", "Wskaźnik bieżącej płynności informuje, czy przedsiębiorstwo jest w stanie spłacić całość zobowiązań bieżących przez upłynnienie wszystkich posiadanych aktywów bieżących. Wzrost wartości wskaźnika oznacza poprawę, a spadek – pogorszenie płynności finansowej. Prawidłowe zakresy wartości tego wskaźnika podawane w literaturze przedmiotu różnią się i wynoszą 1,2-2,0; 1,3-2,0 lub 1,5-2,0. Wartość wskaźnika bieżącej płynności powyżej 2,5 świadczy o nadpłynności, czyli zamrażaniu środków finansowych przeważnie w zapasach i należnościach krótkoterminowych lub niewykorzystanie możliwości inwestowania środków pieniężnych.", "Wskaźnik szybkiej płynności (WSP) (nazywany też wskaźnikiem przyspieszonej płynności, podwyższonej płynności, wskaźnikiem szybkim, wskaźnikiem płynności stopnia II) oblicza się według wzoru:", "Wskaźnik szybkiej płynności informuje, czy przedsiębiorstwo jest w stanie pokryć całość zobowiązań bieżących łatwo upłynnianymi aktywami obrotowymi, czyli inwestycjami krótkoterminowymi i należnościami bieżącymi. Należności można zamienić na gotówkę m.in. dzięki faktoringowi. Inwestycje krótkoterminowe obejmują krótkoterminowe aktywa finansowe (akcje, udziały, udzielone pożyczki), środki pieniężne w kasie i na rachunku bankowym i inne środki pieniężne. Prawidłowa wielkość wskaźnika szybkiej płynności wynosi powyżej 1,0. Wskaźniki bieżącej i szybkiej płynności powinny zachowywać się zgodnie z tym samym trendem [2]. Duże rozbieżności między tymi dwoma wskaźnikami mogą świadczyć o występowaniu znacznych lub nadmiernych zapasów.", "Wskaźnik płynności gotówkowej (WPG) (inaczej wskaźnik płynności stopnia I) uwzględnia najbardziej płynne składniki aktywów obrotowych: środki pieniężne w kasie i na rachunkach bankowych. Oblicza się go według wzoru:", "Wskaźnik informuje, w jakim stopniu środki pieniężne pokrywają zobowiązania bieżące. Istnieją różne opinie odnośnie prawidłowych wielkości tego wskaźnika:", "Wskaźnik wydajności gotówkowej sprzedaży (WWGS) stanowi miarę windykacji należności i oblicza się go według wzoru [3];", "Wskaźnik ten pokazuje, ile gotówki ze sprzedaży produktów, towarów i materiałów wpływa do przedsiębiorstwa w danym czasie z osiągniętych przychodów. Wzrost wartości tego wskaźnika oznacza większe bezpieczeństwo utrzymania płynności finansowej.", "Wskaźnik wystarczalności gotówki operacyjnej na spłatę zobowiązań bieżących (WWGO) oblicza się według wzoru:", "Wskaźnik ten pokazuje, w jakim stopniu zobowiązania bieżące mogą być zaspokojone gotówką uzyskaną z działalności operacyjnej. Tak, jak w przypadku wskaźnika wydajności gotówkowej sprzedaży, nie ma określonych prawidłowych wartości tego wskaźnika, ale pozytywną tendencją jest wzrost jego wartości, oznaczający poprawę płynności finansowej."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena sytuacji finansowej przedsiębiorstwa", "subject_id": 1764, "subject": "Wskaźniki zadłużenia", "paragraphs": ["Przy obliczaniu wskaźników poziomu zadłużenia wykorzystuje się dane z bilansu, a przy obliczaniu wskaźników zdolności do obsługi długu – dane z rachunku zysków i strat i rachunku przepływów pieniężnych.", "Wskaźniki poziomu zadłużenia obejmują:", "Wskaźnik ogólnego zadłużenia (WOZ) stanowi relację zobowiązań ogółem do łącznych aktywów przedsiębiorstwa i przedstawia własnościową strukturę ich finansowania:", "Wskaźnik zadłużenia kapitału własnego (WZKW) ma uzupełniający charakter do poprzedniego wskaźnika i stanowi relację zobowiązań ogółem do kapitału własnego:", "Wskaźnik trwałości struktury finansowania (WTSF) stanowi relację kapitału stałego do aktywów ogółem:", "Dopełnieniem wskaźnika trwałości struktury finansowania jest wskaźnik zadłużenia długoterminowego (WZD), który obrazuje strukturę kapitału stałego. Oblicza się go według wzoru:", "Wskaźnik struktury zobowiązań (WSZ) obrazuje strukturę kapitałów obcych zaangażowanych w finansowanie majątku przedsiębiorstwa. Można go obliczyć w dwóch wersjach jako relację kapitału obcego krótkoterminowego do kapitału obcego ogółem:", "Wskaźniki zdolności do obsługi (pokrycia) długu obejmują:", "Wskaźnik pokrycia zobowiązań odsetkowych (WPZO) stanowi relację sumy zysku brutto i odsetek od zaciągniętych kredytów (pożyczek) do tych odsetek:", "Wskaźnik pokrycia obsługi długu z nadwyżki finansowej (WPOF) jest relacją osiągniętej nadwyżki finansowej do sumy rocznych rat kapitałowych kredytów (pożyczek) i odsetek:", "Wskaźnik pokrycia obsługi długu z gotówki operacyjnej (WPOO) jest relacją przepływów pieniężnych netto z działalności operacyjnej do sumy rocznych rat kapitałowych kredytów (pożyczek) i odsetek:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena sytuacji finansowej przedsiębiorstwa", "subject_id": 1765, "subject": "Wskaźniki sprawności działania", "paragraphs": ["Wskaźniki rotacji określają zdolność zasobów majątkowych i kapitałowych przedsiębiorstwa do przynoszenia korzyści finansowych w postaci przychodów. Do ich obliczenia potrzebne są dane z rachunku zysków i strat dotyczące przychodów oraz dane z bilansu dotyczące średniego stanu zasobów majątkowych lub kapitałów. Średni stan zasobów oznacza średnią stanu zasobów na początku i na końcu roku.", "Wskaźniki rotacji obejmują:", "Wskaźnik rotacji aktywów ogółem (WRA) jest najbardziej syntetycznym wskaźnikiem służącym do oceny efektywności wykorzystania całości majątku przedsiębiorstwa. Oblicza się go według wzoru:", "Bardziej szczegółowymi wskaźnikami rotacji majątku są wskaźniki rotacji aktywów trwałych i obrotowych (odpowiednio WRAT i WRAO), obliczane odpowiednio według wzorów:", "Istotnym elementem oceny sprawności działania przedsiębiorstwa jest analiza rotacji zapasów i należności, pozwalająca na ocenę długości okresu przechowywania zapasów i ściągalności należności. W ramach tej analizy oblicza się kilka wskaźników:", "Wskaźnik rotacji zapasów (WRZ) wyrażony w liczbie „obrotów” zapasami (w razach) oblicza się według wzoru:", "Można też obliczyć wskaźnik rotacji zapasów w dniach (WRZD) według wzoru:", "Wskaźnik rotacji należności (WRN) jest relacją przychodów ze sprzedaży do przeciętnego stanu należności:", "Można też obliczyć wskaźnik rotacji należności w dniach (WRND) według wzoru:", "Wskaźniki rotacji kapitałów obejmują:", "Wskaźnik rotacji kapitału własnego (WRKW) jest relacją osiągniętych przychodów z działalności przedsiębiorstwa do przeciętnej wielkości zaangażowanego kapitału własnego:", "Podobnie można ocenić efektywność wykorzystania kapitału obcego, obliczając wskaźnik rotacji kapitału obcego (WRKO):", "Istotnym wskaźnikiem rotacji pasywów jest wskaźnik rotacji zobowiązań bieżących (WRZB), służący do oceny polityki regulowania zobowiązań wobec dostawców. Oblicza się go następująco:", "Wskaźnik rotacji zobowiązań bieżących w dniach (WRZBD) oblicza się następująco:", "Wskaźniki rotacji zapasów, należności i zobowiązań bieżących w dniach mogą służyć do ustalenia tzw. cyklu środków pieniężnych (inaczej cyklu konwersji gotówki). Obrazuje on czas, jaki upływa od momentu zapłaty za zakupione zasoby i usługi niezbędne w działalności produkcyjnej (np. materiały) do momentu otrzymania zapłaty od odbiorców za sprzedane produkty (por. Rys. 1). Cykl środków pieniężnych jest zatem czasem od momentu wypływu środków pieniężnych na regulowanie zobowiązań do momentu wpływu środków z zainkasowanych należności.", "Cykl środków pieniężnych można obliczyć za pomocą poniższej formuły:", "Cykl zapasów to okres od dostawy materiałów i realizacji usług niezbędnych w produkcji do sprzedaży produktów. Cykl należności to okres od sprzedaży produktów (wystawienia faktury) do otrzymania zapłaty za nie. Cykl zobowiązań bieżących to okres od dostawy materiałów i realizacji usług do zapłaty za nie. Cykle zapasów, należności i zobowiązań bieżących są wyrażone odpowiednimi wskaźnikami rotacji zapasów, należności i zobowiązań bieżących w dniach.", "Cykl środków pieniężnych wyraża liczbę dni, na jaką przedsiębiorstwo musi pozyskać inne niż zobowiązania wobec dostawców źródła finansowania podstawowej działalności operacyjnej. Zatem im krótszy cykl środków pieniężnych, tym korzystniejsza sytuacja finansowa dla przedsiębiorstwa. Może wystąpić również ujemny cykl środków pieniężnych, czyli sytuacja, w której przedsiębiorstwo wcześniej otrzymuje zapłatę od swoich odbiorców niż reguluje zobowiązania wobec dostawców (por. Rys. 2). W praktyce gospodarczej występuje duże zróżnicowanie przedsiębiorstw pod względem długości cyklu środków pieniężnych."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena sytuacji finansowej przedsiębiorstwa", "subject_id": 1766, "subject": "Wskaźniki rentowności", "paragraphs": ["Ze względu na czynniki, które przyczyniają się do wypracowania wyniku finansowego (na różnych poziomach działalności przedsiębiorstwa) wyróżnia się trzy grupy wskaźników rentowności:", "Wskaźniki rentowności nie mają określonych wielkości normatywnych. Im większe wartości tych wskaźników, tym bardziej zyskowna jest działalność przedsiębiorstwa. Pozytywnie należy ocenić wzrost wartości wskaźników rentowności w czasie i/lub osiąganie wyższych wartości wskaźników niż przeciętne w branży, w której działa przedsiębiorstwo.", "Wskaźniki rentowności sprzedaży informują o relacji wyniku finansowego do osiągniętych przychodów (w wyrażeniu procentowym) i obejmują:", "Powyższe wskaźniki (z wyjątkiem marży zysku netto) są obliczane zgodnie z zasadą współmierności, tzn. dany rodzaj wyniku finansowego jest odnoszony do przychodów, które przyczyniły się do jego powstania (por. tab. (1)).", "Marża zysku netto jest nazywana również wskaźnikiem ROS (skrót od angielskiej nazwy return on sales) lub wskaźnikiem rentowności sprzedaży netto.", "Wskaźniki rentowności aktywów obrazują stopę zwrotu z wykorzystywanego majątku przedsiębiorstwa. Informują o relacji wyniku finansowego (najczęściej netto lub brutto) do majątku przedsiębiorstwa (por. tab. (2)). W formułach obliczeniowych wskaźników rentowności aktywów ze względu na wykorzystanie wielkości strumieniowych i zasobowych uwzględnia się średni stan aktywów (średnia stanu z początku i z końca okresu sprawozdawczego). Można spotkać się również z podejściem, zgodnie z którym do obliczeń wykorzystuje się stan aktywów na koniec okresu sprawozdawczego.", "Najczęściej stosowanym w praktyce gospodarczej wskaźnikiem rentowności majątku jest wskaźnik rentowności netto aktywów (nazywany również wskaźnikiem ROA od angielskiej nazwy return on assets). Wyznacza on ogólną zdolność majątku przedsiębiorstwa do wypracowania zysku netto. Wskaźnik rentowności brutto aktywów, tak jak wskaźnik ROA, odnosi się do zyskowności całokształtu działalności przedsiębiorstwa, ale opiera się na zysku brutto. Zysk brutto przedstawia rezultat działalności przedsiębiorstwa bez uwzględniania obciążeń podatkowych (w przeciwieństwie do zysku netto). Uszczegółowieniem wskaźnika ROA są wskaźniki określające stopień zyskowności aktywów trwałych i aktywów obrotowych.", "Wskaźniki rentowności kapitałów informują o stopie zwrotu z zaangażowanego kapitału (por. tab. (3)). Najpopularniejszym z tej grupy wskaźników rentowności jest wskaźnik rentowności kapitału własnego, znany również pod nazwą wskaźnika ROE (od angielskiej nazwy return on equity). Wyraża on relację zysku netto do kapitału własnego (w wyrażeniu procentowym).", "Uszczegółowieniem wskaźnika ROE jest wskaźnik rentowności kapitału podstawowego, który określa relację zysku netto do kapitału zakładowego [1] (tj. wniesionego przez akcjonariuszy lub udziałowców). Wskaźnik ten informuje bliżej o możliwych korzyściach dla właścicieli przedsiębiorstwa związanych z otrzymaniem dywidendy i wzrostem wartości akcji. Wskaźnik rentowności kapitału stałego przedstawia relację wyniku finansowego netto do kapitałów długoterminowych, tj. do kapitału własnego i kapitału obcego długoterminowego."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena efektywności projektów inwestycyjnych", "subject_id": 1767, "subject": "Statyczne i dynamiczne metody oceny efektywności projektów inwestycyjnych", "paragraphs": ["Podstawę realizowania działalności inwestycyjnej w wymiarze rzeczowym stanowi projekt inwestycyjny, który określa przedmiot inwestycji, czas od zaangażowania kapitałów do zakończenia uzyskiwania spodziewanych efektów, konieczne do poniesienia nakłady oraz oczekiwane korzyści ekonomiczne z podjęcia inwestycji. W cyklu życia projektu inwestycyjnego można wyróżnić dwie główne fazy: realizacyjną, polegającą na budowie obiektów inwestycyjnych i fazę eksploatacyjną (operacyjną) związaną z użytkowaniem powstałego obiektu. Fazę eksploatacyjną i jednocześnie okres życia projektu kończy faza likwidacyjna, polegająca na sprzedaży lub likwidacji obiektu inwestycyjnego.", "W ocenie efektywności projektów inwestycyjnych można wykorzystać różne metody, które ze względu na kryterium uwzględniania zmiennej wartości pieniądza w czasie dzielą się na:", "Metody statyczne nie uwzględniają zmiany wartości pieniądza w czasie. Nie pozwalają one zatem na prawidłowe porównywanie (ujmowanych nominalnie) wielkości finansowych pojawiających się w różnych latach realizacji i eksploatacji projektu inwestycyjnego. Z tego powodu metody statyczne pełnią rolę wstępnej oceny w rachunku efektywności projektów inwestycyjnych, umożliwiającej wyeliminowanie na początkowym etapie analizy projektów „zdecydowanie” nieopłacalnych.", "Metody dynamiczne uwzględniają zmianę wartości pieniądza w czasie za pomocą rachunku dyskontowego, co zapewnia porównywalność przepływów pieniężnych występujących w różnych okresach cyklu życia projektu inwestycyjnego. Ta cecha sprawia, że metody dynamiczne w porównaniu z metodami statycznymi uważane są za lepsze pod względem metodologicznym i mają szersze zastosowanie w praktyce gospodarczej. W rachunku dyskontowym będącym podstawą metod dynamicznych zakłada się, że wpływy i/lub wydatki pojawiają się na końcu danego roku w okresie życia projektu inwestycyjnego. Sposób rozłożenia przepływów pieniężnych w poszczególnych latach trwania projektu inwestycyjnego (np. osiąganie większych wpływów na początku okresu eksploatacji lub na końcu) ma wpływ na opłacalność przedsięwzięcia ocenianą przy pomocy metod dynamicznych. Metody statyczne i dynamiczne oceny efektywności projektów inwestycyjnych różnią się również pod względem stosowanych w obliczeniach kategorii wielkości finansowych. W tych pierwszych wykorzystuje się kategorie memoriałowe: koszty (nakłady), przychody, zyski oraz straty, w tych drugich - kategorie kasowe: przepływy pieniężne, tj. wpływy i wydatki. Do metod statycznych oceny efektywności projektów inwestycyjnych zalicza się:", "Do metod dynamicznych oceny efektywności projektów inwestycyjnych należą:", "W praktyce gospodarczej najczęściej stosowane są dwie metody dynamiczne: wartość bieżąca netto i wewnętrzna stopa zwrotu.", "Ocenę efektywności inwestycji można podzielić ze względu na cel jej wykonywania na:", "W ocenie bezwzględnej w przypadku części metod kryterium decyzyjne ma charakter subiektywny, tzn. inwestor sam określa, jaka jest akceptowalna przez niego minimalna (lub maksymalna) wartość miernika efektywności inwestycji. W ocenie względnej kryterium decyzyjne oznacza minimalizację (lub maksymalizację) wartości miernika efektywności inwestycji. Efektywność projektów inwestycyjnych może być oceniania z uwzględnieniem lub bez uwzględniania przepływów pieniężnych związanych z ich finansowaniem, takich jak np. wpływy z tytułu otrzymania kredytu, dotacji czy wydatki na zapłatę odsetek od zaciągniętego kredytu inwestycyjnego.", "Przeprowadzenie analizy efektywności przedsięwzięcia inwestycyjnego wymaga:", "W praktyce przyjęte są różne sposoby wyznaczania stopy dyskontowej (por. Rys. 1). Można ją ustalić na poziomie:", "Dobór stopy dyskontowej w ocenie opłacalności inwestycji dokonywany jest często przez menedżerów i analityków w sposób subiektywny. Stosowanym podejściem jest uwzględnianie w analizie różnych poziomów stopy dyskontowej i przeprowadzanie analizy wrażliwości uzyskanych wyników opłacalności inwestycji ze względu na stopę dyskontową. Stopa dyskontowa wykorzystywana w dynamicznych metodach oceny efektywności projektów inwestycyjnych może być stała w całym okresie obliczeniowym lub zmienna, ustalana oddzielnie dla każdego roku względnie dla faz cyklu inwestycyjnego, w zależności od ryzyka ponoszonego przez inwestora. Zastosowanie zmiennej stopy dyskontowej jest uzasadnione w przypadku projektów długoterminowych (np. przedsięwzięć geologiczno-górniczych), których horyzont czasowy uwzględniany w rachunku efektywności wynosi ponad 20-30 lat. Jeśli prognoza przepływów pieniężnych związanych z podjęciem przedsięwzięcia inwestycyjnego wyrażona jest w cenach stałych, czyli z pominięciem inflacji, to stopa dyskontowa także powinna być ujęta w wymiarze realnym, tj. bez uwzględnienia inflacji. W przypadku prognozowania przepływów pieniężnych w cenach bieżących, należy korzystać z nominalnej stopy dyskontowej, uwzględniającej przyszłą inflację. Zależność pomiędzy realną i nominalną stopą dyskontową (procentową) wyraża równanie I. Fishera:", "Wykorzystanie cen stałych i realnej stopy dyskontowej w ocenie efektywności inwestycji może być szczególnie przydatne w warunkach wysokiej inflacji."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena efektywności projektów inwestycyjnych", "subject_id": 1768, "subject": "Okres zwrotu", "paragraphs": ["Korzyści finansowe netto obejmują sumę zysku netto i amortyzacji w przypadku finansowania inwestycji wyłącznie kapitałem własnym lub sumę zysku netto, amortyzacji oraz odsetek od kredytu (pożyczki, wyemitowanych obligacji) w przypadku finansowania inwestycji kapitałem własnym i obcym. Możliwe są również modyfikacje sposobu obliczania okresu zwrotu polegające na nieuwzględnianiu amortyzacji w szacowaniu korzyści finansowych netto. Jeżeli inwestycja wymaga poniesienia nakładów inwestycyjnych również w fazie likwidacyjnej, to również te nakłady należy uwzględnić w ustalaniu okresu zwrotu.", "Im dłuższy jest okres zwrotu zainwestowanego kapitału, tym większe jest ryzyko ponoszone przez inwestora. Oceniając efektywność pojedynczego przedsięwzięcia inwestor powinien porównać obliczony okres zwrotu przedsięwzięcia z maksymalnym akceptowalnym okresem, subiektywnie przez niego ustalonym. Przedsięwzięcie jest opłacalne, jeżeli jego okres zwrotu nie jest dłuższy niż akceptowalny, przyjęty przez inwestora. W przypadku większej liczby wariantów danego przedsięwzięcia, należy wybrać wariant, którego okres zwrotu jest najkrótszy, czyli ten, który pozwala na najszybsze odzyskanie zainwestowanego kapitału."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena efektywności projektów inwestycyjnych", "subject_id": 1769, "subject": "Prosta stopa zwrotu", "paragraphs": ["W zależności od dokładnego znaczenia kategorii występujących w liczniku i mianowniku powyższego wzoru można otrzymać dwie postacie prostej stopy zwrotu:", "W ustalaniu prostej stopy zwrotu z kapitału własnego (\\(R_{kw}\\)) w mianowniku uwzględniamy wartość nakładów inwestycyjnych, które są finansowane tylko ze środków własnych inwestora. Może to być całość nakładów inwestycyjnych, jeżeli inwestor nie korzysta z obcych źródeł finansowania lub ich część w przeciwnym przypadku. W liczniku umieszcza się jako miarę korzyści zysk netto z danego roku operacyjnej fazy inwestycji.", "Prosta stopa zwrotu z kapitału całkowitego (\\(R_{kc}\\)) jest obliczana dla wszystkich dostarczycieli kapitału (inwestora i wierzycieli) zaangażowanego w finansowanie przedsięwzięcia inwestycyjnego. We wzorze na tę stopę uwzględnia się w mianowniku całkowite nakłady inwestycyjne, które są finansowane zarówno kapitałem własnym, jak i obcym, a w liczniku – sumę zysku netto i odsetek od kredytu (pożyczki, obligacji), przeznaczonego na pokrycie części nakładów inwestycyjnych, z danego roku operacyjnej fazy inwestycji.", "Przedstawione formuły prostej stopy zwrotu z kapitału własnego i całkowitego opierają się na wielkościach rocznych, przy czym zakłada się, że wielkości te powinny pochodzić z normalnego (typowego) roku funkcjonowania przedsięwzięcia, w którym zostanie osiągnięty docelowy poziom przychodów ze sprzedaży. Są zatem metodami jednookresowymi i nie przyjmują jednej wartości dla całego okresu trwania inwestycji. W praktyce wybór typowego roku może powodować pewne trudności związane ze zmianami w poszczególnych latach wielkości sprzedaży, wysokości odsetek od długu, jak i poziomem innych czynników (np. zwolnienia czy ulgi podatkowe) istotnie wpływających na poziom prostej stopy zwrotu [2].", "Rozwiązaniem tego problemu może być ustalanie prostych stóp zwrotu dla wszystkich kolejnych lat okresu eksploatacji inwestycji albo wykorzystanie w obliczeniach średniego rocznego zysku netto (w przypadku prostej stopy zwrotu z kapitału własnego \\(R_{kw}\\)) lub średniego rocznego zysku netto i średnich rocznych odsetek (w przypadku prostej stopy zwrotu z kapitału całkowitego \\(R_{kc}\\)):", "Im wyższa wartość prostej stopy zwrotu z inwestycji, tym jej większa opłacalność. Oceniając konkurencyjne projekty inwestycyjne należy wybrać ten o najwyższej stopie. W przypadku oceny efektywności pojedynczego projektu kryterium decyzyjnym jest minimalna akceptowalna prosta stopa zwrotu, subiektywnie ustalana przez inwestora (decydenta). Można tutaj przyjąć zasadę, że bezwzględne kryterium decyzyjne powinno być spełnione dla wybranego (typowego) roku bądź dla wszystkich lat lub większości lat w okresie eksploatacji inwestycji."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena efektywności projektów inwestycyjnych", "subject_id": 1770, "subject": "Wartość bieżąca netto", "paragraphs": ["Rok, w którym podejmujemy decyzję odnośnie akceptacji lub odrzucenia projektu inwestycyjnego, to rok 0, ponieważ współczynnik dyskontowy \\(a_0\\) niezależnie od poziomu stopy dyskontowej wynosi zawsze 1. Wartość wpływów i wydatków prognozowanych dla następnych lat (rok 1, rok 2, …) sprowadzamy do wartości teraźniejszej, tj. wartości w roku 0.", "NPV wyraża wielkość nadwyżki pieniężnej, jaką analizowany projekt inwestycyjny może przynieść przedsiębiorstwu (inwestorowi), obliczoną na moment dokonywania oceny jego efektywności, przy założonym poziomie stopy dyskontowej.", "Projekt inwestycyjny jest opłacalny, jeżeli jego NPV \\(\\ge \\) 0. Projekt jest nieopłacalny, jeżeli jego NPV < 0.", "Poziom NPV zależy od przyjętej przez inwestora stopy dyskontowej. W przypadku projektów typowych, tj. charakteryzujących się niedodatnimi przepływami pieniężnymi w początkowych latach okresu obliczeniowego i dodatnimi w dalszych latach, NPV ulega obniżeniu wraz ze wzrostem stopy dyskontowej (Rys. 1). Jeżeli występują najpierw nieujemne przepływy pieniężne netto, a następnie ujemne do końca okresu obliczeniowego (projekt typowy odwrotnie), to NPV zwiększa się wraz ze wzrostem stopy dyskontowej (Rys. 2). W sytuacji, kiedy w okresie obliczeniowym zmiana znaku przepływów pieniężnych netto występuje więcej niż jeden raz, tj. występują naprzemiennie ujemne i dodatnie przepływy pieniężne netto, to NPV zwiększa się lub maleje w zależności od przedziału stopy dyskontowej.", "Poziom stopy dyskontowej wykorzystanej do obliczenia NPV może mieć również wpływ na wybór projektu w przypadku oceny projektów konkurencyjnych. Możliwe są dwie sytuacje:", "Na znaczenie stopy dyskontowej we względnej ocenie efektywności inwestycji należy zwracać uwagę szczególnie wtedy, gdy różnica poziomu NPV analizowanych przedsięwzięć jest niewielka [1]. Wówczas nawet nieznaczna korekta poziomu stopy dyskontowej przyjętej do obliczeń może sprawić, że za najbardziej efektywne będzie uznane inne, niż poprzednio, przedsięwzięcie."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena efektywności projektów inwestycyjnych", "subject_id": 1771, "subject": "Wskaźnik wartości bieżącej netto", "paragraphs": ["W mianowniku w powyższym wzorze zdyskontowane wydatki inwestycyjne ujmujemy w wartości bezwzględnej.", "Wskaźnik NPV - w przeciwieństwie do NPV - nie przedstawia bezwzględnej miary, a relatywną miarę efektywności przedsięwzięcia inwestycyjnego. Wyraża wielkość nadwyżki pieniężnej, jaką przedsięwzięcie może przynieść inwestorowi, w relacji do zaangażowanego kapitału. Wskazuje, jaki jest efekt z zainwestowania jednej jednostki pieniężnej kapitału.", "Im wyższa wartość NPVR, tym projekt jest bardziej efektywny. Przy NPV \\(\\ge \\) 0, wskaźnik wartości bieżącej netto będzie przyjmował wartości nieujemne, przy NPV < 0 – wartości ujemne. Analogicznie do interpretacji NPV, NPVR \\(\\ge \\) 0 oznacza, że projekt inwestycyjny jest opłacalny, zaś NPVR < 0 oznacza, że projekt powinien zostać odrzucony ze względu na jego nieopłacalność. W ocenie względnej przedsięwzięć inwestycyjnych, kryterium wyboru najbardziej opłacalnego (w relacji do zaangażowanego kapitału) wariantu inwestycyjnego jest maksymalizacja wskaźnika NPVR.", "NPVR może być przydatny w szczególności przy porównywaniu efektywności projektów inwestycyjnych różniących się wielkością i/lub rozłożeniem w czasie wydatków inwestycyjnych, tj. w sytuacji, kiedy nie można wykorzystać NPV jako metody oceny efektywności."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena efektywności projektów inwestycyjnych", "subject_id": 1772, "subject": "Wewnętrzna stopa zwrotu", "paragraphs": ["W praktyce wewnętrzną stopę zwrotu oblicza się wykorzystując arkusz kalkulacyjny lub kalkulator finansowy. Znany jest również inny, bardziej pracochłonny sposób obliczenia IRR. Polega on na znalezieniu metodą prób i błędów dwóch stóp dyskontowych \\(r_1\\) i \\(r_2\\), różniących się punktem procentowym, przy czym NPV obliczone dla stopy \\(r_1\\) powinno być dodatnie, a NPV obliczone dla stopy \\(r_2\\) ujemne. IRR przyjmującą wartość w przedziale (\\(r_1\\),\\(r_2\\)) oblicza się następująco:", "IRR jest bezpośrednią miarą rentowności przedsięwzięcia inwestycyjnego. Im wyższa IRR projektu, tym jego wyższa opłacalność. Kryterium decyzyjnym przy wyborze najbardziej efektywnego projektu jest maksymalizacja IRR. W przypadku oceny efektywności pojedynczego przedsięwzięcia, jeżeli jego IRR jest przynajmniej równa minimalnej (granicznej) stopie zwrotu wymaganej przez inwestora, to przedsięwzięcie można uznać za opłacalne.", "Metoda IRR może być wykorzystana do oceny efektywności tylko projektów typowych względnie typowych odwrotnie, w których zmiana znaku przepływów pieniężnych netto występuje tylko raz w okresie ich trwania. W projekcie typowym występują najpierw ujemne, a później dodatnie przepływy pieniężne netto. W projekcie typowym odwrotnym kolejność występowania przepływów – jak nazwa wskazuje – jest odwrotna. Dla tych dwóch rodzajów projektów można wyznaczyć dokładnie jedną IRR i na jej podstawie oceniać ich opłacalność. Jeżeli projekt ma nietypowe przepływy pieniężne, to IRR nie ma zastosowania do oceny jego efektywności. W szczególności projekt inwestycyjny może nie mieć żadnej IRR, jeżeli wszystkie występujące w nim przepływy pieniężne netto są tylko nieujemne lub tylko niedodatnie, ponieważ wówczas przy żadnym poziomie stopy dyskontowej NPV nie będzie równa zero. Projekt inwestycyjny może mieć również więcej niż jedną IRR (czego nie można zinterpretować). Taka sytuacja ma miejsce, jeżeli jest więcej niż jedna zmiana znaku przepływów pieniężnych netto w okresie trwania projektu (np. mamy najpierw ujemne, później dodatnie, a na końcu znowu ujemne przepływy pieniężne netto). Występowanie więcej niż jednej IRR nie ma ekonomicznej interpretacji.", "Trzy opisane sytuacje przedstawiono odpowiednio na Rys. 1, Rys. 2 i Rys. 3."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena efektywności projektów inwestycyjnych", "subject_id": 1773, "subject": "Zmodyfikowana wewnętrzna stopa zwrotu", "paragraphs": ["W metodzie zmodyfikowanej wewnętrznej stopy zwrotu przyjmuje się założenie, że nadwyżki pieniężne generowanie w trakcie trwania projektu inwestycyjnego są reinwestowane po stopie dyskontowej równej kosztowi kapitału. Jest to bardziej realne podejście w porównaniu założeniem stosowanym w metodzie wewnętrznej stopy zwrotu (IRR), zgodnie z którym stopa reinwestycji jest ustalana na poziomie IRR.", "Wzór na obliczenie MIRR jest następujący:", "Projekt inwestycyjny może zostać zaakceptowany, jeżeli jego zmodyfikowana wewnętrzna stopa zwrotu jest większa lub przynajmniej równa kosztowi kapitału finansującego projekt, wyrażonym stopą dyskontową przyjętą do obliczeń (czyli MIRR \\(\\ge \\) r). Projekt inwestycyjny jest nieopłacalny, jeżeli MIRR jest mniejsza od kosztu kapitału (MIRR < r). Im większa wartość MIRR, tym większa efektywność projektu inwestycyjnego. W przypadku oceny kilku projektów inwestycyjnych, za najkorzystniejszy uważa się ten, dla którego zmodyfikowana wewnętrzna stopa zwrotu osiąga wartość maksymalną."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Finanse", "chapter": "Ocena efektywności projektów inwestycyjnych", "subject_id": 1774, "subject": "Indeks zyskowności", "paragraphs": ["W pierwszym ujęciu (częściej stosowanym) PI stanowi iloraz zdyskontowanych przepływów pieniężnych netto osiąganych w trakcie eksploatacji projektu do zdyskontowanych wydatków inwestycyjnych:", "Przepływy pieniężne netto stanowią różnicę między wpływami i wydatkami prognozowanymi dla danego roku. Indeks zyskowności według powyższej formuły określa, ile jednostek przepływów pieniężnych netto powstałych w fazie operacyjnej inwestycji przypada na jednostkę zaangażowanego kapitału (przy czym obie wielkości są wyrażone w wartości teraźniejszej).", "W drugim ujęciu PI jest ilorazem zdyskontowanych wpływów do zdyskontowanych wydatków (zarówno inwestycyjnych, jak i eksploatacyjnych):", "Indeks zyskowności według drugiej formuły określa, ile jednostek dodatnich przepływów pieniężnych przypada na jednostkę ujemnych przepływów pieniężnych (przy czym obie wielkości są wyrażone w wartości teraźniejszej).", "Interpretacja poziomu indeksu zyskowności w obu formułach jest taka sama: PI \\(\\ge \\) 1 oznacza, że projekt inwestycyjny jest opłacalny, PI < 1 wskazuje na nieopłacalność projektu. Bezwzględne kryterium decyzyjne indeksu zyskowności jest spójne z bezwzględnym kryterium decyzyjnym stosowanym w innej metodzie dynamicznej oceny efektywności inwestycji – wartości bieżącej netto. Projekty, które są opłacalne według wskazań metody wartości bieżącej netto (tj. dla których NPV \\(\\ge \\) 0), charakteryzują się również opłacalnością według wskazań indeksu zyskowności (PI \\(\\ge \\) 1). W ocenie względnej efektywności inwestycji należy się kierować zasadą maksymalizacji wartości PI. Najbardziej efektywnym przedsięwzięciem jest to o najwyższej wartości PI."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "", "subject_id": 1081, "subject": "Informacja o e-podręczniku \"Komunikacja społeczna\"", "paragraphs": ["E-podręcznik opracowano w ramach Zintegrowanego Programu Rozwoju Akademii Górniczo-Hutniczej w Krakowie. Projekt współfinansowany ze środków Europejskiego Funduszu Społecznego w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014-2020. Oś III Szkolnictwo wyższe dla gospodarki i rozwoju, Działanie 3.5 Kompleksowe programy szkół wyższych."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Wprowadzenie do komunikacji społecznej", "subject_id": 756, "subject": "Czym jest komunikacja społeczna?", "paragraphs": ["Komunikacja społeczna (nazywana również, choć rzadziej, \"komunikowaniem społecznym\") to proces porozumiewania się ludzi między sobą poprzez tworzenie, wymianę lub przekazywanie informacji w różnych kontekstach społecznych, np. między jednostkami, grupami, organizacjami. Ma on zatem charakter interakcyjny, polegający na tym, że pomiędzy uczestnikami komunikacji wytwarzają się określone stosunki bądź o charakterze partnerskim (komunikowanie symetryczne), bądź opierające się na stosunku dominacji i podporządkowania (komunikowanie niesymetryczne lub komplementarne). W trakcie interakcji ludzie przekazują sobie informacje w formie znakowej i symbolicznej (werbalnej, pozawerbalnej, tekstowej, wizualnej itp.) i w różnym celu. Istotą komunikacji społecznej jest zatem właściwe odczytanie tych informacji, co prowadzi o porozumienia. Aby mogło do niego dojść niezbędna jest wspólnota semiotyczna, czyli posługiwanie się przez uczestników komunikacji tymi samymi znakami i symbolami.", "Należy pamiętać o tym, że komunikacja zachodzi zawsze w określonym kontekście społecznym. Inaczej przebiega komunikacja między osobami bliskimi, a inaczej między osobami nieznajomymi. Podobnie jak inną dynamikę ma komunikacja w małej grupie społecznej, a inną w dużym zespole pracowniczym. Wiedza na temat specyfiki komunikacji w określonym środowisku społecznym pozwala lepiej rozumieć czynniki, które mają wpływ na efektywność procesu komunikacji, zniwelować bariery komunikacyjne, a także dostosowywać sposób komunikacji do specyfiki danej grupy, zadania czy celu, który chcemy osiągnąć.", "W komunikacji społecznej można wyróżnić kilka poziomów w zależności od tego, w jakim środowisku społecznym zachodzi komunikacja oraz pomiędzy jakimi uczestnikami [1]. Innymi słowy mówiąc, poziom organizacji społecznej determinuje określony sposób komunikacji. Podstawowym (najniższym) poziomem takiej komunikacji jest komunikacja interpersonalna, zachodząca pomiędzy jednostkami. Kolejnym wyższym poziomem jest komunikacja grupowa, zwana także komunikacją wewnątrzgrupową, zachodząca pomiędzy osobami będącymi członkami określonych grupy społecznych, np. rodziny, grup rówieśniczych, organizacji. Poziom wyżej znajduje się komunikacja międzygrupowa, związana z komunikowaniem się w obrębie bardziej złożonych struktur społecznych, takich jak kultury, czy społeczności. Komunikacja w obrębie tego typu poziomu nie zawsze oznacza bezpośredni kontakt między uczestnikami. Podobnie jest w przypadku kolejnego poziomu – komunikowania organizacyjnego lub instytucjonalnego. Jak zauważa Bogusława Dobek-Ostrowska „Procesy komunikowania na tym poziomie są sformalizowane, władza i kontrola jasno zdefiniowane, role nadawcy i odbiorcy jednoznacznie określone, w przeciwieństwie do niższych poziomów komunikowania, gdzie występowała tam pewna dowolność. W komunikowaniu instytucjonalnym/organizacyjnym zagadnienia interakcji, kooperacji, formowania norm i standardów stają się pierwszoplanowe” [2]. Na samym szczycie organizacji społecznej znajduje się komunikowanie o charakterze globalnym, ogólnospołecznym, czyli komunikowanie masowe. Ma ono specyficzny charakter, ponieważ jest zapośredniczone przez środki techniczne służące do komunikowania. W czasach przedinternetowych komunikowanie masowe było jednostronne i odbywało się w kierunku od instytucji medialnej do odbiorcy. Wraz z komunikacją internetową natura mediów masowych uległa modyfikacji, ponieważ interaktywność sieci wymagała wchodzenia w interakcję z użytkownikami. To doprowadziło do zatarcia się granicy pomiędzy komunikowaniem interpersonalnym, a masowym oraz komunikowaniem prywatnym, a publicznym. Komunikowanie za pośrednictwem internetu obecnie może się obywać na wszystkich poziomach organizacji społecznej ze względu na naturę medium, a zwłaszcza jego natychmiastowość. Z kolei coraz większa obecność nie-ludzkich aktorów w przestrzeni społecznej, czyli komunikacja pomiędzy człowiekiem a maszyną, na przykład tak powszechnymi botami społecznymi czy asystentami głosowymi, w które wyposażonych jest coraz więcej urządzeń, przyczyniła się do zainteresowania tą problematyką ze strony badaczy zajmujących się komunikowaniem społecznym.", "Badanie komunikowania społecznego wymaga zatem interdyscyplinarnego podejścia, uwzględniającego istniejące w obrębie każdego z wyróżnionych poziomów określone podejścia teoretyczne i metody badawcze. Dlatego też w niniejszym podręczniku Czytelnik znajdzie nie tylko odniesienia do badań i teorii socjologicznych, czy z nauk o mediach i komunikacji społecznej, ale również psychologii, ekonomii, kulturoznawstwa, politologii. Takie podejście pokazuje, że świat społeczny jest zróżnicowany, a kluczem do jego zrozumienia jest opanowanie zasad i reguł komunikacji, jakie na każdym poziomie jego organizacji funkcjonują."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Wprowadzenie do komunikacji społecznej", "subject_id": 751, "subject": "Komunikacja interpersonalna", "paragraphs": ["Jako istota społeczna człowiek potrzebuje innych ludzi. Dzięki nim zaspokaja swoje potrzeby fizjologiczne (np. aby mógł coś zjeść lub wypić, zdany jest na innych – ktoś musi pożywienie dla niego wyprodukować) i psychologiczne (szuka poczucia bezpieczeństwa w obecności innych ludzi, zaspokaja potrzebę miłości, akceptacji i przynależności, wchodząc w związek z drugim człowiekiem, pragnie być szanowany przez innych, zdobywa od innych ludzi wiedzę i informacje potrzebne do przetrwania lub do wykonania pracy etc.). Człowiek zmuszony jest więc do komunikowania się z innymi, jeśli te potrzeby chce skutecznie zaspokoić. Musi to jednak robić w określony sposób. Taki, dzięki któremu zostanie właściwie zrozumiany i otrzyma to, czego potrzebuje. Poprzez komunikację tworzymy związki z innymi ludźmi w różnych kontekstach społecznych i zawodowych.", "Materiały uzupełniające:", "Źródło: TEDx Talks, How miscommunication happens (and how to avoid it): Katherine Hampsten at Ted-Ed, 22.02.2016 (dostęp 13.07.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=gCfzeONu3Mo&feature=youtu.be", "Źródło: The LatmimerGroup.com, The Recipe for Great Communication: Dean Brenner, 22.07.2014 (dostęp 13.07.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=qFWsTsvJ8Xw", "Źródło: TEDx Talks, 6 communication truths that everyone should know: Antoni Lacinai at TedxVasa, 22.09.2017 (dostęp 13.07.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=zvcbn6WtJvQ"], "definitions": [{"name": "Definicja 1: Komunikacja interpersonalna", "content": "Komunikacja jest zatem procesem tworzenia społeczności, który charakteryzują konkretne cechy: jest on rozciągnięty w czasie, nie jest prostym przekazem informacji, prowadzi bowiem do uzgadniania wspólnych znaczeń albo do kontrolowania ludzi, kształtuje nasze postrzeganie i myśli na temat otaczającego nas świata społecznego, pozwala odpowiedzieć na pytanie, jak ten świat interpretujemy i jak się możemy w jego obrębie zachowywać. Komunikacja pomaga w wykonywaniu różnych zadań i w budowaniu silnych związków [1]. Em Griffin porównał proces komunikowania się ludzi do gry w kalambury: „Podobnie jak zabawa w rozwiązywanie kalamburów, komunikacja interpersonalna jest ciągłym procesem, w którym we współpracy z inną osobą wykorzystujemy werbalne i niewerbalne komunikaty, aby tworzyć i modyfikować obrazy powstałe w umysłach współuczestników procesu. Komunikacja między dwiema stronami zaczyna się wtedy, gdy powstałe obrazy przynajmniej w części się pokrywają” [2], innymi słowy, gdy obie strony procesu komunikowania rozumieją przekazywaną i odbieraną treść w taki sam lub w bardzo zbliżony sposób. Komunikacja interpersonalna może być też definiowana jako podejmowana w określonej sytuacji wymiana werbalnych, wokalnych i niewerbalnych sygnałów w celu osiągnięcia lepszego poziomu współdziałania [3]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Wprowadzenie do komunikacji społecznej", "subject_id": 757, "subject": "Komunikacja w organizacji", "paragraphs": ["Współcześnie komunikacja w otoczeniu organizacyjnym jest komunikacją w świecie VUCA (zob. Komunikowanie w świecie VUCA ). Organizacje koncentrują się na sprawnym zaadaptowaniu do coraz bardziej skomplikowanej, trudnej do przewidzenia, a czasami nawet wyobrażenia rzeczywistości, określanej znanym już od lat dziewięćdziesiątych XX w. hasłem VUCA, akronimem pochodzącym od czterech angielskich słów oznaczających: zmienność (volatility), niepewność (uncertainty), złożoność (complexity), niejasność, niejednoznaczność (ambiguity). Skrót na nowo staje się aktualny, kiedy odporność na nagłe zmiany, nadzwyczajne okoliczności, a z takimi zetknęliśmy się w czasie pandemii koronawirusa – wywołują turbulencje w biznesie i zatrudnieniu. Nieoczekiwanie zmieniająca się rzeczywistość jest egzaminem z zarządzania procesami w organizacjach, w tym tak istotnym, jak przepływ informacji wewnątrz organizacji i poza nią.", "Przyjmując łaciński termin \"organum\" na określenie „organizacji”, a tym samym skojarzenie jej z organizmem, można przyjąć, że obieg informacji w organizacji jest jak układ krwionośny dla organizmu. Punktem wyjścia do sprawnego funkcjonowania każdej organizacji i instytucji jest otwarta, szczera komunikacja wewnętrzna. W codziennej działalności taktycznej i operacyjnej podmiotów, komunikacja od zawsze odgrywała bardzo ważną rolę. Jest narzędziem do budowania dobrej współpracy pomiędzy wszystkimi pionami funkcyjnymi i poziomami struktury oraz zatrudnionymi pracownikami na różnych szczeblach organizacyjnej/instytucjonalnej hierarchii. Komunikacja nie może być procesem traktowanym „przy okazji”, wręcz przeciwnie – transfer wiedzy, informacji, decyzji oraz dokumentów musi być dokonywany w sposób przemyślany i świadomy. Oprócz kwestii zarządzania procesami operacyjnymi i kadrowymi w organizacjach, kiedy komunikacja na dobrym profesjonalnym poziomie umożliwia skuteczne funkcjonowanie i stymuluje kulturę organizacyjną, istotne jest również utrzymywanie odpowiedniego poziomu kontaktów z otoczeniem zewnętrznym. Mówiąc o organizacjach, a nie wdając się w rozbudowane sposoby systematyzacji należy wskazać na trzyelementową kategoryzację organizacji: komercyjne (najpowszechniejsze z nich to przedsiębiorstwo, firma), publiczne (powstałe dla świadczenia usług dla obywateli sektora prywatnego, organizacji społecznych, gospodarstw domowych, których głównym celem jest realizacja interesów publicznych) i społeczne (stowarzyszenia, zrzeszenia, organizacje typu non profit) [1].", "Narastająca internacjonalizacja organizacji wymusza dodatkowo kompetencje komunikacji międzykulturowej (zob. Kompetencje międzykulturowe ). Współcześnie to często środowiska wielokulturowe, globalne, gdzie umiejętność skutecznego komunikowania się może być sporym wyzwaniem, spowodowanym dużą lub niską ekspansywnością, a nawet surowością. Oto dwa przeciwstawne przykłady.", "Komunikowaniu towarzyszy wiele barier, począwszy od architektury biura, postrzegania sytuacji i problemów, poprzez brak zaufania aż po bariery językowe. Nie zawsze jednak jest to dostrzegane, zwykle do czasu, gdy nie pojawią się problemy i kryzys. Lekceważenie znaczenia komunikacji w strukturze kultury organizacyjnej miejsca pracy może prowadzić do mniejszych lub większych konsekwencji. Od rosnącego niezadowolenia pracowników, poprzez spadek efektywności, brak wydajnej współpracy zespołów, aż po poważne zaniedbania zarówno w kwestiach produkcyjnych, jak i kadrowych, czy też awarie. Zadaniem, jakie stawia się menedżerom, szczególnie kadrze kierowniczej w procesie komunikacji, jest umiejętne budowanie przyjaznej atmosfery i poczucia opanowania sytuacji. Istotnym jest racjonalne przekazywanie informacji, tym samym redukowanie frustracji pracowników. Zdecydowanie sprawdza się strategia przeciwstawna „zamiataniu problemów pod dywan”. Na szczęście wielu przełożonych i menedżerów jest coraz bardziej świadomych znaczenia komunikacji, stąd rosnące zainteresowanie podnoszeniem kompetencji w tym zakresie poprzez udział w szkoleniach, czy kursach doskonalących. Ocenia się, że ostanie kilkanaście lat zaowocowało w firmach dużym postępem w zarządzaniu komunikowaniem wewnątrz organizacji, która ma znaczenie właściwie w każdym aspekcie zarządzania organizacjami, gdzie krzyżują się interesy firmy, pracowników i wielu partnerów zewnętrznych. Zarządzanie komunikowaniem się w organizacji przybiera różne formy [3]:", "Głównymi obszarami funkcjonowania efektywnej komunikacji oprócz realizacji strategii firmy jest polityka personalna i praktyka budowania ścieżek kariery zawodowej, m.in.:", "Jak pokazują badania [4] pracodawcy raczej nisko oceniają kompetencje komunikacyjne nowych pracowników. Stąd na uczelniach wyższych coraz większy nacisk kładzie się na wszechstronne kształcenie kompetencji nie tylko kierunkowych, ale także tzw. kompetencji miękkich, w tym także w zakresie komunikacji. Z drugiej strony, przełożonym także często brakuje tych umiejętności, co może bezpośrednio przyczyniać się do braku efektywności pracy. Konflikty czy nieporozumienia mogą mieć bardzo namacalne konsekwencje.", "W tej części podręcznika skupimy się na wybranych aspektach komunikacji w organizacji. Omówione zostaną następujące zagadnienia:", "Oczywiście nie jest to zamknięta lista zagadnień, ale objętość tego podręcznika nie pozwala na pełne zaprezentowanie wszystkich ważnych aspektów. Mamy jednak nadzieję, że przedstawiona w tym miejscu wiedza praktyczna będzie wartościową bazą dla dalszego rozwijania kompetencji komunikacyjnych, budowania relacji, pracy zespołowej, orientacji na firmę i klienta – tak koniecznych w przyszłych zmaganiach zawodowych, kontaktach społecznych i zadaniach menedżerskich czytelników i czytelniczek. Umiejętność komunikowania się w organizacji to bardzo ważna kompetencja [5], decydująca o aktywnym słuchaniu i skutecznym porozumiewaniu się z rozmówcami, pozostając dla nich zrozumiałym.", "Materiały dodatkowe", "Źródło: TEDx Kodowanie sukcesu - jak robić wielkie rzeczy w niepewnych czasach? Witold B. Jankowski at TEDxWarsaw 2018, 06.06.2018 (dostęp 14.08.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=gvOmYcvT5fE&feature=youtu.be", "Mateusz Żurawik, Gianpiero Petriglieri. Gianpiero Petriglieri: Organizacja dla myśliwych i eksploratorów, ICAN Institute, 1.07.2017 (dostęp 14.08.2020). Dostępne w: https://www.ican.pl/b/gianpiero-petriglieri-organizacja-dla-mysliwych-i-eksploratorow/P5xClqQ8Y"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Wprowadzenie do komunikacji społecznej", "subject_id": 752, "subject": "Komunikacja medialna", "paragraphs": ["Celem podręcznika poświęconego komunikacji medialnej jest przybliżenie medioznawstwa (nazywanego w krajach anglosaskich \"Media Studies\") jako dyscypliny naukowej (w Polsce nazywanej naukami o komunikacji społecznej i mediach), który skupia się na kwestiach związanych z:", "Wielość obszarów i pól badawczych składających się na komunikowanie medialne sprawia, że ma ono interdyscyplinarny charakter i łączy wiedzę socjologiczną, politologiczną, psychologiczną, antropologiczną, matematyczną, lingwistyczną i historyczną. Dzięki temu może opisywać i wyjaśniać zjawiska zachodzące w komunikacji medialnej i jej widowni zarówno w przeszłości, jak i dziś oraz budować pewne wizje przyszłości, przewidując możliwość zajścia dalszych zmian technologicznych, które wpłyną na społeczeństwo, człowieka i media.", "Tym obszarom i podejściom badawczym poświęcone zostały poszczególne rozdziały podręcznika w nadziei, że wzbudzi on zainteresowanie i wywoła refleksje związane ze znaczeniem i rolą komunikowania medialnego we współczesnych społeczeństwach."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Wprowadzenie do komunikacji społecznej", "subject_id": 753, "subject": "Komunikacja wizualna", "paragraphs": ["Wśród wielu „zwrotów”, które odnotowano w drugiej połowie XX stulecia w naukach humanistycznych, takich jak na przykład zwrot narratywistyczny, czy performatywny, przełom ikoniczny, zwany też obrazowym [1], odegrał rolę szczególną, stając się jednym z najważniejszych wyróżników współczesności. O jego znaczeniu świadczy zarówno akademickie zainteresowanie tą problematyką i rosnąca wciąż biblioteka literatury przedmiotu, jak też aktywność użytkowników nowych mediów w procesie tworzenia przestrzeni komunikacji wizualnej. Znane i często cytowane chińskie porzekadło głosi, że jeden obraz jest wart więcej, niż tysiąc słów. Dzisiaj ta fraza zyskała nowy sens, gdyż wskazuje na bezprecedensową funkcję kulturotwórczą wszechobecnych kodów wizualności, obejmującej „różne sposoby konstruowania tego, co widziane” [2].", "Wielka ranga przypisywana sferze wizualności nie jest odkryciem dnia dzisiejszego. Przyglądanie się światu i interpretowanie tego widzenia stanowi bowiem pierwsze i jedno z najważniejszych poznawczych doświadczeń człowieka. W dziejach kultury fenomen obrazów był oceniany w różny i często skrajny sposób. W ciągu wieków wielu przedstawieniom nadano status sacrum. Jednocześnie obrazy uznawano nieraz za zjawisko negatywne, o czym świadczyły głośne kontrowersje, wyrażające się w ruchach ikonoklastycznych, czyli obrazoburczych. Programy ideowe wyobrażeń artystycznych stanowiły często bardzo skomplikowany przekaz wiedzy. Równocześnie w logocentrycznej kulturze Zachodu kody ikoniczne były niejednokrotnie uważane za proste i naiwne, przeznaczone raczej dla niewykształconych, a nawet niepiśmiennych odbiorców, toteż ich rangę deprecjonowano, przeciwstawiając im treści przekazów literackich czy naukowych.", "Obrazy zyskały nowe funkcje komunikacyjne po wynalezieniu druku. Książki, a potem prasa zawierały wiele elementów wizualnych. W nowożytnej Europie ilustracje do książek przygotowywali niejednokrotnie wysokiej klasy graficy, a ich dzieła nie tylko miały dobry poziom artystyczny, lecz także służyły wyjaśnieniu złożonej problematyki naukowej (na przykład z dziedziny matematyki, fizyki, astronomii, geografii, przyrody, czy filozofii) i literatury. Ryciny te adresowane do ludzi wykształconych nie pełniły więc wyłącznie funkcji dekoracyjnej, domykając wielopoziomową prezentację omawianych kwestii. Podobnie ilustracje i zdjęcia zamieszczane w codziennej prasie stały się niezbywalnym elementem transmisji informacji.", "Współcześnie kwestia znaczenia obrazów i dyskusja skoncentrowana wokół tej tematyki wróciła ze zdwojoną siłą. Zainteresowanie nowatorskimi formami komunikacji wizualnej pojawiło się w latach siedemdziesiątych XX wieku. Przypomnijmy, że Mieczysław Porębski wtedy już wskazywał na totalność, niejednoznaczność i złożoność otaczającej nas kulturowej ikonosfery, wykraczając tym samym znacznie poza obszar analiz historyka czy krytyka sztuki, a także estetyka, a więc profesji związanych wcześniej z analizowaniem ikoniczności [3] . W tym samym czasie telewizja BBC wyprodukowała serial, dla którego bazą stał się tekst Johna Bergera \"Ways of Seeing\" [4]. Berger przekonywał, że w kulturze Zachodu dominuje obrazowanie patriarchalne, nastawione na budowanie dystansu i związane z klasową kulturą białych ludzi, ostro się też temu przeciwstawiał. Wyrażał nadzieję, że wkrótce bunt wobec tego sposobu widzenia uruchomi również inne transfery wizualności, reprezentujące różnorodne nisze i odmienności, które unieważnią narzucony przez tradycję dyskurs. Właśnie te dwie idee – nieokreślonej i wszechobecnej sfery obrazów oraz postulat zróżnicowania ich przekazu w kontekście społeczno-politycznym – wyznaczyły dwa bieguny rozumienia wizualności, będące punktem wyjścia dla współczesnej nauki o komunikacji w tym obszarze, która zaczęła się rozwijać w ostatniej dekadzie XX wieku [5].", "Nie wyczerpały one jednak tematu, ponieważ decydujący wpływ na obecny kształt komunikacji wizualnej wywarł dynamiczny rozwój cywilizacji technologicznej. Przestrzeń wirtualna jawi się jej odbiorcom jako świat wykreowany nie tyle przez algorytmy, co obrazy, które bardzo często zastępują komunikaty pisane, stając się w sieci przekazem niemal równorzędnym dla treści językowych. Użytkownicy internetu na ogół przeglądają strony w sieci szybko i pobieżnie. Zatrzymują się, gdy jakiś ikoniczny element przyciągnie ich uwagę, by podążyć wytyczoną przez niego ścieżką. Oczywiście, całkowita eliminacja słowa pisanego w sieci i poza nią jest niemożliwa, dlatego komunikacja w rzeczywistości wirtualnej opiera się na hybrydowym i interaktywnym transferze danych, w którym nośnikiem informacji jest zarówno słowo – pisane lub/i mówione, jak też różnego rodzaju obrazy – znaki i symbole graficzne, zdjęcia, gesty, mimika, a więc wszystkie te elementy, które możemy objąć wzrokiem.", "Komunikat wizualny ma do spełnienia dwie funkcje – informacyjną i perswazyjną. Celem informacji staje się wzbogacenie zasobu wiedzy odbiorcy, natomiast zadaniem perswazji – wywarcie na niego wpływu. Stąd nacisk na umiejętności profesjonalnego projektowania wizualnych komunikatów [6], [7], przy uwzględnieniu faktu, że obecnie bardzo często mają one charakter interaktywny, więc nadawca powinien nie tylko umieć skonstruować odpowiedni przekaz, ale też zinterpretować ikoniczną na niego odpowiedź.", "Celem rozdziału poświęconego kwestii komunikacji wizualnej jest przedstawienie wybranych teoretycznych podstaw ważnych dla zrozumienia jej specyfiki we współczesności oraz przegląd najpopularniejszych narzędzi wykorzystywanych w tym obszarze. Poruszone tematy w żadnym razie nie wyczerpują kwestii wizualności w komunikacji, stanowiąc jedynie pewną wskazówkę, w jakim kierunku postępuje ewolucja komunikowania przy wykorzystaniu ikonosfery."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Wprowadzenie do komunikacji społecznej", "subject_id": 984, "subject": "Komunikacja kulturowa", "paragraphs": ["Czym jest komunikacja kulturowa? Pod pojęciem komunikacji kulturowej rozumiemy cały szereg sposobów porozumiewania się za pośrednictwem tego, co wchodzi w skład kulturowego dorobku. Za formy komunikatów możemy uznać między innymi dzieła sztuki, literaturę, film, rytuały religijne i społeczne konwenanse oraz wszelkie pozostałe dzieła i zachowania, które są regulowane przez normy wypracowane w danej kulturze. Komunikacja kulturowa należy do podstawowych aktywności człowieka, stanowi więc jeden z centralnych obszarów badawczych nauk humanistycznych [1].", "Kultura jako język i kultura jako tekst W badaniach nad kulturą bardzo mocno eksponuje się jej związek z językiem. Twierdzi się, że kultura jest „jak język”, bądź „kultura mówi”. Takie twierdzenia można jednak rozumieć na wiele sposobów w zależności od przyjętej perspektywy. Wyznacza ją między innymi podejście do samego języka, który można równie dobrze badać skupiając się na tym „jak” się mówi, jak i „co” się mówi. W pierwszym wypadku istotna będzie analiza formalnej struktury języka, w drugim znaczenia zawarte w konkretnym tekście. Dwoistość ta znajduje swoje odzwierciedlenie w badaniach kultury – takie nurty, jak strukturalizm skupiają się na tym, jak ustrukturyzowany jest język kultury. Interesuje je więc to, co w kulturze jest uniwersalne i stałe. Poststrukturalizm, postmodernim z interpretacjonizmem traktują natomiast kulturę jako tekst, który należy zinterpretować lub zdekonstruować. Zadają sobie także pytania o relacje polityczne czy historyczne, w jakie teksty kulturowe są uwikłane oraz w jaki sposób oddziałują one na człowieka, jego obraz świata, wartości i zwyczaje. Rozróżnieniom między tymi stanowiskami poświęcona jest pierwsza część tego działu [2].", "Co komunikuje kultura? W badaniach języka kultury nie ma tematów błahych. Popularny serial jest równie ważnym tekstem kulturowym, jak dzieło Michała Anioła czy religijny rytuał. „Mówić” może wszystko: style architektoniczne lub style w modzie, układ strony i kolor czcionek w czasopiśmie, reklamy w telewizji i świąteczne obyczaje. W drugiej części tego działu przyglądamy się więc różnym przykładom kulturowych tekstów. W świetle wybranych teorii zadajemy sobie pytania o to, co może komunikować układ tradycyjnej wioski, baśń, którą znamy z dzieciństwa, balijski rytuał walk kogutów, filmy, jakie oglądamy w kinie, czy sposób w jaki się ubieramy."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Wprowadzenie do komunikacji społecznej", "subject_id": 754, "subject": "Komunikacja międzykulturowa", "paragraphs": ["Komunikacja między ludźmi pochodzącymi z różnych, czasem bardzo odległych kultur, nie jest zjawiskiem nowym. Jest znana od tysięcy lat, podczas których przedstawiciele różnych kultur prowadzili ze sobą wojny, działalność handlową i angażowali się w wymianę społeczną. Dziś doszliśmy do punktu w historii, w którym te dwa ostatnie przykłady interakcji stały się naszą codziennością, tworząc współzależną globalną społeczność [1]. Dowodów na rosnącą liczbę kontaktów przedstawicieli różnych kultur jest niezwykle dużo, od podróży, migracji np. zarobkowej czy nauki poza granicami własnego kraju, aż po doświadczenie uchodźctwa.", "Przy tak szeroko rozumianym komunikowaniu międzykulturowym, do którego dochodzi przy uczestnictwie przedstawicieli odmiennej kultury, za komunikację taką możemy również uznać komunikację przedstawicieli innych społeczeństw, ale także ras, płci, generacji, czy komunikację z osobami z niepełnosprawnościami [3]. Komunikacja międzykulturowa ma miejsce, gdy przedstawiciel jednej kultury przekazuje wiadomość przedstawicielowi innej kultury. Mówiąc dokładniej, komunikacja międzykulturowa obejmuje interakcję między ludźmi, których postrzeganie kulturowe i systemy symboli różnią się na tyle, aby wpłynąć na proces komunikacji [4]. Jest to zatem przykład takiego procesu, w którym przekaz jest kodowany i dekodowany za pomocą odmiennych kodów. Z tego powodu osoba będąca odbiorcą informacji może ten przekaz odkodować w sposób zupełnie odmienny od intencji nadawcy. Jest to przyczyną wielu trudności w komunikacji. Dotyczy to szczególnie osób pochodzących z odmiennych kultur, posiadających przeciwstawne cechy np. w przypadku osób pochodzących z kultury wysoko i niskokontekstowej, czyli takiej, w której przekaz jest dekodowany tylko w oparciu o przekaz werbalny, który powinien być klarowny oraz takiej, w której dekodowanie komunikatów jest możliwe tylko przy uwzględnieniu szerokiego kontekstu, w którym komunikacja się odbywa, podobnie będzie w przypadku osób, pochodzących z kultury ceremonialnej i nieceremonialnej. Kodowanie i odkodowywanie informacji są silnie uwarunkowane kulturowo. Nadawca komunikatu koduje przekaz zarówno w formie kodu werbalnego, jak i częściowo nieświadomie koduje informacje w sposobie komunikacji niewerbalnej – wykonuje określone gesty i miny, przyjmuje określoną postawę ciała, utrzymuje dystans interpersonalny, utrzymuje kontakt wzrokowy o określonej intensywności. Te aspekty komunikacji w dużej mierze są zależne od procesu socjalizacji i wzorców przyjętych w danej kulturze. Mimo, iż ludzie często znają język partnera interakcji, to jednak w procesie kodowania i odkodowywania przekazu pewne informacje umykają, a inne są nadinterpretowywane [2].", "Typy komunikowania międzykulturowego", "a) Porównawcze komunikowanie masowe, skoncentrowane na porównaniach systemów medialnych w różnych kulturach. b) Komunikowane i stosunki międzykulturowe – gdzie analizie poddane są procesy komunikowania się narodów i ich liderów politycznych.", "Komunikacja międzykulturowa to analiza wielu aspektów komunikowania, takich jak analiza kodów werbalnych i niewerbalnych. Należy bowiem pamiętać, iż zarówno gesty, język ciała, jak i dystans fizyczny, jaki utrzymują ze sobą przedstawiciele różnych kultur i symbolika zależą bardzo wyraźnie od kultury tej konkretnej społeczności [3]. Zagadnieniem niezwykle istotnym w teorii komunikowania międzykulturowego jest rozróżnienie na kulturę dominującą i niedominującą. Przedstawicielami kultury dominującej są osoby lub grupy, które mają największy wpływ na przekonania, wartości, percepcję, wzorce komunikacyjne i zwyczaje kultury. Istnienie dominującej kultury jest charakterystyczne dla wszystkich kultur, jej przedstawiciele posiadają te narzędzia władzy, które pozwalają wyznaczać kierunek społeczny, za którym większość będzie podążać. Siła ta niekoniecznie tkwi w dominacji liczbowej, ale w zdolności do kontrolowania głównych instytucji kultury – władzy, edukacyjnych, środków masowego przekazu, ekonomicznych, wojskowych, religijnych i tym podobnych [6] .  Z badań naukowych z zakresu komunikowania międzykulturowego, opisując prawidłowości procesów komunikowania, korzystają dyplomaci oraz przedstawiciele świata biznesu. Komunikowanie międzykulturowe dotyczy komunikacji interpersonalnej, ale ustalenia poczynione w ramach tej dyscypliny mają swe zastosowanie również w komunikacji masowej, np. w kinie czy w reklamie, gdzie obecność symboli musi być dobrze przemyślana."], "definitions": [{"name": "Definicja 1: Komunikowanie międzykulturowe", "content": "Komunikowanie międzykulturowe zachodzi zawsze wtedy, gdy przekaz, który ma być zrozumiany, jest tworzony przez reprezentanta jednej kultury, a odbiorcą jest reprezentant innej [2]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Wprowadzenie do komunikacji społecznej", "subject_id": 755, "subject": "Antropologia komunikacji u progu ery cyfrowej", "paragraphs": ["Komunikacja międzyludzka stanowi złożony proces, wynikający z określonych i stałych zasad, a jednocześnie podatny na różnorodne zmiany, płynące ze strony osób komunikujących się i z ich otoczenia [1], [2], [3]. Wszystkie te okoliczności sprawiają, że dany sygnał może zostać odczytany inaczej w zależności od sytuacji, w której się pojawia, a jego znaczenie niejednokrotnie ulega daleko idącym przekształceniom. Komunikacyjne kody są czytelne przede wszystkim w ramach danej kultury i w jej kontekście powinny być rozpatrywane. Wszystkie aspekty kulturowych trybów porozumiewania się są przedmiotem badań antropologii komunikacji. Dyscyplina ta wywodzi się z szerokiego nurtu badań antropologii kulturowej, w której podkreśla się zarówno funkcje przekazu językowego, jak i rolę interakcji niewerbalnych, kształtujących charakter danej relacji i nadających jej odpowiedni status społeczny [4]. W tej perspektywie ukształtowały się koncepcje kinezyki [5], zajmującej się tematyką komunikacji niewerbalnej oraz proksemiki, mówiącej o znaczeniu relacji przestrzennych w komunikowaniu [6] (zob. Kulturowe znaczenia komunikacji niewerbalnej ). Antropologowie zwrócili też uwagę na fakt, że ludzie mówiący różnymi językami inaczej postrzegają i wyrażają świat, co prowadziło do ustalenia koncepcji relatywizmu językowego (zob. Języki komunikacji ).", "Rewolucja technologiczna i dynamiczny rozwój nowych mediów otworzyły możliwości bezprecedensowych przekształceń i progresji w obszarze komunikacji. W sieci wybieramy dowolny czas spotkania, możemy tam wykreować swój nowy wizerunek, nadać sobie odmienne imię, pojawiać się w różnych miejscach jednocześnie. Mamy niezwykle szeroki dostęp do informacji z całego świata. Sprawne funkcjonowanie w tych warunkach wymaga ciągłego nabywania nowych kompetencji i umiejętności. Jak słusznie zauważa Sherry Turkle: „Teraz nie zależy nam na zadowoleniu z życia, chcemy czerpać satysfakcję z życia kompozytowego. Przeszliśmy z wielozadaniowości w wielo-życiowość” [7]. Nowe możliwości niosą z sobą nieznane wcześniej wyzwania, jak choćby to, wynikające z używania awatarów, które nie tylko uatrakcyjniają komunikację, lecz także przyczyniają się do kształtowania tożsamości ich użytkowników, a jednocześnie korzystanie z nich może prowadzić do problemów, związanych choćby z doświadczeniem dotkliwej samotności (zob. Ciało awatara w komunikacji ). Te i inne aspekty komunikowania w rzeczywistości wirtualnej, a także związane z nimi dylematy dopiero stają przed nami jako nowa forma rzeczywistości, a zarazem przedmiot badań.", "Fundamentalne zmiany kulturowo-cywilizacyjne dotyczą też świata rozciągającego się poza przestrzenią wirtualną. Zagrożenia klimatyczne, wzmożenie ruchów migracyjnych występujących na całym świecie, szerząca się pandemia – wszystkie te okoliczności pogłębiają niepewność, odczuwaną zwłaszcza przez członków pokoleń wchodzących dopiero w dorosłe życie. Bezprecedensowe okoliczności wymagają wypracowania nowych struktur komunikacji – językowej i pozawerbalnej, a także cyfrowej, w której najskuteczniej mogłyby wyrazić się negocjacje, dotyczące koegzystencji ludzi reprezentujących różne stanowiska światopoglądowe. Nawet jeśli ten postulat brzmi utopijne, dążenia w nim wyrażone stają się pewną koniecznością w sytuacji, gdy coraz więcej społeczeństw jest podzielonych na wzajemnie skłócone i nastawione na konfrontację „plemiona”.", "W dziedzinie antropologii komunikacji ciągle pojawia się więcej pytań niż odpowiedzi. Rozdział poświęcony tej problematyce stanowi więc pewne podsumowanie dotychczasowych badań w tej dziedzinie, a także zawiera sugestie przyszłych obszarów naukowych eksploracji, które rysują się w tym kontekście."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 759, "subject": "Indywidualne doświadczenia relacyjne a potencjał komunikacyjny", "paragraphs": ["Dziedziną, która jest niezwykle użyteczna dla zrozumienia motywów i sposobów stosowanych przez ludzi do komunikowania się z innymi, jest psychologia stosunków międzyludzkich. Jedna z teorii komunikowania się (tzw. teoria oceny społecznej Muzafera Sherifa), wyjaśnia, że po usłyszeniu jakiegoś komunikatu, natychmiast oceniamy go na naszej wewnętrznej skali potrzeb. Ten proces odbywa się w naszym umyśle i jest w dużej mierze nieświadomy. Ocena tej samej sytuacji, zdarzenia, osoby, rzeczy, idei może, a nawet musi się różnić u osób, będących w procesie komunikacji [1]. Przyczyna różnic w ocenie znajduje się w naszym mózgu oraz w jego niematerialnej emanacji – umyśle. Aby zrozumieć, skąd mamy pewne przekonania, wierzenia, określony system wartości, swoje postawy wobec czegoś lub kogoś, dlaczego nie zawsze wzajemnie się rozumiemy i dlaczego jednym z nas jest łatwo się porozumiewać z ludźmi, a dla innych jest to nieosiągalne, warto poznać mechanizm kształtowania się umysłu i typu osobowości, których zręby powstają w bardzo wczesnym dzieciństwie.", "Według Erica Berne’a [2], twórcy analizy strukturalnej i transakcyjnej, człowiek od chwili narodzin potrzebuje do rozwoju umysłu i kształtowania się osobowości wielu rodzajów bodźców, głównie dotyku, głosu, obecności drugiego człowieka. Bez nich nie jest w stanie przetrwać. Rodzaj, intensywność i jakość tych bodźców wpływają na powstanie indywidualnego skryptu życiowego człowieka, według którego będzie on w przyszłości funkcjonował społecznie, komunikował się skutecznie lub nie, umiał wchodzić w satysfakcjonujące związki, potrafił współpracować z innymi etc. Berne wprowadził termin transakcji jako podstawowej jednostki kontaktu społecznego z drugim człowiekiem. Wzorce transakcji przekazują nam w pierwszych latach naszego życia opiekunowie – rodzice, a następnie szerzej rozumiane otoczenie dziecka. Stają się oni niejako naszymi liniami papilarnymi, określają typ naszej osobowości i niełatwo je zmienić, choć jest to możliwe.", "Inną koncepcję rozwoju umysłu stworzył Basil Bernstein, angielski socjolingwista. Wprowadził on terminy kodu rozwiniętego i kodu ograniczonego. Zajmował się badaniem języka, którym posługują się dzieci. Definiował socjalizację jako proces komunikacyjny, w którym język odgrywa rolę „przewodnika po świecie”. Językowe sposoby ujmowania rzeczywistości stabilizują się „tworząc poznawczą, społeczną i uczuciową orientację dziecka” [3]. Jak twierdził Bernstein, w kontekstach socjalizacyjnych „dziecko, otrzymując od rodziców informacje na temat zasad porządkujących rzeczywistość, uczy się reguł klasyfikacji oraz form komunikowania. Jeżeli w tych (…) kontekstach przeważa użycie znaczeń partykularnych, lokalnych, ściśle powiązanych z kontekstem wypowiadania lub nie są one wyrażone w sposób bezpośredni środkami werbalnymi, to mamy do czynienia z kodem ograniczonym. Jeśli natomiast wypowiedzi wychodzą poza kontekst użycia, odwołują się do uniwersalnych znaczeń zwerbalizowanych, u ich podłoża leży kod rozwinięty. Bernstein wykazał w badaniach, że w rodzinach należących do klasy średniej realizowany jest (…) przede wszystkim kod rozwinięty, a w rodzinach z klasy robotniczej – kod ograniczony” [4].", "Kolejna koncepcja rozwoju umysłu stworzona została przez neuropsychologów. Daniel J. Siegel definiuje umysł jako zjawisko, które wyłania się z aktywności naszego mózgu. Jego strukturę zaś i funkcje w nim zachodzące bezpośrednio tworzą i wpływają na nie nasze osobiste doświadczenia interpersonalne [5]. Dzięki aktywacji dróg neuronalnych przez bodźce przychodzące ze świata zewnętrznego: głosy, obrazy, zapachy, smaki, doświadczenia fizyczne, głód, odczuwanie zimna, bólu itp. nabywamy owo doświadczenie. Mimo, że przez całe życie taka aktywacja może kształtować połączenia w mózgu, uznaje się, że to wczesnodziecięce doświadczenia mają największy wpływ na nasz umysł, ponieważ główne struktury naszego mózgu, w tym ważna dla naszego funkcjonowania struktura samoregulacji emocji, powstają właśnie w dzieciństwie [6]. W taki sposób dochodzimy do ważnego odkrycia, że jakość relacji, komunikacji i doświadczeń z naszymi rodzicami lub opiekunami ma decydujący wpływ na tworzenie się wzorców komunikacji, które będziemy odtwarzać w przyszłości. Związane jest to z rodzajem przywiązania, które już w wieku około siedmiu miesięcy zaczynamy budować z naszym głównym opiekunem, najczęściej z matką. Według Johna Bowlby’ego [7] wielokrotnie powtarzane doświadczenia z opiekunem zostają zakodowane w pamięci utajonej jako modele umysłowe lub schematy przywiązania. W przyszłości każda osoba będzie automatycznie (nie uruchamiając mechanizmu przypominania) odtwarzała te modele umysłowe. I to one określą nasze charakterystyczne cechy w życiu dorosłym. Rozwijający się umysł dziecka nie ma możliwości intelektualnych do samodzielnego funkcjonowania. Musi korzystać z umysłu opiekuna. Jeśli opiekun jest wrażliwy na sygnały (najczęściej niewerbalne) wysyłane przez dziecko i potrafi dostroić się do nich, dziecko przywiązuje się do niego z ufnością. W rezultacie ta dostrojona komunikacja jest intymna i kooperacyjna, i odbywa się bez słów. Obie osoby, „matka” (niekoniecznie matka biologiczna, może to być też najważniejszy opiekun niemowlęcia) i dziecko, funkcjonują w tym samym rytmie – ona wyczuwa potrzeby dziecka, ono buduje w sobie poczucie bezpieczeństwa dzięki bezpiecznej i porozumiewającej się z nim bez słów „matce”. Można więc stwierdzić, że rozwinięcie przez dziecko ufnego przywiązania będzie skutkowało zdolnością dziecka do odważnego eksplorowania świata, oddzielania się od opiekuna bez lęku i do zdrowego dojrzewania. W dorosłym życiu tak rozwijające się dziecko będzie umiało radzić sobie w sposób dojrzały z frustracją, z trudnymi sytuacjami, ze stratą, będzie wrażliwe na komunikację niewerbalną, będzie umiało budować trwałe związki, nazywać i przeżywać adekwatne emocje, a także samo je regulować [8].", "Wzorce komunikowania się człowieka nabyte we wczesnym dzieciństwie będą się odtwarzały w sposób automatyczny, nieświadomie i pozwolą mu na satysfakcjonujące życie; będzie on też zdolny do empatycznego dostrajania się do innych. Słowem, jego kompetencje i umiejętności społeczne (także komunikacyjne) będą wysokie. Sytuacja znacząco się zmienia, gdy dziecko, w odpowiedzi na patologiczne wzorce komunikacji swojego opiekuna, rozwinie przywiązanie nieufne. W przyszłości będzie najprawdopodobniej oceniane jako „chłodne”, a jego kompetencje społeczne i komunikacyjne będą w znacznym stopniu upośledzone [9].", "Omówiona jako ostatnia koncepcja formowania się umysłu człowieka zakłada, że większość z nas nie jest skazana na typ umysłu ukształtowany w dzieciństwie. Umysł, który powstaje z aktywowania procesów w mózgu dzięki bodźcom docierającym do niego z zewnątrz, w interakcji z innymi, może się zmieniać. Zmiana bowiem zależna jest od doświadczenia relacyjnego – to ono powoduje tworzenie się nowych połączeń w mózgu, które z kolei wpływają na poszerzenie naszych kompetencji społecznych. Osoby, które w dzieciństwie rozwinęły jakieś formy nieufnego przywiązania mogą – dzięki znaczącej relacji z partnerem, przyjacielem, terapeutą, mentorem – przyswoić sobie ufny model przywiązania i wykazywać zintegrowaną osobowość, pozwalającą na rozwijanie efektywnej i empatycznej formy komunikacji interpersonalnej [10]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 760, "subject": "Komunikacja w związku/rodzinie, pracy, społeczeństwie", "paragraphs": ["Ludzie potrzebują innych ludzi, aby zaspokoić podstawowe potrzeby fizjologiczne i psychologiczne. Muszą zatem sprawić, by inni dali im potrzebne do życia dobra bądź to dobrowolnie, bądź też ich do tego nie tyle zmusić (choć i tak się zdarza), co skłonić. Metody takiego nakłaniania nie zawsze bywają etyczne. Ludzie w każdym z tych przypadków muszą się ze sobą komunikować. Kierując się instynktem przetrwania, przede wszystkim staramy się, żeby inni nas nie „zabili”, dosłownie i w sensie przenośnym. To nam zazwyczaj nie wystarcza – chcemy, żeby ludzie nas lubili i byli wobec nas życzliwi. Aby tak się stało, powinniśmy przedsięwziąć konkretne działania i wykazać się odpowiednimi cechami osobistymi.", "Lubimy ludzi, którzy dostarczają nam maksimum nagród przy minimum kosztów. Ta ogólna teoria ma swoje bardziej szczegółowe aspekty: takich, którzy mają podobne poglądy – w nagrodę zyskujemy potwierdzenie, że mamy rację, lubimy bardziej tych, z którymi choćby jakiś czas współpracowaliśmy – nagrodą jest wspólnota przeżyć, fakt, że nam pomagali, dzielili nasz trud. Zresztą przebywanie ze sobą zwiększa też tolerancję i redukuje uprzedzenia, a to ludzi do siebie zbliża. Lubimy także tych, z którymi łączy nas trudna sytuacja czy cierpienie. Lubimy wreszcie bardziej ludzi ładnych, niż brzydkich – nagrodą są pozytywne odczucia „estetyczne” [1]. Atrakcyjność fizyczna wiąże się ze zjawiskiem aureoli, polegającym na tym, że określona pozytywna cecha człowieka rzutuje na sposób postrzegania przez innych wszystkich pozostałych jego cech. Wiele badań dowodzi, że atrakcyjność fizyczna stanowić może źródło takiej właśnie „aureoli” [2].", "Chociaż lubimy ludzi ładnych i chętniej im ulegamy, nie we wszystkich sytuacjach wygląd będzie kluczową zmienną wpływającą na stopień sympatii, jaką obdarzamy innych. Lubienie kogoś jest bowiem rezultatem wielu czynników, z których jednym z najważniejszych jest podobieństwo. Darzymy sympatią ludzi podobnych do nas „niezależnie od tego, czy podobieństwo dotyczy wyznawanych przekonań, cech osobowości i charakteru, stylu życia, czy doświadczeń życiowych [3]. Ze względu na podstawową ludzką potrzebę afiliacji, towarzystwa innych, często podporządkowujemy się im, aby zyskać akceptację. Dostosowujemy się do norm społecznych, czyli ukrytych (a czasem jawnych) reguł przyjętych przez grupę zachowań, wartości i przekonań, by ich członkowie darzyli nas sympatią [4]. Sięgamy zatem po konformizm, czyli takie zachowania – niekoniecznie wynikające z naszych osobistych przekonań – które pomagają nam uzyskać pochwałę, uniknąć śmieszności, upodobnić się do kogoś, kogo szanujemy, podziwiamy lub też usprawiedliwić jakieś nasze poczynania. Takie zachowania są po prostu rozsądne i sprawiają przyjemność – to nasza nagroda. Jak to robimy? Po pierwsze chwalimy innych i lubimy też być chwaleni. Pochwała jednak nie zawsze jest nagrodą. Gdy jest psychomanipulacją, czyli gdy chwalący nie robi tego szczerze, ale oczekuje jakiejś osobistej korzyści, sympatia do niego wygasa. Podobnie rzecz się ma z wyświadczaniem nam przysług: jeśli są one bezinteresowne, to lubimy te osoby, gdy jednak przysługa pociąga za sobą konieczność rewanżu lub gdy ludzie je świadczący odnoszą własne korzyści z takiego zachowania przestajemy ich lubić. Wiele eksperymentów potwierdza fakt, że aby samemu być lubianym, należałoby nie tylko robić coś dla innych, ale też umieć skłonić innych do tego, aby robili coś dla nas [5].", "Dla pozyskania sympatii i akceptacji otoczenia nie mniej istotne są cechy naszej osobowości. Lubimy osoby szczere, kompetentne, inteligentne, energiczne etc. Zbytnia doskonałość zniechęca ludzi, konfrontuje ich bowiem z własną niedoskonałością. Popełniając celowo błąd możesz sprawić, że sympatia do ciebie wzrośnie, bo staniesz się dzięki temu bardziej ludzki, zjawisko to nazwano „efektem potknięcia” [6]. Rober Cialdini [7] sprawnie podsumowuje czynniki decydujące o wzajemnej sympatii – niezwykle istotnej dla procesu porozumiewania się między ludźmi. Oprócz już wymienionych (fizycznej atrakacyjności, podobieństwa, komplementowania) wskazuje także na aspekt związany z częstością kontaktów, zwłaszcza tych o przyjemnym charakterze, np. w czasie wzajemnej i udanej współpracy oraz na aspekt „znaności” – z reguły bardziej lubimy to, co znamy. Według tego autora elementem nasilającym sympatię do drugiego człowieka jest także jego skojarzenie z kimś lub czymś, co już lubimy.", "Początkowa sympatia bywa wstępem do głębszych uczuć, które prowadzą do stworzenia trwałej relacji. Komunikowanie się w bliskim związku nie jest łatwe. Bogdan Wojciszke wskazuje na pułapki w komunikacji partnerów. Jedną z nich jest pułapka dobroczynności, czyli „zagłaskiwania kota na śmierć”. „Wydaje się, że otwarte wyrażanie negatywnych emocji i ocen może zdziałać więcej dobrego (…), niż stałe ich tłumienie i wypieranie się ich (…)” [8]. Podobnie rzecz się ma z bezkonfliktowością w związku. Konflikt celów, wartości i interesów jest nieuchronny w związkach, szczególnie gdy partnerzy bardzo się różnią od siebie. Unikanie konfliktów dla świętego spokoju „zagraża poważnie związkowi, uniemożliwiając partnerom zlikwidowanie źródła konfliktu, (...) pozbawia umiejętności porozumiewania się i czerpania radości z pojednania” [9].", "Interesujące podejście do rozumienia procesu komunikowania w bliskich związkach i w komunikacji z innymi zaproponował Eric Berne. W przetłumaczonej na kilkadziesiąt języków pracy „W co grają ludzie” [10], po raz pierwszy wydanej w latach 60. XX w., przedstawia zagadnienie stosunków międzyludzkich w kategoriach tzw. analizy transakcyjnej. Omawia typowe sytuacje społeczne, ujmując je w konwencji \"gier\". Uczy sposobów poprawy wzajemnych kontaktów między ludźmi, pozwalając czytelnikowi lepiej zrozumieć zarówno siebie, jak i drugiego człowieka. Założenia jego koncepcji poddał interpretacji Zbigniew Nęcki [11]. Podkreśla on, że według Berne’a potrzeba kontaktu społecznego jest dla człowieka równie ważna, jak potrzeby biologiczne. Potrzeby aprobaty i uwagi ze strony innych są kluczowe. W niemowlęctwie kontakt odbywa się przez dotyk, a w późniejszym okresie za pomocą słów i komunikatów niewerbalnych. Już w dzieciństwie utrata satysfakcjonującej dziecko formy kontaktu z rodzicem powoduje nieświadome poszukiwanie innych form pozyskiwania uwagi i akceptacji otoczenia. Berne nazwał je „grami”. Jak podkreśla Nęcki, stosowanie tych gier w dorosłym życiu jest przejawem rozwinięcia patologicznej formy komunikacji. Zdrowa, dojrzała i skuteczna komunikacja dorosłych ludzi opiera się na zachowaniach, w których korzystamy z trzech umiejętności:", "Człowiek dojrzały sam kieruje świadomie swoim zachowaniem. W \"grach\" natomiast nieświadomie realizuje swoje potrzeby zdobywania uwagi i akceptacji, patologicznie manipulując innymi. Gier uczymy się we wczesnym dzieciństwie. Odkrycie i nazwanie ich, poddanie świadomej kontroli wymaga dużej pracy. W tym zadaniu często pomocna jest psychoterapia [12].", "Materiały dodatkowe", "Źródło: TED, 10 ways to have a better conversation: Celeste Headlee at TEDxCreativeCoast, 08.03.2016 (dostęp 21.08.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=R1vskiVDwl4"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 815, "subject": "Style komunikacji kobiet i mężczyzn", "paragraphs": ["Deborah Blum – autorka książki \"Mózg i płeć. O biologicznych różnicach między kobietami i mężczyznami\" – opierając się na badaniach wielu naukowców, już pod koniec ubiegłego stulecia stwierdziła, że różnice między mózgiem kobiety i mężczyzny są znikome, praktycznie nie istnieją [1]. Od tamtej pory neurobiologia stała się dziedziną nauki dynamicznie się rozwijającą i te wcześniejsze wyniki potwierdzają późniejsze badania, jak choćby opublikowane przez izraelską badaczkę, Daphnę Joel wraz ze współpracownikami [2]. Tymczasem, gdy przyglądamy się komunikacji kobiet i mężczyzn, łatwo możemy zaobserwować różnice w stylu komunikacji. Czym możemy zatem wytłumaczyć te różnice? Jedną z najważniejszych przyczyn jest kultura i cywilizacja, w której kobiety i mężczyźni żyją. To one determinują różne sposoby wychowywania dziewczynek i chłopców, zawierają wzorce zachowań przekazywane z pokolenia na pokolenie. Jak twierdzi Peter Hartley, dyskusje na temat różnic między kobietami i mężczyznami częściej wynikają ze społecznych stereotypów i nie są oparte na bezpośrednich obserwacjach [3]. Nie należy zapominać, że najważniejszym powodem różnic w sposobach komunikacji między ludźmi (w tym między kobietami i mężczyznami) są różnice osobowościowe, wynikające z innej socjalizacji pierwotnej (w rodzinie) oraz z innego temperamentu, który jest wrodzony i niełatwo ulega modyfikacji. Wśród obszarów, na których skupiają się badacze analizujący różnice w komunikowaniu się kobiet i mężczyzn, zwracają uwagę dwa: język i komunikacja niewerbalna.", "Język Język jest potężnym narzędziem odgrywającym ważną rolę na różnych poziomach komunikowania [4]. Dzięki językowi możemy przekazywać innym swoje myśli, postawy, możemy informować; język może być narzędziem wpływu społecznego, perswazji, pozwala nie tylko przekazywać wiedzę, ale również manipulować. Rozważając kwestie dotyczące wypowiedzi i płci, warto zwrócić uwagę na obszary różnic i podobieństw w mowie kobiet i mężczyzn. Jak wskazują Ronald B. Adler, Lawrence B. Rosenfeld i Russell F. Proctor II [5], analizując szereg badań na temat języka płci, wyróżnić tu można trzy podejścia:", "Wiele różnic ujawniających się w języku kobiet i mężczyzn, które na pierwszy rzut oka wydają się związane z płcią, po głębszej analizie można przypisać także innym czynnikom wpływającym na sposób używania języka. Należą do nich m.in. światopogląd, sposób rozwiązywania problemów (współpraca vs. rywalizacja), orientacja seksualna, zawód, pozostająca w dyspozycji mówiącego władza [6].", "Komunikacja niewerbalna Badacze wskazują na rolę kontaktu wzrokowego w komunikacji międzyludzkiej, a szczególnie na zależność między władzą a mową oczu. Współczynnik dominacji wzrokowej odnosi się do długości czasu patrzenia na rozmówcę w trakcie dwóch aktywności komunikacyjnych, czyli mówienia i słuchania. Eugenia Mandal definiuje ten współczynnik jako „stosunek czasu patrzenia na rozmówcę w dwu trybach komunikacyjnych – podczas mówienia i słuchania” [7]. Ten współczynnik rośnie, gdy osoba mówiąca często spogląda na słuchającą, a gdy sama słucha, często odwraca wzrok. Kobiety mają niższy współczynnik dominacji wzrokowej niż mężczyźni [8]. Jednak i kobiety, i mężczyźni posiadający władzę i rozmawiający z osobami płci przeciwnej wykazują podobną proporcję czasu patrzenia w trakcie słuchania i mówienia. Zatem na współczynnik dominacji wzrokowej wpływ ma nie tylko płeć, ale i zakres posiadanej władzy [9]. W stylu komunikacji ważna jest również intonacja, kobiety zazwyczaj są w sposobie mówienia łagodniejsze, mówią bardziej miękko i mniej „dramatycznie” [10].", "Pomocna w zrozumieniu różnic w kobiecym i męskim stylu komunikacji jest typologia stylów komunikacji zaprezentowana przez Cheryl Hamilton [11]. Wyodrębnia ona cztery style komunikacji: zamknięty, ślepy, ukryty, otwarty. Twierdzi ona, że style komunikacji są wyznaczane w oparciu o ocenę częstości wykorzystywania dwóch istotnych elementów komunikacji międzyludzkiej, a mianowicie informacji zwrotnej (reakcji ze strony interlokutora w formie opinii, odczuć i informacji) i odsłaniania się (dobrowolnego dzielenia się swoimi odczuciami, informacjami, opiniami). Poszukiwanie informacji zwrotnej można przedstawić jako kontinuum: od sporadycznego do nadmiernego jej poszukiwania. Przy czym każda ze skrajności może wpływać na nieskuteczność komunikacji między dwiema osobami. Podobnie rzecz się ma z odsłanianiem. Zarówno jego całkowity brak, jak i nadmierna potrzeba odsłaniania się będą zakłócać komunikację. Większość badań wskazuje, że kobiety odsłaniają się w większym stopniu niż mężczyźni. Podobnie jest w przypadku informacji zwrotnej, jaką jest wyrażanie empatii. Dbałość o relacje, wsparcie, empatia i zrozumienie stanowić mogą ważne źródło zadowolenia z rozmowy oraz bodziec do dalszych i dłuższych kontaktów zaprzyjaźnionych kobiet [12]. Mężczyźni zaś skupiają się na aktualnym celu, zadaniu i problemie. Można zatem wnioskować, że kobiety częściej używają stylu ślepego (nadmierne odsłanianie się i sporadyczne poszukiwanie feedbacku) i otwartego (nadmierne poszukiwanie feedbacku i nadmierne odsłanianie się), mężczyźni zaś zamkniętego (sporadyczne poszukiwanie feedbacku i sporadyczne odsłanianie się) oraz stylu ukrytego (sporadyczne odkrywanie się i nadmierne poszukiwanie feedbacku). Jednak zastrzec należy, że ostatecznie o stylu komunikacji człowieka decyduje nie jego płeć, a typ osobowości.", "Materiały dodatkowe", "Źródło: Jack Canfield, How Men and Women Communicate Differently, 26.07.2018 (dostęp 07.09.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=1W_CBoEjRXA&feature=youtu.be", "Źródło: Audrey Nelson PhD, A Paradigm for Understanding How Men and Women Communicate, 30.04.2014 (dostęp 07.09.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=Ooc5pOrYP24&feature=youtu.be"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 758, "subject": "Repertuary zachowań komunikacyjnych", "paragraphs": ["Jednym z tematów interesujących badaczy w komunikacji interpersonalnej są typy zachowań w relacji z drugim człowiekiem. Nasze zachowania społeczne kształtują w największym stopniu wczesnodziecięce doświadczenia relacyjne, wrodzony typ temperamentu, kultura, szeroko pojęte otoczenie, szczególnie grupa rówieśnicza oraz indywidualny sposób doświadczania i przetwarzania zdarzeń. Wszystkie te czynniki składają się na swoisty i niepowtarzalny typ osobowości każdego z nas.", "Według niektórych teoretyków osobowość reprezentuje takie cechy charakterystyczne, z których w sposób jednoznaczny i przewidywalny można wnioskować o zachowaniu danej osoby [1]. Nie wszyscy badacze akceptują jednak utrwalony w powszechnej definicji zestaw zasad: 1/ że to wyłącznie cechy osobowości wpływają na nasze zachowanie, 2/ że są one stałe, nie zmieniają się w czasie i 3/ że są specyficzne dla każdej osoby. Peter Hartley twierdzi, że mamy wiele indywidualnych cech charakteru, że mają one wpływ na nasze zachowanie i komunikowanie się z innymi i są tylko jednym z czynników je determinujących. Uważa on również, że cechy osobowości wpływają na nasze sposoby komunikacji w dwojaki sposób: predestynują nas do określonych zachowań, ale równocześnie stwarzają wiele ograniczeń w sposobie komunikowania się z innymi. Optymistyczne jest jednak to, że możemy te ograniczenia przekraczać, pod warunkiem, że będziemy ich świadomi. W tym celu powinniśmy dobrze poznać swój typ osobowości i pracować nad świadomą zmianą nieefektywnych (z punktu widzenia skutecznej komunikacji) sposobów zachowań [2]. Pomocne w tej zmianie są treningi asertywności. Próbny trening asertywności dostosowany do warunków polskich stworzyła w 1988 roku Maria Król-Fijewska. Zmodyfikowaną jego wersję, przetestowaną na grupie dwustu uczestników, autorka opublikowała 5 lat później [3]. Pozostaje on do dzisiaj jednym z najlepszych podręczników do samodzielnego przeprowadzenia treningu asertywności. Program tego treningu obejmuje uczenie się nowych umiejętności w następujących obszarach: obrona swoich praw, wyrażanie uczuć negatywnych i pozytywnych, przyjmowanie uczuć i opinii innych osób, stanowienie swoich praw, wyrażanie swoich opinii i przekonań, publiczne zabieranie głosu, asertywne reakcje na poczucie krzywdy lub winy. Ostatnim tematem programu treningu jest praca nad swoim monologiem wewnętrznym, czyli rozpoznawanie i zamiana takich przekonań na własny temat, które blokują zachowania asertywne.", "Wśród repertuarów zachowań w komunikacji międzyludzkiej wyróżnia się trzy podstawowe style komunikacji: pasywny, agresywny i asertywny [4]. O. Hargie, C. Saunders i D. Dickson (1996) proponują je jednak umieścić na dwóch podstawowych płaszczyznach: 1/ od ekspresji pośredniej do bezpośredniej, 2/ od zachowania pod przymusem do zachowania pozbawionego przymusu. Gdy stosujemy ekspresję pośrednią i przy zachowaniu pozbawionym przymusu, mamy do czynienia z uległym stylem zachowania. Gdy zachowanie jest pozbawione przymusu i gdy występuje ekspresja bezpośrednia, styl zachowania określamy jako asertywny. Gdy zaś występuje ekspresja bezpośrednia, a zachowanie jest pod przymusem, styl nosi miano agresywnego. Obok tych trzech podstawowych stylów wyróżnia się styl czwarty: pośrednio agresywny, gdy występuje ekspresja pośrednia i zachowanie pod przymusem [5].", "Zachowanie uległe charakteryzuje się unikaniem konfliktów i podporządkowywaniem się oczekiwaniom innych, zgodą na wykorzystywanie przez nich. W zachowaniu werbalnym słychać przepraszający ton, lękliwość i niechęć do wyrażania własnych opinii. Osoby takie są słabe i podatne na manipulację, nie wzbudzają zaufania i paradoksalnie budzą niechęć, a nawet irytację. Zachowanie agresywne nacechowane jest potrzebą dominowania bez uwzględniania potrzeb i uczuć innych osób, stosowaniem gróźb, używaniem podniesionego głosu, krzyku, przerywaniem wypowiedzi innych, stosowaniem wrogiego, uporczywego kontaktu wzrokowego, obrażaniem, poniżaniem, ośmieszaniem oraz używaniem przemocy fizycznej i psychicznej. Takie osoby są nie tylko nielubiane, ale wywołują u innych reakcje agresywne. Zachowania asertywne zaś można uznać za złoty środek w komunikacji międzyludzkiej. Cechują je otwartość, precyzja i spontaniczność wypowiedzi, równowaga emocjonalna, spokojny ton głosu, uważne słuchanie, empatyczne i adekwatne reagowanie na komunikaty werbalne i niewerbalne, dopasowywanie się do interlokutora, odważne komunikowanie własnych opinii, emocji i postaw [6].", "Te same style zachowań odnaleźć można w czterech postawach życiowych sformułowanych przez twórców tzw. analizy transakcyjnej, Erica Berne’a i Thomasa A. Harrisa. Biernemu stylowi zachowania odpowiada tu postawa życiowa wyrażająca przekonanie: ja nie jestem OK, a ty jesteś OK. Osoba taka czuje się bezradna i bezbronna wobec innych, unika konfrontacji i trudności, ucieka od działania i ryzyka, często popada w depresję. Zachowanie agresywne prezentuje w tym ujęciu postawa: ja jestem OK, ty nie jesteś OK. U jej podstaw tkwi przekonanie, że inni nie zasługują na szacunek. Ludzie tacy zwykle widzą źdźbło w oku bliźniego, odrzucają bliskość, czują pogardę do innych, w poczuciu własnej wyjątkowości. Zachowanie asertywne zilustrowano w tej koncepcji postawą: ja jestem OK i ty jesteś OK, skupiającą w sobie najbardziej korzystne, dla skutecznej komunikacji między ludźmi, cechy osobowości, czyli empatię, kulturę osobistą, życzliwość, czułość, poczucie własnej wartości, szacunek dla innych i dla inności, umiejętność adekwatnego stosowania werbalnych i niewerbalnych sposobów komunikacji, gotowość budowania trwałych relacji [7].", "Wszystkie te cechy odnajdziemy w klasycznej definicji asertywności: „Zachowanie asertywne to zespół zachowań interpersonalnych, wyrażających uczucia, postawy, życzenia, opinie lub prawa danej osoby w sposób bezpośredni, stanowczy i uczciwy, a jednocześnie respektujący uczucia, postawy, życzenia, opinie i prawa innej osoby (osób). Zachowanie asertywne może obejmować ekspresję takich uczuć jak: gniew, strach, zaangażowanie, nadzieję, radość, rozpacz, oburzenie, zakłopotanie itd., ale w każdym z tych przypadków uczucia te wyrażane są w sposób, który nie narusza praw innych osób. Zachowanie asertywne odróżnia się od zachowania agresywnego, które wyrażając uczucie, postawy, życzenia, opinie lub prawa nie respektuje tych samych elementów u innych osób” [8]. Zachowanie asertywne nie jest nakazem, ale indywidualną decyzją człowieka. Rozważając, czy rzeczywiście je wybrać, warto wziąć pod uwagę, że stanowi ono alternatywę dla osobistej bezsilności i manipulacji i sprzyja kształtowaniu równości w relacjach międzyludzkich. Zachowanie asertywne nie ma bowiem na calu osiągnięcia dominacji nad innymi czy wywierania na nich nacisku, lecz doprowadzenie do jak najlepszej komunikacji między równymi osobami, otwartej i uczciwej komunikacji wzajemnej, opierającej się na współpracy i afirmacji. Tylko taka komunikacja jest procesem, dzięki któremu można osiągnąć równość i miejsce dla każdego w pluralistycznym świecie wielu kultur [9]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 761, "subject": "Język wywierania wpływu", "paragraphs": ["Osoby, z którymi wchodzimy w interakcje, nie będą spełniały naszych oczekiwań, jeśli nie będą wiedziały, czego od nich chcemy. Liczenie na to, że inni zgadną, co myślimy i czego potrzebujemy lub czego się spodziewamy, jest nieuzasadnione i naraża nas na rozczarowania. Podstawą wartościowych i satysfakcjonujących relacji z innymi ludźmi jest komunikowanie im oczekiwań, jakie wobec nich odczuwamy. Jak zatem mówić, by być rozumianym i co, równie ważne, przekonującym? Jak wywierać wpływ na innych? Najkrócej można tę umiejętność zdefiniować jako „oddziaływanie na postawy, przekonania i zachowania bez stosowania siły czy władzy formalnej” [1]. Jest to działanie, które jest immanentnym elementem wszystkich relacji międzyludzkich – każdy z nas nieustannie wywiera wpływ na innych, chociaż nie zawsze robi to w sposób świadomy i intencjonalny. Nie ma w tym niczego niewłaściwego, o ile nie posuwamy się do manipulowania ludźmi. Z tym ostatnim mamy do czynienia wówczas, jeśli: „1/naszym zamiarem jest postawienie na swoim, bez względu na opinie innych, 2/jeśli celem jest to, aby inna osoba osiągnęła negatywny rezultat, 3/ jeśli kłamiesz w trakcie działania” [2]. Wywieranie wpływu zachodzi zatem wtedy, gdy pobudzamy kogoś do podjęcia korzystnego działania. Matthew McKay, Martha Davis i Patrick Fanning [3] sformułowali najważniejsze zasady skutecznej ekspresji:", "1. komunikaty powinny być bezpośrednie – czyli takie, które wykluczają kierowanie się założeniami, że inni wiedzą to samo, co my, że dla innych sprawa jest tak samo oczywista, jak dla nas, nie ma w nich miejsca na aluzje, sugestie czy niedopowiedzenia;", "2. komunikaty powinny być jasne i precyzyjne – czyli wyrażające wprost to, co rzeczywiście myślimy, czujemy i obserwujemy, by taki efekt osiągnąć powinno się stosować następujące wskazówki: a) nie zadawać pytań, kiedy trzeba wypowiadać twierdzenia, b) zachować spójność wypowiedzi w treści, tonie i języku ciała, c) unikać podwójnych komunikatów, które wzajemnie się wykluczają, d) skoncentrować się na jednej sprawie w danej chwili;", "3. formułować szczere komunikaty – pozbawione zakamuflowanych intencji czyli takie, w których deklarowany cel przekazu jest zgodny z rzeczywistym;", "4. budować wspierające komunikaty – czyli takie, dzięki którym druga osoba usłyszy, co mamy na myśli i nie poczuje się przy tym zdominowana i odepchnięta, należy unikać stosowania etykietek, sarkazmu, negatywnych porównań, osądzających wyrażeń, szantażu emocjonalnego.", "Fiona Elsa Dent i Mike Brent [4] wyróżniają kilka stylów wywierania wpływu. Na najbardziej ogólnym poziomie wskazują na metody Push i Pull. Pierwsza z nich polega na bezpośrednim, silnym i władczym, jasnym i stanowczym sposobie przedstawiania swoich propozycji. Jest to styl szybki, skoncentrowany i bardzo zrozumiały, ale jednocześnie sprawiający często wrażenie agresywnego, nieangażującego i aroganckiego. Ma swoje podstyle:", "Przeciwieństwem stylu Push jest metoda Pull, której istotą jest dyskusja i uczestnictwo zmierzające do wyznaczenia wspólnej płaszczyzny, wymiana opinii oraz doprowadzenie do rozwiązania akceptowalnego dla wszystkich. Styl ten, mimo że jest koncyliacyjny i zachęcający do zaangażowania wszystkie osoby, może być oceniany jako mało konkretny lub słaby. Trudno posługiwać się nim w sytuacji kryzysowej lub przy ograniczeniu czasu i krótkim deadline. Jego podstyle to:", "Dent i Brent podkreślają, że nie należy przywiązywać się do jednego stylu wywierania wpływu, a podejmując decyzję, który z nich zastosować w konkretnej sytuacji, warto wziąć pod uwagę okoliczności, ludzi i problem. Żaden styl nie jest a priori lepszy od pozostałych [6].", "By być skutecznym w wywieraniu wpływu, niezbędne jest zyskanie wiarygodności w określonych okolicznościach i wśród konkretnych odbiorców. Kluczowe w tym procesie jest posługiwanie się faktami zamiast opiniami czy emocjami oraz przypisane do osoby, która stara się wywrzeć wpływ, wiedza, doświadczenie i kompetencje w wybranej dziedzinie. Ogromne znaczenie ma nie tylko ich posiadanie, ale umiejętne posługiwanie się nimi. Chodzi tu zarówno o dobór argumentów, jak i sposób ich prezentowania. Argumenty, którymi staramy się przekonać do naszych racji rozmówców, powinny tworzyć szereg od prostych do złożonych lub od znanych do nieznanych oraz układać się w szyk dostosowany do odbiorcy (jego hierarchii wartości, możliwości intelektualnych, posiadanej wiedzy). Korzystne jest także pozostawienie silnego argumentu na zakończenie wypowiedzi, można też stosować szyk polegający na umieszczeniu mocnych argumentów na początku i na końcu komunikatu. Argumenty istotnie na siebie oddziałują, ale jeżeli na początku przedstawia się silne argumenty, a na końcu nieprzekonujące, to wypowiedź w całości może być uznana za pozbawioną sensu [7]. Duże znaczenie ma też kreatywność, jaką wykażemy, przedstawiając swoje argumenty – warto posługiwać się obrazami, metaforami, symbolami. Równie ważnym narzędziem dla skutecznego wywierania wpływu jest technika łączenia punktów widzenia własnych i innej osoby – budowanie między nimi mostu, tak by stworzyć wspólny grunt. Pomaga to w tworzeniu wzajemnego zrozumienia i dochodzenia do wspólnych rozwiązań. Podobną rolę spełnia technika posługiwania się pozytywnym językiem w miejsce negatywnego. Ludzie są bardziej otwarci na zmianę, jeśli sformułuje się swoją propozycję w sposób pozytywny [8].", "Wśród czynników, które wspomagają lub zakłócają wpływ, jaki wywiera mówiący na innych ludzi, badacze porozumiewania się identyfikują także schematy językowe świadczące o sile mowy. Osoby, których wypowiedzi są pozbawione manier mówienia sygnalizujących bezradność (zwrotów asekuracyjnych w rodzaju „wydaje mi się, że chciałbym”, wahań: „może spróbowalibyśmy”, form grzecznościowych, np. „proszę mi wybaczyć, że pytam”, pytań wtrąconych „czyż nie?”, „prawda?”, zaprzeczeń, takich jak m.in. „być może nie warto o tym wspominać”), uznawane są za bardziej kompetentne, dynamiczne i atrakcyjne niż te, w których wypowiedziach słychać bezsilność [9].", "Skuteczne wywieranie wpływu jest procesem skomplikowanym i stanowiącym wyzwanie. Przestrzeganie przytoczonych wyżej wskazówek i zasad może pomóc w odniesieniu sukcesu na polu przekonywania innych.", "Materiały dodatkowe", "Źródło: TEDxTalks, How to use rhetoric to get what you want: Camille A. Langston at Ted-Ed 2016, 01.09.2016 (dostęp 13.07.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=3klMM9BkW5o", "Źródło: WSIiZ, Jak mówić, żeby nas słuchano?: Jerzy Bralczyk 2017, 04.04.2017 (dostęp 15.07.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=TG4ZAGnlPOY"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 762, "subject": "Postawa, gesty, mimika, dystans, dotyk, komunikacja parawerbalna", "paragraphs": ["Komunikacja pozawerbalna to zagadnienie, co do którego istnieje wiele mitów. Czy rzeczywiście nasza komunikacja odbywająca się poza warstwą słowną ma aż tak duże znaczenie? Przywiązujemy wagę do słowa mówionego i pisanego, ale świadomość roli, jaką komunikacja pozawerbalna pełni w naszych codziennych kontaktach, skłania nas do myślenia. Komunikacja pozawerbalna to jeden z tych tematów, które obrosły różnorodnymi mitami i pozanaukowymi przekonaniami. W tym rozdziale postaramy się zweryfikować, co tak naprawdę wiemy o komunikacji niewerbalnej na podstawie literatury tematu i dostępnych badań. Umiejętności w obrębie komunikacji niewerbalnej mogą bowiem znacząco zwiększać naszą ogólną kompetencję w zakresie komunikowania się, co sprawia, że jest to temat zasługujący na uwagę.", "Komunikacja pozawerbalna zachodzi rozmaitymi kanałami przekazu, są nimi np.: postawa ciała, gesty, mimika twarzy, ton głosu, ubiór, ruch gałek ocznych, przedmioty, jakimi się otaczamy i posługujemy oraz wiele innych ( Rys. 1 ). Informacje pochodzące z tych kanałów przekazu interpretowane są przez nas często automatycznie, nieświadomie i bardzo szybko. Nawet czynniki, takie jak: płeć, wzrost, kolor skóry czy zapach są traktowane w interakcji między osobami jako informacje, które następnie przyczyniają się do formowania przekonań, sposobu prowadzenia rozmowy czy wyciągania wniosków. Stąd też wiele miejsca w różnych naukach społecznych poświęca się badaniom dotyczącym tworzenia się i powstawania stereotypów na temat np. czyjegoś charakteru, moralności czy sprawności, m.in. na bazie pojedynczych niewerbalnych wskazówek.", "Funkcje komunikacji niewerbalnej Sygnały pozawerbalne stanowią często uzupełnienie informacji przekazywanych w sposób słowny a czasem nawet je zastępują na przykład, gdy posługujemy się gestem, by wyrazić entuzjazm (podniesiony kciuk lub złączony kciuk i palec wskazujący), zwątpienie (dłoń lekko wahająca się w poziomie lub wzruszenie ramionami) czy gniew (zaciśnięta pięść, wymachiwanie palcem wskazującym). Sygnały pozawerbalne pozwalają też czasem przekazać coś, czego nie potrafimy lub nie chcemy wyrazić słowami, podkreślają lub wyróżniają dany fragment wypowiedzi, pobudzają i energetyzują przekaz. Mogą także wywierać pozytywny lub negatywny wpływ na przebieg rozmowy. Kompetentne używanie znaków pozawerbalnych – takich jak: nachylanie się w stronę rozmówcy, utrzymywanie kontaktu wzrokowego, kiwanie głową – zachęcają do kontynuowania rozmowy i wzbudzają poczucie zaufania. Przeciwnie uciekanie wzrokiem, spoglądanie na zegarek czy przyjmowanie tzw. zamkniętej postawy (ręce skrzyżowane na piersi, skrzyżowane nogi podczas siedzenia, ustawienie się bokiem do rozmówcy) może powodować wycofanie się i zakończenie interakcji. Tak więc poza przekazywaną warstwą słowną, nasza postawa, mimika i gesty przekazują rozmówcom także inne bardzo cenne informacje kluczowe dla całego przebiegu interakcji świadczące o przychylności, zażyłości, gotowości do współpracy lub przeciwnie obojętności, lekceważeniu czy braku chęci współpracy.", "Komunikacja pozawerbalna zachodzi dzięki złożonym systemom współdzielonych społecznie symboli i znaków. Są one w gruncie rzeczy umowne, co dobrze obrazują różnice międzykulturowe. Dzięki współdzielonym społecznie normom i kodom znaczeniowym możemy szybko i sprawnie porozumiewać się z innymi w różnorodnych sytuacjach. Warto jednak pamiętać, że zróżnicowanie kompetencji między ludźmi w tym zakresie jest bardzo duże. Innymi słowy, są osoby świadome znaczenia komunikatów pozawerbalnych, które będą dostosowywały do wymogów sytuacji i efektu, jaki chcą osiągnąć, ton głosu, postawę ciała, wyraz twarzy, lecz także możemy spotkać (lub sami być tego przykładem) osoby, które bądź nie panują nad swoją fizjonomią, bądź też błędnie interpretują zachowania niewerbalne innych. Jak większość kompetencji także i te można jednak doskonalić począwszy od zwracania uwagi na swój sposób gestykulowania, ułożenie ciała czy przyjmowany wyraz twarzy. Dobrym narzędziem w tym celu są wideokomunikatory internetowe, które podczas rozmowy pokazują nam nie tylko wizerunek rozmówcy czy rozmówców, ale także okienko z naszą postacią. Możemy dzięki temu monitorować na bieżąco i weryfikować: co wyraża moja twarz i spojrzenie, o czym może świadczyć przyjmowana przeze mnie postawa ciała, co ‘mówią’ gesty, jakimi się posługuję, etc.", "Postawa Postawa ciała może zdradzać wiele informacji. Przygarbiona sylwetka, ręce skrzyżowane na piersi, ustawienie się bokiem do innych – to sygnały, które intepretowane są jako bierność, uległość czy brak pewności siebie. Wyprostowana postawa, broda uniesiona lekko ku górze i utrzymywanie kontaktu wzrokowego z kolei, będą odczytywane jako pewność siebie, wysoki status, siła. Wskazówki te, choć nie zawsze stanowią trafne odwzorowanie rzeczywistości (np. możemy garbić się z powodu kontuzji lub zimna), są odczytywane i interpretowane przez ludzi natychmiastowo i w bardzo uniwersalny sposób. Ciekawe badania w tym zakresie przeprowadzili Dana Carney, Amy Cuddy i Andy Yap [2], udowadniając, że nie tylko postawa ciała odzwierciedla stany czy dyspozycje wewnętrzne osób, lecz możliwa jest relacja odwrotna – przyjmowana postawa ciała ma wpływ na samopoczucie osób.", "Wyraz twarzy Jako ludzie jesteśmy ewolucyjnie zaprogramowani, by zwracać baczną uwagę na twarze. Niemowlęta preferują wizerunek twarzy nad inne wizualne bodźce a dorośli potrafią prawie wszędzie dopatrzeć się ukrytych rysów twarzy (np. na szarych plamach księżyca czy na toście z serem – zob. https://www.bbc.com/news/magazine-22686500). Dzieje się tak nie bez powodu. Twarz komunikuje wiele ogromnie istotnych dla nas informacji przede wszystkim czy dana osoba jest do nas przychylnie nastawiona czy raczej warto unikać kontaktu z nią. Warto jednak pamiętać, że wnioskowanie na podstawie wyrazu twarzy może być efektywne głównie, jeśli chodzi o sytuacyjne dyspozycje raczej niż o trwałe cechy charakteru. Ludzie jednak zdają się wyciągać o wiele bardziej daleko idące wnioski na podstawie obserwacji wyrazu twarzy. Wiele ciekawych badań nad wnioskowaniem o cechach innych na podstawie wyglądu twarzy przeprowadził wraz z zespołem Alexander Todorov [3]. Jego badania nad tym, co nazwalibyśmy po prostu „pierwszym wrażeniem” zyskały zarówno uznanie w świecie nauki, jak i w mediach. Chcąc nie chcąc, ludzie nadal wnioskują o charakterze czy predyspozycjach innych na podstawie wyglądu. Jak pokazały badania Tudorova i współpracowników, główne cechy, jakie interpretujemy, przyglądając się innym, to dominacja (vs. uległość), kompetencje oraz to czy dana osoba wzbudza nasze zaufanie czy też nie. Z ewolucyjnego punktu widzenia są to rzeczywiście bardzo ważne dla nas informacje. Co pewnie nikogo nie zdziwi, oceny te zachodzą bardzo szybko (50 milisekund), automatycznie i nierzadko nieświadomie. Mimo to, mają ogromny wpływ na nasze późniejsze interakcje i są bardzo odporne na reewaluację. Na stronie Laboratorium Percepcji Społecznej Todorova można znaleźć wiele ciekawych materiałów dodatkowych w tym wizualizację komputerowo opracowanych twarzy tak, by przedstawiały wizerunek osoby uznawanej przez większość badanych za posiadające pewne konkretne cechy osobowościowe tj. ekstrawersja. Warto w tym miejscu zaznaczyć, że badania nad trafnością ocen charakteru dokonywanych przez innych na podstawie wizerunku samej tylko twarzy są dość niejednoznaczne. Mimo to, wiele osób, w tym także w sytuacjach zawodowych wymagających precyzji i mających dalekosiężne konsekwencje, jak na przykład wyłanianie kandydatów i kandydatek do pracy, kieruje się właśnie w dużej mierze „intuicyjną” oceną predyspozycji danej osoby na podstawie samego tylko zdjęcia.", "Materiały dodatkowe"], "definitions": [{"name": "Definicja 1: Komunikacja pozawerbalna", "content": "to wszystkie zachowania, cechy i obiekty – inne niż słowa – które komunikują wiadomości i mają wspólne społeczne znaczenie [1]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 767, "subject": "Rozmowa kwalifikacyjna", "paragraphs": ["Przygotowanie do rozmowy kwalifikacyjnej powinno dotyczyć trzech kwestii: przygotowania merytorycznego, czyli wiedzy, doświadczenia i kwalifikacji, technik autoprezentacji oraz świadomości odczuwanego stresu. Ten ostatni element towarzyszy kandydatowi już przed rozmową kwalifikacyjną i zazwyczaj pozostaje z nim podczas całego spotkania. Nie ma jednej skutecznej metody na opanowanie stresu. Nasz system nerwowy jest tak skonstruowany, że gdy ocenia jakąś sytuację jako zagrażającą, reaguje. Nasze ciało wytwarza wówczas hormony stresu, m. in. adrenalinę i kortyzol, i to one są przyczyną napięcia i zdenerwowania, czasem wręcz lęku czy też podekscytowania. Są sygnałem dla nas, że wokół dzieje się coś alarmującego. Nie zawsze będzie to uczucie negatywne, ale za każdym razem wywoła ono silną reakcję emocjonalną. Taka jest natura emocji i ich skutków – efekt alarmu odbieranego przez układ limbiczny, który odpowiada za nasze emocje [1]. Skoro nie ma sensu walczyć z emocjami i ich skutkami, czyli działaniem hormonów stresu, to trzeba je spożytkować inaczej. Te sygnały i hormony to energia – warto wykorzystać ją dla osiągnięcia swojego celu.", "W sytuacji przygotowywania się do rozmowy kwalifikacyjnej, szczególne zastosowanie znajduje zasada: „ćwiczenie czyni mistrza”. Ośrodki funkcjonalne w mózgu, które odpowiadają za uczenie się, potrzebują treningu, dlatego wskazane jest przećwiczenie rozmowy przed lustrem, kamerą albo z zaprzyjaźnioną osobą. Ćwicz tak długo, aż mózg zapamięta dobrze zdania i zachowania, które chcesz wykorzystać podczas rozmowy. W przeciwnym razie hormony stresu mogą sprawić, że przekaz, jaki zaprezentujesz przyszłemu pracodawcy, nie będzie tym, na jakim ci zależy: „Wymiar intensywnego odczucia w emocjach często uniemożliwia dokonywanie spokojnych i rozsądnych ocen poznawczych. Kiedy jesteśmy ogarnięci intensywnymi uczuciami, niektóre z naszych intelektualnych zdolności nie funkcjonują już normalnie. Im bardziej intensywny stan emocjonalny, tym łatwiej o zaistnienie poznawczych zniekształceń” [2].", "Kompendium najważniejszych wskazówek, które mogą okazać się pomocne w skutecznym przygotowaniu się do rozmowy kwalifikacyjnej, znaleźć można m.in. w podręczniku, którego autorami są S. P. Morreale, B. H. Spitzberg, J. K. Barge [3]:", "Podobne zalecenia formułuje także w swoim podręczniku \"Skuteczna komunikacja w biznesie\" Cheryl Hamilton [4].", "Rozstrzygnięcie rozmowy kwalifikacyjnej zależy od bardzo wielu czynników. Poniżej znajduje się kilka kluczowych zaleceń sformułowanych przez osoby zajmujące się profesjonalną rekrutacją. Informacje pochodzą z wywiadu z Magdaleną Martynowską, psycholożką, specjalistką do spraw rekrutacji i komunikacji wewnętrznej w organizacji.", "Zachowania, których z kolei należy unikać to: obojętny wyraz twarzy, ironiczny uśmiech, zamknięta pozycja ciała, gesty lekceważenia (np. u mężczyzn szeroko rozstawione nogi, półleżąca pozycja na krześle, bawienie się przedmiotami, wiercenie się na krześle, zasłanianie ust często maskowane udawanym kaszlem lub stosowane do ukrycia ziewnięcia), pocieranie oczu, uszu (postrzegane jako oznaki fałszu lub niepewności, bądź po prostu niepokoju), drapanie się, ciągłe poprawianie ubrania, kurczowe ściskanie torebki czy teczki.", "W sytuacji stresu wszystko te zalecenia mogą ulecieć z głowy. Im większemu napięciu ulegasz, tym więcej czasu poświęć na przećwiczenie swojego zachowania. Będziesz mógł wtedy spokojniej odpowiadać na pytania merytoryczne, bo to jest podczas rozmowy kwalifikacyjnej najważniejsze. Jej „scenariusz” ułoży się po twojej myśli, jeśli zaakceptujesz znaną zasadę aktorów, którzy przecież żyją z wywierania dobrego wrażenia, że każda błyskotliwa „improwizacja” jest zwykle świetnie przygotowana.", "Materiały dodatkowe Przykładowa lista pytań zadawanych podczas rozmowy kwalifikacyjnej: https://kariera.sgh.waw.pl/artykuly/poszukiwanie-pracy/100-pytan-ktore-moga-zostac-zadane-podczas-rozmowy-kwalifikacyjnej.", "Źródło: Przeciętny Człowiek, Jak poradzić sobie z rozmową kwalifikacyjną? 3 kluczowe idee, 01.09.2016 (dostęp 03.09.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=t7XF18bdlWY&feature=youtu.be"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 763, "subject": "Adaptacja w nowym miejscu pracy", "paragraphs": ["Nowe miejsce pracy oraz integracja z nowymi współpracownikami, czyli konieczność odnalezienia się w nowym otoczeniu, bywają przyczyną dużego stresu, a przynajmniej niepokoju. W takiej sytuacji trzeba się zmierzyć z własnymi ograniczeniami, np. lękami społecznymi, nieśmiałością, obawą przed oceną. Każdy człowiek ma indywidualne predyspozycje i kompetencje komunikacyjne, inne wzorce zachowań, inne postawy i style komunikowania się, wynikające z wcześniejszych (najczęściej dziecięcych) doświadczeń relacyjnych. Skuteczna komunikacja wymaga wiedzy, kompetencji i umiejętności, które należy ćwiczyć, bowiem kompetencje w zakresie porozumiewania się są ważne w każdym zawodzie, niekoniecznie związanym bezpośrednio z kontaktem z klientami.", "Proces komunikowania w grupie wymaga większej współpracy i lepszego wzajemnego dostosowania niż rozmowa w warunkach bardziej kameralnych [1]. Ogromne znaczenie dla pracy zespołowej mają też dobre relacje osobiste. Pomagają bowiem stworzyć aprobujący klimat współpracy w grupie, opierający się na zaufaniu i wzajemnym wspieraniu się członków, dzięki któremu znacznie łatwiej osiąga ona zamierzone cele [2].", "Zrozumienie procesu adaptacji w nowym miejscu pracy ułatwia model procesu grupowego, któremu członek każdej grupy podlega. Grupę najprościej można opisać poprzez zjawiska i procesy w niej zachodzące, polegające na tworzeniu określonych wzorów zachowań, wzorów kulturowych, konfiguracji pewnych zbiorowych systemów przekonań, określonej moralności i tym podobnych bytów społecznych, które potem jest zdolna narzucić swym członkom [3]. To oczywiste, że osoba, która wchodzi do grupy już istniejącej, nie zna natury tych zjawisk. Będzie musiała najpierw je poznać, a potem się ich nauczyć. Głównym jednak problemem dla nowego członka już istniejącego zespołu jest niepewność co do roli, jaką ma przyjąć w grupie, aby zostać zaakceptowanym.", "Najogólniej rzecz ujmując, członków grup zadaniowych można podzielić na 1/inicjatorów, którzy rozpoczynają dyskusje, przekazują informacje, dzielą się wiedzą i doświadczeniami, artykułują swoje opinie oraz 2/ respondentów, którzy reagują, na to, co usłyszą, oceniając informacje, pomysły, propozycje i zadając pytania. W każdej grupie funkcjonuje też lider, który m.in. ustala i egzekwuje politykę grupy, wpływa na relacje pomiędzy członkami, ponosi odpowiedzialność za jej decyzje [4].", "Inną klasyfikację ról w obrębie grupy proponuje Agnieszka Kozak [5], która wyróżnia role:", "Dwie pierwsze kategorie ról są korzystne dla grupy. Zachowania z trzeciej kategorii jej szkodzą. Na te role składają się bowiem zachowania, w których jednostka koncentruje się na sobie, a nie na potrzebach grupy. Najczęstsze zachowania tego typu to:", "Typologię korzystnych dla grupy ról zadaniowych prezentuje Meredith Belbin [6], który wyróżnia następujące kategorie:", "Należy pamiętać, że możemy w grupie przyjmować kilka ról jednocześnie lub stosować je wymiennie w zależności od sytuacji, kontekstu, celów i potrzeb. Sprawnemu i efektywnemu porozumiewaniu się w nowym miejscu pracy sprzyjają gotowość do zrozumienia drugiego człowieka i uczciwe (zgodne z emocją) postępowanie.", "Materiały dodatkowe", "Źródło: Wojciech S. Wocław: Nowa praca. Jak dobrze wypaść? Moduł 1. Podejście do pierwszej i do nowej pracy, 04.08.2020 (dostęp 25.09.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=uKxgW0NBBis", "Źródło: Wojciech S. Wocław: Nowa praca. Jak dobrze wypaść? Moduł 2. Relacje z przełożonym, 11.08.2020 (dostęp 25.09.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=wxyqXNdLOm4", "Źródło: Wojciech S. Wocław: Nowa praca. Jak dobrze wypaść? Moduł 3. Relacje ze współpracownikami, 18.08.2020 (dostęp 25.09.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=tleZj0oCvJk", "Źródło: Wojciech S. Wocław: Nowa praca. Jak dobrze wypaść? Moduł 4. W biurze i na stanowisku pracy, 25.08.2020 (dostęp 25.09.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=Of9w4MoUfgo", "Źródło: Wojciech S. Wocław: Nowa praca. Jak dobrze wypaść? Moduł 5. Na pan, pani, 07.09.2020 (dostęp 25.09.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=VaTTedV3Tb0"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 764, "subject": "Wystąpienia publiczne", "paragraphs": ["Umiejętność wygłaszania publicznych wystąpień ma znaczenie w wielu zawodach, nie tylko tych bezpośrednio kojarzonych z takimi zadaniami. Warto szkolić te kompetencje, gdyż mogą być bardzo przydatne podczas prezentowania wyników pracy własnej, efektów pracy zespołowej, składania propozycji biznesowych i w wielu innych okolicznościach. Poniższe punkty stanowią zbiór dobrych praktyk dotyczących przygotowywania i wygłaszania wystąpień publicznych.", "Przygotowanie Przygotowanie prezentacji jest równie ważne co jej wygłoszenie, a może i ważniejsze. W istocie badania potwierdzają, że czas poświęcony na przygotowanie i przećwiczenie przemowy przekłada się na ocenę wystąpienia [1]. Ten etap warto zacząć od zastanowienia się, co konkretnie chcę przekazać słuchaczom/słuchaczkom? Jakie są najważniejsze elementy mojego wystąpienia, a jakie zdecyduję się włączyć tylko pod warunkiem, że będę mieć zapas czasu? Co chciałabym, aby słuchacze i słuchaczki zapamiętali z mojego wystąpienia? Znalezienie odpowiedzi na te pytania pozwoli dokonać selekcji przygotowywanych treści. Nie bez znaczenia jest także zastanowienie się nad tym, kim są nasi słuchacze i słuchaczki. Morreale [2] proponuje analizę trzech wymiarów: cechy osobiste (demograficzne), cechy kulturowe, cechy psychologiczne. Początkujący ‘mówcy’ miewają obawę, że zabraknie im materiału, że nie mają być może zbyt wiele do powiedzenia. Wraz z nabieraniem doświadczenia okazuje się, że częstszy jest jednak odwrotny problem – jak ograniczyć swoją wypowiedź do najważniejszych elementów? Mamy dostęp do najróżniejszych materiałów i danych, które nie sposób omówić podczas dostępnych nam ram czasowych, gdyż wiedza ta wciąż się rozwija i zmienia. Często rolą mówcy jest pokazanie szlaku, najważniejszych obszarów, a przede wszystkim zachęcenie do dalszego zgłębiania tematu raczej niż skupianie się na detalach.", "Warto także poświęcić odrobinę czasu na zweryfikowanie, co jest celem naszego wystąpienia: czy przekazanie konkretnych informacji, a może rozpoczęcie dyskusji na dany temat, czy może raczej zainspirowanie do zapoznania się z daną dyscypliną? Dla każdej z tych pobudek dobór treści i sposób przekazu będzie nieco inny. Duże znaczenie ma tu także fakt, ile czasu na to mamy. Jeśli niewiele, warto zdecydować się na te najciekawsze, najbardziej przykuwające uwagę zagadnienia, a pominąć te wymagające więcej czasu na omówienie.", "Materiały pomocnicze Dzisiaj prawie każda prezentacja składa się z przemówienia oraz materiałów wizualnych. Choć slajdy mają za zadanie ułatwić i uatrakcyjnić przekaz, nie zawsze tak się dzieje. Choć oczywiście to, jak wygląda prezentacja, nie jest ważniejsze o tego, co się na niej prezentuje, warto jednak poświęcić trochę czasu i uwagi na dopracowanie tego aspektu wystąpienia. Poza samą prezentacją multimedialną, w wystąpieniu można użyć także i inne elementy komunikacji ze słuchaczami. Chętnie korzystam wówczas z możliwości, jakie dają aplikacje do prowadzenia mini-quizów online. Obecnie praktycznie każda osoba na sali, gdzie występuję, ma telefon komórkowy z dostępem do internetu. Aplikacje, takie jak np. Menti czy Kahoot umożliwiają zadanie krótkich pytań publiczności bez konieczności każdorazowego zgłaszania się do odpowiedzi. Wyniki takiej krótkiej sondy można zaprezentować i omówić natychmiast po oddaniu głosów. Jest to bardzo użyteczne z wielu powodów. Po pierwsze angażuje uwagę słuchaczy, po drugie daje im możliwość wypowiedzenia się (każdemu, nie tylko osobie, której udzielimy głosu) i wreszcie po trzecie pozwala nam zbadać przekonania lub wiedzę grupy na jakiś konkretny temat. Inną formą przekazu, która z pewnością urozmaica każdą prezentację treści, są wszelkiego rodzaju materiały zdjęciowe i filmowe. Oczywiście powinny być raczej dodatkiem i nie zajmować zbyt wiele miejsca i czasu. Na końcu chciałabym wspomnieć o właściwie najważniejszej rzeczy, a mianowicie o danych. Większość wystąpień dotyczy jakiegoś konkretnego zagadnienia. Osoba, która wypowiada się na ten temat zapewne jest lepiej zaznajomiona z danym zagadnieniem niż słuchacze i słuchaczki. Niestety nie zawsze informuje się publiczność, czy przekazywane właśnie informacje pochodzą ze sprawdzonego źródła, czy są zweryfikowane empirycznie, czy może są wynikiem osobistych doświadczeń mówcy lub po prostu jego czy jej przekonań, opinii. Jest to o tyle ważne, że między tymi różnymi źródłami informacji, jest ogromna różnica, a słuchacze i słuchaczki wraz z odbiorem treści powinni także mieć świadomość pochodzenia tychże danych.", "Przemawianie Przemawianie publiczne to umiejętność, którą doskonali się z czasem. Niektórzy czy niektóre z nas mają większe lub mniejsze predyspozycje w tym zakresie, jednak każdy i każda z nas mogą podnosić swoje kompetencje komunikacyjne w tym (i innym) aspekcie. Im więcej, udanych lub nie, doświadczeń w przemawianiu, tym więcej nabywamy wprawy i więcej uczymy się, jak należy to robić, a czego lepiej unikać. Ta nauka w zasadzie nigdy się nie kończy, gdyż zmieniają się tematy, które poruszamy, słuchacze i słuchaczki, do których się zwracamy, ale także i środki przekazu, jakimi dysponujemy albo do jakich zmuszeni jesteśmy się dostosować (jak np. pandemia COVID-19, która sprawiła, że wszystkie wystąpienia przeniosły się do sieci).", "Dla wielu osób główną trudnością w komunikowaniu się podczas wystąpień publicznych jest trema. Ten specyficzny lęk przed wystąpieniami bardzo często także przemija wraz z nabywaniem doświadczenia i wprawy. Choć bywają osoby, dla których strach przed publicznym przemawianiem jest szczególnie trudny do opanowania i które mimo podejmowanych wysiłków ostatecznie decydują się na unikanie tej formy prezentowania swojej wiedzy. Nie ma w tym nic złego, nie każdy musi podejmować się tej aktywności. Warto jednak nie poddawać się od razu i sprawdzić, czy może jednak uda się pokonać tremę.", "Każda osoba przemawiająca publicznie ma nieco inny styl i sposób wypowiedzi. Są osoby bardziej lub mniej ekspresyjne, gadatliwe i powściągliwe, poważne i żartobliwe. Z doświadczenia wiem, że nie da się zadowolić wszystkich słuchaczy, bo każdy ma swoje w tym zakresie preferencje. Jedni wolą energicznych mówców, innych takowi irytują. Dla jednych osoba przemawiająca powinna być stonowana i nobliwa, a dla innych otwarta i pogodna. Nie tylko trudno byłoby dostosować się do wszystkich tych oczekiwań, ale też przede wszystkim nie ma to większego sensu. To, co bez względu na własne referencje docenią słuchacze i słuchaczki, to przede wszystkim wiedza, kompetencje i zaangażowanie. Entuzjastyczne przekazywanie wartościowych informacji jest zatem kluczem do udanego wystąpienia. Jeśli sami i same wierzymy, że to, o czym mówimy jest ciekawe i warte słuchania, mamy duże szanse na zaciekawienie słuchaczy. Jeśli zaś naszej przemowie nie brakuje merytoryki i zaangażowania, nasze słowa z większym prawdopodobieństwem trafią do słuchaczy i słuchaczek.", "Czy są zatem jakieś sposoby na to, by wypracować własny styl, wydobyć i pokazać swój entuzjazm? Bardzo pomocne w kształceniu kompetencji związanych z prezentowaniem treści jest inspirowanie się dobrymi mówcami. Jest obecnie wiele platform wymiany wiedzy, jak chociażby TED.com, gdzie każdy może znaleźć setki prezentacji wystąpień publicznych. Niektóre z nich mają miliony wyświetleń, co często wskazuje nie tylko na docenienie walorów informacyjnych, ale nierzadko także na sposób, w jaki informacje te zostały przekazane.", "Informacja zwrotna Na koniec ostatnia wskazówka. Omówiliśmy już wartościową technikę, jaką jest trenowanie wystąpienia przed bliskimi osobami i korzystanie z ich wskazówek. Warto jednak zebrać takie informacje zwrotne także i od odbiorców naszych wystąpień. O ile będzie na to miejsce, warto zaplanować przeprowadzenie nawet krótkiej ankiety wśród słuchaczy i słuchaczek. Może to być w wersji papierowej lub za pomocą jednej z dostępnych aplikacji na telefony. Taka ankieta powinna być bardzo krótka i umożliwiać zarówno ocenę na skali, jak i miejsce na luźne własne wnioski. Dzięki otrzymanej informacji zwrotnej możemy dowiedzieć się, czy nasze obawy, co do naszego sposobu prezentowania były słuszne (zazwyczaj nie) albo co można jeszcze zrobić w przyszłości. Oczywiście nie jest tak, że musimy uwzględniać każdą sugestię słuchaczy – to byłoby niemożliwe. Ale taki wgląd w perspektywę odbiorcy pozwoli nam np. zrozumieć, jaki jest odbiór pewnych prezentowanych przez nas treści. Takie informacje możemy wykorzystać np. do lepszego wyjaśnienia zakresu prezentacji, a nie koniecznie do zmiany jej treści.", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 765, "subject": "Negocjowanie", "paragraphs": ["Negocjowanie to proces immanentnie wpisany w ludzkie życie. Negocjujemy we wszystkich rolach społecznych, jakie pełnimy – w rodzinie, w pracy, w szkole, w sklepie, w grupie znajomych, słowem za każdym razem, gdy nasze potrzeby pozostają w konflikcie z potrzebami drugiej osoby, z tym jednak zastrzeżeniem, że możliwe jest porozumienie satysfakcjonujące obydwie strony [1]. Podstawą negocjacji jest wzajemne przekonywanie się, argumentowanie, ujmowanie przedmiotu sporu jako problemu wspólnie rozwiązywanego i dążenie do uzgodnienia wspólnego punktu widzenia oraz dopasowania działalności stron w sposób możliwie polubowny [2].", "Negocjacje to zatem specyficzny rodzaj rozmowy, w której o rozwiązaniu zadowalającym osoby w niej uczestniczące, decydują ich umiejętności i kompetencje komunikacyjne [4]. Pozostają one w ścisłym związku z czynnikami, które determinują przebieg negocjacji. Można je ująć w zaproponowany przez Roberta Mayera akronim LANCET [5]:", "Lepszy kontakt wiąże się z dbałością o klimat, nastrój, poprzez odpowiedni ton głosu, stwarzanie przychylnej atmosfery i sterowanie uwagą rozmówcy, by osiągnąć z nim bliższy i bardziej osobisty kontakt, który sprzyja przekonywaniu do własnych propozycji. Atrybuty zgody odnoszą się do budowania relacji międzyludzkich, które ulegają wzmocnieniu, jeśli unikamy narzekania, powracania do spraw zamkniętych, używania kategorycznych sformułowań oraz kiedy zachęcamy oponenta do energicznych reakcji i ukierunkowujemy jego energię na dochodzenie do konsensusu. Czynnik określony jako „nie tylko cena” jest funkcją założenia, że w swoich wyborach ludzie kierują się przede wszystkim potrzebami, a nie korzystną ceną. W tym kontekście sztuka wywierania wpływu polega przede wszystkim na identyfikowaniu tych potrzeb, uświadamianiu ich, a następnie zaspokajaniu. Chęć pomocy wyraża się głównie przez komunikację werbalną, choć treść może się także wyłaniać z mowy ciała. Efektywny środek komunikacji to z kolei czynnik ukierunkowany na dostrzeganie nowych form i możliwości komunikacji. Tendencyjność jako czynnik kształtowania procesu komunikacji uwypukla tok rozumowania i postępowania negocjatorów. Oceniając problem, zachowania innych czy przedmiot negocjacji, często odnoszą się do siebie, pomijając fakt, że druga strona może interpretować je na podstawie własnych wrażeń, percepcji i przypuszczeń [6].", "Dobrze prowadzony proces negocjacyjny powinien się odbywać według określonych zasad. W odniesieniu do aspektów komunikacyjnych brzmią one następująco [7]:", "Zastosowanie się do tych zasad redukuje ryzyko popełnienia błędów już na wstępnym etapie negocjacji.", "Warto także uwzględnić kilka kolejnych reguł, które ułatwiają pertraktacje i zwiększają prawdopodobieństwo realizacji obopólnie korzystnego celu. Należą do nich następujące wytyczne [8]:", "Materiały dodatkowe", "Źródło: TED, How to speak up for yourself: Adam Galinsky at TEDxNewYork, 16.12.2016 (dostęp 21.08.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=MEDgtjpycYg"], "definitions": [{"name": "Definicja 1: Negocjacje", "content": "Negocjacje to „zwrotny proces komunikowania się w celu osiągnięcia porozumienia w sytuacji, gdy ty i druga strona związani jesteście pewnymi interesami, z których jedne są wspólne, a inne przeciwstawne” [3]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 768, "subject": "Konflikt", "paragraphs": ["Komunikacja dotyczy przede wszystkim przekazywania informacji, intencji czy strategii działania. Niemniej przekaz ten, poza informacyjnym, nierzadko zakłada także komponent emocjonalny. Emocje towarzyszące komunikacji mogą prowadzić do różnorodnych nieporozumień i konfliktów. Natomiast różnice w percepcji sytuacji społecznych mogą przyczyniać się do powstawania konfliktów. Zdaniem Wilmota i Hockera „Interpersonalna percepcja jest fundamentem, na którym budowane są konflikty” [1]. Ponieważ zazwyczaj bardzo trudno jest nam przewidzieć lub wpłynąć na to jak inni interpretują kierowane do nich słowa, o drobne lub większe konflikty nie jest wcale tak trudno. Komunikowanie się jest więc zarówno jedną z najczęstszych przyczyn powstawania sporów, a z drugiej strony jednym z narzędzi użytecznych w unikaniu i radzeniu sobie z powstającymi antagonizmami. Zarówno w relacjach prywatnych jak i zawodowych częste i nie rozwiązane należycie konflikty mogą wyrządzić wiele szkód. Od nieefektywnego działania przez obniżony poziom nastroju i samopoczucia, aż po zerwane relacje i zaprzepaszczone szanse. Niestety tego, jak radzić sobie z konfliktem zarówno w życiu osobistym jak i profesjonalnym, nie mamy okazji nauczyć się w szkole. Mimo, iż jest to tak fundamentalnie znacząca dla naszego sprawnego funkcjonowania kompetencja, jak wiele innych umiejętności społecznych i ta pozostaje w obszarze korzystania z wrodzonych predyspozycji, nabytych przyzwyczajeń czy wypracowanych mniej lub bardziej efektywnych praktyk. Jak inne kompetencje, rozwiązywanie konfliktów może być w dużej mierze ćwiczone i doskonalone, co wymaga jedynie nieco zaangażowania i otwartości.", "W tym rozdziale skupimy się głównie na konfliktach powstających w miejscu pracy. Na początku zdefiniujemy, czym jest konflikt i jakie mogą być najczęstsze obszary powstawania konfliktów, następnie zaś omówimy sposoby radzenia sobie z konfliktem poprzez przyjmowanie różnorodnych technik komunikacyjnych. De Dreu i Gelfand [2] uznają, że konflikt jest społecznym fenomenem, który objawia się wśród wszystkich gatunków, okresów historycznych i kręgów kulturowych. Badania nad konfliktem stanowią przedsięwzięcie interdyscyplinarne i wieloaspektowe, gdyż zajmują się nim badacze z tak różnych dziedzin jak: psychologia, socjologia, antropologia, ekonomia, nauki polityczne, ale też matematyka czy fizyka [2]. Na obszarze zawodowym badania nad konfliktem starają się znaleźć odpowiedź na pytanie, jak ludziom udaje się działać w sytuacji ciągłej współzależności, co na dzisiejszym rynku pracy jest kwestią fundamentalną. Jeszcze nie tak dawno, bo około kilkadziesiąt lat temu ludzie rzadko kiedy zmuszeni byli do tak intensywnej kooperacji jak dzisiaj. Szewc szył buty w swoim zakładzie, a rolnik uprawiał rolę sam lub z członkami swojej rodziny. Dzisiejsze organizacje złożone są z dziesiątek, setek a czasem nawet i tysięcy pracowników, tworząc skomplikowane sieci relacji i wzajemnych powiązań. Nasza praca stała się też w wielu przypadkach mocno złożona i często po prostu nie odpowiednia dla jednostek działających w pojedynkę. Dodatkowo, w dzisiejszym miejscu pracy, w przeciwieństwie do tego, co miało miejsce jeszcze kilkanaście lat temu, spotykają się ludzie różniący się od siebie na wielu płaszczyznach, takich jak: wiek, płeć, narodowość, wyznanie, pochodzenie, etc. Jeszcze chyba nigdy w historii nie zdarzyło się, by w jednej organizacji współpracowali ze sobą nierzadko na równorzędnych stanowiskach przedstawiciele kilku generacji: dwudziesto-, trzydziesto-, czterdziesto-, pięćdziesięcio- i sześćdziesięciolatkowie. Średnia życia wydłuża się, a medycyna i zdrowy tryb życia przyczyniają się do tego, że osoby starsze chcą (lub muszą) być aktywne zawodowo do późnego wieku. Z kolei rosnąca popularność i znaczenie nowoczesnych technologii i stosunkowo niska bariera wejścia na ten rynek powoduje wysyp start-upów zakładanych i prowadzonych przez osoby bardzo młode. Od wielu lat obserwujemy też zwiększenie udziału kobiet na rynku pracy, który w tym momencie wynosi już dokładnie \\( 50\\% \\) (w krajach rozwiniętych). Łatwość w podróżowaniu i rozwój technologii komunikacyjnych powodują, że do zespołów zapraszane są osoby o różnej narodowości, kulturze pochodzenia, wyznawanych wartościach.", "Wszystkie te czynniki wynikające z dynamicznych zmian społecznych powodują, że o konflikty w tak niespotykanych dotychczas warunkach jest szalenie łatwo. Ludziom z natury trudno jest akceptować inny porządek rzeczy niż ten, do którego przywykli, tak więc bez odpowiedniego przygotowania (np. poprzez szkolenia) czy kompetencji przełożonych praca w tak zróżnicowanym gronie dla wielu osób może być wielkim wyzwaniem. Dodatkowym problemem jest fakt, że ludziom zazwyczaj wydaje się, że to inni nie potrafią się umiejętnie komunikować w przeciwieństwie do nich samych. Innymi słowy, mamy wielką łatwość w uznaniu, że nasz sposób komunikacji jest właściwy i sprzyjający współpracy, podczas gdy inni, z którymi być może ciężko nam się rozmawia ,zdecydowanie powinni się podszkolić w tym zakresie. Oczywiście łatwo się domyślić, że przekonanie to jest zazwyczaj obecne u obu uczestników interakcji. Kiedy bowiem ostatnio zdarzyło ci się pomyśleć: może powinienem/powinnam popracować nad swoimi kompetencjami komunikacyjnymi? Może ja coś mówię nie tak? Czy ja jasno wyrażam swoje myśli? Czy używam odpowiedniego języka? Czy mój przekaz nie jest przypadkiem krzywdzący dla drugiej osoby?", "Konflikt może mieć formę jawną lub utajoną [3]. Może dotyczyć całej organizacji lub poszczególnych działów czy wreszcie konkretnych osób. De Dreu i Gelfand podkreślają także, by odróżniać konflikt w organizacji od takich pojęć jak nieuprzejmość czy zastraszanie (ang. bullying). Konflikt może być wynikiem predyspozycji osobowościowych, takich jak np. wysoki poziom dogmatyzmu czy dążenia do władzy, a niskiej ugodowości. Obejmuje różnorodne aspekty psychologiczne tj. poznawcze, emocjonalne, osobowościowe, czy motywacyjne. Skutki konfliktu wpływają na poziom wykonania, efektywność zespołową i indywidualną, satysfakcję z pracy i zaangażowanie w nią, a te w konsekwencji także na absencję, rotację, zdrowie fizyczne i psychiczne pracowników. Dodatkowym znaczącym czynnikiem przyczyniającym się do powstawania konfliktów w komunikacji w miejscu pracy jest rozpowszechnienie używania rozmaitych mediów komunikacyjnych (mail, telefon, wideokonferencja, chat). Badania pokazują, że im więcej dostępnych kanałów komunikacji, tym dla nas lepiej. Łatwiej bowiem o nieporozumienie, gdy tylko kogoś widzę niż gdy widzę i słyszę, a jeszcze łatwiej, gdy tylko czytam czyjąś krótką wypowiedź pisemną. Im mniej informacji kontekstowych, tym więcej pola dla (błędnej) interpretacji czyjejś wypowiedzi.", "Materiały dodatkowe"], "definitions": [{"name": "Definicja 1: Konflikt", "content": "Konflikt jest to proces, który rozpoczyna się, gdy dana osoba lub grupa dostrzega różnice i sprzeczności między nią a inną osobą lub grupą dotyczące interesów i zasobów, przekonań, wartości lub praktyk, które są dla nich ważne [2]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 766, "subject": "Podłoże konfliktów interpersonalnych", "paragraphs": ["Stworzenie i podtrzymanie pozytywnego obrazu siebie jest bardzo istotnym motywem działania. Ludzie, świadomie lub nie, wkładają dużo wysiłku, by być ocenianym przez innych i/lub siebie jako osoby kompetentne, wartościowe, atrakcyjne i dobre. Sytuacje, które potencjalnie mogą stwarzać zagrożenie dla poczucia własnej wartości czy skuteczności, mogą równocześnie przyczyniać się do zaostrzenia konfliktów interpersonalnych. Każda relacja interpersonalna, czy to w grupie czy jeden na jeden, powoduje potencjalne zagrożenie dla poczucia własnej wartości i chęć obrony ego. Jak piszą de Dreu i Gelfand: „im mniej stabilna jest samoocena jednostki, tym gorzej radzi sobie ona z wrogością i negatywnymi opiniami, a ponieważ wrogość i negatywne informacje zwrotne są nieodłączną częścią konfliktu społecznego, tym bardziej prawdopodobne jest, że w przypadku ich pojawienia się konflikt eskaluje” [1]. Mimo, iż samoocena jest konstruktem w miarę stabilnym w czasie, to jednak doświadczenie pozytywnej lub negatywnej informacji zwrotnej może mieć wpływ na zachowanie jednostek, a w przypadku doświadczenia krytyki, do wrogości, a ta z kolei do konfliktu. Zwłaszcza gdy samoocena jawna jest różna od tej utajonej. Jak pokazują badania Jordana i współpracowników [2], osoby o wysokiej jawnej, a niskiej podświadomej samoocenie są bardziej skłonne do wrogości czy uprzedzeń w porównaniu z osobami, których świadoma i nieświadoma samoocena jest taka sama. Jest to spójne z wynikami innych badań [3], które pokazały, że osoby o niestabilnej wysokiej samoocenie mają wyższe skłonności do przejawiania złości niż osoby o stabilnej samoocenie. Chęć ochrony ego przekłada się na konkretne zachowania i decyzje, jak na przykład: przecenianie swoich możliwości (iluzja kontroli), kompetencji (zawyżona pewność siebie), ale także i posiadanych dóbr (ludzie uważają za lepsze to, co sami posiadają).", "De Dreu i Gelfand proponują odróżnienie konfliktów dotyczących zasobów od konfliktów dotyczących ideologii czy wartości. Konflikty ideologiczne dotyczą różnicy w poglądach i przekonaniach społecznych czy politycznych. Konflikty wartości natomiast odnoszą się do moralności, etyki. Te drugie mogą być trudniejsze do rozwiązania, gdyż trudniej w nich o negocjacje czy kompromisy. Konflikty interpersonalne wynikające z zagrożenia samooceny to tylko jeden wymiar potencjalnego źródła nieporozumień. W tym miejscu warto wspomnieć także o bardzo ważnej w kontekście powstawania konfliktów kwestii, a mianowicie identyfikacji grupowej. W organizacjach ludzie bardzo szybko identyfikują się z danymi grupami osób czy interesów. Poczucie przynależności do pewnej grupy powoduje natomiast nieuchronnie uruchomienie pewnych mechanizmów społecznych. Jest to temat bardzo szeroki i nie centralny dla omawianego zagadnienia, więc nie będziemy się przy nim dłużej zatrzymywać, warto jednak zapamiętać, że silna identyfikacja z grupą własną bardzo często prowadzi do deprecjonowania członków grupy innej, chęci zdobycia przewagi i stereotypizacji.", "W poszukiwaniu rozwiązań Jak radzić sobie z konfliktami w miejscu pracy? Aktywnie czy pasywnie? To dwie zupełnie odmienne strategie działania. Pierwsza z nich zakłada negocjacje, mediacje, konfrontację, druga natomiast – unikanie i wycofanie się. W dzisiejszych czasach zapewne wiele mówi się o korzyściach wynikających z rozmowy i podejmowania prób znalezienia rozwiązania danego konfliktu. Badania jednak nie są jednoznaczne w tej kwestii. Zwłaszcza, jeśli konflikty dotyczą tak trudnych do negocjacji wątków jak obszary osobistych wartości i przekonań, które w przeciwieństwie do konfliktów o zasoby są o wiele trudniejsze do rozstrzygnięcia na drodze kompromisu (np. czy można znaleźć kompromis w zakresie etycznego prowadzenia biznesu?). Może się więc okazać, że zespoły będą pracowały efektywniej, nie konfrontując swoich potencjalnie sprzecznych przekonań ideologicznych. Oczywiście nie jest to żelazną zasadą i każdy konflikt tak jak i każda organizacja i grupa pracowników są różne, stąd znalezienie najlepszej strategii działania powinno zawsze być dostosowane do konkretnej sytuacji.", "I choć mogłoby się wydawać, że agresywny styl komunikacji częstokroć wygrywa z bardziej pokojowymi staraniami, badania pokazują, że wyrażanie złości w dyskusji może powodować szybkie osiągnięcie impasu, wrogość w relacji i ogólnie niską efektywność interakcji. Dodatkowo wyrażany gniew budzi w konsekwencji gniew innych co powoduje niekorzystne i nieefektywne sprzężenie zwrotne. Szczególnie trudna sytuacja ma miejsce, gdy poza gniewną, agresywną reakcją pojawia się ekspresja pogardy czy lekceważenia. W takich sytuacjach impas jest praktycznie nieunikniony, gdyż konflikt staje się bardziej emocjonalny i zaczyna dotyczyć nie tylko osiągnięcia własnych korzyści czy celów, ale także obrony ‘własnej twarzy’ i/lub pokonania drugiej strony [4].", "Istnieją także zespoły i organizacje, gdzie konfliktów nie postrzega się nazbyt negatywnie. Chodzi głównie o zespoły innowacyjne, których celem jest wypracowanie nowatorskich rozwiązań. W takich zespołach różnice przekonań nie są niczym nieoczekiwanym i zagrażającym. Wręcz przeciwnie – są źródłem zróżnicowanych bodźców i motorem postępu. W tym przypadku nie powiemy raczej o konflikcie, a o twórczej różnicy perspektyw, choć z zewnątrz starcie się różnych pomysłów na dane rozwiązanie może wyglądać jak solidne starcie.", "Morreale, Spitzberg i Barge [5] przytaczają trzy główne umiejętności radzenia sobie z konfliktem: unikanie dystrybucja i integracja. Unikanie polega na sprawnej zmianie tematu, odłożeniu rozmowy na później, odwróceniu uwagi od palącej kwestii. Choć autorzy podkreślają, że jest to zachowanie wskazujące raczej na brak kompetencji i niską efektywność komunikacji, czasem może się okazać jedynym lub najlepszym rozwiązaniem. Z założenia uważamy, że wycofywanie się z konfrontacji nie jest skuteczne, gdyż nierozwiązany problem prędzej czy później powróci. Jednak nie zawsze jest to regułą. W relacjach krótkotrwałych lub w kwestiach, które mają dla nas niewielkie znaczenie, być może zmiana toru rozmowy będzie dobrym wyjściem z trudnej lub potencjalnie trudnej sytuacji. Nie każda różnica zdań musi zostać ostatecznie rozstrzygnięta, czasem lepiej jest uznać, że najwidoczniej dzielą nas pewne przekonania i tak musi pozostać. Oczywiście nie zawsze takie rozwiązanie wystarcza. Na przykład w ważnych sprawach, gdzie konieczne jest podjęcie decyzji o długofalowych skutkach lub w bliskich relacjach unikanie problematycznych kwestii pogłębi tylko niezadowolenie i napięcie. Wtedy być może warto sięgnąć po inne narzędzia. Bez względu jednak na rodzaj kwestii spornej, umiejętność przewidywania możliwego konfliktu, obserwowania wrogich reakcji i ostatecznie unikania eskalacji konfliktu jest umiejętnością bardzo przydatną. Najłatwiej wybrnąć z nieporozumienia, które nie rozwinęło się w pełni na tyle, by uczucia obu stron zostały zranione a podziały sprawiały wrażenie nie do pogodzenia. Druga z wymienionych przez autorów umiejętności to tzw. dystrybucja, również uznana za niekompetentne podejście, gdyż zakłada takie zachowania jak: krytyka, oskarżanie, krzyki, dążenie do maksymalizacji jedynie swoich zysków, unikanie przyznania się do winy, które to zachowania są powszechnie uznawane za formy komunikacji rozpraszającej. Ostatnia umiejętność to wreszcie przejaw zachowań efektywnych. Integracja to dążenie do uwzględniania celów wszystkich stron konfliktu. Polega na ostrożnym odkrywaniu celów stron oraz możliwości ich zaspokojenia. Podobną strategię proponuje się w negocjacjach, gdzie głównym zadaniem oponentów jest odkrycie konkretnych potrzeb jakie stoją za wystosowanymi żądaniami, by ostatecznie znaleźć możliwość takiego wyjścia im naprzeciw, by zmaksymalizować zadowolenie obu stron.", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 769, "subject": "Etykieta biznesowa", "paragraphs": ["Etykieta, dobry obyczaj, savoir-vivre, kurtuazja to terminy określające zbiór zasad, reguł, zachowań, których przestrzeganie ma nam ułatwić życie. Nade wszystko jednak dzięki nim możemy okazać innym szacunek i uprzejmość, a z kontaktów osobistych czerpać przyjemność. Reguły biznesowe różnią się nieco od towarzyskich, ponieważ dominuje w nich równouprawnienie kobiet i mężczyzn, a zasadą główną jest hierarchia, wyższy rangą ma pierwszeństwo bez względu na wiek i płeć [1].", "Dodać należy, że etykieta biznesowa opiera się w dużej części na regułach etykiety zapisanych w protokole dyplomatycznym, który współcześnie stanowi kod łączący dyplomatyczne formy, ceremonię i etykietę. Pojęcia protokołu, ceremoniału i etykiety nie są równoznaczne, choć w wielu przypadkach mogą się nakładać. Protokół reguluje stosunki między państwami i ich przedstawicielami, ceremoniał służy organizacji uroczystości oficjalnych, szczególnie państwowych, etykieta zaś jest przestrzeganiem zasad zachowania się i ubioru w sytuacjach publicznych [2].", "Protokół dyplomatyczny w znacznej części jest uniwersalny, ale w szczegółach różni się w każdym państwie. Podobnie dzieje się w przypadku zasad etykiety biznesowej. Zasięg wielu z nich jest ograniczony do miejsca, czasu, środowiska i kontekstu. W tym module poruszone zostaną przede wszystkim zagadnienia związane z najważniejszymi normami etykiety biznesowej przyjętymi w Polsce i w zachodnim kręgu kulturowym. Ich stosowanie korzystnie wpływa na budowanie wizerunku i zwiększa wiarygodność oraz skuteczność negocjacyjną.", "Warto przyjrzeć się zasadom etykiety biznesowej w odniesieniu do wybranych jej aspektów. Pierwszym z nich jest umiejętne przedstawianie się i znajomość zasad precedencji, czyli pierwszeństwa w różnych sytuacjach.", "Przywitanie i przedstawianie [3]:", "Warto dodać, że uścisk dłoni kobiety i mężczyzny powinien być zdecydowany, nie za mocny, nie za słaby i trwać do dwóch sekund [4].", "Kolejny ważny element etykiety dotyczy higieny osobistej [5]:", "Następny wiąże się z właściwym używaniem telefonów komórkowych [6]:", "Spożywanie posiłków na przyjęciach i w lokalach to kolejna dziedzina, w której funkcjonują określone zasady etykiety [7]:", "Netykieta, czyli etykieta w internecie, nabiera wciąż rosnącego znaczenia. E-mail jest elektronicznym listem i pisząc go, powinno się stosować te same zasady, które obowiązują w korespondencji tradycyjnej [8]:", "Kompleksowe omówienie zasad konstytuujących biznesowy savoir-vivre w realiach rodzimych znaleźć można w książce „Współczesna etykieta biznesu w codziennej praktyce w Polsce” [9]. Przyswojenie szczegółów z innych kultur umożliwi z kolei lektura podręcznika „Różnice kulturowe a zachowania w biznesie” [10].", "Materiały dodatkowe", "Źródło: Wojciech S. Wocław, O BUDOWANIU RELACJI, różnicach kulturowych i etykiecie w biznesie, 06.08.2019 (dostęp 18.07.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=v0zDzRCZQ70", "Źródło: TEDxTalks, Etykieta w biznesie - jak zamiast jakoś budować jakość relacji?: Katarzyna Krupa at TedxSGH, 24.03.2020 (dostęp: 20.07.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=XNO0hoQ8ors"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja interpersonalna", "subject_id": 770, "subject": "Rozwijanie kompetencji komunikacyjnych (narzędzia)", "paragraphs": ["Indra Nooyi, szefowa Pepsi CO wymienia kompetencje komunikacyjne jako jedną z pięciu najważniejszych umiejętności w arsenale skutecznego lidera. Dodaje przy tym „You cannot overinvest in communication skills”, czyli: „zawsze opłaca się inwestować w rozwijanie kompetencji komunikacyjnych”. Niestety formalna edukacja nie przykłada aż tak wielkiej wagi do tego obszaru jak byłoby to wskazane, dlatego warto podczas studiów korzystać z różnych możliwości szkolenia kompetencji komunikacyjnych. Drugą stroną medalu jest fakt, że bardzo trudno jest znaleźć wiarygodne i rzetelne źródła praktycznej wiedzy na temat komunikacji i sama nadal staram się szukać i sprawdzać różne możliwości. Po pierwsze istnieje bardzo wiele różnorodnych kompetencji komunikacyjnych, których szkolenie nie jest możliwe jednocześnie. Poniżej przytoczone zostały wybrane obszary kompetencji, należących do obszaru komunikacji. Z pewnością nie jest to zamknięta lista i wraz z postępem technologicznym czy zmianami na rynku pracy będzie się tylko wydłużać. Warto więc na początku zastanowić się, jakie kompetencje szczególnie chcielibyśmy wzmocnić. Zapewne większość z nas szczególnie chciałoby się szkolić w zakresie asertywności czy wywierania wpływu społecznego a nie aż tak wielu z aktywnego słuchania czy udzielania informacji zwrotnej. Jak pokazują badania, skuteczni liderzy spędzają więcej czasu słuchając, zadając pytania i prowadząc niezobowiązujące rozmowy (tzw. small talk) niż przekonując czy nakazując [1].", "Cztery główne obszary umiejętności interpersonalnych w obszarze komunikacji wg Morreale, Spitzberga i Barge [2] to: uważność, panowanie nad sobą, koordynacja i ekspresyjność. Uważność polega na okazywaniu zainteresowania i zaangażowania w rozmowę. Sprzyjają jej działania związane z rozwijaniem tematu, np. zadawanie pytań czy parafrazowanie oraz zarządzanie czasem przeznaczonym na wypowiedzi obu (lub więcej) stron. Zadawanie pytań jest jedną z najprostszych form okazywania zaangażowania rozmówcy, a przy okazji pozwala na zebranie wielu cennych informacji. Warto pamiętać tutaj o rozróżnieniu na pytania otwarte (np. „co o tym sądzisz?”) i zamknięte (np. „zgadzasz się czy nie?”). Stosowanie pytań otwartych pozwala pozyskać więcej informacji i wypowiedzieć się pełniej. Według Morreale, Spitzberg i Barge głównym powodem, dla którego ludzie nie w pełni panują nad sobą w interakcji, jest lęk. Mają więc na myśli raczej zachowania wynikające z pewnej dozy lęku społecznego czy nieśmiałości. Nadmiar panowania nad sobą określają mianem komunikacji agresywnej, czyli takiej, gdzie wyrażanie własnych potrzeb narusza prawa i potrzeby innych. Jak się wydaje, komunikacja agresywna nie wynika z nadmiaru kompetencji panowania nad sobą – wręcz przeciwnie. Ktoś, kto dopuszcza się agresji słownej również kierowany jest lękiem – lękiem bycia niepoważanym, niewysłuchanym. Jest to także oznaką niskiego poziomu pewnych kompetencji komunikacyjnych. Agresywna komunikacja może bowiem na krótką metę pomóc nam w pozyskaniu tego, na czym nam obecnie zależy, jednak długofalowo ma katastrofalne skutki dla relacji z osobami, wobec których jest stosowana.", "Jedną z najbardziej rozpowszechnionych metod budowania kompetencji komunikacyjnej jest tak zwana Komunikacja Bez Przemocy (Non Violent Communication, NVC) opracowana przez nieżyjącego już amerykańskiego psychologa i psychiatrę Marshala Rosenberga. Koncepcja komunikacji bez przemocy w swoich założeniach jest dość nieskomplikowana. Opiera się bowiem na przekonaniu, że aby skutecznie się komunikować w trudnych sytuacjach, należy nabyć umiejętność odpowiedniego formułowania swojego komunikatu z jednej strony, ale także prawidłowego odczytywania komunikatu, który jest do nas kierowany. Choć te założenia wydają się proste, praktyczne ich wdrożenie nastręcza nam wielu trudności. Dzieje się tak dlatego, że ludzie często nie mówią wprost, na czym im zależy lub mówią to zbyt agresywnie, dodają swoje interpretacje do słów innych lub podejmują wiele innych nieefektywnych działań, które utrudniają komunikację. Dlaczego tak się dzieje? Nie ma jednej odpowiedzi na to pytanie. Czasem z obawy przed reakcją drugiej strony, czasem w samoobronie a najczęściej z braku znajomości innych metod komunikacji lub z przyzwyczajenia.", "Zgodnie z założeniami koncepcji Komunikacji bez przemocy dwie kluczowe fazy to: szczere wyrażanie siebie oraz empatyczny odbiór [3]. Natomiast elementy, które umożliwiają wyrażanie siebie i empatyczny odbiór to z kolei: spostrzeganie, uczucia, potrzeby, prośby. Co to konkretnie oznacza? Rosenberg zachęca, by odnosząc się do kogoś, powstrzymać się od oceniania czy komentowania (co wbrew pozorom jest bardzo trudne!), a raczej starać się odnosić do konkretnych zachowań (w pierwszej kolejności), następnie odnosząc się do swoich uczuć związanych z zaistniałą sytuacją by następnie sformułować bardzo jednoznaczną prośbę. Rozważmy dwa poniższe przykłady.", "Zgodnie z czterostopniowym modelem Komunikacji bez przemocy, powinniśmy odnosić się do zaobserwowanego zachowania zamiast od razu oceniać charakter czy intencje drugiej osoby. Ocenianie i krytykowanie bowiem powoduje natychmiast chęć obrony siebie, przez co skutecznie blokuje dalszą komunikację. Jeśli chodzi o wyrażanie swoich uczuć dotyczących danej sytuacji, to nierzadko błędnie wydaje nam się, że to właśnie czynimy mówiąc: czuję się ignorowany, niedoceniona czy zawiedziona. Te słowa to tak naprawdę ukryta ocena drugiej osoby, która: zignorowała, nie doceniła czy zawiodła. W praktyce Komunikacji bez przemocy chodzi raczej o uświadomienie sobie i rozmówcy, dlaczego ta konkretna sprawa jest dla nas ważna, jaki stan wywołuje w nas i dlaczego. Nie jest to wbrew pozorom oczywiste. Nie zawsze dane zachowanie ma dokładnie ten sam skutek. Przykładowo, kolega spóźniając się na spotkanie z nami, może wywołać w nas albo rozgoryczenie i uczucie nieposzanowania – gdy sami śpieszyliśmy się, by być na czas, albo ulgę – gdy nie jesteśmy jeszcze gotowi. Zakładanie, że pewne zachowania wywołują w ludziach zawsze te same przewidywalne emocje jest ryzykownym nadużyciem. Ważnym elementem komunikacji bez przemocy jest sformułowanie potrzeby, jaką chcemy wyartykułować. I znów, choć może to być dziwne, nie zawsze jest to jasne nawet dla nadawcy komunikatu. Rosenberg przytacza przykład pacjentki, która zapytana czego właściwie potrzebuje od własnego partnera, po długiej chwili namysłu odpowiedziała: „nie wiem, ale chciałabym, aby on to wiedział”. To bardzo specyficzne żądanie, praktycznie niemożliwe do zrealizowania. Jak możemy żądać od innych, by spełniali nasze prośby, gdy sami nie jesteśmy ich świadomi a w naszej komunikacji pojawiają się głównie zarzuty i negatywne oceny? Wreszcie ostatnim elementem skutecznego komunikatu powinna być bardzo konkretna prośba: czy możesz zadzwonić do mnie jutro o 10? Czy możesz odnieść te dokumenty na swoje miejsce? Czy możesz pokazać nowemu pracownikowi całe biuro i przedstawić go wszystkim? Zamiast: zdzwońmy się w tej sprawie, a co te teczki tutaj robią?, zajmiesz się tym nowym? Znów – jeśli nie sformułujemy dokładnej prośby, możemy nie otrzymać tego, na czym nam zależy, jak w przypadku innej pacjentki autora, która narzekając, iż jej mąż zbyt dużo czasu spędza w pracy i wyrażając życzenie, by pracował mniej uzyskała ten efekt, że jej partner rzeczywiście, zaczął wcześniej wychodzić z biura, ale po to, by rozegrać partię golfa a nie po to, by spędzać z nią więcej czasu, co było rzeczywistą intencją stojącą za jej prośbą.", "Rosenberg w swoich materiałach przytacza wiele zaczerpniętych z życia sytuacji, co pozwala lepiej zrozumieć postulowane przez niego zasady. I choć nie jest to jedyna możliwa technika efektywnej komunikacji, z pewnością opanowanie jej będzie przydatną życiową kompetencją.", "Materiały dodatkowe Warsztat prowadzony przez Marshala Rosenberga. Empatia TV, Podstawy NVC (Porozumienie Bez Przemocy), (dostęp 10.09.2020). Dostępne w YouTube:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 816, "subject": "Komunikacja w zespole", "paragraphs": ["Sprawna komunikacja ma ogromne znaczenie dla efektywnej pracy zespołowej. A ponieważ obecnie praca w grupie stała się bardzo często stosowaną metodą działania w wielu organizacjach, kompetencje komunikacyjne osób zapraszanych do zespołów nierzadko są równie ważne co ich kompetencje merytoryczne. Osoby, które nie potrafią się porozumieć z innymi, często popadają w konflikty lub nie potrafią jasno wyrazić swoich intencji, mogą stać się zagrożeniem dla osiągnięcia celu przedsięwzięcia. Trudności komunikacyjne w zespołach roboczych mogą także przyczynić się do powstawania konfliktów i spadku satysfakcji oraz zaangażowania w pracę. Pewne nawyki w prowadzeniu dyskusji grupowych mogą albo przyczynić się do większej kreatywności zespołu albo wręcz przeciwnie do powstania rozwiązań przeciętnych lub niezgodnych z oczekiwaniami. Jaka więc powinna być poprawna komunikacja w zespole? Przede wszystkim częsta, bezpośrednia i otwarta. Im częściej członkowie zespołu mają szansę rozmawiać ze sobą, tym większe prawdopodobieństwo, że unikną nieporozumień czy niedomówień. Komunikacja jest też sprawniejsza, gdy odbywa się twarzą w twarz, choć – co pokazały niedawne doświadczenia pandemii Covid-19, nie zawsze jest możliwe. Gdy jednak nie ma ku temu obiektywnych przeszkód, bezpośrednia komunikacja przynajmniej w kluczowych momentach pracy zespołu (np. na początku czy w przypadku pojawiających się trudności) nie powinna najlepiej odbywać się przez wideokomunikatory. Pozwala to nie tylko na większą precyzję komunikacji, ale także na zaciśnięcie więzi między członkami zespołu. Jeśli jednak już konieczne jest komunikowanie się zdalne, w literaturze tematu można znaleźć opinie, iż najefektywniejsze są te media, które umożliwiają porozumiewanie się przy największej liczbie kanałów komunikacyjnych, czyli kolejno: wideokonferencja (podczas której rozmówcy widzą się i słyszą), rozmowa audio (gdy rozmówcy tylko słyszą się nawzajem), komunikat pisany (np. mail). Za najmniej efektywne uważane są krótkie pisemne formy komunikacji, jak sms czy wiadomość na czacie.", "Bardzo ciekawe badania dotyczące roli komunikacji przeprowadził Alex Pentland z Massachusetts Institute of Technology (MIT) [1], a które zostały opublikowane przez Harvard Business Review pod znaczącym tytułem „The New Science of Building Great Teams. The chemistry of high-performing groups is no longer a mystery”, czyli “Nowa nauka budowania wybitnych zespołów. Chemia efektywnych grup przestaje być tajemnicą”. Pentland do swoich badań wykorzystał specjalistyczne urządzenie w postaci elektronicznego czytnika sygnałów interakcji między członkami zespołów, takich jak: częstość zachodzącej komunikacji, ton głosu, a nawet odległość między osobami. W analizie nie uwzględniano jednak, o czym członkowie rozmawiają, a tylko w jaki sposób i jak często. Zespół Pentlanda przeprowadził swoje badania w wielu różnych organizacjach, takich jak banki, szpitale czy call center. Łącznie w ciągu siedmiu lat przebadano 2,500 osób z 21 organizacji. Te imponujące dane umożliwiły odkrycie pewnych prawidłowości, na podstawie których Pentland stwierdził, że to, w jaki sposób zespół komunikuje się ze sobą, ma większe znaczenie dla jego efektywności niż inne czynniki, takie jak: inteligencja członków zespołu, czynniki osobowościowe, umiejętności czy przedmiot rozmowy. Jednym z kluczowych czynników była częstość komunikacji pozaformalnej, czyli poza oficjalnymi spotkaniami czy zebraniami. Kiedy badacze zalecili jednej z badanych firm, by zorganizowała przerwy kawowe dla pracowników w taki sposób, by wszyscy spędzali je wspólnie, okazało się, że znacząco wpłynęło to na efektywność pracy. Średni czas załatwiania spraw przez najmniej efektywne zespoły call center spadł o \\( 20\\% \\) a dla wszystkich zespołów średnio o \\( 8\\% \\).", "Wprowadzając takie proste rozwiązanie we wszystkich oddziałach firmy, prognozowany wzrost produktywności oszacowano na 15 milionów dolarów. W artykule Pentlanda można znaleźć ciekawe wizualizacje tego, w jak różny sposób przebiegała komunikacja w badanych zespołach. Ogólny wniosek z tych badań jest taki, że im częstsza była komunikacja między wszystkimi członkami zespołu a także pomiędzy różnymi zespołami tej samej organizacji, tym większa była ich efektywność. Udało się ponadto wyróżnić pięć charakterystyk efektywnych zespołów:", "Źródło: APB Speakers, Measure Your Team's Success - Alex \"Sandy\" Pentland, 23.02.2017 (dostęp 05.12.2020). Dostępne w YouTube: https://youtu.be/1XOjUH0cYRI.", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 817, "subject": "Komunikacja w zespołach wirtualnych", "paragraphs": ["Praca w zespołach rozproszonych, czyli takich, gdzie członkowie grupy nie przebywają równocześnie w jednym miejscu w trakcie trwania pracy, jest obecnie zjawiskiem bardzo powszechnym. Nawet zanim czynniki tak ekstremalne jak ogólnoświatowa pandemia uniemożliwiły pracę wielu osób w jednym miejscu, praca zdalna była już dla wielu osób codziennością. Dlaczego? Jest ku temu wiele powodów, z których najważniejsze to liczne korzyści m.in. wynikające z dostępności specjalistów mieszkających w innym miejscu niż organizacja czy aktualnie toczący się projekt, większa elastyczność pracy, niższe koszty pracodawcy (wyposażenie biura) oraz pracownika (koszty dojazdu, parkowania, etc.), a także dynamiczny rozwój systemów komunikacji online. Choć zespołowa praca zdalna ma wiele zalet, ma też wiele ograniczeń i utrudnień. Są nimi m.in. bariery komunikacyjne. Jak już wiemy, ludzie w dużej mierze polegają na sygnałach niewerbalnych, a ich brak może powodować nieporozumienia czy niedomówienia. Współpraca zapośredniczona przez różnego rodzaju komunikatory internetowe to także w dalszym ciągu dla wielu osób duża nowość a wypracowanie pewnych reguł i norm porozumiewania się tą drogą wymaga czasu i doświadczenia. Na szczęście dotychczas przeprowadzono wiele ciekawych badań nad zwiększeniem efektywności w zespołach wirtualnych. Du bé i Robey [1] na podstawie wywiadów z przedstawicielami 26 organizacji opisali pięć paradoksów pracy zdalnej, wraz z przydatnymi wskazówkami jak sobie z nimi poradzić. Pierwszy z nich dotyczy właśnie komunikacji. Autorzy zauważają, że wirtualna praca paradoksalnie wymaga fizycznej obecności. Chodzi o zawiązanie się grupy, jej integrację, nawiązanie relacji. Dlatego też autorzy zalecają, by rozpoczęcie projektu odbyło się „twarzą w twarz”. W ten sposób, członkowie grupy mają możliwość poznania się nawzajem oraz stworzenia własnego kodu komunikacyjnego. Autorzy, na podstawie poczynionych obserwacji proponują, by takie spotkania przeprowadzać na wszystkich kluczowych etapach projektu. Oczywiście, jak odkryliśmy w niedawnej sytuacji pandemii Covid-19, nie zawsze jest to możliwe. Inne praktyki wspierające komunikację w zespołach rozproszonych według Dubé i Robey’a to m.in. wykorzystanie technologii informacyjno-komunikacyjnych do umożliwiania zaangażowania i wypowiadania się wszystkich członków zespołu, czy utrzymywanie stałej struktury pracy i spotkań, a także wprowadzanie wspólnych aktywności online.", "Wiele miejsca w literaturze tematu poświęcono na omówienie znaczenia zaufania w pracy zespołów wirtualnych. Badacze tematu podkreślają, iż zaufanie jest kluczowym czynnikiem dla efektywnej współpracy a jednocześnie bardzo trudnym do wytworzenia w zespołach, których członkowie np. nigdy się nie spotkali, pochodzą z różnych kręgów kulturowych i pracują w innych strefach czasowych. Wspólne normy społeczne, poprzednie doświadczenia współpracy i wcześniejsze interakcje budują zaufanie osób do grupy przejawiające się w przekonaniu o równomiernym wkładzie pracy, porównywalnych kompetencjach i dobrych intencjach. Brak zaufania do grupy może natomiast powodować wycofywanie zaangażowania w pracę zespołu. Jarvenpaa i Leidner [2] przeprowadziły badanie na międzynarodowej grupie współpracujących ze sobą studentów, by zbadać specyfikę zdalnych, rozproszonych zespołów? Celem autorek było skupienie się na grupach złożonych z osób, które nigdy wcześniej ze sobą nie pracowały i prawdopodobnie nie będą współpracować w przyszłości. W tym celu, korzystając z sieci kontaktów akademickich, stworzyły międzynarodowe zespoły złożone z 4-6 studentów/tek różnych narodowości pracujących nad wspólnym zadaniem w ciągu czterech tygodni. Autorki zmierzyły poziom zaufania członków grup, jak również specyfikę komunikacji w zespołach o różnym stopniu zaufania. Poniżej najważniejsze wnioski z badania.", "1.\tInterakcje społeczne obok zadaniowych. Członkowie grup o wysokim zaufaniu od początku współpracy wymieniali się prywatnymi informacjami, tj. o swoich hobby, rodzinie, weekendowych aktywnościach etc. Przy czym wymiana tych informacji nie zastępowała komunikacji merytorycznej dotyczącej projektu.", "2.\tPrzejawianie entuzjazmu. Członkowie grup o wysokim zaufaniu od początku współpracy komunikowali entuzjazm wobec projektu i wspólnego działania poprzez wysyłanie wiadomości o treści sygnalizującej podekscytowanie i gotowość do pracy.", "3.\tWsparcie techniczne i zadaniowe. W zespołach o niskim zaufaniu członkowie grupy często komunikowali trudności techniczne lub niejasności samego zadania. Przeciwnie w grupach o wysokim zaufaniu wprowadzono różne formy rozwiązywania powstających problemów technicznych i takie metody komunikacji, które usprawniały pracę (np. system kodowania przychodzących wiadomości minimalizujący prawdopodobieństwo ominięcia ważnej informacji).", "4.\tPrzejawianie inicjatywy. W zespołach o niskim zaufaniu członkowie grupy często narzekali na brak inicjatywy innych, lecz równocześnie sami także jej nie przejawiali. Odwrotnie niż w przypadku zespołów o wysokim zaufaniu, gdzie członkowie grup sami wychodzili z inicjatywą zamiast wzywać do inicjatywy innych.", "5.\tPrzewidywalność komunikacji. Zespoły o wysokim poziomie zaufania komunikowały się w sposób regularny i zaplanowany. Komunikacja w tym zespołach nie zawsze była częsta, ale była przewidywalna, co powodowało poczucie stabilności i podtrzymania zaangażowania. Ważnym elementem budującym stabilną komunikację było informowanie się z wyprzedzeniem o planowanych przerwach w komunikacji, np. spowodowanych wyjazdem. Przeciwnie w grupach o niskim poziomie zaufania uczestnicy wokalizowali swoje niezadowolenie związane z brakiem odpowiedzi lub przedłużającymi się przerwami w komunikacji.", "6.\tInformacja zwrotna. Podstawowa różnica między grupami o wysokim i niskim poziomie zaufania dotyczyła otrzymywanych informacji zwrotnych. W zespołach o wysokim poziomie zaufania informacje te były zarówno merytoryczne, jak i bezzwłoczne.", "7.\tKomunikacja lidera. Między zespołami o wysokim i niskim poziomie zaufania zauważono także różnice, jeśli chodzi o styl komunikacji lidera/liderki. W zespołach o niskim poziomie zaufania liderzy wybierani byli na podstawie pierwszeństwa w zabraniu głosu lub ilości wygenerowanych wiadomości, podczas gdy w grupach o wysokim poziomie zaufania rola lidera/liderki często przechodziła z osoby na osobę w zależności od etapu pracy. W zespołach o niskim poziomie zaufania liderzy często komunikowali się, używając języka negatywistycznego: narzekając na niezadowalający postęp pracy czy brak zaangażowania, porównując grupę własną do grup o większej efektywności, czy nawet skarżąc się na pracę własnej grupy do opiekuna naukowego, co było postrzegane jako zdrada zaufania. W grupach o wysokim zaufaniu liderzy częściej przejawiali pozytywny ton wypowiedzi, czy też podnosili trudne tematy w prywatnej korespondencji nie na forum grupy.", "Materiały dodatkowe Leigh Thompson o zwiększaniu efektywności komunikacji zdalnej w zespołach – zob. Kellogg School of Management, Optimizing virtual teams, 31.07.2015 (dostęp 10.09.2020). Dostępny w YouTube: https://www.youtube.com/watch?v=0SzWrazgt7Y&t=10s"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 818, "subject": "Komunikacja przełożonego", "paragraphs": ["Istnieje wiele badań, które empirycznie potwierdzają znaczenie komunikacji w efektywności przywództwa (zob. [1]). Jakość komunikacji lidera wpływa na zaangażowanie i satysfakcję z pracy, które są niezwykle ważne dla jakości wykonywanej pracy. Bycie szefem w dzisiejszych czasach niełatwe zadanie. Poza odpowiedzialnością za realizację zaplanowanych działań, przełożeni muszą jeszcze wywiązywać się z licznych zobowiązań wobec swoich podwładnych: motywować, inspirować, wyjaśniać, rozstrzygać, delegować, udzielać reprymendy czy łagodzić spory. Współcześni pracownicy mają duże wymagania wobec swoich przełożonych i oczekują aktywnego przywództwa raczej niż biernego weryfikowania wykonanych zadań. W tych licznych obowiązkach umiejętności komunikacyjne odgrywają niebagatelną rolę. Nawet najbardziej sprawny i kompetentny manager, jeśli nie potrafi porozumieć się z ludźmi, będzie miał spore trudności. Podobnie wybitnie utalentowana i wydawałoby się niezastąpiona pod względem merytorycznym szefowa nie sprawdzi się w swojej roli, jeśli nie zjedna sobie podwładnych. Zapewne niektóre osoby mają ku temu naturalne predyspozycje, a innym wręcz przeciwnie, z trudem przychodzi komunikacja z innymi. Na szczęście kompetencje komunikacyjne można skutecznie rozwijać, a bogata literatura w tym zakresie pozwala na lepsze zgłębienie tego tematu. W tym module skupimy się na wybranych kompetencjach komunikacyjnych przełożonych. Jak pokazano poniżej, jest ich bardzo wiele i na zaznajomienie się z nimi szczegółowo warto poświęcić dodatkowy czas.", "Informacja zwrotna", "Jednym z ważniejszych zadań przełożonego/przełożonej jest udzielanie pracownikom informacji zwrotnej. Nie jest to jednak wbrew pozorom proste zadanie i wymaga wprawy. Poniżej znajduje się zestawienie najważniejszych reguł dotyczących udzielania informacji zwrotnej:", "1.\tJest. Pierwsza zasada „jest” zdawałoby się najprostsza do spełnienia, lecz jak się okazuje wcale nie to tak oczywiste – ważne, by informacja zwrotna była udzielana podwładnym. Nie wszyscy przełożeni dbają, by tak było. Czas płynie, dzieją się rzeczy ważne i pilne i nie zawsze jest czas, by udzielić każdemu z osobna informacji zwrotnej, co do jego czy jej poziomu wykonania. Niektóre organizacje wdrażają jednak system cyklicznych rozmów podsumowujących z bezpośrednimi przełożonymi, by uniknąć zdawania się na przypadkowe rozmowy lub ich zupełny brak. W ten sposób, przełożeni nie zapomną o swoim zadaniu, a pracownicy będą dokładnie wiedzieć, kiedy mogą liczyć na uzyskanie cennych wskazówek.", "2.\tJest bezpośrednia. Choć z początku może to być trudne a nawet deprymujące, informacja zwrotna powinna być przekazywana bezpośrednio, czyli najlepiej podczas spotkania twarzą w twarz, jeden na jeden. Udzielanie pochwał czy reprymend na forum publicznym nie jest dobrym rozwiązaniem. Co do reprymend, jest to oczywiste – takie zachowanie mogłoby wprawić odbiorcę w duże zakłopotanie. Natomiast dlaczego chwalenie publiczne nie zawsze jest dobrym pomysłem? Jakkolwiek miłe dla odbiorcy, może powodować poczucie niedocenienia wśród innych osób, które nie zostały wyróżnione, a też mają poczucie wniesienia solidnego wkładu w pracę grupy. Lub przeciwnie – zaistniały szczególne okoliczności, które uniemożliwiły pewnym osobom osiągnięcie takiego poziomu wykonania, który zasługuje na publiczną pochwałę, co nie oznacza, że osoba ta, nie starała się i nie zasługuje na słowa uznania.", "3.\tJest niezwłoczna. Zarówno pochwała jak i nagana powinny mieć miejsce w niedługim odstępie czasu od zdarzenia, którego dotyczy. W innym przypadku osłabia swój efekt oddziaływania. Dodatkowo pracownicy mogą poczuć się urażeni, gdy przypomni im się o ich niepochwalanych działaniach na długo po tym, jak miało to miejsce. Będą mieć wrażenie, że przełożony przez cały ten czas utrzymywał w pamięci to wydarzenie, co sprawia wrażenie pewnej nieszczerości w relacji. I na końcu warto dodać, że informacje przywoływane po czasie ulegają pewnemu zniekształceniu. Trudno jest interpretować zdarzenie sprzed kilku tygodni, co może doprowadzić do niepotrzebnej eskalacji nieporozumień czy konfliktów.", "4.\tJest konstruktywna. Choć każdy zapewne zna to określenie, nie każdy stosuje się do tej zasady na co dzień. Co oznacza konstruktywna informacja zwrotna? Oznacza przekazanie podwładnemu takich informacji i wskazówek, które może w praktyce wykorzystać do poprawienia swojego poziomu wykonania. Czyli zamiast mówić: „powinieneś wywiązywać się z podjętych zadań” warto podać konkretną wskazówkę: „spróbuj w przyszłym miesiącu zgłosić się do mniejszej ilości działań, w ten sposób są większe szanse, że wszystkie zrealizujesz w terminie”. Dzięki konstruktywnej informacji zwrotnej odbiorca komunikatu powinien wiedzieć, jakich dokładnie działań i wyników oczekuje przełożony/przełożona.", "5.\tDotyczy zachowania, nie osoby. Udzielając informacji zwrotnej, bardzo łatwo jest przejść do oceny charakteru czy kompetencji danej osoby: „Nie bądź zrzędliwy”, „Jesteś najlepsza”, „Za mało się przykładasz”, „Jesteś bardzo bystry”. Oceniając czyjś charakter czy kompetencje dokonujemy bardzo śmiałego czynu, być może nie mając ku temu pełni informacji, a z pewnością też nie mając do tego zaproszenia czy pozwolenia. Nie jest rolą przełożonego/przełożonej, by wprost oceniać charakter czy umiejętności podwładnych. Zamiast tego, lepiej skupić się na konkretnych zachowaniach, które chcemy wyeliminować lub przeciwnie docenić, mówiąc: „dziękuję za terminowe oddanie pracy”, „czy możesz przed oddaniem raportu sprawdzać go z check-listą, to zmniejszy prawdopodobieństwo przeoczenia błędów”, etc. Być może niektórych zdziwi zawarte w tym punkcie zniechęcanie do pozytywnego komentowania dobrych cech pracowników. Otóż jak pokazują badania Carol Dweck, chwalenie za szczególne talenty czy cechy nie jest dobrą strategią, gdyż w przypadku późniejszego niepowodzenia, może podkopać wiarę niegdyś chwalonej osoby w swoje wybitne zdolności i powodować chęć zachowania twarzy raczej niż udoskonalenia zachowania (zob. wystąpienie Carol Dweck na ten temat: https://www.ted.com/talks/carol_dweck_the_power_of_believing_that_you_can_improve).", "6.\tBez uogólnień. Wyrażając zwłaszcza niezadowolenie z czyjegoś poziomu wykonania łatwo dopuścić się uogólnień, czyli w rozmowie używać zwrotów typu.: ty zawsze, ty nigdy, jak zwykle, typowo, etc. Takie uogólnienia mogą być niesprawiedliwe, ale przede wszystkim są bardzo niekonstruktywne, gdyż powodują w rozmówcy chęć obronienia się raczej niż spojrzenia szczerze na swoje niedociągnięcia.", "Aktywne słuchanie Słuchanie podwładnych i współpracowników to prawdopodobnie jedno z najważniejszych zadań przełożonego. Bez tej aktywności łatwo o nieporozumienia, niedomówienia, przeoczenia, a w efekcie problemy i komplikacje. Umiejętność aktywnego słuchania pełni więc dwie ważne role: relacyjną i efektywnościową. Z jednej strony, umiejętność słuchania przyczynia się do budowania relacji między przełożonym a pracownikiem. Pracownik, który ma świadomość, iż to co mówi ma znaczenie, jest ważne i cenne dla pracodawcy, z większym prawdopodobieństwem będzie się czuł doceniony, spokojny i zaangażowany niż pracownik, który ma poczucie, iż jego czy jej opinia albo obserwacje są bez znaczenia. W swoich badaniach Kotter (2000) podpatrywał przełożonych podczas codziennej pracy. Pokazał, że to, czym pracodawcy zajmują się przez większą część dnia pracy, to właśnie swobodne rozmowy z pracownikami. Niekoniecznie związane z zadaniami i pracą. Kotter zauważył też, że skuteczni liderzy zadają dużo pytań i więcej słuchają niż sami mówią.", "Materiały dodatkowe Adam Grant o informacji zwrotnej – zob. PBS NewsHour, How to give feedback so people hear you're trying to help, 09.08.2018 (dostęp 10.09.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=iqPWa6rvdmM"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 819, "subject": "Komunikowanie wizji", "paragraphs": ["Jednym z najważniejszych a zarazem najtrudniejszych zadań przełożonych jest zagrzewanie ludzi do działania. I choć mogłoby się wydawać, że objęcie jakiegoś stanowiska i otrzymanie z tego tytułu pewnych obowiązków powinno wystarczyć pracownikom, by wywiązywać się ze swoich zadań, często niestety tak się nie dzieje. Szczególnie w pracy intelektualnej, twórczej czy innowacyjnej postawa i działania przełożonego mogą mieć kluczowy wpływ na to czy i jak wykonywane są zadania pracowników. I choć z pewnością jest to pewnego rodzaju mechanizm wzajemnych wpływów i interakcji, sposób komunikowania zadań, obowiązków, wyzwań przez przełożonego ma wielką siłę motywowania lub demotywowania do pracy. W literaturze dotyczącej psychologicznych aspektów aktywności przedsiębiorczej jednym z ważnych wątków kompetencji przełożonych jest umiejętność komunikowania wizji. Komunikowanie wizji odnosi się do zdolności jasnego przedstawienia celu, jaki przyświeca danej działalności oraz wzbudzenie zaangażowania w osobach, które mają ten cel osiągnąć. Badania Bauma, Locke i Kirkpatricka [1] pokazują, że komunikowanie wizji jest silnie związane z sukcesem danego przedsięwzięcia. Na podstawie analizy historii 183 przedsiębiorców zidentyfikowali oni siedem czynników determinujących to, czy komunikowana przez przełożonego wizja jest skuteczna. Ich zdaniem komunikowana przez lidera wizja powinna być:", "Dodatkowo, efektywna komunikacja wizji lidera powinna obejmować zróżnicowane kanały komunikacyjne, zarówno ustne jak i pisemne, oraz koncentrować się w swej treści na celach rozwojowych. Umiejętnie przedstawiona wizja celu ma duży wpływ zarówno na zainicjowanie zaangażowania w dane działanie, jak i na podtrzymanie zaangażowania w momentach kryzysowych. Cel, który jest atrakcyjny, wartościowy i co więcej osiągalny, konsoliduje zespół wokół działań, które mają doprowadzić do upragnionego celu. Natomiast wizja, która pozostaje jedynie w umyśle przełożonego lub jest niejasna dla podwładnych, nie ma takiego efektu.", "Wszystkie osoby, które miały w życiu więcej niż jednego szefa lub szefową zapewne zauważyły w pewnym momencie, iż osoby te różniły się znacząco, jeśli chodzi o swoje osobiste oczekiwania wobec pracowników. Jeden szef szczególnie ceni sobie lojalność i oddanie, a dla drugiego najważniejsza jest innowacyjność i pomysłowość. Jedna szefowa wymaga absolutnego porządku w miejscu pracy i krzywi się na widok stosu papierów na biurach pracowników, podczas gdy dla innej nie ma to absolutnie najmniejszego znaczenia. Są przełożeni, którzy oczekują pełni emocjonalnego zaangażowania we wspólny projekt i tacy, którzy traktują pracę jak pracę i nic ponadto. Przykłady można mnożyć. To, co jednak kluczowe w tej sytuacji, to fakt, że dla większości przełożonych ich osobiste oczekiwania względem pracowników zdają się być oczywistością. Innymi słowy, szefowie i szefowe wychodzą z założenia, że ich oczekiwania są tak oczywiste, typowe i jasne, że ich niespełnianie przez pracowników przyjmują ze sporym niezadowoleniem, frustracją a nawet gniewem. Niestety prawda jest taka, że ilu szefów tyle różnych preferencji a istniejące założenia i domysły mogą być przyczyną wielu nieprzyjemnych sytuacji czy konfliktów.", "Dlatego też autorzy książki „Szef to zawód. Narzędzia, które pomagają budować motywację, odpowiedzialność i współpracę” proponują stosowanie bardzo użytecznej techniki: „exposé szefa” [2]. „Exposé szefa” to nic innego jak przekazanie podwładnym przez przełożonego lub przełożoną swoich oczekiwań i wymagań. Kiedy jest dobry moment na takie działanie? Autorzy wskazują na wiele takich momentów: gdy powoływany jest nowy zespół, gdy nowy przełożony przejmuje kierownictwo istniejącej grupy, gdy przyjmowani są do pracy nowi pracownicy, organizacja zmienia sposób działania lub zachodzą w niej duże zmiany. Autorzy przekonują, że taka otwarta komunikacja i przyznanie się do swoich specyficznych oczekiwań przynoszą wiele korzyści. W ten sposób pracownicy są świadomi, jakie konkretnie zachowania zrobią wrażenie na szefie/szefowej, a jakie będą niemile widziane. Poniżej znajdują się praktyczne wskazówki co do tego, jak właściwie przygotować i wygłosić „exposé”.", "Materiały dodatkowe Simon Sinek o tym dlaczego warto zacząć od „dlaczego?” – zob. TED, How great leaders inspire action - Simon Sinek, 01.09.2009 (dostęp 10.09.2020). Dostępne w TED: https://www.ted.com/talks/simon_sinek_how_great_leaders_inspire_action"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 822, "subject": "Komunikacja wewnętrzna w organizacji i jej miejsce w strukturze", "paragraphs": ["„Komunikacja należy do tego rodzaju ludzkiej aktywności, z której wszyscy zdają sobie sprawę, ale tylko nieliczni potrafią ją zadowalająco zdefiniować. Lista tego, co jest komunikacją, może być długa (…)” [1]. Komunikacja stanowi obszar aktywności, którego każdy z nas doświadcza codziennie, który „formatuje” naszą rzeczywistość, w którym jego uczestnicy działają z nastawieniem na osiągnięcie konkretnego celu, zbudowania relacji, a w środowisku pracy tworzenia zadowalającej atmosfery. Bill Quirke pisząc o rozwoju komunikacji wewnętrznej w organizacjach wyraził się dość sceptycznie. Ujął to w sposób następujący: gdyby postęp w motoryzacji lub technologii „odbywał się w tempie rozwoju komunikacji wewnętrznej, to nadal chodzilibyśmy na piechotę” [2].", "Jaka jest rola komunikacji wewnętrznej w obecnej rzeczywistości organizacji nastawionych na produktywność? Narzędzie strategiczne w kreowania wizerunku firmy i jej efektywnym funkcjonowaniu. Musi przynosić wartość. Reputacja i marka są najcenniejszą wartością niematerialną firm a prawidłowe zarządzanie nimi przekłada się na zysk. Każdy pracownik pracuje na reputację firmy i wszyscy są odpowiedzialni za wizerunek wewnętrzny (internal branding). W interesie firm jest, aby zachowania pracowników nie obniżały wartości marki, zatem dążą do takiego kształtowania ich postaw i zachowań, które wpływają na poprawę produktywności. W tym celu komunikacja wewnętrzna ma zapewnić obieg spójnych, rzetelnych informacji dotyczących strategii firmy, zmian, najważniejszych działań i projektów. Dobrym przykładem przemyślanej komunikacji wewnętrznej jest historia fuzji koncernu Kraft Foods i Cadbury w 2010 roku.", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 820, "subject": "Poziomy działania i role osób odpowiedzialnych za komunikację", "paragraphs": ["Miejsce komunikacji wewnętrznej w strukturze organizacji W rzeczywistości organizacyjnej pracownicy nigdy nie znajdują się w „informacyjnej próżni”. Nawet w sytuacji, kiedy są niedoinformowani – we własnym zakresie zapełniają ją, snując przypuszczenia, że mają wiedzę o tym, co się dzieje w ich organizacji.", "Poddamy pod ocenę trzy scenariusze zarządzania obszarem komunikacji wewnętrznej przez trzy potencjalnie zainteresowane piony funkcyjne w organizacjach: dział PR, dział HR, dział marketingu.", "We współczesnej praktyce organizacyjnej wdrażane jest rozwiązanie tworzenia centrów kompetencji komunikacji wewnętrznej, co pozwala na standaryzację procesów i narzędzi oraz wykorzystanie potencjału specjalistów zatrudnionych w takich zespołach [1]. Aktualnie rozwiązaniem stosowanym na wewnętrznym rynku pracy (tzn. w danym przedsiębiorstwie) – jest osobne stanowisko – specjalisty i kierownika ds. komunikacji, objęte procesem wartościowania (metody wartościowania stanowisk dotyczą stanowisk, a nie zajmujących je pracowników).", "Rola HR w komunikacji – podstawowe zasady przekazywania informacji Rola HR (działu personalnego) podlega stałym zmianom i „dzierżenie niepodzielnej władzy” w zarządzaniu pracownikami przedsiębiorstwa przestało być jedynie słuszną strategią. Współczesne wymagania wobec działów personalnych to angażowanie jednostek organizacyjnych i ich pracowników na różnych poziomach zarządzania, kierowników liniowych i zarządu do mądrej współpracy wewnątrz firmy, zatem umiejętnego komunikowania się [4].", "Kolejnym ważnym interesariuszem1 (podmiotem) w komunikacji wewnętrznej HR z przedsiębiorstwem są reprezentacje pracowników: rady pracowników i związki zawodowe (mają uprawnienia do współdecydowania o układach zbiorowych pracy, regulaminie pracy i wynagrodzenia, pakietach socjalnych, restrukturyzacji zatrudnienia, zwolnieniach grupowych).", "Inicjowanie przepływu i wymiany informacji pomiędzy działem personalnym a związkami zawodowymi jest głównie domeną HR a sposób przekazywania może być różnorodnymi kanałami komunikacyjnymi (zob. Wykorzystywane kanały komunikacji wewnętrznej )."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 821, "subject": "Błędy w komunikacji wewnętrznej", "paragraphs": ["Peter Drucker uważany za jednego z najważniejszych pionierów współczesnego zarządzania, ocenia, że ponad \\( 60\\% \\) problemów w organizacjach wynika z nieskutecznej komunikacji. Czynnikami, które mogą zdecydowanie zakłócać poprawną komunikację wewnętrzną, są bariery organizacyjne i indywidualne [1].", "Jednym z kluczowych zadań w procesie zarządzania komunikowaniem jest wspieranie otwartej komunikacji a błędem jej blokowanie. Powodów może być wiele. Po pierwsze, struktura hierarchiczna wewnątrz organizacji (struktury smukłe, mniej elastyczne o dużej liczbie szczebli zarządzania są kosztowne i utrudniają proces komunikacji a przeciwstawne – płaskie, zdecydowanie ułatwiają), rozproszenie terytorialne oraz rozrzucenie po różnych krajach i kontynentach pracowników – specjalistów o unikalnych kompetencjach, realizujących swoje obowiązki, jak również brak umiejętności maksymalizowania korzyści z komunikowania i redukowania błędów. Po drugie, barierę stanowią sami pracownicy, pod względem gotowości do uczestnictwa w komunikowaniu i różnym poziomie świadomości znaczenia spawnej komunikacji. Z punktu widzenia tych dwóch kryteriów, można wyróżnić cztery grupy pracowników Tabela 1 [2].", "Trzecim powodem, może być nieformalna komunikacja, która utrudnia pracę (np. zakulisowe rozmowy, plotki i poczta pantoflowa) i przeszkadza w codziennych działaniach. Dzieje się tak wtedy, kiedy formalne kanały komunikacji wewnętrznej nie dostarczają pracownikom wiarygodnych informacji oraz nie stwarzają przestrzeni do redukowania niepokoju, m.in. podczas zebrań z pracownikami. Skutkiem może być tworzenie się wewnętrznych rozgrywek, marginalizowanie członków organizacji, a co istotne podejmowanie złych decyzji. Nieformalne rozmowy mogą być również cenne, jeżeli są właściwie przeprowadzone, nie są powodem do upustu negatywnych emocji, frustracji i nie szkodzą relacjom. Stają się produktywne, jeżeli pozwalają na wymienianie się opiniami, dzielenie informacjami, sprzyjają budowniu relacji i podtrzymywaniu zaufania [3].", "Polecane"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 823, "subject": "Nowy wymiar komunikacji – aranżacja współczesnych przestrzeni biurowych. Rozwiązywanie problemu utrudnionej komunikacji", "paragraphs": ["Architektura fizyczna obecnych organizacji jest odzwierciedleniem dynamiki zmian w gospodarce i życiu społecznym. Odzwierciedleniem takiego nowoczesnego koncepcyjnego myślenia jest projekt włoskiego architekta Davida Fishera, wieżowiec „Dynamic Tower”, którego realizacja została zaplanowana na 2020 rok. Obrót pięter budynku wokół własnej osi ma nadać trójwymiarowej bryle wieżowca wymiar czwarty – czasu (pełny obrót pietra to trzy godziny) i dynamiki (nawiązanie do dynamicznej aktywności współczesnego człowieka). Nastąpiła zdecydowana zmiana w kierunku rearanżacji budynków i biur sprzyjających wytwarzaniu konstruktywnych relacji pomiędzy uczestnikami organizacji, generowania wzajemnych układów komunikacyjnych [1], [2].", "Źródło: Dynamic Architecture - From Vision to Reality: David Fisher, 02.10.2011 (dostęp 08.12.2020). Dostępne w Youtube: https://youtu.be/ZNsDUcVrrKM", "Rozwiązania w nowoczesnym biurze mają spełniać kryteria ergonomiczne, psychologiczne i technologiczne. Przykłady rozwiązań zaprojektowanych przez polską firmę o zasięgu międzynarodowym, to np. stoły z możliwością szbkiego regulowania poziomu wysokości pozwalającna pracę stojąc lub siedząc; ergonomiczne hokery, czy też sofy i leżanki w pomieszczeniach do relaksu. Dla uzupełnienia wystroju wnętrz stosowane sa różne aranżacje, np. filcowe i koloroqwe panele ścienne, co ma dać efekt \"ocieplenia\" i domowego charakteru biura. Zmodyfikowana fizyczna przestrzeń pracy i technologiczne rozwiązania spowodowały częściowe zastąpienie międzyludzkich interakcji „twarzą w twarz” komunikacją mailową, wiadomościami tekstowymi, rozmową na czacie, spotkaniami poprzez serwisy społecznościowe: Slack, Microsoft Teams. Spotkania i zebrania umożliwia oprogramowanie wirtualne Zoom, Webex, MS Teams, GoToMeeting [3]. Pracownicy mniej rozmawiają przez telefon, rzadziej spotykają się w kuchni firmowej przy ekspresie do kawy, dystrybutorze do wody. Chociaż architektura fizyczna otwartych przestrzeni znosi bariery ścian i przegród, pracownicy starają się unikać bezpośrednich kontaktów z innymi i sami tworzą „czwartą ścianę” 1 wzajemnie ją szanując. Pracującym intensywnie osobom nikt nie chce przeszkadzać, próba głośnej rozmowy spotyka się z krytyką i często pracownicy pracują w słuchawkach. Otwarte przestrzenie, które mają stymulować komunikowanie, często ją redukują, ponieważ sami pracownicy unikają kontaktów „twarzą w twarz”. Wspólna i stała obecność pracowników w otwartej przestrzenni nie wpływa na zintensyfikowanie współpracy. Jak zatem ustalić, co może skłaniać pracowników do inicjowania interakcji i współpracy.", "Obecnie postęp technologiczny umożliwia precyzyjne monitorowanie struktury kontaktów. „Najnowszymi rozwiązaniami są czujniki umieszczone w krzesłach (mierzą jak długo pracownik siedzi przy biurku) oraz czujniki umieszczone w podłodze (wskazują kiedy i w jakim kierunku pracownik się przemieszcza). Czujniki z technologią RFID oraz w smartfonach śledzą, gdzie ludzie chodzą. A „czujniki” w postaci kamer sprawdzają, z kim spędzają czas. Panasonic dodał do systemów oświetleniowych czujniki wi-fi, które umożliwiają monitorowanie spotkań twarzą w twarz w całych budynkach i firmach” [3].", "Styl pracy przyjęty w Google i dostosowanie przestrzeni do oczekiwań pracowników to nie powszechny standard. Do tej „beczki miodu trzeba niestety dodać łyżkę dziegciu”, co zilustruje kolejny przykład.", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 824, "subject": "Zarządzanie spotkaniami", "paragraphs": ["Spotkania są nieodłącznym elementem biznesu, kultury organizacyjnej i pracy zawodowej. We współczesnej rzeczywistości biznesowej zebrania i spotkania nabierają coraz większej wartości, ale też coraz bardziej docenia się czas poświęcony w tym celu. Spotkania należy traktować równocześnie jak przedsięwzięcie i inwestycję, która ma przynieść zwrot.", "Przestrzeganie zasad organizowania spotkań i utrzymywania kontroli nad nimi jest przejawem kultury organizacyjnej. Powinno się je prowadzić zgodnie z planem (agendą), którego punkty należy na samym początku zweryfikować wraz z uczestnikami. Oddzielamy od siebie punkty jako osobne bloki, aby stworzyć wrażenie klarowności spotkania. Prosimy uczestników o pytania a nie komentarze, a pod koniec spotkania o jego ocenę. Takie reguły pozwalają na zwiększenie poczucia satysfakcji uczestników. Zalecane są dwa pytania podsumowujące spotkanie:", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 825, "subject": "Komunikacja menedżerów funkcyjnych i regionalnych", "paragraphs": ["\"Firmy w XXI wieku działają w świecie zbudowanym z klocków\" [1]. Ta myśl Petera Druckera odnosi się do czegoś więcej niż tylko elementów – „klocków”, które tworzą każdą organizację (firmę, przedsiębiorstwo). Produkcja, dystrybucja, umiejętności, usługi są elementami budującymi organizację jak w układance, gdzie wszystkie klocki muszą do siebie pasować i można zmieniać ich konfigurację. Drucker miał na myśli coś więcej niż tylko klocki traktowane jako zasoby materialne. Nie można tworzyć firmy jak podkreśla Drucker, bez „ludzkich klocków” - sukces osiąga się dzięki potencjałowi ludzi. Szczególną grupę w środowisku organizacyjnym, od której wymaga się efektywności są menedżerowie. W przekonaniu Druckera \"menedżer, który zadaje trafne pytania, formułuje właściwe sądy oraz ma odpowiednią mentalność, potrafi spojrzeć poza własne podwórko i uwolnić siebie i innych z pęt niepełnej wiedzy o świecie\" [2].", "Zarządzanie przede wszystkim dotyczy ludzi, w dalszej kolejności procedur i technologii Pomimo tak prostej zasady, wielu menedżerów nie odnosi sukcesów. Drucker odpowiedziałby, że powody są dwa. Po pierwsze, zajmowali się działaniami, którymi chcieli, a nie tymi, którymi należało. Po drugie, zbyt dużo czasu poświęcili na nieskuteczną komunikację. Menedżerowie zarządzają szeroko zakrojoną komunikacją: udzielają informacji o planowanych zmianach, przeprowadzają prezentacje dla wyższej kadry kierowniczej, delegując menedżerom przekazanie tej informacji na coraz niższy poziom hierarchii organizacyjnej ale z trudnością budują partnerstwo i sojusz z pracownikami na rzecz wdrażania zmian [3]. Zdefiniujmy, czym zajmuje się menedżer.", "Role informacyjne stanowią wiązkę uszeregowanych kompetencji, związanych z codziennym komunikowaniem się w organizacji [6].", "Menedżerowie produktu (grupy produktów) i menedżerowie rynku (grupy rynku) realizują swoje zadania łącząc różne obszary funkcjonalne, są „opiekunami” procesów, pracują indywidualnie lub z niewielkim zespołem. Profil kompetencyjny tej grupy menedżerów wymaga wysoko rozwiniętych kompetencji komunikacji, współpracy wewnątrzfirmowej, orientacji na klienta, budowania relacji i wiedzy zawodowej.", "Materiały dodatkowe"], "definitions": [{"name": "Definicja 1:", "content": "Menedżer jest to ktoś, kto odpowiada przede wszystkim za realizację procesu kierowania pracownikami, ale jego działania nie odnoszą się tylko do miękkich obszarów, związanymi z ludźmi. Menedżer również planuje, organizuje i kontroluje organizację pracy w kontekście strategicznych domen dla organizacji - zasobów finansowych, rzeczowych i informacyjnych [4]."}, {"name": "Definicja 2:", "content": "\"Termin menedżer dotyczy każdego kierownika, który powierzoną sobie częścią organizacji kieruje w sposób samodzielny, twórczy i efektywny. Menedżerem może być zarówno dyrektor firmy, jak i kierownik wydziału czy magazynier. W niektórych przedsiębiorstwach, głównie zagranicznych menedżerami nazywa się ludzi ze średniego szczebla zarządzania, pośredniego pomiędzy kierownikami pierwszej linii (supervisors) a dyrektorami najwyższego szczebla (executives)\" [5]. "}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 826, "subject": "„Klauzula najwyższej poufności”. O czym w organizacji mówić nie wolno, a o czym powinno się mówić", "paragraphs": ["\"Z komunikowaniem jest jak z chodzeniem: możesz chodzić i nawet nie wiedzieć, że robisz to źle. Skutki ujawniają się z opóźnieniem\" (Piotr Bucki [1]).", "Odwołując się do tytułowego motta „klauzula najwyższej poufności”, poświęcimy uwagę nie prawnym uściśleniom poufności i tajności, ale komunikacji nieformalnej. Do najczęściej występujących form komunikacji nieformalnej należy „poczta pantoflowa” oraz „wymiana informacji poza miejscem pracy”, wykraczając poza ramy organizacji i służbowych relacji. Najpowszechniej obserwowane w organizacjach łancuchy poczty pantoflowej to; \"łańcuch plotki (w którym jedna osoba przekazuje wiadomości wielu innym) oraz łańcuch wiązek (w którym wiele osób przekazuje wiadomości niewielu innym)\" [2]. Rozsyłanie plotki może polegać na zachowaniu informacji dla siebie przez daną osobę lub dalszego przekazania tej samej treści, nie tylko kolejnej osobie (tak jest w przypadku \"łańcucha plotki\" przypominającego graf \"gwiazdy\"), ale równocześnie wielu innym osobom (jak w przypadku \"łańcucha plotki\" przypominającego graf \"kiści winogrona\") 1.", "Według badań z 2009 roku dokładność „poczty pantoflowej” oceniania jest na poziomie \\( 75-95\\% \\). Inne badania z 2013 roku wskazują, że \\( 32\\% \\) pracowników wykorzystuje pocztę służbową niezgodnie z etyką firmy, a \\( 48\\% \\) plotkuje za pomocą maila [2]. Współczesne organizacje sterowane produktywnością i zyskiem, są już nie do wyobrażenia bez komunikacji elektronicznej i intranetu. Komunikacji elektronicznej towarzyszą jednak problemy [3].", "Karen Sobel-Lojeski, profesor Stone Brook University podpowiada kilka użytecznych reguł, które zostały podane w tabeli \"Pięć reguł jak, unikać nieporozumień w komunikacji wirtualnej w organizacji\" 2.", "Źródło: How to form meaningful connections with complete strangers: Keith Ferrazzi, 08.03.2019 (dostęp 05.09.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=0RdM2L8SczE", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 827, "subject": "Umiejętność radzenia sobie w nieprzewidywalnej sytuacji", "paragraphs": ["Przyczyny kryzysu mogą być zarówno egzogenne (zewnętrzne), jak i endogenne (wewnętrzne). Pojawienie się sytuacji, nagłej i nieprzewidywalnej, najczęściej traktowane jest jak rodzaj kryzysu. Może to być atak terrorystyczny (np. na World Trade Center 11 września 2001 roku), katastrofy pogodowe (np. tsunami w Japonii w 2011 roku i wywołane nim uszkodzenie elektrowni atomowej), niestabilna sytuacja polityczna, hakerstwo komputerowe, kryzysowe sytuacje zdrowotne (np. pandemia wywołana koronawirusem), sytuacje destabilizacji gospodarczej wywołujące bezrobocie i zwolnienia grupowe pracowników (np. azjatycki kryzys walutowy w latach 90. XX wieku, kryzys 2008-2010, który dotknął głównie detalistów) [1]. Inną kategorią sytuacji kryzysowych bardzo destabilizujących funkcjonowanie organizacji, a w najłagodniejszym wymiarze powodujących konieczność wprowadzenia zmian są: fuzje, przejęcia, sojusze przedsiębiorstw, zmiany zarządu, niezadowolenie pracowników wywołane niejasną polityką personalną lub zarządzeniem wynagrodzeniami, duża fluktuacja kadry kierowniczej czy też specjalistów, trzymanie się wypróbowanych i tradycyjnych recept na sukces.", "Definiując, czym jest kryzys należy podkreślić, że jest to pojęcie interdyscyplinarne odnoszące się do osłabienia, ale i niekiedy wzmocnienia wizerunku organizacji. Pojęcie kryzysu wizerunkowego w literaturze przedmiotu rozumiane jest dość spójnie - jako nieprzewidziane i nagłe zdarzenie lub sekwencja zdarzeń, które stanowią zagrożenie dla stabilności działań organizacji, naruszają jej bezpieczeństwo publiczne, finansowe, rynkowe i powodują utratę reputacji [4]. Kryzysu nie należy traktować jako sytuacji „bez wyjścia”, ale jako wyzwanie dla kompetencji w zarządzaniu „sytuacją problemową” (issue management). Blaise Pascal twierdził, że: człowiek jest trzciną najsłabszą na wietrze, najwątlejszą w przyrodzie, ale trzciną myślącą. Parafrazując, niezależnie od kierunku i siły „wiatru, jakim jest kryzys”, zdolności i wysiłek pracowników stwarzają możliwości opracowania strategii zarządzania sytuacją kryzysową. Jak twierdzi Witold B. Jankowski, prezes ICAN Institute, podejmowanie działań musi zacząć się od zapewnienia firmie płynności finansowej, tym samym jest to zabezpieczenie etatów i wynagrodzeń pracowników, których przecież dotyczy kryzys w firmie. Kolejnym ważnym działaniem jest zabezpieczenie „niematerialnych aktywów firmy” oraz zapewnienie otwartej i szczerej komunikacji pomiędzy wszystkimi interesariuszami wewnętrznymi (kadrą kierowniczą, menedżerami, pracownikami, działem HR i związkami zawodowymi) [5].", "Organizacje „skanując” (szczegółowo obserwując) otoczenie zewnętrzne i procesy wewnętrzne, są w stanie nie tylko szybko reagować na symptomy zmian, ale i rozumieć ich przyczyny. Wydaje się to być inwestycją, która nie generuje kosztów a przynosi duże korzyści. Zarządzanie informacją to także wyciąganie wniosków z poprzednich sytuacji kryzysowych. Dużą rolę do odegrania ma tutaj prezes zarządu lub liderzy - podejmująv ostateczne decyzje, podpisując plany i dokumenty (zob. Materiały dodatkowe). Szybkość i skuteczność reagowania organizacji w sytuacji kryzysowej może mieć decydujący wpływ na ich reputację. Przytoczmy głośny i realny przykład takiego skutecznego reagowania w sytuacji naruszenia wizerunku firmy i decyzji zwolnienia z pracy dyrektora PR.", "Prawidłowość w radzeniu sobie w trudnych i nieprzewidywalnych sytuacjach polega również na poszukiwaniu „języka porozumienia” z interesariuszami, czego egzemplifikacją jest zgoła inna historia niż tweeta Justine Sacco.", "Materiały dodatkowe"], "definitions": [{"name": "Definicja 1: Kryzys", "content": "\"Dobry kryzys jest zbyt cenny, by go zmarnować\" – zwykł mawiać Paul Romer, ekonomista i przedsiębiorca, laureat Nagrody Nobla, profesor ekonomii w Szkole Biznesu Sterna na Uniwersytecie Nowojorskim [2].\nKryzysem nazywamy „stan, który zagraża przetrwaniu firmy, realizacji jej celów, ogranicza czas dostępny na podjęcie działań zaradczych i zaskakuje decydentów swoim pojawieniem się” [3]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 828, "subject": "Timing w sytuacji kryzysowej", "paragraphs": ["Sytuacja kryzysowa zawsze jest naruszeniem stabilności organizacji i jej wizerunku. Towarzyszy jej na początku chaos, bez względu na opracowane wcześniej strategie zarządzania. Wynika to z faktu natłoku napływających informacji lub sporadycznych i niepełnych danych. Każda sytuacja kryzysowa weryfikuje, czy organizacje autentycznie radzą sobie z nagłym i nieprzewidywalnym stanem, czy też zapowiedzi, jak dobrze są przystosowane, były tylko idealnym modelem trudnym do wdrożenia w rzeczywistej sytuacji. Miernikiem sprawności przygotowania i skuteczności reagowania jest czas przepływu informacji i wypracowania mechanizmu podejmowania decyzji.", "Szczególnym przypadkiem kryzysu, w odpowiedzi, na który żadna firma nie wyjęła opracowanego wcześniej i złożonego w sejfie planu, jest oczywiście pandemia koronawirusa SARS-CoV-2. Szybkie reagowanie zostało oparte na gotowych rozwiązaniach osadzonych w formalnych przepisach związanych ogólnie z zagrożeniem epidemicznym i koniecznością ochrony zdrowia. Jednakże w przypadku prowadzenia biznesu nigdy wcześniej nie były testowane rozwiązania zamknięcia poszczególnych branż oraz wirtualizacji i digitalizacji pracy na taką skalę.", "Timing w sytuacji kryzysowej w organizacji zamyka się w definicji „złotej godziny”, której źródłem jest medycyna ratunkowa. Tak samo jak w przypadku ratowania życia pacjenta decyduje czas, tak i w przypadku przedsiębiorstw działania operacyjne podjęte na samym początku zadecydują o rozmiarze szkód i końcowym rezultacie zarządzania sytuacją kryzysową. Sytuacje kryzysowe mają to do siebie, że wywołują nadreakcję, emocjonalność i początkowo wysoką mobilizację, która szybko ulega obniżeniu. Reguła \"złotej godziny\" często jest trudna do zrealizowania dla organizacji, gdyż wymaga działań typu \"gaszenia pożaru\". Szczególnym przypadkiem okazał się kryzys wywołany pandemią COVID-19, kiedy pracownicy organizacji, o elestycznej kulturze organizacyjnej uruchomili natychmiastowy przepływ informacji, system reagowania, kordynowania działań i formułowania rozwiązań dla pracowników, klientów i pozostałych interesariuszy. Duże organizacje o bardziej tradycyjnych schematach działania nie poradziły sobie z nową sytuacją, popadając chaos. \"To, co powinniśmy zrobić teraz, aby przygotować się na trudną przyszłość i zapewnić właściwe działania liderów, to wyposażyć ich w samoświadomość, poruszyć samorefleksję i głębokie zrozumienie swojego wpływu na innych\" [1]. Kształtowanie kultury organizacyjnej zorientowanej na \"gotowość\" jest kluczowe dla zarządzania sytuacją kryzysową. Warunkiem jednak jest określenie procedur postępowania, zdefiniowanie ról, wyznaczenie odpowiednich liderów – przed wystąpieniem kryzysu. W kulturę organizacyjną powinien być wpisany stale dopracowywany dokument określany jako \"Manual kryzysowy\".", "Do kanonu działań operacyjnych organizacji i instytucji, które powinny być przestrzegane w czasie „złotej godziny”, wpisują się następujące wytyczne [2].", "Materiały dodatkowe"], "definitions": [{"name": "Definicja 1: „Złota godzina”", "content": "W 1961 roku R. Adams Cowley wprowadził termin \"złota godzina\", określający czas, w jakim pacjent w stanie zagrożenia życia powinien znaleźć się w miejscu, gdzie możliwe jest udzielenie mu specjalistycznej pomocy. Pamiętajmy, czas \"złotej godziny\" nie liczy się od momentu dotarcia zespołu ratunkowego do pacjenta, lecz od chwili wystąpienia zagrożenia (np. wypadku, urazu)."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 829, "subject": "Budowanie przekazu", "paragraphs": ["Budowanie przekazu jest odpowiedzią na pytanie, jak dostosować styl komunikacji i medium do rodzaju zmiany. Zmianami dla organizacji i jej pracowników na miarę „tsunami” są: zmiany kultury organizacyjnej związane z cyfryzacją i wprowadzeniem sztucznej inteligencji SI; zmiany strukturalne; fuzje i przejęcia; alianse strategiczne firm, czy też nagle zaistniałe z powodu oddelegowania większej części pracowników do pracy zdalnej. Priorytetem staje się komunikacja szybka i dobrze przemyślana, sprecyzowane informacje o kontekście zmian, kierunku oraz ich skali. Przekazywane złe wiadomości muszą być uzupełnianie o oferowane wsparcie dla pracowników. W złym stylu są komunikaty ze strony menedżerów \"Już najwyższy czas na zmiany\", \"Nie nadążamy za konkurencją\", \"Musimy zmienić model biznesowy\" lub \"Cięcia są konieczne\". Należy je zastąpić pytaniami o akceptację zmian: \"Jak przekazać informacje o nowych planach strategicznych?\", \"Jak mam przekonać pracowników?\", \"Jak zmotywować do zmian?\", \"Skąd będziemy wiedzieli, że nasi pracownicy zaakceptowali nowy scenariusz?\", \"Jak przeciwdziałać plotkom na temat zmian kadrowych?\".", "Rozwiązaniem jest elastyczne wdrażanie zmian, które zdecyduje o przyszłych zyskach, realizacji zamierzonego celu przy zminimalizowanych kosztach oraz zaspokojeniu potrzeb zatrudnionych pracowników. Wspólnym mianownikiem dla tych trzech elementów jest sprawna komunikacja wewnętrzna.", "Źródło: Opracowanie własne na podstawie 1. Deloitte, Jak zarządzać firmą w kryzysie? (dostęp 09.06.2020). Dostępne w Deloitte: https://www2.deloitte.com/pl/pl/pages/press-releases/articles/koronawirus-jak-zarzadzac-firma-w-kryzysie.html, 2. Kandefer, U., Mazurek, G.: Intranet. Skuteczna komunikacja wewnętrzna w organizacji. Poltext, Warszawa 2019, s. 20-25 oraz 3. Quirke, B.: Komunikacja wewnętrzna krok po kroku, Oficyna Wolters a Kluwer business, Warszawa 2011, s. 167-181.", "Polecane"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja w organizacji", "subject_id": 830, "subject": "Pustka informacyjna", "paragraphs": ["W procesie komunikacji organizacji z otoczeniem, specjaliści powinni wpływać na jej działania, generować większą wartość biznesu, zatem wiedzieć gdzie działać i jak działać. Pozwoli to zachować spójność pomiędzy komunikowanymi a rzeczywistymi cechami organizacji i jej działań. Organizacja, która nie komunikuje się dostatecznie z otoczeniem zewnętrznym i własnym wewnętrznym (pracownikami), powoduje atmosferę niepewności i niejasności, sprzyjając powstawianiu pustki informacyjnej. Komunikację dwustronną i prawdziwą zastępują spekulacje i plotki (zob. „Klauzula najwyższej poufności”. O czym w organizacji mówić nie wolno, a o czym powinno się mówić ). Zapewnienie dostępu do rzetelnej informacji jest przykładem udanych działań w dwustronnej komunikacji i krokiem, dzięki któremu pustka informacyjna jest redukowana.", "Przytoczony przykład, chociaż nie jest jeszcze sytuacją kryzysową, ale mającą symptomy niepowodzenia z uwagi na możliwość utraty klienta. Interpretując zaistniałą w przykładzie sytuację, można odwołać się do koncepcji skąpca poznawczego, kiedy to dziennikarz będąc w roli komunikatora wewnętrznego, mając wspierać kluczowy proces organizacji warunkujący jej przyszły sukces – uprościł problem, blokując przyjęcie optymalnego rozwiązania. Ponieważ praktyka organizacyjna nie znosi pustki, sprawę w swoje ręce wzięli menedżerowie i zaprosili do konsultacji zewnętrznych specjalistów.", "Sytuacja „pustki informacyjnej” jest obserwowana zarówno wtedy kiedy jest brak informacji, decyzji, działań ale również w okolicznościach „przeładowania” wiadomościami. Samo pojęcie należy traktować jako mierzalną wartość i przydatność informacji w procesie komunikowania tu i teraz. Co istotne rozwój kanałów online komunikacji ułatwia wymianę informacji, z dużym ograniczeniem kosztów. Zatem komunikowanie nie jest już \"poszukiwaniem yeti\". Ważna natomiast staje się użyteczność informacji, gdyż warunkuje podejmowanie właściwych decyzji i działań. Roziew pomiędzy popytem a podażą informacji – jakościowo wartościowych danych, pozwalających na poprawną interpretację sytuacji stanowi \"lukę informacyjną\" [2], co jest tożsame ze zjawiskiem \"pustki informacyjnej\".", "Organizacja jest złożonym środowiskiem z wyraźnie zaznaczonymi, chociaż współpanującymi podsystemami: pracowników, kadry zarządzającej oraz podsystemu technicznego i infrastrukturalnego. Korzyści użytkowania intranetu (np. platformy Microsoft SharePoint, Intranet Connections, Noddle Intranet, Intranet Edito, Bitrix24, Podio, Intranet 2.0, aplikacja do pracy zespołowej 1) są osiągalne we wszystkich trzech podsystemach. Warunkiem, aby intranet nie stał się narzędziem „pustki informacyjnej”, jest dostosowanie go do potrzeb konkretnej firmy (wielkość, specyfika branży) i dedykowanie go pracownikom.", "Intranet dzięki optymalizacji procesów w organizacji, zmienia dotychczasowe style zarządzania komunikacją wewnętrzną – ukierunkowując z formuły pobierania informacji zwrotnej (feedbacku) na nowy rodzaj komunikatu skupiającego się na przyszłości (feedforward) – chroniąc przed pułapką „pustki informacyjnej”.", "Materiały dodatkowe"], "definitions": [{"name": "Definicja 1: Intranet", "content": "Intranet jest instrumentem wewnętrznego systemu komunikacji dostępnym dla pracowników danej organizacji. Stanowi narzędzie pracy, które m.in. ułatwia dostęp do informacji, wspomaga pracę zespołową, pozwala efektywnie zarządzać wiedzą. Za pośrednictwem intranetu użytkownicy mogą dotrzeć do narzędzi biznesowych oraz organizacyjnych niezbędnych w realizacji codziennych działań [6]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 835, "subject": "Komunikowanie masowe i medialne – definicja i cechy", "paragraphs": ["Media masowe jako dominujące w XX wieku środki komunikowania społecznego oraz instytucje nadawcze funkcjonowały według swoistego modelu. Określał on wyraźnie role nadawcy i odbiorcy w procesie produkcji oraz dystrybucji treści medialnych i tym samym rzutował na sposób, w jaki przebiegała komunikacja między nimi. Nazwano ją komunikowaniem masowym, przy czym wyraźne zdefiniowanie tego, czym ono było, przysparzało badaczom wiele trudności, ponieważ nie było wśród nich jednomyślności co do rozumienia kluczowego pojęcia „masa”. Jak podkreślał Denis McQuail [1], termin ten funkcjonował jako synteza wielu różnych pojęć zarówno o wydźwięku negatywnym, jak i pozytywnym, oznaczając z jednej strony dużą zbiorowość ludzi, brak zróżnicowania czy raczej negatywny wizerunek, drugiej zaś – brak porządku i organizacji oraz odbicie społeczeństwa masowego. To z kolei rzutowało na sposób definiowania komunikowania masowego, w którym akcentowano albo „masowość” – skupiając się na rozpowszechnianiu produkowanych treści w tym samym czasie przez niewielu do wielu albo „komunikowanie” – uwypuklając jednokierunkowość i hierarchiczność przekazu od nadawcy do odbiorcy [2]. Zdaniem McQuaila [3] komunikowanie masowe od samego początku było raczej ideą niż stanem czy procesem możliwym do zaobserwowania w rzeczywistości w czystej postaci, ponieważ okazywało się mniej masowe i mniej zdeterminowane przez technologię niż się badaczom wydawało.", "Cechy komunikowania masowego Komunikowanie masowe zachodziło pomiędzy instytucjami mediów masowych, będącymi producentami przekazów symbolicznych (tekstowych, werbalnych, wizualnych lub mieszanych) a ich odbiorcami, stanowiącymi zbiorowość społeczną określaną mianem masy. Pojęcie to przeciwstawiane było innym, funkcjonującym już w literaturze, takim jak: grupa, tłum czy publiczność. Masowa publiczność była niezwykle liczna, jej członkowie nie znali się nawzajem oraz nie mogli wchodzić ze sobą w interakcje, gdyż byli rozproszeni. Masowa publiczność nie była również stała, mogła się zmieniać w zależności od czasu i przestrzeni. Ponadto odbiorcy masowi cechowali się brakiem samodzielności oraz jednorodności – składała się na nią duża liczba ludzi pochodzących z różnych warstw społecznych i grup demograficznych.", "Instytucje mediów masowych były organizacjami o charakterze formalnym lub nieformalnym, posiadającym wyraźnie zdefiniowane zasady funkcjonowania, w tym także regulowane na gruncie prawnym, o określonych funkcjach (zob. Funkcje mediów ). Posiadały zdolność do tworzenia symbolicznych przekazów i rozpowszechniania ich na szeroką skalę. Instytucje medialne powstawały w celu realizacji ważnych dla społeczeństwa zadań, takich jak rozpowszechnienie informacji i kultury.", "Przekazy w komunikowaniu masowym skierowane były do dużej i nieokreślonej liczby odbiorców. Ich produkcją i dystrybucją zajmowały instytucje mediów masowych, nadzorowane przez państwo lub będące w rękach prywatnych przedsiębiorców, co przekładało się na ich zawartość.", "Komunikowanie medialne i jego cechy Upowszechnienie internetu w latach 90. XX w. mocno wpłynęło na sposób komunikowania pomiędzy instytucjami medialnymi a odbiorcami. I chociaż media tradycyjne (radio, prasa i telewizja) próbowały w tamtym czasie wejść z odbiorcą w interakcję poprzez zachętę do kontaktu telefonicznego lub pisemnego czy tworząc kanały z bardziej zindywidualizowaną ofertą, to za sprawą internetu każdy użytkownik sieci mógł być producentem i odbiorcą treści jednocześnie. Decentralizacja komunikacji i jej demokratyzacja zarazem przyczyniły się do wyłonienia się nowego sposobu komunikacji nazywanego komunikowaniem medialnym [2]. W takiej rzeczywistości komunikacyjnej przekaz mógł być produkowany i rozpowszechniany nie przez wąsko wyspecjalizowane instytucje, ale potencjalnie przez każdego użytkownika podłączonego do sieci. Ponadto wielość kanałów komunikacji (blogi, strony internetowe, portale społecznościowe, grupy dyskusyjne, czaty) i treści dostępnych w komunikacji zapośredniczonej przez internet doprowadziła do „odmasowienia” mediów, wzmocnienia niezależności jednostek i tym samym utraty kontroli przez nadawców nad publicznością, która mogła konsumować treści medialne w dowolnym czasie (zob. Tabela 1 ).", "Aby zwrócić uwagę na masowy charakter komunikacji interaktywnej w mediach cyfrowych, Manuel Castells nazwał ją masową komunikacją zindywidualizowaną. Pojawiła się wraz z rozwojem Web 2.0 i Web 3.0, czyli technologii wspierających rozpowszechnienie przestrzeni społecznych w internecie. Cechuje ją zdaniem badacza „zdolność wysyłania przekazu przez wielu nadawców do wielu odbiorców w czasie rzeczywistym lub wybranym przez strony i z możliwością wykorzystania połączeń dwupunktowych: indywidualnych lub masowych, w zależności od celu i cech zamierzonej praktyki komunikacyjnej” [5]. O jej masowości świadczy m.in. to, że potencjalnie każdy przekaz może dotrzeć do globalnej publiczności. Jest ona jednocześnie zindywidualizowana, ponieważ dochodzi w niej do: tworzenia zindywidualizowanych treści, indywidualnie adresowanej emisji oraz zindywidualizowanego wyboru wielu odbiorców komunikujących się z wieloma nadawcami [6].", "Jak zauważają Weinmann i in. [7], pojawienie się nowych mediów i technologii komunikacyjnych nie wyeliminowało starych problemów komunikowania masowego, zwłaszcza tych dotyczących władzy i sprzeciwu wobec niej oraz struktury i własności. I chociaż technologie komunikacyjne zmieniają się, to nadal utrzymują swoją rolę jako ważnej, potężnej i wpływowej instytucji społecznej."], "definitions": [{"name": "Definicja 1: Komunikowanie masowe", "content": "Instytucje i techniki (sposoby), za pomocą których wyspecjalizowane grupy wykorzystują urządzenia i wynalazki techniczne (prasa, radio, film itp.) w celu rozpowszechniania przekazów symbolicznych, wśród licznych, heterogenicznych i przestrzennie rozproszonych odbiorców; komunikacja masowa wykorzystuje złożoną technologię do kontrolowania środowiska i pełni podstawowe funkcje dla społeczeństwa, takiej jak przekazywanie dziedzictwa społecznego z pokolenia na pokolenie czy zbieranie informacji w celu obserwacji środowiska i określania związku pomiędzy różnymi elementami społeczeństwa wskutek zachodzących w środowisku zmian [4]."}, {"name": "Definicja 2: Komunikowanie medialne", "content": "Sposób rozpowszechniania przekazów symbolicznych przez użytkowników sieci komputerowej do dowolnej liczby innych użytkowników sieci przy użyciu nowych technologii komunikacyjno-informacyjnych, w którym to jednostka a nie elity (instytucje medialne) ma kontrolę nad przekazem (decyduje co, kiedy i gdzie udostępni)."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 836, "subject": "Historia mediów masowych. Charakterystyka i cechy", "paragraphs": ["Od medium do media masowego Komunikowanie człowieka opiera się na zachowaniach werbalnych i pozawerbalne, takich jak: mowa, mimika, gesty, postawa ciała. Podlegają one ograniczeniom wynikającym z możliwości zmysłów człowieka, który sygnały te odbiera wyłącznie, gdy pozostaje w bezpośrednim kontakcie z nadawcą - co wymaga przebywania we wspólnej przestrzeni fizycznej w jednym czasie zarówno przez osobę wysyłającą komunikat jak i go odbierającą. Dla zniesienia tych limitów człowiek przez wieki tworzył różne techniki usprawniające porozumiewanie się - określane jako środki komunikowania lub media (terminy te w literaturze polskiej występują zamiennie i oznaczają to samo). Pozwoliły one na uwolnienie komunikacji od ograniczeń czasu i przestrzeni [1].", "Termin medium jest powszechnie używany zarówno w debacie publicznej, jak i w codziennych dyskusjach. Używając tego pojęcia mamy na myśli środki służące komunikacji. Określamy tak zarówno prasę, radio, telewizję, Internet umożliwiające przenoszenie treści, jak również określone zachowania służące komunikacji oraz urządzenia i przedmioty, umożliwiające tworzenie oraz utrwalanie przekazów. Różnią się one ze względu na ich rolę i znaczenie w procesie mediatyzacji przekazu.", "Na tej podstawie John Fiske [2] podzielił istniejące definicje medium na trzy zasadnicze kategorie ze względu na charakter kanału komunikowania:", "Media masowe – definicja i cechy W latach czterdziestych XX wieku zaczęto używać terminu media masowe lub mass media. Do języka polskiego (podobnie jak i do innych europejskich języków) określenie to zostało przeniesione z języka angielskiego. W Anglii termin ten był używany w odniesieniu do prasy jako nośnika reklam. Kiedy w Stanach Zjednoczonych pojawiły się obok prasy, również komercyjne radio i telewizja zaczęto w odniesieniu do nich stosować ogólną nazwę media, z dodatkiem masowe (ang. mass media), dla określenia wszystkich środków masowego rozpowszechniania informacji, propagandy i rozrywki [4].", "Tym co wyróżnia media masowe jest [7]:", "Krótka historia mediów masowych W dziejach ludzkości można wyróżnić cztery następujące po sobie komunikacyjno/medialne rewolucje [5] :"], "definitions": [{"name": "Definicja 1: Trzy kategorie definicji medium", "content": "\n1. Środki wyrażania (prezentacji) – zaliczamy do nich wszelkie postacie zachowania słownego i pozasłownego, które służą artykulacji przekazu takie jak: mowa, sposób mówienia, mimika, gesty itd. Środki te pozwalają prezentować stany psychiki człowieka, jego opinie, odczucia, emocje w bezpośrednim kontakcie nadawcy i odbiorcy. Zasięg ich ograniczają możliwości jakie mają zmysły człowieka, które wymagają obecności nadawcy i odbiorcy w tym samym czasie i miejscu aby przekaz mógł być odebrany.\n2. Środki rejestracji (reprezentacji) – to narzędzia służące do utrwalania komunikacyjnych zachowań człowieka. Zaliczają się do nich takie instrumenty, jak np. ołówek, karta papieru, dysk twardy, serwer komputerowy, itp. Każde z tych narzędzi ma własny sposób rejestrowania aktów komunikacyjnych i zapisuje tylko pewne ich właściwości, w rezultacie transformując przekazy w swoisty i właściwy dla siebie sposób, np. magnetofon pozwala zapisać tylko głos nadawcy, a papier umożliwia utrwalenie wypowiedzianych słów. Środki te odgrywają istotną rolę w procesie mediatyzacji aktu komunikacji, bo pozwalają na odtworzenie przekazu dowolnym czasie i miejscu odbiorcom, którzy nie mieli bezpośredniego kontaktu z nadawcą [3].\n3. Środki transmisji – instrumenty powielania i przesyłania zarejestrowanych przekazów, np. radio, telewizja, druk. Służą one przenoszeniu komunikatów w czasie i przestrzeni [2].\n\nNależy jednak zauważyć, że w rzeczywistości społecznej te trzy kategorie definiujące media funkcjonują we wzajemnej relacji, np. media rejestracji pozostają we współzależności zarówno ze środkami wyrażania, ponieważ stanowią reprezentację myśli, opinii czy emocji nadawcy, jak i transmisji, które umożliwiają dystrybucję przekazów do szerokiego grona odbiorców [3]."}, {"name": "Definicja 2: Media masowe", "content": "\nTerminem tym określamy prasę, radio i telewizję, kino, internet, przemysł fonograficzny i wydawniczy. Obejmuje on techniki i instytucje tworzące i rozpowszechniające masowo przekazy informacyjne oraz rozrywkowe, które docierają jednocześnie do wielkich, rozproszonych zbiorowości odbiorców [5].\n\nW takim rozumieniu media masowe to zorganizowane technologie, które umożliwiają komunikację masową [6]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 831, "subject": "Nowe media. Charakterystyka i cechy", "paragraphs": ["Wprowadzenie Szeroko rozumiany rozwój kulturowy polega na zmianach w obrębie dwóch podstawowych sfer: materialnej oraz niematerialnej. W skład tej pierwszej wchodzą wszelkiego rodzaju technologie, a drugiej między innymi utrwalone schematy zachowania ludzi, w tym sposoby komunikacji. Jak zauważył William Ogburn, rozwój w obrębie sfery materialnej zazwyczaj wyprzedza obszar niematerialny, w efekcie dopiero po pewnym czasie ludzie dostosowują swoje postępowanie do nowych, popularyzujących się technologii [1].", "Proces ten dotyczy także mediów, a wraz z ich rozwojem pojawiła się potrzeba ich dodatkowej dystynkcji, co w dyskursie naukowym odbyło się w połowie lat 80. XX wieku poprzez wprowadzenie pojęcia „nowych mediów” [2]. Nowe media podważyły typowe dla hierarchicznych mediów masowych schematy odbioru treści poprzez interaktywność przekazu, a także wzmocnienie roli audytorium [3].", "Cechy nowych mediów Często przywoływane przez badaczy – a także odnoszące się do ich cyfrowego rodowodu – omówienie nowych mediów autorstwa Lva Manovicha przedstawia pięć ich najważniejszych cech [6]:", "Inny teoretyk mediów, Denis McQuail, zwraca uwagę na istotne z perspektywy użytkownika cechy odróżniające nowe od starych mediów [7]:"], "definitions": [{"name": "Definicja 1: Nowe media", "content": "Termin nowe media jawi się jako abstrakcyjny i trudny do jednoznacznego zdefiniowania między innymi z powodu wpisanego w to pojęcie ładunku ideologicznego („nowe” zdaje się jako coś lepszego od tradycyjnych mediów) oraz możliwych do przyjęcia punktów odniesienia, gdyż można je opisywać w oparciu o odmienne cechy wyróżniające, między innymi technologie, sposób odbioru, zależności pomiędzy nadawcami a odbiorcami treści i tym podobne [4]. Jedną z najprostszych konceptualizacji nowych mediów przedstawił Lev Manovich, którego zdaniem nowe media to media analogowe skonwertowane do postaci cyfrowej [5]. Cechują się one przede wszystkim swobodnym dostępem do danych, potencjałem do bezstratnego powielania, przez co ich kolejne kopie zachowują pierwotną jakość oryginału, a także interaktywnością, dzięki której ich odbiorcy mogą wchodzić we wzajemne interakcje [5]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 832, "subject": "Media a społeczeństwo i kultura – w kierunku teorii mediów", "paragraphs": ["Paradygmaty badań nad komunikowaniem masowym i mediami", "Paradygmat to zbiór koncepcji i założeń, obowiązujących w określonym czasie dotyczących przedmiotu badań i danej dziedziny wiedzy. W odniesieniu do komunikowania masowego wykształciły się trzy podstawowe paradygmaty:", "Amerykańska tradycja badań nad komunikowaniem – szkoła empiryczna", "Wpływy funkcjonalizmu Teoria funkcjonalistyczna odgrywała istotną rolę w wyjaśnianiu: integracji społeczne, kooperacji, stabilnego ładu, kontroli społecznej, adaptacji do zmiany, mobilizacji i zarządzania kryzysami oraz kontynuacji kultury i wartości [2]. W ramach teorii funkcjonalnej media ukazywane są jako:", "Pola zainteresowań funkcjonalizmu", "1. Badanie funkcji środków masowego przekazu Harol Laswell (1948) wskazał trzy funkcje mediów: nadzór nad otoczeniem, koordynacja i transmisja kultury, które są określane również jako funkcja: informacyjna, interpretująca, kulturowa [2]. Charles Wright (1960) dodał czwartą funkcję – rozrywkę. Stanowi ona element aspektu kultury ale pozwala na redukowanie stresu i zapewnia relaks [2]. Denis McQuail dodał jeszcze jedną funkcję mobilizację [3]. Więcej na ten temat w rozdziale Funkcje mediów.", "2. Rola środków masowego przekazu w kształtowaniu wzorów wpływu W to pole badawcze wpisują się analizy prowadzone przez Roberta Mertona (1910-2003), nad wpływem periodyku społeczno-politycznego na czytelników w niewielkim miasteczku. Badania wykazały, że pewna liczba osób wywierających wpływ na lokalną społeczność wykorzystuje periodyk nie w celu zdobywania informacji dla siebie samych, ale w celu informowania innych ludzi, którzy zwracają się do nich o pomoc, wskazówki, opinie. Dla tych osób, które można uznać za wpływowe media pełnią funkcję publiczną. Informacje umożliwiają im występowanie w roli interpretatora, podnoszą ich prestiż w społeczności lokalnej [4]. Badania przeprowadzone przez Elihu Katza i Paula Lazarsfelda (1955) zakwestionowały teorię wszechmocnego wpływu mediów. Sformułowali oni model „dwustopniowego przepływu informacji”, gdzie pośrednikami pomiędzy medium, a odbiorcami masowymi byli liderzy opinii [5]. Więcej na ten temat w rozdziale Historyczne koncepcje wpływu mediów.", "3. Studia nad propagandą i opinią publiczną Harol Laswell (1902-1978) stworzył koncepcję racjonalnej propagandy, która może być użyta zarówno do dobrych jak i złych celów [1]. Później Paul Lazarsfeld i Robert Merton analizując przekazy radiowe i filmy też podejmowali badania na temat oddziaływania propagandy oraz zajmowali się poszukiwaniem związków pomiędzy propagandą i postawami i opiniami społecznymi [6].", "Wpływy behawioryzmu Stworzona przez Harolda Lasswela koncepcja „igły podskórnej”, którym określił wpływ mediów, jakiemu poddaje się bierna zatomizowana publiczność komunikacji masowej. Przejawiał się poprzez np. przekaz podprogowy, manipulację lub propagandę. Hipoteza ta wyrastała z paradygmatu behawiorystycznego [7].", "Wpływ matematycznej teorii komunikowania (paradygmat cybernetyczny) Podejście to reprezentowali Claude Shannon (1916-2001) i Warren Weaver (1894-1978), którzy czerpali z dorobku badawczego Norberta Wienera (1894-1964). W swoich analizach komunikowania koncentrowali się na transmisji sygnałów [1].", "Zauważyli trzy poziomy problemów pojawiających się w studiach nad komunikowaniem:", "Więcej na ten temat w rozdziale Rola i znaczenie otoczenia społecznego, politycznego i ekonomicznego.", "Szkoła krytyczna tzw. europejska", "Marksistowska teoria mediów Podstawowe założenia marksistowskiej teorii mediów były związane z kwestią władzy. W tej perspektywie media były narzędziem działającym w interesie klas rządzących. Wykorzystywane były w ich interesie [2].", "Szkoła frankfurcka Przedstawicielami tej szkoły byli: Teodor Adorno (1903-1969), Walter Benjamin (1892-1940), Erich Fromm (1900-1987), Herbert Mercuse (1898-1974). W tym nurcie badaczy interesowało ukazanie roli i znaczenia mediów w szerokim kontekście struktury społecznej. W ramach tego podejścia media masowe były postrzegane jako najważniejszy instrument utrzymania hegemonii panujących struktur władzy polityczno-ekonomicznej. Wskazywano na lansowane treści, które mają za zadanie przyciągać wielkie audytoria, co sprzyjało utowarowieniu kultury i traktowaniu przekazów kulturowych w kategoriach produktów [2]. W tej perspektywie silny nacisk kładziono zarówno aspekty ideologiczne, jak ekonomiczne. Wskazując na możliwości wykorzystania mediów jako narzędzi ideologicznego odziaływania na społeczeństwo przez rządzących w systemie kapitalistycznym – podejście to zostało rozwinięte w teorię hegemoniczną autorstwa Antonio Gemsciego [1]. Media stwarzały uprzywilejowany dostęp do sposobów ukazywania rzeczywistości elitom sprawującym władzę co pozwalało im utrwalać panujący porządek i legitymizowały go [2].", "Krytyczna teoria polityczno-ekonomiczna Przedstawiciele: Dallas Smythe (1907-1992), Herbert Schiller (1919-2000). Przedstawiciele tego nurtu szkoły krytycznej przypisują duże znaczenie czynnikom ekonomicznym i ideologicznym. Koncentrują się na ukazaniu zależności pomiędzy strukturą własności a sposobem działania mediów i płynących z tego niebezpieczeństw związanych z ograniczaniem różnorodności przekazów przez koncentrację mediów w rękach kilku wielkich korporacji. W tym nurcie media masowe służą legitymizowaniu porządku kapitalistycznego i utrzymaniu istniejącego porządku społeczno-ekonomicznego.", "Orientacja socjokulturowa Najwybitniejszym przedstawicielem Cultural Studies jest Stuard Hall (1932-2014). Cultural Studies podejmują analizę zarówno przekazów, jak i badania publiczności, szukając wyjaśnienia reakcji jakie wyzwalają przekazy w ramach różnorodnych subkultur. W ramach tego nurtu szczególną rolę odegrała koncepcja przeciwstawnego dekodowania, która ukazywała publiczność nie tylko jako odbiorcę przekazów ale również ich źródło. Co sprawiało, że odbiorcy mogli odczytać komunikaty w sposób zgodny i intencjami nadawcy, odwrotny od nich, lub negocjować znaczenie odbieranych treści [1]. Perspektywa ta sięga również do koncepcji imperializmu kulturowego i szukała wartości kształtujących się pod wpływem przekazów o charakterze rozrywkowym, które mogą ze względu na swój masowy charakter wypierać kulturę lokalną zwłaszcza małych i rozwijających się krajów. Zwracała też w tym kontekście uwagę na charakter produktów medialnych wytwarzanych oraz sposoby zaopatrywania się w produkty i technologie koniecznych dla funkcjonowania systemów komunikacji w danych krajach [1].", "Tradycja semiotyczna (semiologia i strukturalizm) Przedstawiciele: Ferdynadnd de Saussure (1857-1913), Ronald Barthes (1915-1980), Cloude Levi Strauss (1908-2009), z tym nurtem związany jest też Michael Foulcault (1926-1984), Umerto Ecco (1932-2016). Dla semiologów komunikowanie jest produkcją znaczeń w przekazie. Znaczenie to stanowi dynamiczny proces, który jest rezultatem dynamicznej interakcji między znakami, przedmiotem i podmiotem. W nurcie tym badacze podkreślają, że każdy tekst - literacki, filmowy, teatralny itd. ma własną mowę wymagającą odczytania. W takim rozumieniu tylko analiza semiologiczna pozwala na ukazanie prawdziwych znaczeń, które są ukryte co utrudnia ich poznanie. W ramach tej koncepcji zakłada się że znaki również są produktami kultury, z której wyrastają [1]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 833, "subject": "Funkcje mediów", "paragraphs": ["Media masowe jako instytucje społeczne oddziałują w różnorodny sposób na swoich odbiorców i życie społeczne, w związku z czym można mówić o różnych funkcjach społecznych, które media pełnią. Samo pojęcie funkcji mediów było różnie definiowane przez badaczy, którzy koncentrowali się głównie na funkcjach mediów masowych ze względu na rolę, jaką odgrywały one przez dłuższy czas w społeczeństwie [1], [2], [3]. Z perspektywy teorii funkcjonalistycznej media masowe odpowiadają na różnorodne potrzeby jednostek oraz instytucji, stając się w ten sposób źródłem korzyści dla społeczeństwa jako całości i działając na rzecz stabilizacji systemu społecznego, a nie jego zmiany [4], [5]. Funkcje mediów odnoszą się w takim ujęciu do treści oraz praktyk komunikacyjnych nadawców medialnych oddziałujących na odbiorców i w ten sposób kształtujących ich postawy wobec otaczającej rzeczywistości, w konsekwencji wpływając na podejmowane przez nich działania.", "Pierwszym badaczem, który wyróżnił funkcje mediów masowych, był jeden z ojców założycieli nauki o komunikowaniu – Harold Lasswell, który w 1948 roku wyróżnił trzy podstawowe funkcje (nazywane przez niego również celami), jakim media służą [5], [7]:", "Kolejni badacze, w tym Denis McQuail, zmodyfikowali listę funkcji mediów masowych, uzupełniając ją m.in. o funkcję rozrywkową i mobilizacyjną oraz nieco przeformułowując zakres pojęciowy pozostałych funkcji, wskutek czego powstała następująca uniwersalna taksonomia funkcji mediów [8], [9] wyróżniająca:", "Funkcje te nakładają się na siebie i trudno jest stwierdzić, która z nich jest najważniejsza. Ponadto, każda z tych funkcji może być realizowana przez różne przekazy medialne, ale również każdy przekaz może pełnić kilka różnych funkcji. Na przykład serwis informacyjny może realizować kilka różnych funkcji: informacyjną – wówczas gdy prezentowane są najważniejsze wydarzenia z kraju i ze świata, korelacyjną – gdy wydarzenia komentowane są przez ekspertów lub uznane autorytety, ale również mobilizacyjną – kiedy zachęca się do podejmowania określonych działań społecznych, np. szczepień czy głosowania w wyborach. Tak samo transmisje doniosłych wydarzeń (uroczystości publiczne lub państwowe, a także znaczące imprezy sportowe) zwanych wydarzeniami medialnymi pełnią jednocześnie funkcję informacyjną oraz korelacyjną i ciągłości, bowiem ukazują ważność pewnych zagadnień oraz osób w społeczeństwie i jednocześnie stanowią spoiwo społeczne jednoczące widzów w poczuciu przynależności do określonej grupy.", "W sytuacji kiedy cele działalności mediów stają się ukryte lub nieuświadomione, mamy do czynienia z dysfunkcjami mediów, ponieważ nie umożliwiają one jednostkom adaptacji do warunków społecznych oraz dezintegrują społeczeństwo. Przykładem dysfunkcji może być taka interpretacja wydarzeń przez media, która prowadzi do kontroli społecznej, podtrzymywanie ciągłości kulturowej, prowadzące do niezauważania nowych kierunków kulturowych, czy redukowania subkultur."], "definitions": [{"name": "Definicja 1: Funkcje mediów", "content": "Treści i praktyki komunikacyjne, które kształtują przekonania odbiorców, użytkowników mediów o regułach i mechanizmach rządzących światem przedstawionym oraz jego odniesieniach do rzeczywistości, wpływające na ich postępowanie w świecie rzeczywistym [6]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 834, "subject": "Determinizm technologiczny", "paragraphs": ["Paradygmat technologiczny – determinizm technologiczny Podejścia teoretyczne badające relacje pomiędzy technologią, a społeczeństwem mieszczące się w nurcie determinizmu technologicznego zakładają, że innowacje oraz nowoczesne rozwiązania technologiczne pozostają poza wpływem społecznym, a ich przyjęcie jest często postrzegane jako zdeterminowane przez „imperatyw technologiczny”. W rezultacie technologie wywołują zmiany, których charakter i kierunek są z góry określone, a społeczeństwo musi się do nich zaadaptować. Zaprzeczają one tym samym jakiejkolwiek możliwości wyboru dróg rozwoju technologicznego i wynikających z niego zmian społecznych. Podejścia te skupiają się na przewidywaniu i monitorowaniu postępu technologicznego wzdłuż jego nieuchronnej trajektorii i znajdowaniu sposobów na przyspieszenie go poprzez zapewnienie wymaganych zasobów i usuwanie przeszkód oraz promowanie dostosowania społeczeństwa do nieuniknionych zmian [1].", "„Twardy” determinizm technologiczny przedstawiciele: Harold Innis (1894-1952), Marshall McLuhan (1911-1980), Neil Postman (1931-1992) „Twardy” determinizm technologiczny zakłada, że technologie wpływają na społeczeństwo w sposób bezwarunkowy. Środek komunikacji odbierany jest jako autonomiczne narzędzie, niepodlegające wpływowi czy kontroli człowieka. Przedstawiciele tego nurtu uważają, że technologie komunikacyjne powodują zmiany społeczne [2].", "Determinizm technologiczny – Harold Innis Harold Innis był twórcą koncepcji według której nowe środki masowego komunikowania, kiedy pojawią się to wymuszają zmianę społeczną. Wpływają one bowiem na niemal wszystkie sfery życia człowieka oraz na cały system społeczno-polityczny i kulturę. W zawiązku z tym dominująca technologia komunikowania ma kluczowy wpływ na społeczeństwo i zmiana medium jednocześnie wyznacza nowy okres w rozwoju społecznym. Wynika to z tego, że medium oddziałuje na wszystkie aspekty życia społecznego, np. społeczności oparte na piśmie cechuje ekspansja terytorialna, dynamizm i otwarcie, gdyż pismo daje władzę nad czasem, natomiast kulturę oralną definiuje zamknięcie, statyczność, niezmienność tradycyjnych form władzy i struktury społecznej. W kulturze tej pamięć o przeszłości i kultywowanie tradycji stanowią niezwykle ważne wartości. W związku z odejście od oralności i wynalezienie pisma spowoduje zmianę cywilizacyjną, która wpłynie na całe społeczeństwo, jego funkcjonowanie oraz stosunek do przeszłości i przyszłości [3].", "Innis swoją deterministyczną postawę wobec dominującego środka przekazu wyrażał w przekonaniu, że używanie przez dłuższy czas jakiegoś środka komunikacji określa w pewnej mierze kształt przekazywanej wiedzy, a gdy jego oddziaływanie staje się dominujące, prowadzi w końcu do stworzenia cywilizacji, która z upływem czasu z coraz większym trudem zachowuje żywotność i elastyczność, aż pojawi się nowe medium, o nowych możliwościach, które dadzą początek nowej cywilizacji [4]. Oddziaływanie na linii medium – społeczeństwo Innis określał, jako „bias”, czyli tendencje funkcjonowania mediów, które wynikają z ich charakterystyki oraz orientacji. Obejmują one:", "Detreminizm technologiczny – Marshall MacLuhan Marshall McLuhan uważał, że przejściu z jednego okresu w drugi w rozwoju cywilizacyjnym pod wpływem technologii towarzyszy zmiana społeczna. Wyróżniał cztery okresy w historii ludzkości:", "Typologia następujących po sobie etapów rozwoju cywilizacji pokazuje, że rozwój społeczny jest zdeterminowany technologicznie, ponieważ samo medium – środek przekazu – sam w sobie jest przekazem, dlatego medium jest równie ważne, jak to, co z jego pomocą jest wyrażane i rozpowszechniane [7].", "Determinizm technologiczny – Neil Postman Neil Postman w książce „Technopol. Triumf techniki nad kulturą” (2004) kwestionuje neutralny charakter technologii [3]. Podkreśla, że technologia ma tendencje do funkcjonowania niezależnie od systemu, któremu służy i zdobywa sobie coraz większą autonomię [8]. Neil Postman wydzielił w rozwoju cywilizacyjnym trzy etapy, w których rozwój technologii komunikowania osłabiał i podporządkowywał sobie formy i treści kultury oraz przejmował funkcje kulturotwórcze [9].", "Technopol powstał pod wpływem upowszechnienia się w społeczeństwie technologii komputerowych, które spowodowały szereg negatywnych zjawisk w życiu społecznym:", "„Miękki” determinizm technologiczny Przedstawiciel: Paul Levinson (1947). Media i innowacje w dziedzinie komunikacji raczej umożliwiają zajście zmian niż wywołują je w sposób nie możliwy do uniknięcia. Zdaniem Paula Levinsona technologia nie tyle wywołuje jakiś skutek, co raczej sprawia, że bez tej technologii nie mógłby on zaistnieć. Autor posługuje się tu przykładem windy i drapaczy chmur, które nie powstawałyby gdyby nie było technologii pozwalającej na przemieszczanie się w górę i dół. Tym samym winda nie wymusiła powstania wysokich wieżowców, tylko dała taką możliwość. Takie podejście odchodzi od wcześniej przedstawionych koncepcji, które pojawienie się nowej technologii komunikacyjnej łączyły z nieuchronną zmianą cywilizacyjną. W tym ujęciu – określanym jako miękki determinizm – technologia komunikacyjna umożliwia zajście pewnych wydarzeń i przemian w życiu społecznym ale dzieje się to pod wpływem wyborów dokonywanych przez ludzi. To też wyraźnie odróżnia to podejście od przedstawionych wcześniej, gdzie technologie były autonomiczne i pozostawały poza kontrolą człowieka przez co miały niemal absolutny wpływ na społeczeństwo. Tu Paul Levinson, pozostawił miejsce dla woli i decyzji człowiek [10]. Pozwala to zauważyć, że:", "1. Innowacje technologiczne powodują niezamierzone skutki. Wynalazca ma pewne intencje, które towarzyszą mu i powodują odkrycie wynalazku ale nie wie w jaki sposób zostanie on wykorzystany. Dopiero gdy nowa technologia spotka się z odbiorcami, to oni decydują jakie zastosowanie znajdzie. Przykładem jest telefon. Intencją jego wynalazcy, Grahama Bella, było odkrycie narzędzia ułatwiającego komunikację osobom niesłyszącym, a odkrył technologię, która w sposób istotny wpłynęła na całe społeczeństwo, bo telefon pozwolił na jednoczesny kontakt osobom, które pozostawały nawet w dużych odległościach [10].", "2. Wszelkie innowacje rodzą działania obronne wśród ludzi, czego wynikiem jest obserwowalny najpierw efekt narkotyczny będący formą obrony przedłużonego systemu nerwowego ludzi przez media, a następnie poszukiwanie nowych rozwiązań tzw. „mediów zaradczych”. Pozwalają one wyeliminować negatywne skutki nowo odkrytego medium, np. krytykowano telewizję, za efemeryczność, nie można było obejrzeć treści po emisji programu, trzeba było dokładnie w czasie gdy program był nadawany być obecnym przed odbiornikiem. W odpowiedzi człowiek wynalazł medium zaradcze – magnetowid, które zniwelowało negatywne skutki telewizji, bo dało mu większą niezależność od ramówki. Więcej na ten temat w rozdziale Przemiany telewizji. Rozwój streamingowych platform wideo.", "3. Człowiek mniej lub bardziej świadomie kieruje ewolucją mediów, tworząc media zaradcze [10].", "W „miękkiej” wersji determinizmu media stają się jednym z katalizatorów zmian społecznych, jednak przeobrażenia stanowią efekt też innych pozatechnologicznych czynników, np. wydruk Biblii przyczynił się do reformacji, ale wpływ na to miało również wprowadzenie w tym okresie obowiązkowej edukacji na szczeblu podstawowym i likwidacja analfabetyzmu itd. [10]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 841, "subject": "Mediatyzacja i jej cechy", "paragraphs": ["Media są produktami kulturowymi służącymi społecznej komunikacji. W zaawansowanych technologiczne społeczeństwach XXI w. media zajmują prawie wszystkie dziedziny życia. Dzięki mediom człowiek poznaje świat i kształtuje wiedzę o nim, zaś wszelkie treści wytwarzane przez niego mogą być rozpowszechniane lub/i archiwizowane w celu przekazania innym, tym samym przekraczając granice czasowe oraz przestrzenne. Media jako pośrednicy pomiędzy rzeczywistością społeczną a odbiorcami oferują im dostęp m.in. do wiadomości, informacji czy wydarzeń. Przepuszczając je przez własny filtr (instytucjonalny, ideologiczny, itp.), czynią zapośredniczoną medialnie rzeczywistość zmediatyzowaną, niebędącą realnym odbiciem rzeczywistości społecznej, lecz kształtującą jej obraz i wpływają na podejmowane przez ludzi działania społeczne.", "Mediatyzacja pozwala lepiej zrozumieć współzależności pomiędzy przeobrażeniami z jednej strony mediów i komunikacji oraz z drugiej strony kultury i społeczeństwa. Pokazuje, w jaki sposób zmiany społeczno-kulturowe są wplecione w specyficzne przemiany technicznych środków komunikowania, stanowi „proces pogłębiania się współzależności opartej na technologii” [1]. Ma ona charakter zarówno zmiany „ilościowej”, wpływającej na rodzaje mediów, czas i miejsce korzystania czy zakres użycia, jak i „jakościowej” (konsekwencje ich pojawienia się oraz wpływ na praktyki społeczne).", "Prześledzenie na przestrzeni rozwoju stuleci sposobów komunikacji pozwala uchwycić istotę mediatyzacji, w wyniku czego można wyróżnić cztery jej fale: mechanizację, elektryfikację, cyfryzację i danetyzację. Przyniosły one wraz z pojawiającymi się w danym okresie medialnymi wynalazkami technicznymi fundamentalną zmianę jakościową w świecie społecznym [2] Tabela 1. Dwie ostatnie fale (cyfryzacja i danetyzacja) składają się na głęboką mediatyzację (deep mediatization) (zob. Głęboka mediatyzacja ), ponieważ o wiele bardziej niż w poprzednich okresach media cyfrowe stanowią nieodłączny element procesów społecznych i przemian.", "Źródło: Big Think, The Birth of Datafication, 10.04.2013 (dostęp 20.09.2020). Dostępne w YouTube: https://youtu.be/FUj9Ug5kGHM", "W związku z tym, że mediatyzacja jest procesem oddziałującym na rzeczywistość społeczną, możemy wyróżnić kilka jej typów ze względu na wpływ mediów na różne instytucje społeczne, np. politykę, edukację, rodzinę, religię czy życie codzienne. Konsekwencją mediatyzacji życia publicznego jest m.in. przenikanie się sfery prywatnej i publicznej, obniżenie się poziomu dyskursu publicznego, upowszechnienie tabloidyzacji, a także pojawienie się nowych aktorów społecznych – celebrytów, influenserów, youtuberów, którzy narzucają nowe reguły zachowania i postępowania dotychczasowym liderom opinii (ekspertom, naukowcom, dziennikarzom) [3]. Choć właściwie od początku istnienia media masowe wywierały ogromny wpływ na sposób uprawiania polityki i wykorzystywane były jako narzędzie zdobywania lub umacniania politycznej władzy (co Christopher Lasch nazwał w książce „Kultura narcyzmu” „polityką spektaklu”), obecnie praktycznie polityka nie istnieje bez mediów. Dzieje się tak nie tylko dlatego, że media informują obywateli o działaniach podejmowanych przez przedstawicieli władzy, którzy zwrotnie mogą wywierać na nią nacisk, ale także dlatego, że sukces polityczny w dużej mierze zależy od współpracy z mediami i działań podejmowanych w ramach marketingu politycznego. Coraz bardziej jednak logika mediów wypiera logikę polityczną.", "Materiały dodatkowe"], "definitions": [{"name": "Definicja 1: Mediatyzacja", "content": "Mediatyzacja – proces pośrednictwa mediów (masowych, cyfrowych) w poznawaniu świata; polegający na kształtowaniu rzeczywistości społecznej przy pomocy oraz za pośrednictwem mediów poprzez wpływanie na postrzeganie całej rzeczywistości społecznej. Rzutuje nie tylko na to, co człowiek myśli o otaczającym go świecie, ale także na to, jakie podejmuje w nim działania. Jest powiązana z innymi metaprocesami zmian, takimi jak: indywidualizacja, globalizacja i komercjalizacja."}, {"name": "Definicja 2: Remediacja", "content": "Wzajemne oddziaływanie na siebie różnych mediów („starych” i „nowych”) w procesie ich historycznego rozwoju. Różni się od mediacji, ponieważ koncentruje się głównie na opisywaniu typów relacji między istniejącymi w danym okresie historycznym mediami. Zjawisko remediacji, nazywane przez niego mediamorfozą, jako pierwszy opisał Roger Fidler w swoim artykule z 1991 roku oraz książce \"Mediamorphosis. Understanding New Media\" wydanej w 1997 roku. Fidler wyróżnił kilka typów relacji mediów względem siebie: współewolucja i współistnienie, metamorfoza, propagacja, przetrwanie, możliwość i potrzeba, opóźniona akceptacja."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 842, "subject": "Głęboka mediatyzacja", "paragraphs": ["Wraz z pojawianiem się nowych medialnych wynalazków technicznych, tj. komputera, internetu, telefonów komórkowych, sfera społeczna stopniowo ulegała coraz głębszemu przekształceniu. To co publiczne zaczęło przenikać się z tym, co prywatne, lokalne – z tym, co globalne, a indywidualne z tym, co zbiorowe. Przekształceniu uległy praktyki komunikacyjne coraz bardziej powiązane z mobilnością i dostępnością, ale także z widzialnością – byciem obserwowanym i śledzonym na podstawie podejmowanych aktywności online. Media cyfrowe jak nigdy wcześniej wniknęły głęboko w życie społeczne i codzienne, kształtując nowe nawyki i zachowania, co Mark Deuze nazwał „życiem w mediach a nie z mediami” [1]. Za sprawą oprogramowania i różnych afordancji oraz funkcjonalności urządzeń cyfrowych świat medialny stał się spersonalizowany, dopasowany do potrzeb, gustów i codziennych nawyków użytkowników. Ten zaawansowany etap procesu, w którym wszystkie elementy świata społecznego są ściśle związane z mediami cyfrowymi oraz ich infrastrukturą, nazywany jest głęboką mediatyzacją. Składają się na nią dwie powiązane ze sobą fale procesu mediatyzacji: cyfryzacja oraz danetyzacja.", "Koncepcja głębokiej mediatyzacji została po raz pierwszy opisana z perspektywy podejścia figuracyjnego przez Nicka Couldry’ego i Andreasa Heppa w książce \"The mediated construction of reality: society, culture, mediatization\" i rozwijana w innych pracach Heppa [2], [3]. Zdaniem badaczy głęboką mediatyzację charakteryzuje pięć tendencji: różnorodność (differentiation), łączność (connectivity), wszechobecność (omnipresence), tempo innowacji (pace of innovation) i danetyzacja (datafication) Tabela 1.", "Wymienione tendencje głębokiej mediatyzacji ( Tabela 1 ) stanowią wynik działalności i zaangażowania ponadindywidualnych aktorów społecznych, do których należą nie tylko nowo technologiczne podmioty korporacyjne, takie jak Facebook, Alphabet, Amazon, Uber, Airbnb, Alibaba, ale i instytucjonalne podmioty, takie jak rządy i instytucje państwowe, które wspierają (lub utrudniają) zaangażowanie tych podmiotów na rynku. Podmioty korporacyjne dzięki modelom biznesowym opartym na gromadzeniu i analizowaniu codziennych aktów społecznych, które przynoszą wymierne zyski, stają się potężnymi ośrodkami władzy komunikacji [4].", "Drugą grupę ponadindywidualnych aktorów społecznych tworzą podmioty kolektywne z ruchami społecznymi i społecznościami pionierskimi na czele, które wspierają zmiany zachodzące w społeczeństwie za sprawą nowych mediów i technologii. Do takich ruchów można zaliczyć: Whole Earth Network – niezwykłą, wpływową grupę dziennikarzy i przedsiębiorców z Zatoki San Francisco (lata 70., 80. i 90.); „ideologię kalifornijską” – światopogląd firm z Doliny Krzemowej (lata 90.); ruch Quantified Self (od 2009 r., społeczność nastawiona na oparte na technologii samooceny i samodoskonalenia), czy ruch Hacks / Hackers (od 2009 r., społeczność nastawiona na praktyki nagłaśniania ważnych spraw i dziennikarstwo obywatelskie) (zob. https://www.hackshackers.com/)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 837, "subject": "Konwergencja jako zjawisko w świecie mediów", "paragraphs": ["Konwergencja należy do jednych z najważniejszych zjawisk związanych z dynamicznymi przemianami mediów, jakie zaszły na przełomie XX i XXI. Samo słowo pochodzi od łac. convergere (pol. zbierać się), co oznacza „zbieżność”, i jest zjawiskiem identyfikowanym m.in. w świecie przyrody [1]. O konwergencji na gruncie nauk o mediach zaczęto mówić na początku lat 80. XX w. Zauważono bowiem wówczas zacieranie się granic między różnymi mediami, w wyniku czego usługi, które dostarczane były jednym kanałem, np. poprzez kabel (telewizja), mogły być dostarczane również w inny sposób (np. satelita). Pojawienie się ogólnodostępnego internetu oraz cyfryzacja mediów masowych mocno przyspieszyły procesy, które zaszły w wyniku przekształcania się całego środowiska medialnego (dostawcy usług – producenci treści – odbiorcy). Rozwój sieci, zwłaszcza pojawienie się szerokopasmowego internetu, przyczynił się do jeszcze większego zintegrowania usług oferowanych przez tradycyjnych nadawców medialnych (prasa, radio, telewizja) w jej przestrzeni, a także wyłonienie się nowych modeli biznesowych opartych nie na sprzedaży usług, ale dostępie do danych użytkowników oraz ich przetwarzaniu.", "Samo zjawisko konwergencji jest niezwykle złożone i wieloaspektowe, może oznaczać zarówno fazę rozwoju mediów, zdolność do przenikania się mediów czy proces, w którym wzajemnie przenikają się zależności pomiędzy treściami medialnymi a ich twórcami lub odbiorcami [2], [3]. Jest ona efektem rozwoju technologicznego i dyfuzji sektora telekomunikacyjnego, przestrzeni mediów i obszaru technologii informatycznej. Jak to celnie ujęli Jay Dawid Bolter i Richard Grusin, autorzy książki \"Remediation. Understanding New Media\": „Konwergencja to wzajemna remediacja przy-najmniej trzech ważnych technologii – telefonu, telewizji i komputera – z których każda jest hybrydą technicznych, społecznych i ekonomicznych praktyk, oferujących swoją własną ścieżkę natychmiastowości” [4]. Najważniejsze typy konwergencji zostały przedstawione w Tabela 1.", "Jednoznaczna ocena zjawiska konwergencji jest trudna. Z jednej strony w jej wyniku doszło do koncentracji rynku mediów i tworzenia się oligopoli medialnych i technologicznych, których przychody sięgają miliardów dolarów rocznie (zob. Platformizacja sieci). Koncerny takie jak Comcast Corporation, Warner Media, Alphabet czy Amazon w Stanach Zjednoczonych, Axel Springer w Europie oraz Tencent i Baidu w Chinach oferują dostęp do wielu produktów i usług medialnych, w tym za pośrednictwem internetu. Z drugiej strony dzięki konwergencji przyspieszyły prace nad nowymi technologiami, np. sztuczną inteligencją oraz rozpoznawaniem mowy i twarzy, wirtualną i rozszerzoną rzeczywistością, płatnościami internetowymi, etc. Konkurencja na rynku usług przyniosła też korzyści użytkownikom mediów, którzy otrzymali dostęp do nowych usług za pośrednictwem internetu, np. możliwość zbliżonej płatności telefonem, zamawianie posiłków i przejazdów przez aplikacje mobilne."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 838, "subject": "Książka – dawniej i dziś", "paragraphs": ["Pierwsze nowoczesne medium – drukowana książka Drukowana książka wyrastała z książki rękopiśmiennej i w początkowym etapie tylko technika powielania treści za pomocą czcionek maszyny drukarskiej odróżniała to medium od przepisywanych ręcznie książek. Zdaniem Tomasza Gobana-Klasa (2001) tłumaczy to dlaczego pierwszą wydrukowaną książką była Biblia. Stanowiła ona bowiem jedna z najczęściej powielanych ksiąg w tamtym okresie [1]. Tym co charakteryzowało książkę, jako medium, było:", "Wynalazek druku pozwolił na publikowanie dużej ilości kopii książek, które rozpowszechniały idee nie zawsze zgodne z tymi głoszonymi przez władze kościelne i świeckie. Już w średniowieczu palono ręcznie pisano księgi, które uznawano za antypaństwowe i antykościelne. W dobie druku wolność publikowania była dla Kościoła i władców państw jeszcze groźniejsza. W związku z tym w 1559 powstaje Indeks Ksiąg Zakazanych przygotowanych z inicjatywy Kościoła, na którym umieszczono 50 ksiąg i rękopisów. W kolejnych latach indeks był powiększany o kolejne pozycje. Przetrwał on do XX wieku, kiedy zrezygnowano z jego publikowania [3]. Więcej na ten temat w rozdziale Cenzura.", "Źródło: TED-Ed, The evolution of the book - J.Dreyfuss, 13.06 2016 (dostęp 30.11.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=_YqYtdPUis4&ab_channel=TED-Ed", "Książka tradycyjna versus hipertekst Cechy książki tradycyjnej", "Hipertekst To tekst składający się z fragmentów tekstu połączonych z sobą elektronicznymi odsyłaczami – linkami [5]. Cechy hipertekstu:", "Dzisiejsza postać książki cyfrowej zdecydowanie różni się od swojego pierwowzoru. Pierwsze e-booki wydawano w formie, która nie pozwalała użytkownikowi na przeszukiwanie treści i zachowywały typowy dla tradycyjnej książki linearny układ [8]. Pierwszą książką opublikowaną w postaci elektronicznej była powieść Michaela Joyce’a „Afternoon”, była to pierwsza powieść hipertekstowa napisana i odczytywana a ekranie komputera. Powstała w 1987 roku, opublikowana została najpierw w 1989, a później w 1991 roku. W roku 2000 opublikowano opowiadanie Stephena Kinga „Riding the Bullet”, które w ciągu pierwszego dnia tekst został pobrany przez blisko 400 tys. Pokazuje to, że ebooki mogą zdobywać popularność i być atrakcyjne dla odbiorców [7].", "Zalety e-booków", "Wady e-booków", "Czytelnictwo książek w Polsce W badaniach „Stan czytelnictwa w Polsce” realizowanych w 2018 roku przez firmę Kantar Public na ogólnopolskiej próbie reprezentatywnej 2076 respondentów w wieku co najmniej 15 lat metodą CAPI oraz na celowej próbie 1660 czytelników książek metodą CAWI (Computer Assisted Web Interview). W 2018 roku czytanie przynajmniej jednej książki w ciągu roku zadeklarowało \\( 37\\% \\) respondentów, ilość ta nie była niemal taka sama jak rok wcześniej, co pokazuje, że książka nie jest dziś medium najczęściej wybieranym przez odbiorców Rys. 1.", "W badaniu tym pytano też o czytanie e-booka w ostatnim roku. Okazuje się że takie działanie deklarowało tylko \\( 3\\% \\) badanych w całej próbie, ale już \\( 28\\% \\) wśród tych, którzy deklarowali że w ostatnim roku przeczytali tradycyjną książkę. Nieco częściej badani deklarowali, że ściągają książki z internetu lub czytają je w pdf-ach. W ciągu ostatniego roku \\( 4\\% \\) spośród wszystkich badanych zadeklarowało takie działanie, a wśród osób, które w przeciągu 12 miesięcy przeczytały choć jedną książkę odpowiedziało tak \\( 28\\% \\) badanych. Z komputera stacjonarnego do czytania cyfrowych książek, korzystało \\( 9\\% \\) badanych, \\( 53\\% \\) respondentów używało w tym celu laptopa, \\( 11\\% \\) tabletu, czytnika \\( 17\\% \\), a telefonu komórkowego \\( 18\\% \\) respondentów https://www.bn.org.pl/download/document/1553438768.pdf."], "definitions": [{"name": "Definicja 1: E-book", "content": " elektroniczna wersja książki drukowanej, przeznaczona do odczytu za pomocą komputera, lub innego urządzenia wyposażonego w odpowiednie aplikacje, umożliwiające prawidłowe wyświetlanie treści zapisanej w postaci cyfrowej. W związku z powyższym należy przyjąć, że termin ten określa jednocześnie rodzaj dokumentu i jego nośnik, w tym przypadku − urządzenie służące do odczytu [7].\n "}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 839, "subject": "Prasa – dawniej i dziś", "paragraphs": ["Początki prasy Za początki uznaje się ulotki, pamflety i biuletyny, które ukazywały się na przełomie XVI i XVII stulecia, czyli niemal dwa wieki od wynalezienia prasy przez Gutenberga [1]. Medium z którego wykształciła się prasa był bardziej list kupiecki niż książka. Jeśli weźmiemy pod uwagę sieci dystrybucji oraz zawartość, np. biuletynów handlowych, które stanowiły prototyp gazety, to były one rozsyłane za pomocą poczty, w ramach jej zasięgu, a ich treść stanowiły informacje dotyczące zdarzeń międzynarodowych i krajowych istotnych dla gospodarki i handlu, które były kompilowane i publikowane przez drukarza pełniącego rolę wydawcy [2].", "Prasę jako medium charakteryzowała:", "Prasa odegrała istotną rolę byłą bowiem medium, które zorientowane było na indywidualnego czytelnika i aktualne wydarzenia. O sukcesie prasy zadecydowało to, że potrafiła ona dostosować się do zmieniającego się społeczeństwa i odpowiedzieć na potrzeby miejskiej społeczności odbiorców [1].", "Typologia prasy", "Od medium elitarnego do popularnego Do polowy XIX wieku prasa była medium elitarnym. Gazety były kupowane jedynie przez ludzi bardzo zamożnych. Dopiero połączenie wpływów ze sprzedaży nakładu gazety i z reklam pozwoliło na popularyzację tego medium, gdyż umożliwiło powstanie taniej gazety, dostępnej dla szerokiego kręgu odbiorców [2].", "Rozwój komercjalizmu doprowadził do nowego typu gazety: o treści lekkiej, rozrywkowej, ciekawej, sensacyjnej, kupowanej przez czytelników o niskim dochodzie. Wywodzi się ona z prasy popularnej i żółtego dziennikarstwa z połowy XIX wieku i jest dziś określana terminem tabloid. W tym okresie reklama stała się głównym źródłem dochodu gazet i czasopism co przyczyniło się do wzrostu dominacja wielkich koncernów prasowych [1]. W wyniku tych procesów pod koniec XIX stulecia ukształtował się podział prasy na elitarną i popularną. Prasa elitarna (broadsheet) dostarczała informacje o polityce, ekonomii i społeczeństwie, jej duży format pozwalał na pogłębioną analizę i relacjonowanie wydarzeń językiem na wysokim poziomie. Prasa popularna (tabloid) była kolei nacechowana sensacyjnością i emocjami. Gwarantowała przede wszystkim relaks i rozrywkę. Stosunkowo niewielki format sprawił, że teksty musiały stać się zwięźlejsze [4]. W XIX w. zaczęły ukazywać się pierwsze czasopisma, były one wydawane rzadziej, bo w odstępach tygodnia, miesiąca itd. i miały bardziej zróżnicowane treści niż dzienniki. W Anglii pierwszy ukazał się tygodnik „The Rewiev” i dość szybko magazyny zaczęły być wydawane też w innych krajach, dominowały w nich lżejsze treści niż w dziennikach, miały bardziej publicystyczny niż były one mniejsze i miały wygodny książkowy format, miały też ładniejszy papier i w miarę możliwości finansowych i technologicznych dołączano do nich ilustracje, drzeworyty i miedzioryty [2].", "Tabloidyzacja prasy Procesy komercjalizacji mediów spowodowały, że informacja stała się towarem, a odbiorca klientem. W konsekwencji doprowadziło to do wzrostu konkurencyjności na rynku medialnym. Podmioty medialne rywalizują o odbiorców, reklamodawców oraz sponsorów i starają się przyciągnąć ich uwagę. Doprowadziło to coraz większej dominacji w prasie memów internetowych, artykułów wiralowych i tekstów łatwo trafiających do odbiorcy, o atrakcyjnym przekazie i rozrywkowym charakterze. Procesy te określa się terminem tabloidyzacji prasy [5]. Polega ona na zbliżaniu się formy, języka, obrazu świata w mediach głównego nurtu do treści, formy, języka i obrazu świata prasy tabloidowej. W tabloidach sposób pisania tekstów nastawiony na fragmentaryzację rzeczywistości, sensacyjność. Dzięki temu powstają artykuły łatwo przyswajalne i nie wymagające zbyt dużego wysiłku poznawczego od odbiorcy [6]. Tabloidyzacja ma istotne konsekwencje dla współczesnej prasy, gdyż można zauważyć, że dziś wiele gazet, które do niedawna miało elitarny charakter, zaczyna zbliżać się stylem, szatą graficzną i treścią do tabloidów. W konsekwencji powstaje prasa określana jako broadloid określana też jako broadsheet [7].", "Prasa w dobie internetu Prasa elektroniczna – to wynik skrzyżowania cyfrowego sposobu publikacji z organizacją i trybem pracy właściwym dla redakcji papierowych [8]. W sieci najczęściej spotykanymi określeniami dla prasy elektronicznej (nie posiadającej odpowiedników papierowych), są: e-prasa, e-zin lub mag. Używane są również takie nazwy, jak e-dziennik, e-tygodnik (dwutygodnik, miesięcznik i kwartalnik), e-periodyk, e-pismo. Zalety prasy elektronicznej:", "Niektóre tytuły prasowe równolegle tworzą wydanie papierowe i elektroniczne Budują w tym celu serwisy, witryny, portale. Nie są one tylko elektronicznymi odpowiednikami wydawnictw tradycyjnych. Pozwalają użytkowi pobierać i korzystać z zawartości nie dostępnej w wersji drukowanej [9]. E-wydania – to elektroniczne wersje pism drukowanych w pełni odpowiadające w całości formie papierowej – wraz z zachowaniem treści, artykułów oraz reklam prasowych. Obecnie 29 wydawców deklaruje e-wydania w naszym audycie, dzięki czemu posiadamy dane na temat 83 tytułów prasowych aktualnie ukazujących się w wersji elektronicznej zob. https://www.pbc.pl/e-wydania-prasa-w-dobie-koronawirusa/.", "Źródło: Polskie badania czytelnictwa. Audyt ZKDP rozpowszechnienie prasy 2019-2020. Dostępne w: https://www.pbc.pl/e-wydania-prasa-w-dobie-koronawirusa.", "Dziś coraz większą rolę zaczynają odgrywać dziennikarstwo obywatelskie i czasopisma tworzone przez społeczności. Takie projekty, jak Wiadomości24.pl, Alert24.pl czy Interia360.pl wpisały się do świata nowych mediów. Bazują one na aktywności użytkowników, którzy dostarczają serwisom aktualnych i unikalnych treści [9]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 845, "subject": "Radio – dawniej i dziś", "paragraphs": ["Narodziny radia i krótka historia Radio rozpoczęło działalność w 1920 roku. W tym okresie próby nadawcze wykonywało Polskie Towarzystwo Radiotechniczne z siedzibą w Warszawie. Prekursorami stworzenia rozgłośni radiowej byli Zygmunt Chamiec oraz Tadeusz Sułowski – założyciele i właściciele spółki Polskie Radio, która w roku 1925 rok rozpoczęła nadawanie [1]. W latach 20. XX wieku radio nie miało jeszcze charakteru masowego, było raczej kosztowną ciekawostką. Z czasem jednak jego rola społeczna znacznie wzrosła, za sprawą rozwoju technologicznego, radio stało się medium bardzo dostępnym i miało charakter medium demokratycznego, umożliwiało bowiem kontakt z wytworami kulturowymi ludziom, których kompetencje komunikacyjne były ograniczone. Z czasem radio upowszechniło się na tyle, że – po krótkim okresie wspólnego słuchania – odbiorniki stały się dostępne dla przeciętnie sytuowanej rodziny [2]. Siłą radia było słowo mówione, które mogło docierać do ogromnych i rozproszonych audytorów, ale równie istotną rolę odgrywała w nim muzyka. W latach 30. XX wieku radio i przemysł fonograficzny połączyły siły, tworząc tzw. złotą erę radiofonii [3]. Na lata 40. XX wieku przypada okres największej świetności radia, potem wraz z pojawieniem się telewizji, radio traci swoją dominującą pozycję wśród audytorium [4]. Od początku radio umożliwiało pełnienie wielu funkcji społecznych. Nowy wynalazek umożliwiający przekazywanie informacji miał dużą siłę oddziaływania na kulturę oraz świadomość polityczną i społeczną odbiorców. Radio stanowiło też ważny nośnik propagandy politycznej, wykorzystywanym m.in. przez Adolfa Hitlera do upowszechniania swojej ideologii [3].", "Tym co wyróżnia radio na tle innych mediów i co decyduje o jego specyfice to:", "Formatowanie radia Medialne koncerny muszą formatować swoje oferty programowe, aby z jednej strony – przyciągnąć jak największą liczbę reklamodawców, z drugiej – jak najlepiej określić grupę docelową swoich odbiorców [6]. Formatowanie związane jest z konstrukcją takiej oferty programowej, która spowoduje ściągnięcie jak największej liczby słuchaczy spełniających kryterium, jakim jest wybrana grupa docelowa, dla której radio tworzy swoją ofertę [1].", "Formatowanie zmieniło:", "Radio w dobie nowych mediów Pojawienie się technologii cyfrowych i nowych mediów od początku XXI wieku wymusiło na radiu wprowadzenie wielu zmian:", "Zmiany technologiczne powodują i w najbliższych latach będą powodowały konieczność wykorzystywania przez radio nowoczesnych rozwiązań technologicznych, by lepiej odpowiadać potrzebom swoich odbiorców.", "Radio internetowe Za pomocą sieci można już słuchać paręset tysięcy rozgłośni z całego świata, większość stacji emituje program zarówno tą internetową i radiową. Niemal każda rozgłośnia ma swój internetowy odpowiednik, a kilkaset polskich stacji nadaje tylko w Internecie (tzw. web stream) [6]. Niektóre rozgłośnie decydują się na nadawania audycji, równocześnie poprzez internet i tradycyjnie drogą radiową. Mamy wówczas do czynie a z radio stream lub simulcast [6]. Dziś radio dziś jest dostępne na platformach satelitarnych, w internecie oraz aplikacjach mobilnych, a rozgłośnie radiowe nadające tradycyjnie, oprócz swojego sieciowego odpowiednika, pod swą marką tworzą jeszcze inny, mocno sformatowany internetowy kanał, dostępny tylko w Internecie (tak robi np. radio RMF czy Radio Zet), żeby przyciągnąć uwagę sfragmentyzowanej widowni nowych mediów [6].", "Słuchanie radia w Polsce Według badań prowadzonych w 2016 roku słuchanie radia jest w Polsce zjawiskiem popularnym i powszechnym. Blisko \\( 75\\% \\) Polaków słucha radia co najmniej raz w tygodniu, natomiast \\( 51,4\\% \\) słucha radia codziennie. Mężczyźni słuchają radia częściej niż kobiety. Im wyższe wykształcenie, tym częściej pojawiały się deklaracje o codziennym słuchaniu radia. Badani powyżej 60 roku życia istotnie częściej niż pozostali respondenci, przyznawali się do niesłuchania radia w ogóle ( \\( 25,3\\% \\)). Blisko \\( 75\\% \\) badanych jako miejsce słuchania radia wskazało dom a nieomal połowa ( \\( 48,3\\% \\)) słucha radia w samochodzie. Na kolejnym miejscu wymieniano słuchanie radia w pracy – \\( 20\\% \\) w skali całej próby słuchaczy (a wśród pracujących – \\( 31,3\\% \\)). Radio towarzyszy również \\( 6\\% \\) osób podróżujących komunikacją miejską. Aktualna oferta programowa została przez blisko \\( 73\\% \\) słuchaczy oceniona jako wystarczająca (zob. https://www.gov.pl/web/cyfryzacja/wnioski-z-raportu-dot.-cyfryzacji-radia)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 840, "subject": "Kino – od kina oka do kina pędzla", "paragraphs": ["Historia ruchomych obrazów Za początek kina uznaje się pierwszą publiczną projekcję filmu braci Augusta i Luisa Lumierów „Wyjście robotników z fabryki” w 1985 roku. Szybko zyskało ono popularność nie tylko wśród mieszkańców Paryża ale również na prowincji. Początkowo filmy były krótkie, trwały kilkanaście minut i koncentrował się na ukazywaniu codziennego życia. Szybko jednak filmowcy odeszli od dokumentowania codzienności na taśmie filmowej w kierunku inscenizacji [1]. Film akcji zapoczątkował film „Wielki napad na pociąg” Edwina Portera, a filmy fantastyczne „Podróż na księżyc” George Mélièsa. Dalsze etapy rozwoju sztuki filmowej, to zatrudnianie aktorów filmowych do odgrywania ról (1908 rok). Następnie wyjście realizatorów w plener oraz zdjęcia wykonywane ruchomą kamerą i zastosowanie montażu. Wszystkie te nowatorskie rozwiązania można było zobaczyć w filmie D.W. Griffitha „Narodziny narodu” z 1915 roku. W kolejnych latach powstawały nowe gatunki kinowe. W latach dwudziestych Charles Chaplin stworzył klasyczny typ komedii filmowej (burleska), a Sergiusz Eisenstein, Wsiewołod Pudowkin i Aleksander Dowżenko wykorzystali techniki nowoczesnego montażu tworząc film agitacyjny. W Niemczech w czasach hitlerowskich Leni Riefenstal stworzyła nową formę propagandy filmowej reżyserując film „Wola mocy”. Równolegle oprócz filmu fabularnego (aktorskiego) rozwijał się też film dokumentalny, np. kroniki filmowe oraz rysunkowy, animowany [2].", "Dynamiczny rozwój kina, jako medium masowego wymusił zmiany w samym procesie produkowania filmów, które w tym okresie stały się już istotną gałęzią show bussinesu. W odpowiedzi na potrzeby kina lat dwudziestych XX wieku, rozwinęły się duże studia filmowe zdolne udźwignąć rosnące koszty filmu. Były one bardzo wysokie, gdyż obejmowały nie tylko zatrudnianie popularnych aktorów, ale również przygotowanie dekoracji, które wymagało specjalnych pomieszczeń. Ogromne koszty produkcji filmowych sprawiły, że ich właściciele tworzyli kampanie producenckie, które opanowały niemal całą branżę filmową. W Stanach Zjednoczonych dominowała «wielka piątka» z Hollywoodu: Metro-Goldwyn-Mayer, Warner, Paramount, Twentieth Century Fox, oraz RKO, z których cztery do dzisiaj pozostają światowymi producentami. Liczące się współcześnie globalne wytwórnie to także Universal i Columbia [2].", "Źródło: Timecode film production, Historia Kina - DISCOVERY / INTEL, 24.10.2011 (dostęp 05.12.2020). Dostępne w YouTube: https://youtu.be/rdmTXc9bpiU.", "Zmiany o charakterze technicznym w kinie Początkowo kino było nieme, w związku z tym wypracowano odpowiednie rozwiązania i kanony estetyczne, które spowodowały, że w pełni dźwięk do filmu wprowadzono dopiero w 1927 roku. Pierwszym filmem prawdziwie dźwiękowym był „Śpiewak z jazzbandu” (Anthonego Croslanda 1927). Wprowadzenie dźwięku do filmu dało początek nowoczesnej kinematografii [1]. Stworzenie filmu kolorowego było problematyczne. Film analogicznie jak fotografia były początkowo wyłącznie monochromatyczny, co pozwalało jedynie na projekcję obrazów w odcieniach szarości. W pierwszym okresie kina kolor był wprowadzany do filmów dzięki ręcznemu ich kolorowaniu. Innym sposobem było wirażowanie kliszy a więc przebarwianie jej fragmentów [3]. Czasem malowano tylko niektóre elementy taśmy, jak np. Eisenstein w „Pancerniku Potiomkinie” zabarwił sztandar. Problem koloru w filmie rozwiązano w latach 30. XX wieku w zakładach w Niemczech i USA [1].", "Film jako medium masowe Film w stosunku do teatru nie wnosił nowych funkcji ani treści. Bazował na tradycyjnej rozrywce i pokazywał znane jej formy, takie jak dramat, komedia itd. Nowatorska była jednak forma ich rozpowszechniania i prezentowania. Sala kinowa szybko została doceniona przez klasę robotniczą, która w wyniku zmian społecznych zaczęła dysponować wolnym od pracy czasem i chciała spędzać go w sposób atrakcyjny i rodzinny [4]. Kino ze względu na cenę i udostępniony repertuar odpowiadało na potrzeby tej kategorii odbiorców. Film spopularyzował wśród nich część dóbr kultury, które dotąd były dostępne jedynie wyższym warstwom społecznym, co stanowiło realizację ich oczekiwań. W konsekwencji zdaniem Dennisa McQuaila (2007) zaowocowało to bardzo szybkim rozwojem tego medium. W niedługim czasie od wynalezienia kino stało się medium masowym zdolnym docierać do bardzo dużej widowni nie tylko w miastach ale również w regionach wiejskich. Wskazuje to, że film kinowy potrafił zaspokoić ukryte zapotrzebowanie na pewien typ rozrywki, którego w tym czasie oczekiwały duże rzesze odbiorców [5].", "Cechy filmu jako medium masowego:", "Film jako medium propagandowe Bardzo szybko doceniono rolę kina jako środka propagandowego, już w okresie dwudziestolecia międzywojennego w systemach totalitarnych propagandziści wykorzystywali potencjał tego medium. Przykładem jest wykorzystanie tego medium w propagandzie III Rzeszy. Joseph Goebels uważał, że przekazy odwołujące się do emocji, stereotypów i analogii mają największy wpływ na postawy odbiorców. Uważał, że najlepsze efekty perswazyjne można osiągnąć stwarzając odbiorcom przyjemne warunki odbioru treści sprzyjające ich dobremu samopoczuciu. Zapewniała to przestrzeń rozrywki. W związku z tym Goebels stwarzał warunki do rozwoju filmów rozrywkowych: muzycznych, które nie miały żadnych treści propagandowych ale sprzyjały budowie miłej atmosfery oraz fabularne i historyczne. W nich treści propagandowe były obecne, ale nie były one podane w sposób oczywisty. Treści perswazyjne były ukryte ale przeciętny widz był w stanie wyciągnąć odpowiednie z punktu widzenia nadawcy wnioski. Z tego okresu pochodzi np. film Fryderyk Wielki, który posługiwał się analogią. Ważną rolę w propagandzie Niemiec odgrywała też kronika filmowa, w niej treści propagandowe były komunikowane w sposób bezpośredni [6]. W Rosji Radzieckiej w tym okresie film również był traktowany, jako atrakcyjne medium, które mogło pomóc w legitymizacji partii i wywołania niechęci do wrogów klasowych przekazując treści zgodne z oficjalną ideologią państwową. Bardzo dobrze pokazują to przykłady wyreżyserowanych i zmontowanych przez Siergieja Eisensteina filmów: „Strajk” (1924), „Pancernik Potiomkin” (1925) i „Październik” (1928) [7].", "Kino cyfrowe – od kina oka do kina pędzla Lew Manowich w swojej książce „Język nowych mediów” (2006) przedstawia zmiany jakim ulega kino pod wpływem technologii komputerowych. Spowodowały one, że nastąpił swoisty powrót kina do jego początków, kiedy to tworzyły je obrazy – ręcznie malowane i animowane. W XX wieku te rysunkowe początki kina zostały odrzucone i nastąpił wyraźny podział na animację i film. Film animowany bazował na rysowaniu i podkreślał swą sztuczność, a produkcje kinowe w tamtym okresie zupełnie odrzuciły rysunek starały się zacierać ślady produkcji, tak by widz miał wrażenie, że oglądane obrazy nie zostały skonstruowane tylko zarejestrowane. Lata 90. XX wieku przyniosły zmiany w tym podziale wraz ze wzrostem znaczenia efektów specjalnych, które stały się ważne dla produkcji kinowych końca wieku i wymagały zastosowania animacji i grafiki. Stanowiło to początek kina cyfrowego, które:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 843, "subject": "Przemiany telewizji. Rozwój streamingowych platform wideo", "paragraphs": ["Telewizja najczęściej kojarzona jest z technologicznym urządzeniem, swoistą skrzynką elektroniczną, za pośrednictwem której można doświadczać różnorodności rzeczywistości. Jednak jej status jest o wiele bardziej złożony, bowiem wciąż stanowi swoisty fenomen społeczno-kulturowy ze względu na rolę i znaczenie, jaką ogrywa w życiu jednostek i zbiorowości, co ujmowano w formę różnych metafor (lustra, okna, szkoły, obrazu czy mapy). Wielowymiarowość telewizji wiąże się także z tym, że jest ona medium społecznym, wciąż silnie oddziałującym na zachowania odbiorców, a także medium swoistej kultury telewizyjnej ze swoistym systemem ideologicznym, kształtującym nawyki, utrwalającym bądź podważającym stereotypy. Jak trafnie ujęła to amerykańska badaczka telewizji Amanda Lotz: „telewizja to więcej niż technologia, więcej niż połączenie przewodów, metalu i szkła. W jej naturze leży powiązanie z kontekstem, z tym, jak ta skrzynka jest używana, gdzie się znajduje, co przez nią przepływa i jak ludzie z niej korzystają – i to niezależnie od wyraźnego zróżnicowania tych elementów” [1]. Z tej perspektywy dla tak rozumianego kulturowo medium nie jest ważne to ani na jakim ekranie ją oglądamy, ani w jaki sposób dociera do nas przekaz, lecz istotna jest sama aktywność oglądania oraz związane z nią doświadczenia, przeżycia czy praktyki.", "Obecnie wielu ludzi (zwłaszcza młodych) nie posiada odbiorników telewizyjnych w swoich domach i ogląda treści audiowizualne (także te produkowane przez stacje telewizyjne) przez internet na ekranach smartfonów lub laptopów. Nie zdają oni sobie jednak sprawy, że de facto doświadczają telewizji właśnie jako zespołu pewnych praktyk związanych z aktywnością oglądania.", "Telewizja jak żadne inne medium masowe przeszła w swojej prawie 100-letniej historii istnienia największą transformację i cały czas znajduje się w procesie ewolucji, której kierunek trudno jest obecnie przewidzieć [2]. Zmiany te były konsekwencją pojawiania się nowych technologii i praktyk przemysłu medialnego, które wpłynęły na oczekiwania i praktyki odbiorców wobec tego medium ( Tabela 1 ) (zob. Konwergencja jako zjawisko w świecie mediów ).", "Era sieci telewizyjnych, w której telewizja była głównym medium masowym a dominującą pozycję na rynku medialnym miało kilka ogólnodostępnych stacji telewizyjnych, ustąpiła miejsca erze postsieci (post-network era) z wielością kanałów i stacji telewizyjnych dostępnych poprzez sieci kablowe czy antenę satelitarną oraz zróżnicowaną ofertą dla różnych widzów. To z kolei spowodowało rywalizację o widza i wzrost produkcji telewizyjnych o charakterze tabloidowym czy śmieciowym (trash tv). Wraz z odejściem od tradycyjnego modelu transmisji telewizji o uniwersalnym charakterze, kluczowego dla jej funkcjonowania również jako instytucji władzy – nadawania masowego (broadcasting) – wyłaniały się kolejne modele (zaspokajające określone potrzeby odbiorców i modyfikujące praktyki wobec telewizyjnych treści), takie jak narrowcasting czy egocasting. Ten ostatni był dojrzałą fazą slivercastingu, gdzie personalizacja dawała większą swobodę wyboru treści oraz lepsze ich dopasowanie i miejsca ich oglądania na różnych urządzeniach ekranowych.", "Ewolucja telewizji zakwestionowała kluczową dla klasycznego modelu tego medium kategorię, jaką był przepływ (flow), sformułowaną przez wybitnego brytyjskiego teoretyka telewizji Raymonda Williamsa w 1974 roku w książce \"Television: Technology and Cultural Form\". Koncepcja przepływu odnosiła się zarówno do sposobu układania poszczególnych programów, które łączyły się ze sobą w jeden strumień telewizyjnych treści (ramówka), jak i sposobu spójnego doświadczania telewizji. Warto pamiętać, że w tamtych czasach telewizja nie była emitowana przez całą dobę, lecz w kilkugodzinnych pasmach, najczęściej popołudniowo-wieczornych.", "Wraz z pojawieniem się w latach 70 XX w. pierwszych magnetowidów domowych i wskutek ich upowszechnienia w następnej dekadzie widz stał się całkowicie niezależny od ramówki telewizyjnej. Wówczas pojawiło się zjawisko (powszechne współcześnie) zwane „przesunięciem czasowym” (time shifting) – widz mógł nagrywać ulubione programy i oglądać je w dowolnej porze, pomijając tym samym przerwy reklamowe. Najczęstszymi programami nagrywanymi przez widzów były seriale telewizyjne – jeden z podstawowych gatunków tego medium. Stacje telewizyjne nie mogły długo tej praktyki odbiorczej wykorzystać w opłacalnym dla siebie celu, a kolekcjonowanie i dzielenie się przez widzów treściami telewizyjnymi nie wpływało negatywnie w żaden sposób na telewizyjny biznes. Dopiero pojawienie się technologii DVD w 1997 roku spowodowało, że kilka lat później branża telewizyjna zdecydowała się wyjść naprzeciw oczekiwaniom serialowym fanom i udostępniać całe sezony seriali telewizyjnych w kilkupłytowych pakietach DVD, które można było oglądać bez przerwy. To właśnie ten sposób dystrybucji treści telewizyjnych wpłynął na decyzję firmy Netflix (opierającej swój model biznesowy na subskrypcji), aby w 2013 roku możliwe do oglądania strumieniowo i produkowane przez tę platformę streamingową odcinki seriali udostępniać od razu w sieci, co przyczyniło się do rozpowszechnienia zjawiska zwanego binge-watching.", "Źródło: TED, How Netflix changed entertainment – and where it's headed | Reed Hastings, 12.07.2018 (dostęp 27.09.2020). Dostępne w YouTube: https://youtu.be/LsAN-TEJfN0", "Popularność produkcji Netflixa, głównie seriali, za które platforma otrzymała po raz pierwszy aż trzy statuetki nagród telewizyjnych Emmy w 2013 roku, spowodowała duże zmiany na medialnym rynku telewizyjnym oraz rywalizację między nowymi producentami treści – platformami streamingowymi i koncernami medialnymi – określaną mianem „wojen streamingowych” [3].", "Materiały dodatkowe Lotz, D. A.: We Now Disprupt This Broadcast. How Cable Transform Television and the Internet Revolutionized It All, London: MIT Press, Cambridge 2018."], "definitions": [{"name": "Definicja 1: Binge-watching", "content": "Zjawisko polegające na oglądaniu wielu odcinków jednego programu w krótkim czasie, niekoniecznie w ciągu wielu godzin, ale również i wielu dni."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 844, "subject": "Gry cyfrowe w myśli koncepcji ewolucji mediów", "paragraphs": ["Wprowadzenie Rozwój kolejnych form medialnych nie przebiega w sposób skokowy, ale przyjmuje kształt ewolucji przebiegającej w konkretnym społecznym i technologicznym środowisku, co Roger Fidler określił mianem „mediamorfozy”. Przez to nowe obiekty medialne oraz wynikające z nich schematy komunikacyjne stanowią często rozwinięcie obecnych już w szeroko rozumianym systemie medialnym elementów, w efekcie nowsze media przejawiają pewne podobieństwa do starszych. Podobnie jest z grami cyfrowymi, które posiadają cechy właściwe tylko sobie, ale także zawierają treści typowe dla innych – starszych – mediów.", "Źródło: GAMERZ TN, Games Graphics Evolution 1940-2020, 20.03.2020 (dostęp 27.11.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=F8dLNbUzod4", "Współzależności pomiędzy grami cyfrowymi a innymi mediami Każda gra cyfrowa zbudowana jest z kilku odmiennych warstw: reguł, zmediatyzowanej, fikcyjnej, rozgrywki oraz społecznej [4], w których mogą być zaszyte elementy starszych mediów. Na poziomie reguł gry cyfrowe mogą zawierać mechaniki znane z tradycyjnych gier oraz zabaw, na przykład zasady poruszania się pionków na szachownicy, które pozostają niezmienne zarówno w fizycznej, jak i cyfrowej wersji tej gry. W warstwie zmediatyzowanej gry mogą zawierać elementy wizualne typowe dla książek (teksty), filmu rysunkowego (animowane postaci) czy fotografii (zdjęcia implementowane w grach), a z kolei w aspekcie oprawy dźwiękowej niektóre gry reprodukują nagrania piosenek czy też przedstawiają symulację ich wykonania przez cyfrowe postaci. Biorąc pod uwagę warstwę rozgrywki, czyli szeroki plan ujmujący zarówno działającego na grę gracza, jak i przestrzeń fizyczną i wykorzystywane do gry urządzenia (kontrolery, konsole, wyświetlacze itp.) należy wrócić uwagę, że gry cyfrowe zapewniają poziom zaangażowania wykraczający poza bierną konsumpcję treści typową dla telewizji, gdyż wymagają udziału odbiorcy w informacyjnym sprzężeniu zwrotnym, co stanowi o ich interaktywności. Wreszcie w warstwie społecznej wiele produkcji, szczególnie pozwalających na rozgrywkę sieciową, zawiera wbudowane komunikatory – tekstowe bądź głosowe – poprzez które obecność w wirtualnych światach wiąże się także z możliwością przekazywania treści i komunikacji z innymi ludźmi, tak jak w przypadku telefonu.", "Jednocześnie rozwój i popularyzacja gier cyfrowych wpływa na inne media. Od kilku lat wspomina się o zjawisku egranizacji, czyli przenoszenia literackich bądź filmowych pierwowzorów do formy gry cyfrowej, jak i odwrotnego trendu tworzenia książkowych bądź filmowych adaptacji historii oraz postaci znanych z cyfrowych światów, stanowiących przykłady remediacji. Wątki znane z gier cyfrowych stanowią także podstawę dla licznych opowieści transmedialnych – począwszy już od lat 70. XX wieku, kiedy to pojawiły się pierwsze próby łączenia gier cyfrowych z przekazami reklamowymi, by w kolejnych dekadach wkroczyć także w inne domeny, na przykład marketingu politycznego [5]."], "definitions": [{"name": "Definicja 1: Ewolucja mediów (mediamorfoza)", "content": "Ewolucyjne przemiany w ramach środowiska medialnego związane są z kilkoma czynnikami, o których najpełniej pisał Robert Fidler w swojej koncepcji mediamorfozy, zgodnie z którą transformacja narzędzi komunikowania (mediów) jest zazwyczaj powodowana przez złożone i wzajemne oddziaływanie takich czynników jak postrzegane przez ludzi potrzeby, presja konkurencji, naciski polityczne oraz oddziaływanie społeczne, a także technologiczne innowacje [1]. Wedle takiego ujęcia ewolucja mediów powinna być rozpatrywana z możliwie szerokiej perspektywy z uwzględnieniem wszystkich wymienionych elementów procesu mediamorfozy. Pełne zrozumienie rozwoju gier cyfrowych wymaga podobnego podejścia, ponieważ historia tego medium jest pełna kolejnych technologicznych przeskoków (np. z automatów do domowych konsol), nieoczywistych zależności (od wojska lub uczelni wyższych) czy społeczno-politycznych nacisków (np. panik moralnych wokół brutalności niektórych produkcji) [2]. Powstanie pierwszych gier cyfrowych po II Wojnie Światowej było dziełem inżynierów i naukowców z zakresu informatyki, fizyki czy matematyki, którzy już wcześniej pracowali przy rozwianiu technologii komputerowych czy telewizyjnych. Produkcje te powstawały między innymi w celach szkoleniowych, badawczych oraz pokazowych na potrzeby wystaw i były zazwyczaj przeniesieniem dobrze znanych, tradycyjnych gier do wersji elektronicznej, a następnie cyfrowej. Przykładami mogą być kółko i krzyżyk, warcaby, szachy czy tradycyjna chińska gra Nim [2]. Rozwój tego medium polegał też na implementowaniu kolejnych funkcjonalności, a także coraz bardziej skomplikowanych mechanik, elementów wizualnych i dźwiękowych typowych dla telewizji czy radia (np. animacje, utwory muzyczne), co ukazuje poniższy film."}, {"name": "Definicja 2: Gra cyfrowa", "content": "\nGra cyfrowa to aplikacja uruchamiana na dowolnym urządzeniu cyfrowym (komputerze, konsoli, smartfonie, tablecie), która posiada następujące elementy [3]:\n\nReguły – dobrze zdefiniowane i zrozumiałe dla wszystkich graczy, ponieważ stanowią podstawę rozgrywki.\nZróżnicowany i policzalny wynik – będący niepewnym skutkiem reguł gry. Jego wartość zależy od umiejętności gracza. Jest niezbędny do ustanowienia celu i (przybliżonego) momentu końca gry.\nWartość przypisywana policzalnym wynikom – potencjalnym wynikom gry przypisuje się różne wartości (pozytywne, neutralne lub negatywne). Waloryzacja wyników czyni grę wyzwaniem, ponieważ zbyt łatwe osiąganie celów raczej zmniejsza przyjemność płynącą z rozgrywki.\nWysiłek gracza – gracz inwestuje wysiłek (energię), starając się wywrzeć wpływ na wynik gry.\nPrzywiązanie gracza do wyniku – stanowi psychologiczną cechę aktywności grania; gracz przywiązuje się do wyniku gry w takim sensie, że może zostać zwycięzcą i „cieszyć się” jeśli uzyska pozytywny dla niego (w jego rozumieniu) rezultat lub przegranym i „przygnębionym”, gdy będzie on negatywny. Przywiązanie do wyniku jest kategorią mniej sformalizowaną niż poprzednie, ponieważ zależy od podejścia gracza do rozgrywki.\nNegocjowalne konsekwencje – rywalizacjom w grach mogą być przypisywane odmienne konsekwencje w prawdziwym życiu, przy czym działania i ruchy niezbędne do rozegrania gry nie mogą być szkodliwe dla graczy, bo inaczej te konsekwencje nie podlegają negocjacji."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 846, "subject": "Internet jako medium", "paragraphs": ["Wprowadzenie Obecnie trudno sobie wyobrazić świat bez technologii informacyjno-komunikacyjnych, czyli tak zwanych ICT (information and communication technologies). Ich nieustający rozwój, w połączeniu z postępującym oddziaływaniem na niemal każdy kontekst życia społecznego sprawiają, że coraz częściej mówi się o nowej, hybrydowej (techniczno-fizykalnej) formie rzeczywistości, w której podziały między tym co cyfrowe a analogowe mocno się zatarły [1].", "Za te doniosłe zmiany odpowiada w duże mierze rozwój internetu, bez którego trudno byłoby dziś pracować, komunikować się z innymi ludźmi czy też spędzać czas wolny. Obecnie odsetek internautów szacowany jest na \\( 62\\% \\) światowej populacji (około 4,8 mld osób), co w stosunku do 2000 roku stanowi ogromny wzrost o \\( 1239\\% \\) [2].", "Czym charakteryzuje się to szczególnie ważne we współczesnym świecie medium, czy też metamedium, które nie tylko stanowi odrębny środek przekazu, ale też zawłaszcza inne media, stając się kanałem przekazu treści z książek, filmów, radia czy prasy [3].", "Komercjalizacja („uwolnienie”) i upowszechnienie internetu Przez niemal trzy pierwsze dekady swojego rozwoju internet – a konkretniej poprzedzająca go sieć ARPANET – stanowił medium wyjątkowo elitarne, gdyż dostęp do jego zasobów miała wąska grupa naukowców związanych z wojskiem i uczelniami wyższymi – najpierw amerykańskimi, a wraz z rozwojem współpracy także wybranymi jednostkami naukowymi na pozostałych kontynentach. Zmiana oblicza internetu i jego przekształcenie zdaniem niektórych badaczy w medium masowe były możliwe dzięki komercjalizacji, co nastąpiło w latach 90. XX w., chociaż jeszcze u swego początku internet łączył niewiele komputerów, do których dostęp miało zaledwie pół procenta ludzi na świecie [5]. Komercjalizacja internetu polegała na jednoczesnej deregulacji, prywatyzacji i otwarciu na usługi komercyjne. W praktyce polegało to na odejściu od modelu centralnego zarządzania sprawowanego przez agencje rządowe w USA w stronę lokalnych sieci utrzymywanych przez komercyjnych operatorów komunikacyjnych [6]. Ta zmiana z jednej strony budziła obawy o upadek wolnościowych ideałów, jakie towarzyszyły twórcom Sieci i zalanie jej treściami marketingowymi, ale z drugiej była niezbędna do jej upowszechnienia, bez którego to medium nie odcisnęłoby takiego piętna na funkcjonowaniu ludzi, firm i instytucji z niemal całego świata. Jak zauważa Manuel Castells, istotne dla rozwoju internetu okazały się także: swobodny dostęp do protokołów komunikacji, możliwość bezpłatnej dystrybucji oprogramowania i jego modyfikacji, a także usieciowione i wspólnotowe wykorzystywanie wytworzonych w internecie treści [7].", "Obecnie trudno wskazać aspekt rzeczywistości, który nie został w mniejszym lub większych stopniu przekształcony przez rozwijający się internet. Jednym z najmocniej dotkniętych obszarów jest komunikacja, w ramach której doszło do wytworzenia się nowych interaktywnych oraz hipertekstowych schematów komunikacyjnych przypominających kształtem sieć pająka, w której występuje wiele węzłów, pełniących jednocześnie rolę nadawcy i odbiorcy. Przykładem może być YouTube, który gromadzi i udostępnia materiały wideo opublikowane przez użytkowników portalu, a następnie przekazuje je dalej [8].", "Innym przykładem mogą być użytkownicy urządzeń mobilnych podłączonych do internetu, którzy reagują na otrzymywane często w podobnym czasie powiadomienia płynące z wielu aplikacji. Nowe schematy komunikacyjne różnią się znacznie od właściwych dla tradycyjnych mediów jednokierunkowych modeli, w których informacja przekazywana jest z punktu A (nadawcy) do punktu B (odbiorcy), niekiedy nawet bez możliwości bezpośredniej odpowiedzi, co jest stosunkowo proste w realizacji w przestrzeni uspołecznionego internetu i opartych na zasadzie hipertekstu zasobów."], "definitions": [{"name": "Definicja 1: Pojęcie internetu", "content": "Internet, potocznie określany też jako sieć, od początku swojego istnienia – czyli lat 60. XX wieku – przeszedł ewolucję od zamkniętego projektu wojskowego pn. ARPANET (Advanced Research Projects Agency Network) do symbiotycznej, otwartej sieci łączącej ludzi i maszyny na całym świecie, czyli tak zwanego Internetu Rzeczy (IoT, Internet of things). W 1995 roku eksperci wchodzący w skład amerykańskiej Federalnej Rady Sieci USA (FNC, Federal Networking Council) wydali rezolucję, w której jednogłośnie zdefiniowali pojęcie „Internet” jako odnoszące się do globalnego systemu informatycznego, który:\njest logicznie i globalnie połączony ze sobą poprzez unikalną przestrzeń adresową opartą na protokole internetowym (IP) lub jego późniejszych rozszerzeniach / kontynuacjach;\njest w stanie obsługiwać komunikację przy użyciu pakietu Transmission Control Protocol / Internet Protocol (TCP / IP) lub jego późniejszych rozszerzeń / następców i / lub innych protokołów zgodnych z IP;\noraz zapewnia, wykorzystuje lub udostępnia publicznie lub prywatnie usługi wysokiego poziomu obejmujące komunikację i powiązaną infrastrukturę opisaną w niniejszym dokumencie (tj. rezolucji – przyp. DG) [4].\nJak wynika z przedstawionej definicji, potoczne rozumienie internetu jako sieci połączonych ze sobą komputerów gwarantujących dostęp do stron www jest niewystarczające. Jest to medium, które oferuje wiele usług (pocztowe, Web, FTP – przesyłania plików, streamingu itp. itd.), a także może łączyć odmienne typy urządzeń cyfrowych (komputery, telefony, smartfony, a coraz częściej urządzenia RTV/AGD czy samochody)."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 847, "subject": "Internet – ewolucja od Web 1.0 do Web 4.0", "paragraphs": ["Wprowadzenie Internet stanowi jeden z najważniejszych wynalazków technicznych XX wieku, ale jego rozwój nieustannie postępuje, także obecnie. Kolejne dekady przynoszą zmiany technologiczne, a także powiązane z nimi przekształcenia w sferze społeczno-kulturowej, dlatego ewoluuje kształt samego internetu, jak i efekty jego oddziaływania oraz formy partycypacji w globalnej Sieci. Współczesny internet nie jest tą samą przestrzenią wymiany informacji i komunikacji zapośredniczonej komputerowo (CMC), jaką był dwadzieścia czy dziesięć lat temu. Zmieniają się też dostępne w jego ramach usługi, w tym World Wide Web (WWW). Kolejne jego ewolucje określane są mianem przejścia od Web 1.0 do Web 4.0.", "Ewolucja od Web 1.0 do Web 4.0 Wraz z rozwojem dostępnych technologii oraz popularyzacją internetu dochodziło do zmian w Web 1.0: Pierwszy okres w rozwoju usługi WWW – w zależności od przyjętych kryteriów datowany od końca lat 80. XX w. do początku XXI wieku – cechował się jednostronnym schematem komunikacji przywodzącym na myśl tradycyjne media masowe (prasę, radio, telewizję). Wynikało to częściowo ze stosowanych ówcześnie, niedostatecznie rozwiniętych technologii (hipertekst, HTML, FTP, IRC, Usenet), a także podstawowego założenia, wedle którego internet stanowi system powiązanych ze sobą statycznych dokumentów (stron WWW), które w dużej mierze przypominają formaty dostępne w starszych mediach, czyli są „tylko do odczytu” i bez większych możliwości interakcji [2].", "Pojęcie tzw. Internetu 2.0 zostało zaproponowane w 2003 roku przez irlandzkiego przedsiębiorcę i propagatora ruchu wolnego oprogramowania (open source) Tima O’Reilly’ego. Termin ten odnosi się nie tylko do zmian technologicznych, ale przede wszystkim nowych form partycypacji użytkowników na stronach internetowych, które polegały na przejściu od biernego użycia w kierunku rosnącego zaangażowania użytkowników częściej dzielących się danymi i łączących się we wspólnoty na portalach społecznościowych. Ta wzmocniona partycypacja ujawnia się także w aspekcie rozwoju oprogramowania i usług, gdyż częściej udostępniane są one na wolnych licencjach i przy większym zaangażowaniu odbiorców, na przykład w procesach testowania stale rozwijanych pomysłów [3]. To wzmocnienie roli odbiorców i budowanych wspólnot wirtualnych było kluczowe dla rozwoju mediów społecznościowych.", "Zaproponowana w 2006 roku przez Jeffreya Zeldmana – amerykańskiego specjalistę w zakresie projektowania stron internetowych – koncepcja Web 3.0 opisuje etap rozwoju internetu, który przypada na drugą dekadę XXI wieku, kiedy to nastąpiła konieczność dostarczenia rozwiązań, które wspomogą internautów w procesie przeszukiwania oraz oceny nieustannie rosnących zasobów internetu. Niestety nadmiar dostępnych danych może prowadzić do informacyjnego przeciążenia, a także pogłębiać lukę informacyjną. Dlatego usługi WWW wpisujące się w model 3.0, chociaż częściowo o tym wspomina Tim O’Reilly w swojej koncepcji Web 2.0, korzystają z takich technologii jak metadane czy sieć semantyczna (semantic web). W uproszczonym ujęciu metadane to pakiety danych zawierające opis logiki informacji i zależności między nimi w ramach dowolnego zasobu internetowego (np. strony www). Natomiast sieć semantyczna jest dodatkową warstwą zautomatyzowanych, logicznych powiązań pomiędzy danymi, w ramach której operują mniej lub bardziej inteligentne (AI, Articicial Inteligence) maszyny (boty, aplikacje, agenci przeglądarek itp.). Ich zadaniem jest analiza, porządkowanie i wnioskowanie o badanych zasobach w oparciu o zrozumiałe dla nich metadane i reguły, co na poziomie użytkowników oznacza lepiej przedstawione i dostosowane (spersonalizowane) wyniki operacji przeszukiwania zasobów dostępnych w Sieci [4].", "Kolejny etap przekształceń sfery internetu wykracza poza usługę WWW i jest związany z rewolucją mobilną, czyli upowszechnieniem bezprzewodowego dostępu do zasobów Sieci z poziomu smartfonów czy tabletów, ale także postępującym poszerzaniem informacji kontekstowych o działaniach użytkowników internetu, dzięki rosnącej liczbie wzajemnie połączonych urządzeń telekomunikacyjnych. W efekcie tego ostatniego procesu powstaje tak zwany Internet Rzeczy (IoT, Internet of things), co bywa też określane mianem Web 4.0. Obecnie interakcja internauty ze stroną czy aplikacją internetową może zawierać informacje o jego geolokalizacji, wyszukiwanych wcześniej informacjach na różnych urządzeniach czy środowisku, w którym funkcjonuje (np. z połączonych z Internetem sprzętów AGD/RTV czy samochodów). Poszerzanie źródeł informacji przy jednoczesnym ich integrowaniu jest rodzajem sieci symbiotycznej, pełnej mniej lub bardziej uświadomionych aktów komunikacji pomiędzy maszynami, usługami oraz ludźmi [5], [6] ."], "definitions": [{"name": "Definicja 1: World Wide Web", "content": "World Wide Web (WWW) to ogólnoświatowy, hipertekstowy, multimedialny, sieciowy system informacyjny oparty na publicznie dostępnych, otwartych standardach IETF (Internet Engineering Task Force) i W3C (World Wide Web Consortium), który został wynaleziony przez brytyjskiego fizyka i programistę Tima Bernersa-Lee w 1990 roku [1]. Usługa ta jest powszechnie kojarzona z całym internetem, jednak stanowi jedynie jeden z jego elementów, który w uproszczeniu stanowią dostępne w Sieci wzajemnie połączone zasoby stron internetowych oraz dokumentów."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 848, "subject": "Media społecznościowe jako nowe media", "paragraphs": ["Wprowadzenie Media społecznościowe stanowią współcześnie jeden z najważniejszych obszarów wirtualnego wymiaru rzeczywistości, jak i wiodące narzędzie komunikacyjne. Rok 2020 jest pod tym względem przełomowy, ponieważ po raz pierwszy w historii użytkownicy różnych portali społecznościowych stanowią ponad połowę ( \\( 51\\% \\)) – tj. 3,96 mld – światowej populacji ludzi [1].", "Obserwuje się też znaczący wzrost poświęcanego na obecność w mediach społecznościowych czasu z poziomu 90 minut w 2012 roku do 143 minut w 2019 roku [2]. To nieustannie pogłębiające się zaangażowanie wykracza poza zagadnienie kontaktów online, gdyż jak wynika z deklaracji internautów, media te wywołują ambiwalentne reakcje. Z jednej strony ułatwiają one dostęp do informacji, ułatwiają komunikowanie czy poszerzają swobodę wyrażania opinii, ale jednocześnie zagrażają prywatności osobistej, są źródłem rozpraszających bodźców w ciągu dnia czy też polaryzacji w kwestii poglądów politycznych [3].", "Cechy szczegółowe mediów społecznościowych Carr i Hayes w swoich poszukiwaniach adekwatnego i teoretycznie użytecznego rozumienia mediów społecznościowych proponują omówienie, które uświadamia charakter mediów społecznościowych jako nowych mediów [6]:"], "definitions": [{"name": "Definicja 1: Media społecznościowe", "content": "\nMedia społecznościowe stanowią relatywnie nowe zjawisko medialne, gdyż ich historia rozpoczyna się dopiero na przełomie XX i XXI wieku, kiedy to funkcjonowały takie portale jak SixDegrees, LiveJournal, Friendster, a później MySpace czy wreszcie od 2004 roku Facebook, a ich trzy zasadnicze cechy to:\n\numożliwienie użytkownikom tworzenia, pobierania oraz udostępniania treści;\npublikowania profili oraz informacji osobistych;\na także nawiązywania kontaktów z innymi [4].\nW ujęciu bardziej formalnym media społecznościowe można definiować jako: „kanały internetowe, które umożliwiają użytkownikom oportunistyczną interakcję i wybiórczą autoprezentację, w czasie rzeczywistym lub asynchronicznie, zarówno dla szerokiego, jak i wąskiego grona odbiorców, którzy czerpią dla siebie wartość z treści tworzonych przez użytkowników i postrzeganych interakcji z innymi” [5].\n\n"}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 849, "subject": "Platformizacja sieci", "paragraphs": ["Rozwój sieci spowodował powstanie witryn lub usług internetowych, nastawionych na przechowywanie i organizowanie udostępnianej przez użytkowników zawartości za pomocą oprogramowania w celu ich dalszego publicznego rozpowszechniania lub do organizowania interakcji między użytkownikami. Tego typu witryny nie generują własnych treści ani też nie zamawiają treści u użytkowników, stając się w ten sposób jedynie pośrednikami w przekazywaniu treści pomiędzy różnymi grupami użytkowników: twórców, klientów, sprzedawców, fanów, reklamodawców, czy instytucji medialnych itp. [1], [2]. Nazywa się je platformami internetowymi, medialnymi lub cyfrowymi i współcześnie odrywają one coraz ważniejszą rolę nie tylko na rynku usług medialnych, narzucając własne reguły funkcjonowania tradycyjnym nadawcom medialnym, ale również wpływając na decyzje konsumentów co do wyborów zakupowych czy politycznych. Platformy internetowe, korzystając z zaawansowanych algorytmów, śledzących i analizujących aktywność użytkowników, decydują bowiem o tym, co i do kogo będą rozpowszechniać, w jaki sposób będą łączyć użytkowników i pośredniczyć w ich interakcjach oraz co będą odrzucać i czynić niewidocznym dla nich – ich istotą jest zatem moderowanie zawartości i aktywności użytkowników [3]. Aby podkreślić, jak duży wpływ platformy internetowe mają na system geopolityczny oraz gospodarkę, transport, zdrowie czy media, badacze posługują się takimi określeniami, jak „społeczeństwo platformowe” (platform society) [4], „kapitalizm platformowy” [5], czy „platformizacja sieci” [6].", "Platformy internetowe można podzielić na takie, które są głównie nastawione na: (a) umożliwianie kontaktu indywidualnego lub grupowego pomiędzy użytkownikami – należą do nich portale społecznościowe (social networking sites), takie jak: Facebook, Twitter, Google+, Tinder, Grindr, Snapchat; (b) dzielenie się „treściami tworzonymi przez użytkowników” – takie jak: Instagram, Pinterest, You Tube, Tik Tok; (c) sprzedaż, dokonywanie zakupów lub zbiórek pieniędzy na różne cele – takie jak: eBay, Allegro, Amazon, Kickstarter; (d) rozrywkę i zabawę np. Spotify, Netflix, Amazon Prime; (e) umożliwiające korzystanie z dóbr według idei „ekonomii współdzielenia”: Airbnb, Uber, BlaBlaCar, Bolt.", "Posługiwanie się przez firmy z branży technologicznej terminem „platforma” na określenie prowadzonej działalności to działanie strategiczne, którego celem jest powiększanie zysków oraz umiejętne lawirowanie pomiędzy ochroną prawną, z której korzystają, a zobowiązaniami, jakie wynikają z prowadzonej przez nich działalności [7]. Określenie „platforma medialna” ma służyć również podkreśleniu ich roli jedynie jako swoistych pośredników treści oraz pozwala postrzegać ich jako „neutralnych”, co zabezpiecza przed odgórnymi regulacjami lub skargami użytkowników. Firmy te nie chcą być odbierane jak tradycyjne organizacje medialne czy agencje informacyjne, które produkują, dystrybuują i dostarczają informacje/treści/usługi, a także nimi zarządzają. Określanie własnej działalności jako „platforma medialna” pozwala również wyeliminować różne napięcia – związane z oferowanymi przez nie usługami – pomiędzy: treściami tworzonymi przez użytkowników a tworzonymi w celach komercyjnych; budowaniem wspólnot a dostarczaniem reklam; ingerencją w dostarczane treści a zachowaniem neutralnej postawy. Właściciel platformy medialnej musi bowiem umiejętnie komunikować się z trzema grupami interesariuszy – użytkownikami, reklamodawcami oraz profesjonalnymi twórcami treści – dawać obietnicę zaspokojenia ich potrzeb (od czego zależy jego biznesowy sukces) oraz usuwać wszelkiego rodzaju napięcia oraz pojawiające się przeszkody. Jest to o tyle trudne, że potrzeby każdej z tych grup są różne. Użytkownicy nastawieni są na możliwość dostępu do darmowych treści oraz własnej ekspresji, natomiast reklamodawcy i profesjonalni twórcy treści – dotarcie do jak największej liczby odbiorców, zwiększenie zasięgu oddziaływania a w ostateczności wzrost sprzedaży usług lub produktów.", "Platformy medialne, zwłaszcza serwisy społecznościowe, chcą być także postrzegane jako realizujące określony interes publiczny. Przykładowo YouTube wyraźnie chce być identyfikowany jako firma, której działalność związana jest z przestrzeganiem podstawowych wartości istotnych dla człowieka, takich jak: wolność słowa, swobodny dostęp do informacji, równość szans (tu w znaczeniu zaistnienia, założenia firmy czy osiągnięciu sukcesu), prawo do zrzeszania się (jako możliwość odnalezienia społeczności, która będzie go wspierać, pokonywania barier, przekraczania granic oraz spotykania się z ludźmi o podobnych zainteresowaniach i pasjach). Wolność słowa jest również eksponowana przez Twittera („Wierzymy w wolność słowa i uważamy, że głos każdego może wpływać na świat”). Jednak ta neoliberalna retoryka stanowi jedynie parawan dla hegemonicznych działań biznesowych.", "Coraz częściej jednak „widać rozdźwięk pomiędzy rolą i funkcja, jaką platformy medialne realizują we współczesnym ekosystemie medialnym, a sposobem, w jaki są zarządzane i odbierane” [8], co dotyczy zwłaszcza tych platform medialnych, które odgrywają bardzo ważną rolę w dystrybucji wiadomości i informacji. Co więcej, zaobserwować można ekspansję modelu infrastrukturalnego i ekonomicznego platform mediów społecznościowych w inne przestrzenie online, co nazywane zostało platformizacją sieci (platformization of the web) [6]. Ta platformizacja opiera się na podwójnej logice ekspansji platform medialnych na resztę internetu, a jednocześnie na ich gotowości do stworzenia zewnętrznej platformy danych dla aplikacji internetowych i aplikacji, co służy wymianie danych między różnymi platformami lub ich sprzedaży w celu wpływania na zachowanie użytkowników. Z jednej strony platformy budują technologiczną infrastrukturę, nastawioną na łączenie się i rozwijanie na innych stronach internetowych, aplikacjach i ich danych, z której mogą korzystać zewnętrzne podmioty. Z drugiej zaś strony mają dostęp do własnych baz danych za pośrednictwem zewnętrznych podmiotów (m.in. dzięki API czy wtyczkom społecznościowym na stronach internetowych), co ma kluczowe znaczenie dla ich modelu biznesowego, ponieważ zapewnia dopływ nowych danych. Wszystko to służy temu, aby rozwinąć się w sieć i stworzyć kanały przepływu umożliwiające gromadzenie i formatowanie zewnętrznych danych sieciowych w celu dopasowania ich do podstawowej logiki platformy, jaką jest sprzedaż danych innym podmiotom lub ich analiza.", "Niektórzy badacze [9] uważają, że w związku z pełnieniem przez platformy medialne, takie jak Facebook, Google czy Twitter znaczącej roli w dystrybucji wiadomości oraz bycia dla dużej liczby użytkowników podstawowym ich źródłem, za pomocą którego je konsumują, należy traktować je właśnie jako nowy typ organizacji medialnych. Ich zdaniem współcześnie firmy technologiczne oferujące różne usługi cyfrowe definiują własną tożsamość nie ze względu na konkretną działalność, jaką wykonują, ale właśnie ze względu na technologiczne podejście do niej (np. Uber, który nie jest firmą transportową, czy inne firmy działające w modelu ekonomii współdzielenia). Jest to o tyle ważne, że w ten sposób firmy technologiczne chcą być postrzegane jako nowoczesne oraz nietradycyjne, ponieważ oferują dostęp do usług w innowacyjny sposób, zaspokajając szereg podstawowych konsumenckich potrzeb.", "Źródło: Diggit magazine, Professor José van Dijck on today's 'platform society', 09.02.2019 (dostęp 21.09.2020). Dostępne w YouTube: https://youtu.be/g2rVuDQeAeg"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 850, "subject": "Nowe media a rozwój kultury uczestnictwa", "paragraphs": ["Kultura uczestnictwa Nowe media spowodowały powstanie kultury uczestnictwa, w której żyjemy i partycypujemy codziennie i stale, jako odbiorcy jesteśmy zachęcani do uczestnictwa – od serwisów społecznościowych, przez portale z wiadomościami, fora, blogi po sklepy internetowe – wszędzie współczesny człowiek ma możliwość zabierania głosu, opublikowania swoich opinii, wyrażania myśli i emocji. W rezultacie w modelu idealnym konsument staje się jednocześnie jej twórcą treści kulturowych. Buduje to potrzebę nazwania tego nowego fenomenu, który pozwali odróżnić go od kultury masowej. Różnice są widoczne przede wszystkim na płaszczyźnie technologicznej w kulturze uczestnictwa symetryczne media zastępują typowe dla kultury masowej formy komunikacji antysymetryczne, co sprawia, że uczestnictwo w kulturze staje się łatwiejsze, a przez to może być bardziej powszechne [1].", "Kultura uczestnictwa – historia Wielość definicji kultury uczestnictwa wynika z faktu, że jest to zjawisko stosunkowo nowe. Początki kultury uczestnictwa datuje się na druga połowę lat 80. XX wieku. Stanowi więc zjawisko stosunkowo nowe jednak dynamicznie rozwijające się. Wydziela się cztery fazy kultury uczestnictwa [5]:", "W tym sensie kultura uczestnictwa stanowi odpowiedź na eksplozję nowych technologii medialnych, które umożliwiają konsumentom przechowywanie komentowanie i rozpowszechnianie treści medialnych w niebywały dotąd sposób [6]. Powstanie tego typu kultury w znacznej mierze zależało od rozwoju technologii sieciowej, jednak prowadzone badania w poszczególnych okresach pokazują, że nie samo pojawienie się nowych środków komunikacji spowodowało wykształcenie się nowego typu kultury ale raczej wzajemne relacje pomiędzy technologiami komunikacyjnymi i wspólnotami kulturowymi, które wokół nich wyrastają oraz aktywnościami ułatwianymi przez środki umożliwiające komunikację [3].", "Dla zaistnienia kultury uczestnictwa konieczna jest, więc oprócz technologii również:", "Do form kultury uczestnictwa badacze zaliczają, obok tworzenia tekstów kultury w sieci również:", "Kulturę uczestnictwa cechuje:", "Słabe i mocne strony kultury uczestnictwa Zalety kultury uczestnictwa:", "Wady kultury uczestnictwa wynikają natomiast:", "Dynamika rozwoju kultury uczestnictwa Media społecznościowe w 2018 roku miały 3,484 mld użytkowników i wciąż zyskiwały na znaczeniu. W Europie było to 462,5 mln osób. W tym czasie 2/3 ludności korzystało z urządzeń mobilnych – (unikalna liczba użytkowników mobile to 5,112 mld) i 3,256 mld z nich konsumuje treści w social media właśnie za pomocą urządzeń mobilnych) ( Rys. 1 )."], "definitions": [{"name": "Definicja 1: Kultura uczestnictwa", "content": "1. Stanowi wyraz twórczości użytkowników oraz wynik przynależności do społeczeństwa informacyjnego. Pojawienie się kultury uczestnictwa burzy wcześniejsze przekonania o tym, iż nadawca i odbiorca mają przypisane określone funkcje i ich role nie mogą się przenikać. W ramach kultury uczestnictwa nadawcy i odbiorcy mogą wchodzić w różnego rodzaju wzajemne interakcje i zamieniać się rolami przy tworzeniu i odbieraniu przekazów [2]. Ten typ kultury charakteryzuje się relatywnie niskim progiem dla ekspresji artystycznej i obywatelskiego zaangażowania, stanowi duże wsparcie dla twórczości i dzielenia się swoimi utworami, oraz jest rodzajem nieformalnej opieki mentorskiej, w ramach której najbardziej doświadczeni mogą przekazać nowicjuszom pewne wskazówki, rady lub pokazać wzory [3].\n2. Pojawiła się w momencie, gdy kultura zareagowała na pojawiające się coraz częściej nowe technologie medialne, umożliwiające przeciętnemu konsumentowi na zdobywanie, archiwizowanie, komentowanie, dokonywanie zmian w publikowanych treściach oraz ich prężne rozpowszechnianie. Działania te zwykle cechuje wysoka efektywność i interaktywność [4].\n\n3. Pojęcie do pewnego stopnia sztuczne, odnoszące się do wpływu nowych form komunikacji (od kserografu po media społecznościowe) na tworzenie, dystrybucję i recepcję tekstów kultury. W istocie chodzi o to, że po czasie dość jednokierunkowych mediów masowych (telewizja, prasa, książka masowa) poszerza się pole czynnego uczestnictwa w kulturze, rozumianego tu także jako tworzenie tekstów [1]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 851, "subject": "Wolność, demokracja, partycypacja w nowych mediach", "paragraphs": ["Aktywność obywatelska on-line Dzięki interaktywności i decentralizacji nowych mediów stale powiększa się ilość odbiorców–użytkowników. Nowoczesne technologie komunikacyjne podnoszą też debatę publiczną na wyższy poziom. Wynika to ze zmniejszania znaczenia selekcji nadawczej, przez co wyraźniej są artykułowane interesy pojedynczych obywateli, a w dyskusji publicznej pojawia się więcej tematów, gdyż przełamany zostaje tradycyjny jeszcze do niedawna podział na nadawców i odbiorców. Pozwala to szerokiej rzeszy użytkowników dzielić się swoimi problemami i wprowadzać do debaty nowe kwestie – dotąd pomijane lub marginalizowane [1]. Należy pamiętać jednak, że nowe media powodują wykluczenie dużych grup społecznych, które z różnych powodów z nich nie korzystają. Tym samym różnicują społeczeństwo i sprawiają, że część osób nie może uczestniczyć w aktywnościach obywatelskich w internecie (zob. Wykluczenie cyfrowe ).", "Wykorzystanie technologii cyfrowych przez obywateli: Współczesne nowe media oraz portale społecznościowe dostarczają obywatelom oraz podmiotom społeczeństwa obywatelskiego narzędzia pozwalające na wymianę informacji i umożliwiające mobilizację ludzi do wyrażenia poparcia lub protestu wobec istotnych kwestii społecznych. Nowoczesne technologie komunikacyjne dostarczają też rozwiązań dzięki, którym każda osoba może w sieci przedstawić własną opinię. W ten sposób przyczyniają się do wzrostu politycznego zaangażowania obywateli i wzmacniają demokrację [2]. Taki charakter mają:", "Demokracja w nowych mediach", "Aktywne obywatelstwo:", "Aktywność podmiotów politycznych:", "Podejmowane działania przez podmioty polityczne:", "Negatywne aspekty komunikacji w nowych mediach dla aktywności obywatelskiej:", "Więcej na ten temat w rozdziale: Negatywne zjawiska komunikacji w nowych mediach"], "definitions": [{"name": "Definicja 1: E-demokracja", "content": "\nE-demokracja – jest związana z działaniami na rzecz poszerzenia politycznej partycypacji poprzez umożliwienie obywatelom wzajemnego porozumiewania się oraz komunikację z ich przedstawicielami poprzez nowe technologie informacyjno-komunikacyjne.\nW związku z tym w e-demokracji istotną rolę odgrywa usprawnienie demokracji przedstawicielskiej przez:\n1. powiększenie kanałów informacyjnych w celu wzrostu stopnia demokratycznego upodmiotowienia obywateli;\n2. rozwój elektronicznych zgromadzeń, co sprzyja budowaniu debaty on-line i wymianie poglądów;\n3. obniżanie dzięki sieciom komputerowym kosztów organizacyjnych i transakcyjnych, ponoszonych przez organizacje działające w ramach społeczeństwa [6].\n\n"}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 855, "subject": "Haktywizm i inne formy aktywizmu internetowego", "paragraphs": ["Haktywizm – powstanie i historia Termin haktywizm został użyty po raz pierwszy przez grupę „Cult of the Dead Cow” (cDc) w 1996 roku, choć pierwsze motywowane politycznie cyberataki, miały miejsce wcześniej, bo już na przełomie lat 80. i 90. XX wieku. W 1989 roku cyberprzestrzeń została wykorzystana w protestach przeciwko próbnym wybuchom jądrowym. Grupa z Melbourne stworzyła robaka komputerowego o nazwie WANK („Worms Against Nuclear Killers”, czyli „Robaki przeciwko nuklearnym zabójcom”) i zainfekowała nim maszyny amerykańskiego Departamentu Energetyki i NASA. Zarażone komputery wyświetlały informację o niebezpieczeństwach związanych z nuklearnym wyścigiem zbrojeń. WANK nie szkodził samemu systemowi i nie spowodował strat o charakterze finansowym w zaatakowanych podmiotach [1]. W 1994 roku wykorzystano technikę DoS jako formę politycznego protestu w Wielkiej Brytanii. Grupa z San Francisco zablokowała na ponad tydzień serwery rządu Wielkiej Brytanii poprzez wysłanie masy e-maili przeciwko ustawie o prawie karnym i porządku publicznym (ang. Criminal Justice and Public Order Act) [2].", "Media upowszechniły termin „haktywizm” podczas konfliktu w Kosowie w latach 1998-1999, kiedy aktywiści z całego świata rozpoczęli ataki DoS i zniszczyli lub przejęli strony internetowe, aby zaprotestować przeciwko wojnie i zaangażowanym w nią krajom, np. Amerykańska grupa „Team Spl0it” napisała „stop wojnie” na stronie Federalnego Urzędu Lotnictwa USA a Serbska grupa „Black Hand Group” (Czarna Ręka) przeprowadzili ataki DoS na komputery należące do Organizacji Traktatu Północnoatlantyckiego (NATO) i innych podmiotów [1]. Haktywizm w pełni rozwinął się jednak dopiero na początku XXI wieku, przede wszystkim za sprawą założonego w 2003 roku kolektywu aktywistów i hakerów „Anonymous”, który w 2008 roku przeprowadził akcję „Project Chanology” przeciwko scjentologom w proteście przeciwko próbom ocenzurowania przez nich video z Tomem Cruise’em chwalącym kościół scjentologiczny [1]. W Polsce potencjał haktywizmu pokazały protesty wokół ACTA w 2012 roku. Włączyła się w nie grupa „Anonymous”, dokonując serii ataków na witryny internetowe polskich instytucji rządowych [3].", "Techniki działania haktywistów Wśród technik stosowanych przez haktywistów wymieniane są [9]:", "Odmiany haktywizmu i inne formy aktywności w sieci", "Haktywizm – zalety i wady Haktywiści mają udział w nagłaśnianiu kwestii, które z różnych względów rządzący próbują maskować. Było to widoczne w przypadku działań Anonymous i protestów społeczeństwa przeciwko uchwaleniu ACTA. Na tym przykładzie możemy zobaczyć zatem, że haktywizm może stanowić swoisty wentyl bezpieczeństwa, mobilizować ludzi wokół konkretnego problemu i chronić społeczeństwo przed nadużyciami władzy. Przy użyciu odpowiednich narzędzi Internet jest w stanie zapewnić ludziom anonimowość, pozwala wyrażać poglądy, które mogą być niepopularne z linią rządzących, co może sprzyjać zaangażowaniu obywateli bez narażania ich na ewentualne sankcje.", "Haktywizm stanowi atrakcyjną alternatywę dla protestów ulicznych. Narzuca również wyzwanie stosunkom międzynarodowym i prawu międzynarodowemu, które musi na nowo zdefiniować cyberatak, biorąc pod uwagę, że część z nich nie ma na celu wyrządzenia szkody, ale zamanifestowanie swego stanowiska lub zwrócenia uwagi na istotny problem społeczny.", "Źródło: Anonymous Official, Anonymous - The Hacker Wars Full Documentary, 16.05.2015 (dostęp 23.11.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=ku9edEKvGuY"], "definitions": [{"name": "Definicja 1: Haktywizm", "content": " Haktywizm to połączenie aktywizmu społeczno-politycznego z hakerstwem, co powoduje problemy w zdefiniowaniu tego zjawiska. Z jednej strony bowiem jest on określany jako przejaw internetowej mobilizacji, a z drugiej termin ten opisuje działania przestępcze w przestrzeni wirtualnej. Haktywiści stosują bowiem metody wywodzące się z hakerstwa, ale wyróżnia ich polityczna motywacja [4]. Znajduje to odzwierciedlenie w definicjach:\n1. Twórcy tego pojęcia, grupa „Cult of the DeadCow”, określali tym terminem osoby lub grupy wykorzystujące swoje umiejętności komputerowe do nagłaśniania określonych postulatów politycznych. Dla haktywistów łamanie zabezpieczeń komputerowych i wykorzystywanie swoich umiejętności w tej dziedzinie powinno prowadzić do propagowania określonych postaw czy wartości w przestrzeni publicznej [1].\n\n2. Współcześnie haktywizm określany jest również jako to ruch kulturowo-cywilizacyjny polegający na łączeniu aktywności politycznej z osiągnięciami technologicznymi, w celu manifestowania sprzeciwu wobec działań w przestrzeni szeroko rozumianej polityki [5]. W takim ujęciu haktywizm stanowi mieszankę oddolnego protestu politycznego i hakerstwa komputerowego, który charakteryzuje bezpośredniość działań podejmowanych w Internecie w celu wywołania natychmiastowych zmian w szeroko pojętej sferze politycznej [6]. Tak rozumiany haktywizm obejmuje te cyberataki, które mają na celu promocję określonych postaw, wartości lub idei politycznych, albo chcą zwrócić uwagę opinii publicznej na określone problemy [7].\n\n\n3. Nieco inaczej haktywizm definiowała Dorothy Denning, która skupiała się na podkreśleniu skutków działań haktywistów. W jej definicjach haktywizm obejmował działania wykorzystujące techniki hakerskie przeciwko witrynie internetowej z zamiarem zakłócenia jej normalnego funkcjonowania, a nie spowodowania poważnych szkód [8]. Co wyraźnie odróżnia haktywizm od cyberterroryzmu. "}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 852, "subject": "Prywatność i nadzór w internecie", "paragraphs": ["Jedną z podstawowych wartości internetu, która leżała u podstaw jego stworzenia, była wolność nie tylko w sferze osobistej, ale również społecznej, przejawiająca się w możliwości komunikowania się ze sobą wszystkich użytkowników podłączonych do globalnej Sieci (zob. Internet jako medium; Internet – ewolucja od Web 1.0 do Web 4.0 ). Wraz z dynamicznie rozwijającą się internetową siecią komunikacyjną badacze zaczęli zwracać jednak coraz większą uwagę na zagadnienia, które na samym początku rozwoju Sieci były pomijane – prywatność użytkowników oraz ich kontrolę. Według Alexandra R. Gallowaya [1] podstawową zasadą internetu nie była wolność, lecz kontrola (istniała od początku jego powstania), która opierała się na otwartości, integracji, uniwersalizmie i elastyczności oraz wynikała ze stopnia wysokiej organizacji technicznej sieci. Podobnie uważał Lawrence Lessig [2], który zwrócił uwagę na paradoks doświadczeń internetowych, podkreślając, że z jednej strony internet umożliwia jednostkom komunikowanie się z innymi w prywatnej przestrzeni domowej, ale z drugiej strony naraża ich na możliwość monitorowania i śledzenia działań internetowych przez rządy lub korporacji technologicznych. Wraz z nastaniem XXI wieku pojawiały się krytyczne koncepcje odnoszące się do prywatności w internecie, np. „państwa baz danych” (database nation), w którym doszło do „śmierci prywatności” [3] czy opisujące Sieć jako panopticon [4].", "Badaczce w pierwszym okresie badań nad prywatnością i nadzorem w internecie koncentrowali się na prywatności społecznej (związanej z udostępnianiem danych osobowych przez użytkowników w internecie, w tym mediach społecznościowych i ich ochronie przed innymi użytkownikami) aniżeli na prywatności instytucjonalnej (związanej z udostępnianiem danych osobowych i cyfrowych korporacjom technologicznym) [5]. Badaczy interesował również zdecydowanie bardziej problem nadzoru ze strony rządów aniżeli firm technologicznych. Dopiero w drugiej połowie XXI wieku w związku z dominującą rolą przedsiębiorstw, których model biznesowy opierał się na gromadzeniu, przetwarzaniu i analizowaniu danych cyfrowych, oraz ich znaczącym wpływem na różne sfery życia zaczęto badać szerzej prywatność w kontekście danych generowanych przez użytkowników. Pojawiły się wówczas także takie koncepcje nadzoru, jak „kapitalizm nadzoru” (surveillance capitalism) Shoshany Zuboff czy „kultura nadzoru” (surveillance culture) Davida Lyonsa.", "Wielu badaczy prywatności zauważało, że użytkownicy internetu z jednej strony obawiają się o swoją prywatność, ale z drugiej strony praktycznie nie są w stanie podjąć żadnych działań, aby ją chronić. Ta rozbieżność między postawami a zachowaniem została nazwana „paradoksem prywatności”, jednak w trakcie kilku badań nie stwierdzono istnienia związku pomiędzy obawami o prywatność w internecie a zachowaniami związanymi z ujawnianiem informacji o sobie w sieci [6]. Jak wskazują badacze, wpływ na różne poziomy ochrony prywatności użytkowników mają nie tyle postawy, co potrzeby, doświadczenia związane z naruszeniem przez innych prywatności oraz kompetencje cyfrowe. Sytuacja, w której dochodzi do naruszenia prywatności na skutek działania realnej osoby, jest częstsza i łatwiejsza do zaobserwowania niż wtedy, gdy użytkownicy doświadczają naruszenia prywatności w wyniku wykorzystania ich danych bez ich wiedzy i zgody przez firmy technologiczne, na przykład w formie sprzedaży danych innym podmiotom lub w celu profilowania. Ponadto algorytmiczna personalizacja treści, może być postrzegana przez użytkowników jako korzystna, zwłaszcza dla tych, którzy nie mają motywacji lub umiejętności dostosowywania treści do własnych preferencji. W związku z tym użytkownicy pomimo iż są świadomi naruszania prywatności przez firmy technologiczne, decydują się tego typu praktyki ze względu na określone korzyści.", "Unia Europejska, jeszcze przed tzw. aferą Cambridge Analytica, jako pierwsza podjęła działania, których celem było ograniczenie śledzenia użytkowników w sieci przez podmioty komercyjne i tym samym ochrona prywatności. Od maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych (w skrócie: RODO) https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:32016R0679&from=PL, które reguluje takie zjawiska jak: dopasowywanie reklam do preferencji użytkowników internetu w czasie rzeczywistym, profilowanie wyników wyszukiwania i strumieni aktualności czy monitorowanie aktywności użytkowników za pośrednictwem „inteligentnych” sensorów. Wprowadzono także szereg innych zmian m.in. zapewniono użytkownikowi już w wersji domyślnej przeglądarki ustawienia przyjazne dla niego, zlikwidowano praktyki zwane cookie-wall, polegające na braku dostępu do treści online przy jednoczesnym wyrażeniu braku zgody na śledzenie, zapewniono zgodę użytkownika na wszystkie rodzaje niezamówionych komunikatów reklamowych, w tym reklamy targetowanej w mediach społecznościowych, zapewniono poufność komunikacji elektronicznej zarówno w odniesieniu do treści, jak i metadanych oraz prywatność danych przechowywanych i emitowanych przez urządzenia, które takie dane generują.", "Materiały dodatkowe Otwarty dostęp do wszystkich numerów czasopisma „Surveillance & Society”: https://ojs.library.queensu.ca/index.php/surveillance-and-society/index", "Źródło: Fundacja Panoptykon, Odzyskajmy sprawczość - David Lyon, Panoptykon 4.0, 13.03.2020 (dostęp 22.09.2020). Dostępne w YouTube: https://youtu.be/xrN9cdfsqzE"], "definitions": [{"name": "Definicja 1: Kapitalizm nadzoru", "content": "Koncepcja nowego kapitalizmu, sformułowana przez amerykańską badaczkę Shoshanę Zuboff w 2015 roku, w której formę kapitału stanowią dane cyfrowe generowane przez użytkowników i urządzenia cyfrowe. Dla wielu firm są one jednocześnie surowcem (niezbędnym kapitałem do produkcji towarów, np. produktów, usług) oraz produktem (wytwarzanym przez cyfrową pracę ludzi korzystających z produktów oraz usług). W cyfrowym kapitalizmie, dane nie zastępują pieniędzy, ale są tak samo traktowane jak kapitał finansowy, w związku z czym muszą być ciągle pozyskiwane i przetwarzane poprzez tworzenie produktów i usług oraz infrastruktury, które generują dane. Kapitaliści nadzoru funkcjonują według dwóch komplementarnych modeli biznesowych: użytkownika jako klienta (You are the Costumer) oraz użytkownika jako produktu (You are the Product)."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 854, "subject": "Filtrowanie i selekcja informacji", "paragraphs": ["Media masowe jako instytucje realizujące określone funkcje w społeczeństwie (zob. Funkcje mediów ) z jednej strony koncentrują się na przekazywaniu informacji ważnych nie tylko z perspektywy odbiorcy, ale również celu, który nadawca chciał osiągnąć. Z drugiej jednak strony wielość różnych wydarzeń, jakie pojawiają się na całym świecie każdego dnia i ograniczone możliwości mediów informacyjnych w tym zakresie powodują, że nie wszystkie one mogą być w centrum uwagi mediów. W efekcie czego organizacje medialne dokonują swoistego filtrowania informacji przekazywanych odbiorcom, na podstawie określonych kryteriów i dopuszczania tylko wybranych informacji do obiegu – proces ten nazwano gatekepeengiem. Z czasem zyskał on status teorii naukowej, w ramach której badacze poszukiwali odpowiedzi na temat czynników wpływających na filtrowanie informacji, a także weryfikowali ich wpływ na odbiorcę.", "Rodzaje gatekeepingu Filtrowanie informacji jest nieodłącznie związane z całym procesem tworzenia przekazu medialnego i stanowi jeden z jego elementów. Dokonuje się go na kilku poziomach: jednostkowym, organizacyjnym, ideologicznym, zewnętrznym. Zgodnie z ideą gatekeepingu to jednostki (dziennikarze, użytkownicy) lub organizacje (wydawcy, producenci, właściciele mediów, platformy mediów społecznościowych, agregatorzy treści, wyszukiwarki) pełnią rolę strażników, pozwalających przedostać się informacji dalej. Nierzadko decyduje o tym także określone ideologiczne nastawienie organizacji medialnej i jej związki z władzą, a także grupy nacisku. Na poziomie jednostkowym w klasycznym ujęciu rolę gatekeepera pełnił dziennikarz lub reporter, który decydował o tym, jakie wydarzenie jest warte opisania lub którą informację należy przekazać odbiorcom. Z kolei na poziomie organizacyjnym to wydawca lub producent (a czasem także właściciel) podejmował decyzję o dopuszczeniu do publikacji materiałów przygotowanych przez dziennikarza lub reportera. Pomimo akceptacji informacji na poziomie pierwszym i drugim może ona zostać zablokowana na poziomie trzecim – wówczas mamy do czynienia z cenzurą (zob. Cenzura ).", "Wraz z rozwojem internetu oraz znaczącą aktywnością użytkowników w sieci i wzrostem tworzonych przez nich treści każda jednostka mająca dostęp do informacji lub będąca świadkiem wydarzenia może stać się gatekeeperem. Takie podejście przyczyniło się do wyróżnienia nowego rodzaju gatekeepingu nazywanego gatekeepingiem publiczności (audience gatekeeping) [1]. Pojawienie się mediów społecznościowych jako nowych pośredników informacji zmieniło całkowicie proces filtrowania i selekcji treści. W nowym ekosystemie mediów „międzyludzkie łańcuchy organizacji mediów społecznościowych i ich uczestników, na przykład, łączą się z łańcuchami medialnymi w zupełnie nowy sposób – przenosząc informacje z jednego do drugiego łańcucha, nakładając się na media i integrując z nowym dziennikarstwem, w którym reporterzy i urzędnicy mają mniejszą kontrolę nad przepływem informacji niż w XX wieku” [2]. Choć w ten sposób maleje rola organizacji medialnych jako gatekeeperów, pojawiają się dodatkowo dwa inne rodzaje gatekeepingu: gatekeeping technologiczny oraz moderacja treści.", "Gatekeeping technologiczny związany jest z infrastrukturą technologiczną, która została zaprojektowana albo w celu selekcji i doboru informacji w sposób automatyczny (na podstawie przeszłych aktywności użytkownika), albo została predefiniowana przez niego (tzw. dostosowanie do własnych potrzeb). Przykładem takiego gatekeepingu jest m.in. działanie wyszukiwarek internetowych, agregatorów newsów czy platform mediów społecznościowych.", "Drugi rodzaj nowego gatekeepingu związanego z mediami społecznościowymi to moderacja treści. Według Tarletona Gillespie: „Platformy muszą, w takiej czy innej formie, moderować treści: zarówno po to, aby chronić pojedynczego użytkownika przed innymi lub jedną grupę przed jej antagonistami, jak i po to, aby usunąć obraźliwe, podłe lub nielegalne treści – a także zaprezentować swoją najlepszą twarz nowym użytkownikom, reklamodawcom i ich partnerom, a także ogółowi społeczeństwa” [3]. Moderacja treści na platformach społecznościowych może odbywać się przy użyciu zaawansowanych algorytmów lub ręcznie przez osoby przeszkolone do tego celu (pracujące w krajach trzeciego świata, takich jak Etiopia, Mjanma (Birma), czy Sri Lanka). Najczęściej służy do wykrywania takich treści, które naruszają regulamin użytkownika lub normy społeczne, takie jak: przemoc i agresja, pornografia czy mowa nienawiści lub są treściami fałszywymi. Przykładowo w 2009 roku, kiedy Facebook miał miesięcznie 120 milionów aktywnych użytkowników, zatrudniano jedynie 12 moderatorów treści. Z kolei w 2018 roku przy 2,3 miliarda miesięcznych aktywnych użytkowników zatrudniano już 15 000 moderatorów (https://www.statista.com/chart/17302/facebook-content-moderator/). Zarówno automatyczna, jak i ręczna moderacja treści budzą szereg kontrowersji, ponieważ obarczone są błędem subiektywizmu i nazywane są nową cenzurą (temu poświęcony jest film dokumentalny „Czyściciele internetu” z 2018 roku w reż. Hansa Blocka oraz Moritza Riesewiecka).", "Źródło: Against Gravity, \"Czyściciele internetu\" – zwiastun, 12.09.2018 (dostęp 03.12.2020). Dostępne w YouTube: https://youtu.be/BT1V7OPrIhc", "Czynniki wpływające na selekcję informacji Zdaniem Denisa McQuaila [4] w tradycyjnych mediach zachodnich wpływ na dopuszczenie informacji do obiegu mają trzy czynniki: ludzie, lokalizacja oraz czas. Jeśli chodzi o ludzi, to im bardziej jest znana dana osoba, tym większe szanse, że dane wydarzenie z nią związane zostanie opublikowane. Wydarzenia dotyczące ludzi sławnych, polityków lub celebrytów aktualnie popularnych w mediach zyskują większą uwagę wydawców mediów. W tym przypadku jednak nie tyle chodzi o relacje z wydarzeń z udziałem tych osób, ile o ich wypowiedzi na temat różnych wydarzeń. Drugim czynnikiem, który wpływa na dopuszczenie informacji do publikacji jest lokalizacja wydarzenia i odległość od miejsca skupienia władzy. Im wydarzenie bliżej miejsca skupienia władzy, np. stolicy kraju, tym istnieją większe szanse, że media się nim zainteresują. Nie dotyczy to jednak wydarzeń o dużym zasięgu rozgrywających się na peryferiach lub tragicznych w skutkach. Trzecim czynnikiem mającym wpływ na publikację informacji o wydarzeniu jest czas, dotyczy to zwłaszcza wydarzeń nierutynowych i nieoczekiwanych, takich jak: wypadki, skandale czy przypadki.", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 853, "subject": "Negatywne zjawiska komunikacyjne w internecie", "paragraphs": ["Swoboda i demokratyzacja komunikacji między wszystkimi użytkownikami internetu sprzyjały rozprzestrzenianiu się różnych treści umieszczanych w sieci bądź przekazywanych za jej pośrednictwem nie tylko na niespotykaną wcześniej skalę, lecz także w bardzo szybkim czasie. Internet jako medium dające użytkownikom poczucie anonimowości, umożliwiające wchodzenie w bezpośrednią interakcję dzięki stworzonej w tym celu infrastrukturze komunikacyjnej w postaci for internetowych, czatów, możliwości pozostawiania komentarzy jawił się jako idealne narzędzie wyrażania własnej ekspresji i przestrzeń do dyskusji. Nie wszyscy użytkownicy traktowali je jednak w taki sposób, ponieważ to, co dla jednych stanowiło potencjał do rozwoju czy partycypacji, drugim służyło do manipulowania innymi oraz zaspokajania swoich agresywnych bądź antyspołecznych potrzeb.", "Jednym z pierwszych negatywnych komunikacyjnych zjawisk, jakie pojawiły się w internecie, był trolling. Słowo „troll” najprawdopodobniej pojawiło się pod koniec lat 80. XX wieku w Stanach Zjednoczonych i oznaczało osobę, która wchodziła do wirtualnej społeczności po to, by celowo zakłócić jej funkcjonowanie [1]. Początkowy trolling internetowy nie był szkodliwą praktyką, zauważaną tylko w małych grupach tematycznych wewnątrz sieci Usenet i stosowaną wobec nowych członków społeczności. Obecnie jednak jest uznawany za jedno z najbardziej szkodliwych zachowań w sieci, wykorzystywanych przez ekstremistyczne rasistowskie, nacjonalistyczne i ksenofobiczne grupy do nękania, ośmieszania i prześladowania swoich przeciwników [2]. U podłoża tego typu negatywnego zachowania komunikacyjnego leży zjawisko nazwane „efektem niepowściągliwości w sieci”.", "Trolling internetowy stanowi dzisiaj potężne narzędzie propagandowe nie tylko w propagandzie politycznej, ale również i obyczajowej. Trolle tworzą fałszywe konta na portalach społecznościowych i przy ich pomocy angażują się w dyskusje w mediach społecznościowych, na forach internetowych czy w komentarzach pod artykułami, prezentując określoną ideologię i odsyłając często do sfabrykowanych informacji. Często trolle próbują zachowywać się jak przeciętni użytkownicy sieci. Zdradza ich jednak nieustępliwość i sztywne powracanie do określonego tematu. Do najczęstszych działań trolli można zaliczyć:", "Wszystkie działania trolli internetowych są dobrze zaplanowane, często koordynowane przez organizacje nazywane „farmami trolli”, które nierzadko działają pod przykrywką agencji PR lub badawczych. W Rosji za jedną z takich farm jest uważana Internetowa Agencja ds. Badań (Internet Research Agency), instytucja finansowana przez biznesmena należącego do bliskiego otoczenia prezydenta Putina. Także w Polsce śledztwa dziennikarskie zdemaskowały kilka farm trolli.", "Innym negatywnym zjawiskiem komunikacyjnym powiązanym z trollingiem internetowym jest mowa nienawiści (hate speech), potocznie nazywana hejtem. Hejt podobnie jak trolling na początku był obserwowany w małych grupach wirtualnych. Z czasem jednak, wraz z upowszechnieniem się portali społecznościowych, mowa nienawiści stała się bardziej powszechna w komunikacji publicznej. Hejt nie jest zjawiskiem jednorodnym. Należy go traktować zarówno jako działanie komunikacyjno-językowe polegające na używaniu języka w celu rozbudzenia, rozpowszechniania czy usprawiedliwiania nienawiści i dyskryminacji oraz przemocy wobec konkretnych osób bądź grup, jak i działaniem o charakterze społecznym – zachowaniem agresywnym, którego celem jest poniżenie, upokorzenie i wykluczenie ( Rys. 1 ).", "Najczęściej mowa nienawiści adresowana jest do grup mniejszościowych: Romów, Żydów, muzułmanów, Ukraińców, uchodźców, osób czarnoskórych, feministek czy LGBTQ. Różnice w treści mowy nienawiści wynikają z różnic międzygrupowych, czyli tego, jaka jest specyfika grupy, status oraz jak grupa jest postrzegana przez większość.", "W ciągu ostatnich lat wzrosła liczba aktów mowy nienawiści w mediach, w tym internecie oraz mediach społecznościowych wobec gejów, lesbijek oraz osób biseksualnych i transpłciowych. Jedną z przyczyn tego zjawiska jest używanie w przestrzeni publicznej języka nienawiści przez niektórych hierarchów Kościoła katolickiego oraz prawicowych posłów i media. Z ust osób publicznych padały takie stwierdzenia jak: „LGBT to nie ludzie, ale ideologia” (poseł Jacek Żalek), „osoby LGBT nie są równe normalnym ludziom” (poseł Przemysław Czarnek) czy określenia „tęczowa zaraza” (arcybiskup krakowski Marek Jędraszewski). Atak skierowany na środowisko osób LGBT stanowił także siłę napędową Prawa i Sprawiedliwości podczas kampanii do parlamentu w 2019 roku i kampanii prezydenckiej Andrzeja Dudy w 2020 roku, gdzie z ust prezydenta padły m.in. słowa: „Próbuje się nam wmówić, że LGBT to ludzie. A to jest po prostu ideologia”. Jak wynika z badań, prawie \\( 78\\% \\) dorosłych Polaków spotyka się najczęściej z mową nienawiści w telewizji a \\( 54,3\\% \\) w internecie. Z kolei aż \\( 95,6\\% \\) młodych Polaków najczęściej ma kontakt z mową nienawiści w sieci, a prawie \\( 66\\% \\) w telewizji [4]. Przenikanie mowy nienawiści do głównego nurtu debaty publicznej prowadzi do wykluczania pewnych grup społecznych poprzez ich dehumanizację i zagraża idei otwartego i zróżnicowanego społeczeństwa obywatelskiego. Przyzwolenie na mowę nienawiści w przestrzeni publicznej może prowadzić do desensytyzacji (odwrażliwiania), czyli nieuważania jej za obraźliwą, szokującą i naruszającą standardy społeczne. Do wyznaczników sprzyjających stosowaniu mowy nienawiści należą: niska samoocena, wyższy poziom agresji werbalnej oraz preferencja dla hierarchicznego porządku społecznego [5]."], "definitions": [{"name": "Definicja 1: Efekt powściągliwości w sieci (ang. Online Disinhibition Effect)", "content": "Zjawisko polegające na ujawnianiu siebie (własnych emocji, pragnień) oraz aktywnościach w sieci innych niż w relacjach „twarzą w twarz” offline. Podczas komunikacji w internecie ludzie czują się bardziej rozluźnieni, mniej skrępowani i pozwalają sobie na zachowania, na które nie odważyliby się w rzeczywistości. Powstawaniu tego efektu sprzyjają takie czynniki, jak: dysocjacyjna anonimowość (ukrywanie różnych aspektów własnej tożsamości), fizyczna niewidoczność dla innych, asynchroniczność komunikacji, samolubna introjekcja, dysocjacyjna wyobraźnia (rozszczepienie na świat wirtualny z innymi zasadami i świat realny, w którym istnieją również inne reguły funkcjonowania) oraz niwelowanie różnic społecznych (sieć sprzyja skracaniu dystansu oraz zacieraniu się ról społecznych). W przypadku niektórych ludzi efekt ten wywołują już dwa czynniki, w innych przypadkach kombinacja większej ich liczby [3]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 856, "subject": "Modele komunikowania", "paragraphs": ["Cztery modele komunikowania masowego", "Większość modeli łączy elementy strukturalne, dynamiczne, funkcjonalne i operacyjne jednak wraz z odchodzeniem od definiowania komunikowania masowego w kategoriach masowej produkcji i dystrybucji, które kładło silny nacisk na aspekty organizacyjne i technologiczne w komunikowaniu, również definicje komunikowania masowego, a wraz z nimi modele komunikowania ulegały zmianie. Dziś możemy wyróżnić cztery podstawowe modele komunikowania: transmisji, rytuału, przyciąganiu uwagi i recepcji [2]. Modele te nie wykluczają się wzajemnie i mogą one być wykorzystywane do konceptualizacji i badania różnych aspektów komunikowania masowego [1].", "Transmisyjny model komunikowania U podstaw tego modelu leży widzenie komunikacji, jako procesu transmisji określonej liczby komunikatów (przekazów) określonych przez nadawcę lub źródło, które są przesyłane do odbiorcy. Model ten ma charakter podstawowy i w historii rozwoju badań nad komunikowaniem masowym wielu autorów próbowało go rozszerzać i ulepszać ten model tak by oddawał jak najpełniej proces komunikacji masowej i ukazywał jego specyfikę [2].", "Najbardziej znany jest model aktu perswazyjnego autorstwa Harolda Lasswella (1984) [3]. Proces komunikowania w jego ujęciu złożony jest z pięciu zasadniczych elementów, które mają formę pytań :", "Model ten ze względu na liniowy i jednokierunkowy charakter od początku był uznawany za model procesu komunikowania masowego. Największą zaletą tego modelu jest jego prostota i zwięzłość, ale stanowi to również jego wadę. Nie uwzględnia bowiem ważnego z punktu widzenia komunikowania pytania o motywy nadawcy i o kontekst komunikowania [1].", "Model transmisji, w kolejnych latach doczekał się wielu modeli, które oddawały złożoną strukturę procesu komunikowania, rozwój tego modelu wynikał z wyników uzyskiwanych badań nad komunikowaniem masowym, które powodowały konieczność modyfikacji podstawowej wersji modelu transmisji, np. w wyniku prowadzonych badań zauważono, że przekazy masowe nie zawsze docierają do odbiorców bezpośrednio, często są one zapośredniczone przez szczególną kategorię odbiorców, którzy zostali określeni jako przywódcy opinii. Spowodowało to stworzenie w 1955 modelu dwustopniowego przepływu informacji i opinii [4].", "Postrzeganie komunikacji jako transmisji jest też obecne w systemowych modelach komunikowania, które wyrastają z matematycznego teorii komunikowania Claude Shannona i Warrena Weawera (1948). Dodali oni do modelu komunikowania element zakłóceń mogących wpływać na proces przepływu informacji. Podejście to było rozwijane przez Theodore Newcomba (1953), który stworzył model systemowy (trójkątny) tworzony przez trzy podmioty: nadawcę, odbiorcą oraz otoczenie społeczne. Te trzy elementy pozostawały ze sobą we wzajemnych relacjach tworząc system, który pozwalał na utrzymanie równowagi społecznej. Bruce Westley i Malcolm McLean próbowali ten model dostosować do komunikowania masowego, poprzez wprowadzenie jeszcze jednego elementu: pośrednika w procesie komunikacji (media masowe). Dzięki temu powstał model procesu komunikowania masowego (1957), który ukazywał rolę masowego komunikatora, jako pośrednika między nadawcą – posiadaczem treści do udostępnienia odbiorcom. Wszystkie te podmioty są od siebie wzajemnie zależne i powiązane ze sobą [5].", "Rytualny (ekspresyjny) model komunikowania U podstaw tego modelu leży widzenie komunikacji w kategoriach wspólnoty, zrzeszenia i uczestnictwa. Tak rozumiany proces komunikowania nie koncentruje się na wysyłaniu przekazów ale na reprezentacji wspólnych przekonań [6]. Stanowi swoiste zjednoczenie publiczności w akcie ekspresji kultury, wierzeń i wartości. Często ma charakter obrzędowy. W tym sensie wymaga on istnienia wspólnoty podzielającej mity, tradycje, symbole ponieważ przekazy w tym modelu komunikowania są niejednoznaczne i mają ukryte znaczenie, które musi zostać odczytane przez odbiorców w oparciu o ich rozumienie wyrastające z określonej kultury. Ten typ komunikacji ma często charakter celebracyjny i samopochłaniający, czyli sam jest dla siebie celem. Model ten zwraca uwagę na wewnętrzne zadowolenie nadawcy (lub odbiorcy) i służy przyjemności odbioru, a nie realizacji celi utylitarnych. Można jednak zauważyć, że wskazuje on, że komunikacja przyczynia się do wzrostu integracji społeczeństwa i wpływa też na charakter relacji społecznych [1]. Z założenia model komunikowania rytualnego nie jest instrumentalny mimo to jest on wykorzystywany w planowaniu działań komunikacyjnych, np. kampanii politycznych. Przykładami tego modelu komunikowania są na przykład celebracje świąt państwowych, religijnych itp. [2].", "Model pokazywania – uwagi (rozgłosu) Pierwszym celem mediów jest przyciągnięcie i utrzymanie uwagi odbiorców, a nie transmisja, czy zjednoczenie publiczności wokół określonych przekazów. Przyciągnięcie i utrzymanie uwagi widzów pozwala mediom na osiąganie zysków. Autorzy modelu rozgłosu skupiają się na założeniu, że czas jaki widownia może przeznaczyć na korzystanie z mediów jest ograniczony w związku z tym jeśli skorzysta z jednej oferty medialnej to zrezygnuje z innej. Tym samym pozyskanie uwagi odbiorcy pozwala na zrealizowanie celu ekonomicznego, jakim jest przyciągnięcie uwagi widzów dla innych instytucji, głównie handlowych. Zwrócenie ich uwagi na przekaz stanowi warunek konieczny dla ich późniejszych zachowań, np. nabycia reklamowanego towaru. Model ten wyrasta z definicji komunikowania masowego, które jest obecne w komercyjnych instytucjach medialnych. Skupia się on na trzech cechach:", "Model recepcji Model ten wyrasta z nurtu teorii krytycznej i należy bardziej do refleksji kulturowej niż socjologicznej nad procesem komunikowania. Stanowi on wyraz badań nad recepcją przekazów, które koncentrowało się na nadawaniu znaczenia komunikatom przez odbiorców przekazów medialnych [7]. Model ten cechuje orientacja na recepcję i zakłada, że:"], "definitions": [{"name": "Definicja 1: Model komunikowania", "content": "Modele komunikowania są to słowne lub graficzne przedstawienia obrazujące proces komunikowania w schematycznej uproszczonej formie. Mogą one mieć charakter:\n1. strukturalny – pozwalający ukazać elementy składające się na proces komunikowania masowego;\n2. dynamiczny – ukazujący przebieg procesu komunikowania masowego;\n3. funkcjonalny – pokazujący zależności pomiędzy poszczególnymi częściami procesu komunikowania składającymi się na model;\n4. operacyjny – umożliwiający przewidzenie i zaprojektowanie aktu komunikacji masowej [1].\n\n"}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 859, "subject": "Przepływ informacji w nowych mediach", "paragraphs": ["Wzory przepływu informacji w nowych mediach", "Pojawieniem się komputera i internetu i dało początek mediom telematycznym, określanym jako nowe media. Spowodowało powstanie alternatywnych typów obiegu informacji i wymusiło potrzebę stworzenia nowych modeli komunikowania, które uwzględniały ich specyfikę [1]. Wcześniej stworzone modelowe wzory komunikacji medialnej zostały stworzone dla tzw. „starych mediów” i nie w pełni odpowiadały one zmianom, jakie dokonały się pod wpływem nowych środków komunikowania (szerzej modele komunikowania w mediach tradycyjnych przedstawione są w rozdziale Modele komunikowania.", "W odniesieniu do mediów telematycznych zostały one zastąpione przez model przepływu informacji autorstwa Jana Bodrewijka i Bena van Kaama [2]. Model ten zdaniem Dennisa McQuaila (2007) w pełni opisuje zmiany jakie zachodzą w komunikacji zapośredniczonej przez nowe media. Podkreśla przy tym, że wyróżnione w tym modelu cztery wzory przepływu informacji: alokucja, rejestracja, konsultacja i konserwacja nie tylko graniczą ze sobą, ale mogą się na siebie nakładać i uzupełniać w niektórych przypadkach [3].", "Model przepływu informacji w nowych mediach koncentruje się na kontroli wytwarzania, dystrybucji oraz odbioru przekazów. Jeden wymiar modelu jest definiowany przez kontrolę zasobu/źródła informacji, które może być centralne lub indywidualne. Drugi wymiar wyznacza kontrola czasu i wybór przedmiotu przekazu. Tu również może ona być centralna lub indywidualna [2].", "Model cyber-interaktywny Sally Mcmillan (2002) Model cyber-interaktywny uwzględnia dwie zmienne: jednokierunkowość lub dwukierunkowość komunikacji oraz kontrolę odbiorcy nad przekazami, która może być wysoka lub niska. Pozwoliło to wydzielić cztery podstawowe wzory przepływu informacji w nowych mediach: monolog, feedback, dialog responsywny, wspólny dyskurs [4].", "Nowe media – nowe wzory przepływu informacji W odniesieniu do nowych mediów brakuje całościowego paradygmatu, który pozwalałby na badania zmian zachodzących w sposobie doświadczania nowych mediów. Najczęściej do tych analiz adaptowane są modele komunikacji opracowane dla mediów tzw. starych. Do wzoru monologowego, feedbackowego opartego na alokucji znajdują zastosowanie modele transmisji. W innych modele rozgłosu i rytualne oraz wyrastające z modelu interakcyjnego [3]. Ponadto wszystkie cztery wzory przepływu informacji mogą być realizowane na jednym urządzeniu w ramach tej samej technologii – infrastruktury telekomunikacyjnej [3].", "W nowych mediach dziś następuje przesunięcie komunikacji od nadawcy ku odbiorcy na co wskazuje częstsze pojawianie się przepływu informacji charakterystycznych dla konwersacji, konsultacji niż według wzoru alokucyjnego. Alokucja wykorzystywana jest w stosunkowo małej skali i ma inną formę, została dostosowana do podzielonych i wyodrębnionych ze względu na zainteresowania lub potrzeby audytoriów. Wzory rejestracyjne równoważą komunikację i oddają rolę nadawcom [3].", "Zwrócić trzeba też uwagę, że nowe media nie rozwiązały problemów, które pojawiły się już wcześniej w przestrzeni komunikacji masowej a nawet je wzmocniły. Taki charakter ma zjawisko określane przez Kazimierza Krzysztofka jako „terror klikalności”. Jest to świadome dezorientowanie odbiorcy tytułami wiadomości lub fragmentami tytułów, aby skłonić go do otwarcia komunikatu. Jest to szerszy problem tabloidyzacji starych i nowych mediów, które walczą o odbiorcę „podkręcając” jego doznania związane z odbiorem przekazów, aby przetrwać na rynku za nawet za cenę obniżania standardów dziennikarstwa [5]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 857, "subject": "Rola i znaczenie otoczenia społecznego, politycznego i ekonomicznego", "paragraphs": ["System medialny", "Trzon systemu medialnego stanowią organizacje medialne (przedsiębiorstwa medialne), które wchodzą w interakcje z elementami należącymi do rynku pierwotnego i wtórnego, które stanowią jego otoczenie społeczne, polityczne oraz ekonomiczne i wpływają na ostateczny kształt systemu medialnego w konkretnych państwach [3].", "Typologia systemów medialnych Systemy medialne mają silne zakorzenienie w strukturach politycznych oraz ekonomicznych i różnią się między sobą pod kątem czterech czynników:", "(zob. Własność i kontrola mediów; Cenzura ). Pozwala to na wyróżnienie trzech podstawowych typów systemów medialnych i dokonania ich charakterystyki:", "Występowanie: Francja, Grecja, Włochy, Hiszpania, Portugalia.", "Występowanie: Austria, Belgia, Dania, Finlandia, Niemcy, Holandia, Norwegia, Szwecja i Szwajcaria.", "Występowanie: Wielka Brytania, Stany Zjednoczone, Kanada i Irlandia, przy czym w USA i Kanadzie rynek mediów jest w największym stopniu skomercjalizowany niż w innych krajach [4].", "Potrójna natura mediów Media masowe mają złożoną naturę, gdyż jednocześnie mają one charakter:", "To sprawia, że na media należy patrzeć, jak na zbiór elementów powiązanych siecią wzajemnych zależności, tworzących strukturę systemu, który obowiązuje w danym państwie [5].", "Wpływ otoczenia zewnętrznego Media działają w gospodarce rynkowej i to sprawia, że muszą radzić sobie w relacjach z klientami, czyli reklamodawcami i sponsorami. Media komercyjne w taki sposób przygotowują przekazy, by przyciągać jak największą ilość odbiorców, dzięki czemu są atrakcyjne dla reklamodawców i sponsorów, którzy dzięki mediom trafiają ze swoją ofertą do szerokiego grona odbiorców. Mimo to media powinny zachowywać niezależność decyzyjną, jeśli chodzi o prezentowane treści. Nie powinni na nie mieć wpływu reklamodawcy, ani sponsorzy. Niestety często podmioty te wywierają presję na instytucje nadawcze i ingerują w treść przekazów informacyjnych. Na te działania najmniej narażeni są nadawcy publiczni, którzy mają zapewnione podstawowe źródło finansowania, jakim jest abonament i różnego rodzaju subwencje ze strony państwa. Odporne zwykle też są media społeczne (niekomercyjne), które są zależne od finansowania ze strony sponsorów i fundatorów oraz donatorów. Jednak w sytuacji zbyt dużej presji raczej zdecydowane są poszukać innych źródeł finansowania lub w skrajnych sytuacjach zawiesić działalność niż zdecydować się na zmianę profilu i publikowanie treści niezgodnych z ich powołaniem (misją). Najbardziej wrażliwe na ten rodzaj działań, że strony reklamodawców i sponsorów są media komercyjne. Te z nich, których pozycja jest ugruntowana, np. elitarna prasa mogą skutecznie się bronić, ale małe lokalne instytucje nadawcze nie są odporne na takie działania i to one najczęściej ulegają i pozwalają na zewnętrzną ingerencję w działalność redakcji [5].", "Między systemem medialnym a politycznym też wytwarzają się wzajemne relacje. Z jednej strony politycy potrzebują mediów, aby zapewniły mu legitymizację działania, które będą przekazywały i tłumaczyły odbiorcom ich działania oraz dostarczały wiedzy o preferencjach, potrzebach i obawach ze strony obywateli. Z drugiej strony media potrzebują informacji do tworzenia przekazów, a rząd, politycy, instytucje władzy oraz partie i organizacje polityczne dostarczają ich. Dzięki przekazywaniu tych informacji społeczeństwu media spełniają swój obowiązek publiczny informując o działaniach władz, nagłaśniając nadużycia oraz sukcesy [3]. Ważną rolę w tym aspekcie odgrywają też relacje z państwem, które wyznacza pewne ramy prawne dla funkcjonowania mediów masowych i kontroluje ich działalność w ramach obowiązujących przepisów prawa (więcej na ten temat w rozdziale Własność i kontrola mediów ).", "W warunkach rynkowych instytucje nadawcze muszą sobie też radzić sobie w kontaktach z konkurencyjnymi podmiotami medialnymi. Relacje z konkurencją budowane są na płaszczyźnie programowej oraz sprzedaży usług reklamowych. Mogą być oparte na:", "Kolejnym czynnikiem stanowiącym otoczenie mediów są odbiorcy, którzy z jednej strony stanowią jedno z istotnych pól konkurencji, ale sami są też otoczeniem społecznym mediów i zgłaszają swoje potrzeby względem nich. Podstawowy mechanizm relacji media – odbiorcy jest klarowny. Określany jest on terminem „ekonomia uwagi”. Na rynku konsumenci otrzymują różne usługi w zamian za swoją uwagę. Ostatecznym celem jest transakcja sprzedaży, która jednak nie musi nastąpić natychmiast ani bezpośrednio, może to być zwrócenie uwagi na reklamę produktów lub usług. Podobnie funkcjonują wyszukiwarki internetowe pokazujące ogłoszenia „w zamian” za pomoc w odnalezieniu poszukiwanej zawartości [6]."], "definitions": [{"name": "Definicja 1: System medialny", "content": "System medialny to zbiór (ogół) instytucji i organizacji biorących udział – w różny, właściwy dla siebie sposób – w procesie masowego komunikowania; są to środki masowego przekazu, czyli prasa, radio, telewizja, internet, a także instytucje i organizacje uzupełniające ich działalność (m.in. agencje informacyjne, firmy kolportażowe), bądź ją nadzorujące lub kontrolujące [1].\nW takim rozumieniu system medialny to zespół mediów masowych działających w społeczeństwach narodowych, w różnych sektorach, jak prasa, radio, telewizja i nowe media internetowe [2]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 858, "subject": "Cenzura", "paragraphs": ["Czym jest cenzura? Słowo cenzura pochodzi od łacińskiego słowa „censere” znaczącego „oszacować, ocenić, osądzić”. Cenzor był tytułem nadawanym dwóm sędziom w starożytnym Rzymie, którzy byli odpowiedzialni za administrowanie spisem i nadzorowanie moralności publicznej. W okresie średniowiecza Kościół posługiwał się cezurą, aby nie dopuścić do rozprzestrzenia się treści zawartych w księgach, które były uznawane za heretyckie. Pojawienie się druku w XV wieku ułatwiło rozpowszechnianie antykościelnych treści. W odpowiedzi Kościół stworzył rozbudowany system cenzury prewencyjnej, wymagającej licencji na publikację (imprimatur) i poświadczenia, że książka została zbadana przez miejscowego ordynariusza, zwykle biskupa przed jej publikacją. Stworzono też indeks ksiąg zakazanych, który po raz pierwszy został opublikowany w 1559 roku, zanim zaprzestano jego publikacji w 1966 roku miał 42 edycje [1].", "Historia cenzury Cenzura we współczesnym rozumieniu rozwinęła się wraz z powstaniem nowoczesnego państwa. Władze świeckie wprowadziły podobne zasady kontroli publikacji drukowanych, jak wcześniej Kościół [4]. Anglia opublikowała pierwszy indeks ksiąg zakazanych w 1529 roku. W 1557 roku powstało Towarzystwo Drukarsko-Kolporterskie. W zamian za monopol na wydawanie i dystrybucję publikacji drukowanych miało ono nie dopuszczać do druku treści, które byłyby groźne dla władzy i Kościoła anglikańskiego. Ta współpraca oparta na autocenzurze przetrwała do 1695 roku, kiedy Parlament zdecydował o wygaśnięciu ustawy o cenzurze. Było to efektem trudności w cenzurowaniu coraz większej ilości ksiąg i broszur. Prasa w Anglii w XVIII i XIX wieku nie była cenzurowana ale jej rozwój był utrudniony przez podatek od gazet oraz podatek od reklam i ogłoszeń. Zniesienie ich odpowiednio w 1836 roku i 1853 umożliwiło powstanie niezależnej wielkonakładowej prasy [1].", "W Polsce w XVI i XVII poza cenzurą kościelną pisma drukowane nie były cenzurowane, gdyż nie było takiej potrzeby. W tym okresie były one redagowane wyłącznie przez zaufanych dworzan króla i pod jego kontrolą. Ta sytuacja zmieniła się w XVIII wieku wraz z wprowadzeniem systemu koncesyjnego w prasie i wydaniem monopolistycznych przywilejów dla wydawców (Zakonu Pijarów i Zakonu Jezuitów). Od tego czasu Służby Marszałka Wielkiego Koronnego były odpowiedzialne za kontrolę publikacji. Nadzór ten był realizowany poprzez uniemożliwianie drukowania treści szkodliwych dla monarchy oraz karanie grzywną lub więzieniem tych, którzy takie treści tworzyli i rozpowszechniali. W 1793 roku Jurysdykcja Marszałkowska wydała w Warszawie \"Instrukcję dla drukarzy\", w której pojawił się zapis, że każda drukowana publikacja musi być podpisana przez cenzora. Spowodowało to powstanie autocenzury i drukarze, którym zależało na dobrych relacjach z dworem unikali drukowania treści wymierzonych w Króla i jego najbliższe otoczenie [3].", "W okresie XX Międzywojennego zaraz po odzyskaniu niepodległości w 1919 roku nastąpiło zniesienie cenzury i proklamowanie wolności prasy. Kilka miesięcy później w wyniku wojny z Rosją wprowadzona została cenzura wojskowa. W Konstytucji marcowej z 1921 roku pojawił się zapis o wolność słowa i prasy, ale w praktyce stosowana była cenzura represyjna. W konstytucji kwietniowej z 1935 roku był zapis tylko o wolności słowa (art. 5), bez wolności prasy. W 1938 roku prezydencki dekret prasowy nadał władzy administracyjnej do kontroli wydawnictw prasowych. Co oznaczało wprowadzenie cenzury. Po II wojnie światowej Polska pozostała pod kontrolą Związku Radzieckiego i na wzór istniejących tam rozwiązań, również w naszym kraju wprowadzono cenzurę. Dekret o powołaniu Głównego Urzędu Kontroli Prasy, Publikacji i Widowisk został ogłoszony 5 lipca 1946 roku i wszedł w życie po uchwaleniu przez Krajową Radę Narodową we wrześniu 1946 roku (po opublikowaniu w Dzienniku Ustaw RP). W lipcu 1981 roku urząd zmienił nazwę na Główny Urząd Kontroli Publikacji i Widowisk (GUKPiW), ale jego rola, zadania i cele pozostały takie same. Ostateczna likwidacja GUKPiW-u dokonała się w kwietniu 1990 roku [5].", "Poziomy cenzury", "Ze względu na sposób działalności cenzorskiej wyróżniamy cenzurę:", "Cenzura w dobie internetu", "Efekt Streisand Nazwa tego zjawiska pochodzi od procesu, który w 2003 roku wytoczyła amerykańska piosenkarka Barbra Streisand fotografowi, za umieszczenie zdjęcia lotniczego jej domu w publicznie wystawionej kolekcji liczącej 12 tysięcy zdjęć wybrzeża Kalifornii, które miały dokumentować jego postępującą erozję. W związku z nagłośnieniem sprawy przez samą Barbarę Streisand, zdjęcie stało się bardzo popularne wśród internautów, którzy przed tym pozwem nie interesowali się nim. Uzyskany efekt okazał się więc odwrotny od założonego. Efekt ten zadziałał również w przypadku WikiLeaks. W 2010 roku rząd USA nie tylko wydał ostrzeżenia swoim pracownikom, zabraniając im przeglądania WikiLeaks, ale także naciskał na kilka firm internetowych, aby odcięły dostęp do WikiLeaks. W odpowiedzi działacze internetowi stworzyli setki lustrzanych stron, na których znajdowały się kopie witryny WikiLeaks, udaremniając w ten sposób próby blokowania dostępu i generując negatywny rozgłos zarówno dla rządu, jak i firm, które współpracowały przy tym przedsięwzięciu [7]."], "definitions": [{"name": "Definicja 1: Cenzura", "content": "\nW najszerszej definicji cenzura oznacza ograniczanie obiegu informacji, idei i obrazów lub opinii politycznych, kulturowych, religijnych i artystycznych [2]. W węższym rozumieniu terminem tym określana jest instytucja zajmującą się kontrolą publikacji, w celu kontrolowania publicznego przekazywania informacji i ograniczania wolność publicznego wyrażania myśli i przekonań [1]. Cenzura jest także narzędziem służącym władzy do kształtowania i utrzymywania oficjalnej wersji prawdy [3]. Cenzurą określane są również działania, które decydują o tym, które publikacje zostaną dopuszczone do druku i pod jakimi warunkami [1]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 860, "subject": "Modele odpowiedzialności mediów", "paragraphs": ["W świetle teorii normatywnej odpowiedzialność mediów opiera się na trzech kryteriach:", "Normatywne teorie mediów pozwalają ukazać oczekiwania, jakie wobec mediów ma otoczenie społeczne, co umożliwia określenie ram prawnych dla instytucji medialnych i ich działalności. Media masowe, stanowią zarówno teraz, jak i w przeszłości, odzwierciedlenie założeń ideologicznych określających ustrój polityczny państw, w których działają. Sprawia to, że rozwiązania prawne dotyczące funkcjonowania środków masowego przekazu pojawiające się w określonych kontekstach historycznych i społecznych różniły się między sobą. W perspektywie historycznej bowiem wyobrażenia dotyczące roli mediów i ich znaczenia ulegały zmianom, podobnie jak uwarunkowania polityczne, gospodarcze i społeczne, której je kształtowały. Istniały jednak ogólne reguły, które pozwalały na klasyfikację mediów w odniesieniu do sytemu politycznego, w jakim się rozwijały. Na tej podstawie wyróżnia się teorię: autorytarną, liberalną, społecznej odpowiedzialności mediów, marksistowsko-leninowską, które były też określane, jako doktryny medialne (prasowe) [2].", "Doktryny medialne", "Doktryna autorytarna Teoria autorytarna rozwijała się w społeczeństwach, gdzie rządził autorytarny władca. Dziś można ją spotkać we współczesnych niedemokratycznych lub autokratycznych systemach społecznych, np. na Białorusi. Z założenia wszelkie instytucje medialne podlegają nadzorowi władzy rządzącej, a wypowiedzi lub opinie podważające lub krytykujące ustalony porządek społeczny i polityczny mogą być zabronione. Prawo do wolności wypowiedzi i prasy nie obowiązuje. Media masowe są poddawane licencjonowaniu, władza wprowadza różnego rodzaju patenty rządowe, które ograniczają możliwość publikowania przekazów, a treści są cenzurowane. Celem mediów, jest wspieranie działań panującego, jego rządu i państwa [4].", "Doktryna marksistowsko-leninowska (komunistyczna) Partia, a właściwie jej ścisłe kierownictwo, decydowało we wszystkich sprawach związanych ze środkami masowego przekazu. Media traktowane były instrumentalnie, były „orężem partii”, a dziennikarze „walczyli na froncie ideologicznym”. Podstawowym zadaniem mediów było ideologiczne oddziaływanie na społeczeństwo, umacnianie systemu politycznego i państwa, zjednywanie społecznego poparcia dla władzy, kształtowanie świadomości, opinii i postaw zgodnych z ideologią. Tym celom podporządkowano wszystkie funkcje mediów, w tym te podstawowe: informacyjną, edukacyjną, kulturotwórczą i rozrywkową. Tak usytuowane w systemie politycznym media musiały podlegać kontroli, którą sprawowano przez urzędy cenzury prewencyjnej oraz bezpośredni nadzór aparatu partyjnego. Konkurencję zastąpiono zasadą współdziałania, co miało zapobiegać tak krytykowanej pogoni za popularnością przez np. schlebianie niewyrobionym politycznie gustom, które bardziej ceniły sobie rozrywkę i sensację niż ideologiczne przekazy. Dziennikarze stali się w tym systemie częścią aparatu władzy. Ich wolność wykonywania zawodu podlegała ograniczeniom prawnym – prawo prasowe, system cenzury oraz pozaprawnymi – wskazania i instrukcje partyjne, a odpowiedzialność sprowadzała się do realizowania zadań postawionych przez partię. Dodatkowo obowiązywała zasada odpowiedzialności wobec partii i wychodzenie na przeciw oczekiwaniom partii i realizacja jej oczekiwań partii. Nakładała to na media obowiązek stałego udziału w realizacji programu partii [3].", "Doktryna liberalna (teoria wolnej prasy) Teoria wolnej prasy najpełniej rozwinęła się w Stanach Zjednoczonych, ale stosowana była też w innych krajach, np. Kanadzie, Wielkiej Brytanii. Doktryna ta zakłada całkowitą wolność wypowiedzi publicznej i ekonomicznej działalności mediów. Rząd i państwo nie mogą ingerować w dziedzinę mediów (prasy). Zapewniający pluralizm wolny rynek medialny powinien rozwiązać wszystkie kwestie związane z obowiązkiem mediów odnośnie odpowiedzialnego działania zgodnego z potrzebami społecznymi. W doktrynie liberalnej media masowe mają służyć realizacji praw jednostek i stanowią instrument kontroli społeczeństwa nad państwem, jego instytucjami oraz osobami sprawującymi władzę.", "Krytyka doktryny: Rozwój mediów zarówno pod kątem technicznym, jak i ekonomicznym sprawił, że stały się one potężnym narzędziem wpływu na społeczeństwo. Wskazywano, że media źle wykorzystują władzę i pozycję, jaką mają w nowoczesnych społeczeństwach demokratycznych, zwłaszcza w obszarze ekonomicznym, uzależniając politykę redakcyjną i linię publikowanych treści pod oczekiwania reklamodawców. Nie służą społeczeństwu i obywatelom tylko interesom wielkiego biznesu i kierują się swoim interesem [4].", "Na bazie tej doktryny ukształtował się model liberalno-pluralistyczny lub rynkowy W tym modelu jednostka i jej potrzeby są postawione w centrum zainteresowania mediów, a interes publiczny jest utożsamiany z tym, co interesuje publiczność. Odpowiedzialność wobec społeczeństwa jest osiągana też przez mechanizmy rynkowe, choć możliwe jest stosowanie minimalne elementy samoregulacji i interwencji państwa w tym zakresie. Wolność mediów jest pełna, w zasadzie nie ma tu ograniczeń. Wyrasta z modelu wolnej prasy i podkreśla konieczność jej utrzymania. W związku z tym posiadanie, wydawanie i używanie mediów nie podlega żadnym ograniczeniom państwowym [1]. Ten model jest realizowany w odniesieniu do rynku prasowego w wielu krajach, np. w Polsce [5].", "Doktryna odpowiedzialności społecznej mediów Z krytyki doktryny liberalnej wyrosła doktryna społecznej odpowiedzialności mediów. Prawo do wolności publikacji jest tu ograniczone zobowiązaniem wobec społeczeństwa, które zdecydowanie wykraczają poza interes własny instytucji nadawczej. Opiera się na pięciu kluczowych założeniach:", "W oparciu o tę doktrynę rozwinął się model odpowiedzialności społecznej lub interesu publicznego, który zakłada, że prawo do wolności publikacji ograniczają zobowiązania, jakie media mają wobec społeczeństwa i które zdecydowanie wykraczają poza interes własny instytucji nadawczej. W tym modelu mieści się działalność nadawców publicznych [1].", "Doktryna demokratycznego uczestnictwa Od lat 60. XX wieku rozwijają się alternatywne, społeczne media, takie jak: alternatywna lub podziemna prasa, lokalne radia i telewizja. Odpowiada na potrzeby ludzi i promuje ich prawo do informacji lokalnej, użytkowania nowych mediów w ramach wspólnoty lub subkultury do podtrzymywania interakcji i propagowania partycypacji. Doktryna ta powstała w USA i była odpowiedzią na rozwój mediów telemetrycznych oraz wyrazem krytyki dla doktryny odpowiedzialności społecznej, która tu postrzegana jest jako obrona kapitalistycznych mediów przed krytyka społeczną. W ramach tej doktryny nastąpiło całkowite odrzucenie rynku jako ram działania mediów [4]. W oparciu o tę doktrynę rozwinął się model mediów alternatywnych, który cechuje organizacja oddolna, partycypacyjny i wspólnotowy charakter działania oraz wspieranie subkultur i ich partykularnych wartości [1].", "Doktryna mediów na rzecz rozwoju Media mogą odgrywać istotną rolę w rozwoju gospodarczo-społecznym, co może wpływać na ograniczanie wolności mediów i kładzenie nacisku na odpowiedzialność mediów w procesach transformacji i modernizacji tych krajów. Wyrasta to z narodowych zadań rozwoju w przestrzeni kulturowej, społecznej i ekonomicznej i może powodować oraz uzasadniać interwencje rządowe w celu wspierania mediów publicznych realizujących cele rozwojowe [4]."], "definitions": [{"name": "Definicja 1: Odpowiedzialność mediów", "content": " Odpowiedzialność mediów to dobrowolne i niedobrowolne procesy w toku, których media odpowiadają bezpośrednio lub pośrednio przed społeczeństwem za skutki publikacji [1]."}, {"name": "Definicja 2: Doktryny medialne", "content": "Zmieniające się poglądy na temat roli i funkcji mediów w państwie i społeczeństwie pozwoliły na wyodrębnienie tzw. doktryn medialnych, dawniej nazywanych doktrynami prasowymi. Przyjęta doktryna medialna warunkuje konkretne rozwiązania prawne dotyczące funkcjonowania mediów oraz kształtuje standardy etyczne wykonywania zawodu dziennikarza, jest zatem podstawą do tworzenia się systemu medialnego państwa. Punktami kluczowymi różnicującymi poszczególne doktryny są: wolność mediów, a precyzyjniej mówiąc stopień ograniczeń tej wolności oraz odpowiedzialność mediów i dziennikarzy, czyli odpowiedź na pytanie, wobec kogo są oni odpowiedzialni, co z kolei wynika z wyznaczonych im funkcji [3]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 861, "subject": "Własność i kontrola mediów", "paragraphs": ["Formy własności mediów Na podstawie formy własności wyróżnia się trzy typy nadawców medialnych:", "Zarządzanie mediami Mediami komercyjnymi zarządzają właściciele. W zależności od wielkości medium albo robią to bezpośrednio i decydują o wszystkim, albo korzystają z pośrednich metod kierowania działalnością medialną i wówczas ich kontrola nad publikowanymi lub emitowanymi przekazami jest mniejsza. W mediach niekomercyjnych prawa i obowiązki właściciela przysługują organowi założycielskiemu, który może zarządzać w sposób autorytarny lub bardziej swobodny medium w zależności od sprecyzowanego celu działania [2]. W mediach publicznych nie ma właścicieli albo są to instytucje abstrakcyjne, np. w Polsce jednoosobowe spółki Skarbu Państwa, co powoduje konieczność zarządzania nimi przez powołane do tego podmioty. Współcześnie istnieją cztery sposoby zarządzania mediami publicznymi:", "Kontrola mediów We współczesnych społeczeństwach kontrola środków komunikowania jest obecna i nie jest to przedmiotem debaty. Dyskusje odnoszą się do jej podmiotu, zakresu, formy, zasad oraz celów [4]. Media są regulowane w oparciu o trzy podstawowe elementy:", "Środki kontroli instytucji nadawczych:", "Poziom formalny regulacji medium Media mogą być regulowane za pomocą rozwiązań prawnych lub na zasadzie samoregulacji, która opiera się na zasadach etycznych ustalonych przez samo środowisko nadawców oraz instytucje nadawcze i medialne. Kodeksy etyczne służą wzmocnieniu wolności mediów poprzez ustanowienie wysokich standardów zawodowych i etycznych związanych z uprawianiem zawodu dziennikarskiego i profesji nierozerwalnie z nim związanych. W przypadku Polski są to, miedzy innymi: Kodeksy etyczne Stowarzyszeń Dziennikarskich i Izby Wydawców Prasy, dokumentach normujących działalność Stowarzyszeń Dziennikarskich, Karty Etyki Mediów i działalności Konferencji Mediów Polskich oraz Rady Etyki Mediów oraz zasady etyczne i działalność Komisji Etyki w Telewizji Polskiej oraz w Polskim Radiu [6].", "Modele regulacji mediów Przedmiotem kontroli (regulacji) mediów są:", "Wyróżniamy trzy modele regulacji:", "Status internetu Internet rozwinął się w duchu faktycznej wolności od wszelkiej kontroli, początkowo stosowano do niego model powszechnego nośnika i cieszył się swobodą jeszcze większa niż prasa, gdyż był otwarty na wszystkich nadawców. Trudność z regulowaniem internetu wynika z faktu, że nie przynależy on do konkretnej krajowej jurysdykcji. Ten międzynarodowy charakter przekazów sprawia trudności we wprowadzeniu prawnych uregulowań. Swoboda i brak prawnych reguł rodzi obawy przed wykorzystywaniem tego medium do działań manipulacyjnych komercyjnych lub politycznych [7]."], "definitions": [{"name": "Definicja 1: Nadawcy medialni, instytucje nadawcze, instytucje medialne", "content": "\nNadawcy medialni to działająca w sposób zorganizowany zbiorowość, która ma status instytucji. Odnosi się zarówno do osób pracujących w mediach, takich jak twórcy, kreatorzy, dziennikarze, technicy, operatorzy kamer, montażyści itp. oraz do właścicieli i osób zarządzających mediami (menadżerami, redaktorami naczelnymi, dyrektorami itp.) [1].\nInstytucje nadawcze to zbiorowe określenie nadawców medialnych, zarówno radiowych, telewizyjnych, jak i wydawców prasy, dystrybutorów gier komputerowych itd. [2].\nInstytucje medialne to oprócz instytucji nadawczych, również instytucje przygotowujące przekazy oraz świadczące usługi na rzecz nadawców medialnych, np. agencje reklamowe, szkoły dziennikarskie, drukarnie itp. oraz organy nadzorujące media, np. Krajowa Rada Radiofonii i Telewizji [2].\n\n"}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 862, "subject": "Konkurencja i koncentracja", "paragraphs": ["Konkurencja na rynku mediów utożsamiana jest z pluralizmem mediów, czyli istnieniem wielu podmiotów medialnych oferujących zróżnicowane treści, co sprzyja pluralizmowi poglądów, wolnej wymianie myśli i pełnej informacji [1].", "Konkurencja w warunkach wolnego rynku powinna doprowadzić do zwiększenia różnorodności przekazów. Niestety w odniesieniu do rynku mediów ten mechanizm nie działa, a żywiołowa konkurencja niszczy rywali i prowadzi do koncentracji własności, eskalacji kosztów i piętrzenia barier ekonomicznych, które utrudniają wejście na rynek nowych nadawców [2].", "W rezultacie na silnie konkurencyjnych rynkach np. telewizyjnym lub prasy lokalnej dostrzega się obniżenie jakości oferty medialnej, np. homogenizację produktów zamiast ich różnicowania, banalizację treści, wzrost sensacyjności informacji, zmniejszenie ich dokładności i rzetelności. Z teorii funkcjonowania rynków wynika bowiem, że rozdrobnienie i wzrastająca konkurencja nie sprzyja różnicowaniu produktów i podnoszeniu ich jakości – zjawisko znane jako efekt Hotellinga [1].", "Koncentracja przez Europejski Instytut Mediów definiowana jest, jako zwiększenie obecności jednej lub kilku firm w wyniku różnych możliwych procesów: fuzji, przejęć i transakcji z innymi firmami [3].", "Wyróżniamy trzy rodzaje koncentracji:", "Koncentracja własności mediów Koncentracja kapitału na rynku mediów w sposób istotny wpływa na pluralizm mediów i dlatego monitorowanie oraz analizowanie jej poziomu jest istotne dla prawidłowego funkcjonowania mediów audiowizualnych. Wynika to ze specyfiki przedsiębiorstw medialnych. Z jednej strony są one podmiotami gospodarczymi, a z drugiej pełnią ważne funkcje społeczno-polityczne, co sprawia, że nie mogą one być traktowane identycznie jak przedsiębiorstwa komercyjne [4]. We współczesnych państwach UE i USA rynek medialny cechuje wysoki stopień koncentracji, jej stopień różni się jednak w zależności od rodzaju medium masowego, którego dotyczy. Rynek prasowy podlega najmniejszej ilości ograniczeń ze strony państwa. Z tego powodu zachodzące w jego obrębie procesy koncentracji przebiegają najbardziej dynamicznie. O ile koncentracji prasy sprzyja ograniczona regulacja to w przypadku radia i telewizji regulacje prawne przyczyniają się do niej [2].", "Koncentracja własności na rynku prasowym wynika z chęci zajmowania uprzywilejowanej pozycji na rynku wydawców. Można ją zdobyć dzięki fuzji z innymi wydawnictwami lub w wyniku ich wchłonięcia albo wsparciu inwestorów zewnętrznych. Stanowi to punkt wyjścia dla dalszego umacniania się i dążenia do zajęcia pozycji dominującej, po zniszczeniu lub osłabieniu konkurencji w wyniku działania zasady spirali nakładu. W jej myśl silny nadawca oferuje atrakcyjny produkt, dzięki czemu rozchodzi się on w wysokim nakładzie ponieważ przyciąga dużą ilość odbiorców. Pozwala to nadawcy na tworzenie jeszcze bardziej atrakcyjnych wydań, które przyciągają jeszcze więcej czytelników i w rezultacie uzyskuje coraz większe wpływy ze sprzedaży i reklam. W rezultacie jego pozycja na rynku umacnia się, a gdy przekroczy \\( 65\\% \\) udziału w rynku inne tytuły przestają być dla niego konkurencja i zajmują drugorzędne pozycje lub znikają z rynku [5]. Tym samym wolny rynek w przypadku prasy paradoksalnie sprzyja tworzeniu monopoli i oligopoli, gdyż konkurencja prowadzi do wyłonienia się kilku lub w skrajnych sytuacjach jednego wydawcy na rynku [2].", "Koncentracja własności w odniesieniu do radia i telewizji ma nieco inny kształt i wynika z tego, że do lat siedemdziesiątych w Europie Zachodniej i lat dziewięćdziesiątych w Polsce państwo gwarantowało telewizjom publicznym monopol. Zniesienie go nie spowodowało na rynku telewizyjnym daleko idących zmian. Nadawcy publiczni zachowali bowiem przywileje np. wpływ z obowiązkowego abonamentu i reklamy, a prywatni obok reklamy mogą korzystać tylko z wpływów z dobrowolnych abonamentów. Dodatkowo w większości państw obowiązuje polityka koncesjonowania, która pozwala na kontrolę ilości nadawców. Na rynku radiowym deregulacja przyniosła natomiast zdecydowane ożywienie. W wyniku zniesienia monopolu radia publicznego powstało wiele małych rozgłośni, które jednak nie wytrzymały w warunkach nasilonej konkurencji co wymusiło koncentrację [2].", "Stopień koncentracji a pluralizm mediów Stopień koncentracji mediów – jest określany na skali od pełnego monopolu do doskonałej konkurencji, może być mierzony zakresem kontroli jaką mają największe spółki na rynku medialnym nad produkcją, zatrudnieniem, dystrybucją i widownią [6]. Nie ma wyraźnie określonego poziomu koncentracji, powyżej którego można powiedzieć, że jest ona zbyt wysoka. Powszechnie przyjmuje się jednak, że akceptowalny poziom koncentracji to sytuacja, w której \\( 50\\% \\) rynku jest kontrolowane przez 4 firmy medialne lub osiem firm ma kontrolę nad \\( 70\\% \\) rynku medialnego w danym kraju [6].", "W celu zapobiegania szkodliwym skutkom nadmiernej koncentracji na rynku medialnym oraz wykluczenia możliwości zdominowania go przez wielkie konglomeraty medialne, które dysponują dużymi środkami ekonomicznymi, dzięki czemu mogą w warunkach konkurencji zyskiwać dominującą pozycję. Państwa podejmują działania mające przeciwdziałać negatywnym tendencjom na rynku mediów i starają się o zapewnienie odpowiedniego poziomu pluralizmu wprowadzając:", "Regulacja rynku audiowizualnego obejmuje ogólne środki prawne, np. ustawa antymonopolowa i szczegółowe – koncesje dla nadawców niepublicznych. Na rynku prasowym regulacja opiera się na instrumentach ekonomicznych bezpośrednich, np. subsydiowanie produkcji lub dystrybucji lub pośrednich, np. ulgi w podatkach [2].", "Niepożądane skutki nadmiernej koncentracji: Tendencje do coraz większej koncentracji mediów powodują zagrożenia wynikające z:", "Koncentracja mediów nie zawsze pociąga za sobą zmniejszenie liczby kanałów, często silni nadawcy decydują się na zwiększenie swojej oferty o nowe periodyki, programy, czy kanały tematyczne. Dzięki temu koncerny medialne chcą dostosować się do oczekiwań coraz mniejszych i bardziej zróżnicowanych widowni [2].", "Poziom koncentracji mediów w Polsce", "Rynek radiowy: w I półroczu 2018 roku słuchało codziennie \\( 72,7\\% \\) społeczeństwa – wynika z badań Radio Track Millward Brown. Najwięcej osób słuchało Radia RMF FM ( \\( 25,6\\% \\)), Radia ZET ( \\( 12,4\\% \\)) i Radia ESKA ( \\( 7,6\\% \\)). Najwięcej udziałów w rynku ma Grupa RFM – właściciel RMF FM, RMF MAXXX i RMF Classic ( \\( 30,6\\% \\)), należąca do Bauer Media Group, następnie Polskie Radio – \\( 19,2\\% \\). Czech MediaInvest, które przejęło Grupę Eurozet od francuskiej Grupy Lagardère ma ok. \\( 16,5\\% \\), ZPR – ok. \\( 14,5\\% \\), Grupa Radiowa Agory Sp. z o.o. – \\( 6,2\\% \\). Wskaźnik koncentracji wynosi dla tego rynku ponad \\( 80\\% \\).", "Rynek telewizyjny: z raportu sporządzonego przez wirtualnemedia.pl, w I półroczu 2018 roku największy udział w oglądalności – biorąc pod uwagę wszystkie kanały – miała Telewizja Polska. Wyniósł on \\( 28,9\\% \\). Na kolejnych miejscach znalazły się: Grupa Polsat – \\( 24,51\\% \\) i TVN Discovery Polska – \\( 23,45\\% \\). Wskaźnik koncentracji dla tego segmentu rynku medialnego w Polsce wyniósł ponad \\( 80\\% \\).", "Rynek prasowy: Według danych Związku Kontroli Dystrybucji Prasy wszystkie wydawnictwa sprzedały ogółem w 2017 roku 631 699 252 egzemplarze gazet i magazynów. Najwięcej sprzedały: Wydawnictwo Bauer sp. z o.o. – ponad 228 mln ( \\( 36,1\\% \\) udziału w rynku), Ringier Axel Springer Polska sp. z o.o. – 96,8 mln ( \\( 15,3\\% \\)), Polska Press sp. z o.o – 81 mln ( \\( 12,8\\% \\)), ZPR Media SA (41 mln i \\( 6,5\\% \\) udziału w rynku), Agora SA (36,7 mln i \\( 5,8\\% \\)) oraz Edipresse Polska S.A. (17,5 mln i \\( 2,7\\% \\)). Łącznie cztery największe wydawnictwa miały ponad \\( 70\\% \\) udziałów w rynku, a osiem największych – ponad \\( 80\\% \\). Jednak żaden z wydawców nie osiągnął na tym rynku pozycji dominującej, gdyż za taką uważa się udział w rynku jednego wydawcy przekraczający \\( 40\\% \\). Porównanie udziałów na poszczególnych rynkach pokazuje m.in., iż Grupa Bauer Media Polska jest bardzo ważnym graczem na trzech rynkach: prasowym, radiowym i internetowym, Ringier Axel Springer Polska – na rynku prasowym i internetowym, natomiast Agora SA na rynku gazet, radiowym i w Internecie. Dane te wskazują na wysoką koncentrację rynku medialnego w Polsce [9]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 863, "subject": "Prawo autorskie a wolność sieci", "paragraphs": ["Internet powstał jako środek nieskrępowanej wolności w dostępie do znajdujących się tam treści, dzieleniu się nimi oraz wypowiedzi dla jego użytkowników, stąd też wraz z jego upowszechnianiem rozpoczęła się w Stanach Zjednoczonych w połowie lat 90. XX w. dyskusja na temat granic tej wolności. Jednym z ważniejszych zagadnień odnoszących się do wolności w sieci była kwestia praw autorskich (copyright). Z perspektywy własności intelektualnej technologie cyfrowe jawiły się jako zagrażające prawu autorskiemu, a tym samym ograniczające zyski ze sprzedaży kulturowych produktów.", "Pierwsze próby ograniczania przez rządy niektórych państw wolności korzystania z sieci (nie tylko przez Stany Zjednoczone, ale również przez Rosję, Chiny czy Włochy) pojawiły się dosyć szybko, bo już na początku lat 90. Wraz z komercjalizacją internetu. W efekcie Amerykanin John Perry Barlow – poeta i cyberlibertarianista oraz aktywista internetowy, współzałożyciel organizacji pozarządowej Electronic Frontier Foundation (EFF) ogłosił w 1996 roku w szwajcarskim Davos manifest zwany „Deklaracją Niepodległości Cyberprzestrzeni” https://www.eff.org/cyberspace-independence. Zwracał w nim uwagę na istnienie dwu grup: tych, którzy funkcjonują w cyberprzestrzeni, korzystają z niej i ją tworzą, oraz tych, którzy próbują ją ograniczać, wpływać na nią i regulować. Uważał, że stanowisko krytyków wolności cyberprzestrzeni jest podszyte lękiem.", "Walka pomiędzy zwolennikami ochrony praw autorskich (głównie producentów, twórców oraz wydawców) a ich przeciwnikami zaostrzyła się wraz z usieciowieniem relacji, przejawiającej się m.in. w nieformalnym obiegu treści w sieciach peer2peer oraz twórczymi praktykami użytkowników. Zwolennicy prawa autorskiego podkreślali przede wszystkim ekonomiczny charakter takiej działalności, traktując praktyki swobodnej wymiany treści cyfrowych jako kradzież i działanie pirackie oraz zagrożenie dla przemysłu kultury. Z kolei przeciwnicy takiego podejścia i zarazem zwolennicy wolnego dostępu do kultury podkreślali, że kopiowanie jest immanentną częścią technologii cyfrowej i zarazem częścią kultury amatorów, którzy nie tworzą treści dla pieniędzy, ale z pasji [1]. Opowiadali się oni za swobodnym dostępem do dóbr kultury, w tym możliwością ich remiksowania, przekształcania i dalszego wykorzystywania, co było typowe dla tzw. „kultury do zapisu/odczytu” (Read/Write Culture) [2].", "Źródło: LencikD., Kultura Remixu (2008), reż. Brett Gaylor (cały film), 25.09.2013 (dostęp 10.09.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=LvbN0etyk8Y&feature=emb_logo", "Wokół otwartego podejścia do prawa autorskiego i własności intelektualnej w sieci powstał ruch społeczny Wolnej Kultury, którego inicjatorem był profesor prawa i działacz na rzecz wolnego dostępu do kultury Lawrence Lessig. Idea ruchu Wolnej Kultury nawiązywała do innego ruchu społecznego, powstałego w latach 80. XX, nazywanego ruchem Wolnego Oprogramowania (Free Software), którego założycielem był Richard Stallman, programista z MIT. Ruch Wolnego Oprogramowania opowiadał się za tworzeniem przez użytkowników oprogramowania komputerowego z dostępnym dla wszystkich kodem źródłowym, w tym jego dalszym kopiowaniem, rozpowszechnianiem, dokonywaniem w nim zmian i ulepszaniem [4] (zob. Od prosumentów do produserów ). Podobnie ruch Wolnej Kultury propagował tzw. idę średniowiecznego „the commons” – wspólnego pastwiska, którą w świecie cyfrowym stanowią dobra kultury, które jako wspólna własność mogą przynosić korzyści zarówno jednostkom, jak i całej zbiorowości. Nazwa organizacji pozarządowej Creative Commons założonej przy Uniwersytecie Stanforda w 2001 roku w Stanach Zjednoczonych przez profesora prawa Lawrence’a Lessiga nawiązuje do tradycji średniowiecznych wspólnych pastwisk. Jej celem jest powiększanie wspólnych zasobów dostępnych w internecie oraz zachęcanie autorów do dzielenia się nieodpłatnie efektami swojej pracy. W tym celu organizacja opracowała zestaw umów licencyjnych, które regulują udostępnianie przez autora swojego dzieła z zastrzeżeniem pewnych praw. Więcej na temat warunków i typów licencji Creative Commons https://creativecommons.pl/poznaj-licencje-creative-commons/.", "Wraz z coraz większą popularnością mediów społecznościowych oraz treści tworzonych przez użytkowników i czerpaniem korzyści finansowych przez właścicieli platform medialnych, takich jak YouTube, Facebook, Instagram, Pinterest czy Twitter, powrócił problem ochrony prawa autorskiego, czego domagali się sami twórcy i producenci. W 2015 roku Komisja Europejska rozpoczęła prace nad uregulowaniem treści publikowanych w internecie w zakresie prawa autorskiego na jednolitym rynku cyfrowym. Dyskusja wokół prac nad treścią dyrektywy unijnej pokazała jednak, że sprawa jest o wiele bardziej złożona. Jak wskazywali analitycy i eksperci prawa autorskiego [6], wiele proponowanych zapisów było niejasnych lub nazbyt ogólnych, na przykład te dotyczące obowiązku filtrowania przez pośredników internetowych treści publikowanych przez użytkowników w celu zapobiegania naruszeniom prawa autorskiego czy regulacje w zakresie komputerowej analizy tekstu i danych, która ogranicza możliwość ich wykorzystywania przez dziennikarzy czy organizacje pozarządowe. Zwolennicy wprowadzenia tych regulacji podkreślali, że dyrektywa uszczelni dziurę w wynagrodzeniach twórców – przeciwnicy z kolei (głównie organizacje pozarządowe, eksperci i działacze prawni) zwracali uwagę, że zmiany te wpłyną na otwarty obieg treści i informacji oraz wolność słowa.", "Ostatecznie w kwietniu 2019 roku Parlament Europejski przyjął dyrektywę w sprawie prawa autorskiego https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:32019L0790&from=PL, co z jednej strony ucieszyło twórców, ale wprowadziło konsternację wśród dostawców treści, pośredników, przedstawicieli organizacji pozarządowych oraz samych użytkowników. W maju 2019 roku Polska postanowiła zaskarżyć niektóre zapisy dyrektywy do Trybunału Sprawiedliwości Unii Europejskiej, uzasadniając, że mogą zagrażać wolności słowa w internecie.", "Dyrektywa dotycząca prawa autorskiego w sieci nakłada m.in. zarówno na portale internetowe przechowujące duże ilości treści tworzonych przez użytkowników, jak i te, które je wyświetlają, szeregują, tagują (a więc np. wyszukiwarki internetowe) obowiązek ich sprawdzania pod kątem naruszenia praw autorskich, co wymusza wprowadzenie automatycznych sposobów filtrowania i oceny tych treści. Ten właśnie zapis budził najwięcej kontrowersji, wziąwszy pod uwagę, że jedynie niewielki, poniżej \\( 1\\% \\) odsetek komunikatów czy treści w sieci może być związany z naruszeniem praw autorskich. Ponadto, zapis dotyczący udostępniania przez internautów treści online w celu cytowania, krytyki, recenzji, karykatury, parodii i pastiszu został utrzymany i nie stosują się do niego obostrzenia związane z prawem autorskim."], "definitions": [{"name": "Definicja 1: Remiks", "content": "Praktyka kulturowa (artystyczna, popkulturowa) polegająca na przetwarzaniu (łączeniu, skracaniu, cięciu ze sobą) różnych treści cyfrowych. Eduarto Navas [3] wyróżnia trzy rodzaje remiksu: rozszerzony (historycznie najwcześniejszy, polegający na reprodukcji i przetwarzaniu dzieła poprzez dokładanie do niego nowych elementów niezmieniających go zasadniczo); selektywny (dodawanie i odejmowanie pewnych elementów z oryginału) oraz refleksyjny (dążenie do stworzenia autonomicznej wypowiedzi poprzez czerpanie z różnych źródeł). Przykładem remiksu selektywnego jest twórczość muzyczna Kutimana izraelskiego muzyka, uchodzącego na prekursora cyfrowego remiksu, który tworzy muzykę z sampli filmów dostępnych na YouTube (zob. https://youtu.be/tprMEs-zfQA)."}, {"name": "Definicja 2: Copyright trolling (trolling prawnoautorski)", "content": "Wykorzystywanie istniejących procedur ochrony prawa autorskiego w sytuacjach, które nie podlegają takiej ochronie. Często przybiera formę masowej wysyłki wezwań do zapłaty z tytułu naruszenia prawa autorskiego i zawarcia ugody zarówno do naruszycieli, jak i osób niewinnych. Copyright trolling często wiąże się też z zastraszaniem ludzi poprzez żądanie od nich pieniędzy pod groźbą wszczęcia postępowania sądowego w oparciu o rzekome naruszenie przez nich praw autorskich [5]. W 2014 roku pewna fotografka występowała z roszczeniami do bibliotek, które wykorzystały jej zdjęcia Czesława Miłosza bez oznaczenia autorstwa."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 864, "subject": "Manipulacja w mediach", "paragraphs": ["Manipulacja a propaganda i komunikowanie perswazyjne Manipulacja to działania polegające na dezinformacji i pomijaniu istotnych z punktu widzenia odbiorcy informacji, a często wręcz na przekłamaniach. Odbiorca nie zdaje sobie sprawy, że istnieją różnice pomiędzy przekazanym przez media a rzeczywistym obrazem sytuacji. Może je sobie uświadomić już po dokonaniu wyboru (np. po zakupie określonego produktu lub po głosowaniu na jakąś ideę lub człowieka). Manipulacji ulegamy najczęściej w sytuacji, gdy mamy do czynienia z sytuacją niejasną i brakuje nam wiedzy i doświadczeń do których moglibyśmy się odwołać [1].", "Jednym z rodzajów oddziaływania mediów na odbiorców jest wywarcie na jednostkę natychmiastowego i bezpośredniego wpływu, które ma sprawić, że podejmie ona działanie zgodne z intencją nadawcy – jest propaganda, czyli planowe, systematyczne i umyślne zabiegi, których celem jest uzyskanie reakcji lub wymuszenie zmian postaw czy opinii zgodnie z intencją propagandzisty [3]. Tak rozumiana propaganda jest techniką wpływania na obywateli, kierowania opinią publiczną i manipulowania odbiorcami treści propagandowych. Przekazy propagandowe spełniają różne funkcje: integracyjną, adaptacyjną, agitacyjną (porywają tłumy do podjęcia określonych aktywności), informacyjno-interpretacyjną oraz dezinformacyjną, do której można zaliczyć działania o charakterze manipulacji. Ten typ działań jest określany również jako czarna propaganda [4]. W takim rozumieniu manipulacja może stanowić jedno z narzędzi oddziaływania propagandy [1].", "Ze względu na stopień zafałszowania treści wyróżniamy:", "Perswazja lub komunikowanie perswazyjne to świadome i planowe wpływanie na postawy i zachowania odbiorców, wynikające z chęci wywołania zmian w ich poglądach, opiniach i postawach w kierunku zgodnym z intencjami nadawcy. Zasadniczą właściwością przekazów perswazyjnych jest takie odziaływanie na odbiorcę by nakłonić go do przyjęcia zmian i modyfikacji swoich postaw lub zachowań dobrowolnie bez stosowania przymusu, co wyklucza również posługiwanie się technikami manipulacyjnymi [1].", "Techniki manipulacji Do technik manipulatorskich zaliczamy zniekształcanie lub zafałszowanie informacji i przemilczanie czy nawet zatajanie źródła przekazu. Najczęściej takie działania są podejmowane ze względu na to, że media znajdują się w rękach jakiejś grupy, elity władzy, klas, która może wpływać na publikowane treści i posługiwać manipulacją by wywierać wpływ w określonym kierunku zgodnym z ich polityką lub ideologią. Drugim czynnikiem decydującym o pojawieniu się manipulacji jest zastosowanie w odniesieniu do przekazów masowych mechanizmów rynkowych. W rezultacie media dążą do maksymalizacji zysku kosztem obiektywnego prezentowania zdarzeń [5].", "Manipulacja w nowych mediach Rozwój funkcjonalności internetu sprawił, że w zasadzie każdy może być autorem i nadawcą informacji, która obiegnie cały świat. Sprzyja temu pojawianie się różnych platform internetowych umożliwiających publikowanie przekazów dotychczasowym odbiorcom treści medialnych. Spowodowało to znaczne zwiększenie się liczby dostępnych informacji i przyczyniło się też do wzrostu negatywnego zjawiska jakim są „fake news” (fałszywe informacje). Stanowią one jedną z technik manipulacji, które były znane znacznie wcześniej niż pojawił się internet [6]. Pierwsze „fake news” pojawiały się w tabloidowej prasie i z nią przez długi czas były łączone. W 1835 roku w „New York Sun” opisano nieistniejących ludzi–nietoperzy zamieszkujących księżyc. Najbardziej znanym historycznym przykładem tego rodzaju wiadomości była audycja radiowa wyemitowana w 1938 roku, w której zaprezentowano słuchowisko oparte na powieści Herberta Wellsa \"Wojna Światów\", opisującej marsjańską inwazję na ziemię. W belgijskiej telewizję publiczną RTBF i na żywo przekazano informację o secesji Flandrii i wyemitowano wywiady z belgijskimi politykami oraz zdjęcia uciekającej rodziny królewskiej [7].", "Źródło: EdMays, Samuel Woolley: The Reality Game, 18.01.2020 (dostęp: 03.12.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=0LYYxhkd8qY.", "Podział „fake news” ze względu na stopień nieprawdziwości informacji:", "Źródło: TEDEd, This one weird trick will help you spot clickbait: L. McGowan, J. Leek na TEDEd, 2019, 06.06 2019 (dostęp 30.11.2020). Dostępne w Youtube: https://www.youtube.com/watch?v=8IzfzoZsa-Q&ab_channel=TED-Ed.", "Fake news w Polsce – raport z badań Na co dzień Polacy czerpią informacje głównie z telewizji ( \\( 80\\% \\)), z mediów społecznościowych ( \\( 39\\% \\)), internetowych portali informacyjnych ( \\( 37\\% \\)), z radia ( \\( 29\\% \\)) i prasy ( \\( 24\\% \\)). \\( 80\\% \\) badanych zgadza się ze stwierdzeniem, że obecność wiadomości i informacji, które są nieprawdziwe lub zniekształcają rzeczywistość, stanowi problem w Polsce. Spośród osób, które miały styczność z pojęciem „fake news” zdecydowana większość zdefiniowała je jako nieprawdziwą informację ( \\( 77\\% \\)), \\( 14\\% \\) za manipulację, a dla \\( 6\\% \\) za żart. Wśród mediów wskazanych przez respondentów, jako główne źródła rozpowszechniające nieprawdziwe informacje znalazły się: telewizja ( \\( 59\\% \\)), media społecznościowe ( \\( 12\\% \\)) oraz portale informacyjne ( \\( 8\\% \\)). Według przebadanych fake newsy najczęściej dotyczyły takich tematów jak: polityka ( \\( 76\\% \\)), show-biznes ( \\( 39\\% \\)) oraz lifestyle ( \\( 24\\% \\)). Dla \\( 42\\% \\) uczestników badania główną przyczyną, dla której powstają fałszywe informacje jest chęć wpływania na opinie odbiorców [11]."], "definitions": [{"name": "Definicja 1: Manipulacja", "content": "Manipulacja to planowe i celowe działanie, którego autor wywiera wpływ na inną osobę w taki sposób, aby nie zdawała sobie ona sprawy z tego, że podlega jakimkolwiek oddziaływaniom, bądź by nie była świadoma siły lub konsekwencji tych oddziaływań [2]."}, {"name": "Definicja 2: Fake news", "content": "\n1. „Fake news” to artykuły, informacje, komunikaty, które celowo sfałszowano, tak by wprowadzały odbiorców w błąd. Definicja ta wyraźni odróżnia „fake news” od niezamierzonych błędów w przekazach, upowszechnianych plotek, teorii spiskowych, tendencyjnych, nierzetelnych i nieobiektywnych raportów, sprawozdań, fałszywych wypowiedzi polityków, które łatwo można zweryfikować oraz żartów i satyry.\n2. W szerszej perspektywie za „fake news” uznaje się również przeinaczenia, nadinterpretacje, informacje, które mają na celu wywołanie dezinformacji, dokonanie oszustwa, wprowadzenie odbiorców w błąd lub są żartem [7].\n\n"}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 865, "subject": "Algorytmizacja przestrzeni medialnej", "paragraphs": ["W pierwszej dekadzie XXI wieku wraz z postępującą cyfryzacją i digitalizacją badacze zajmujący się kulturą cyfrową jako pierwsi zwracali uwagę na rolę i znaczenie oprogramowania w różnorodnych procesach kulturowych, społecznych i ekonomicznych. Lawrence Lessig w książce „Code. Version 2.0” (2006) pisał wówczas, że to „kod stanowi prawo”, Lev Manovich w „Języku nowych mediów” (2001/2006) sformułował założenia dla nowej dyscypliny badawczej \"software studies\" (programoznawstwo), a Douglas Rushkoff przestrzegał w „Program or be programed” (2010) przed „byciem zaprogramowanym”. Pod koniec drugiej dekady XXI wieku jako jednostki i społeczeństwa doświadczamy coraz wyraźniej efektów tych zmian w postaci profilowania (komercyjnego, ale i politycznego) czy szerzenia się na masową skalę różnych form dezinformacji (nie tylko w postaci fake newsów, ale i teorii spiskowych).", "W społeczeństwie zdanetyzowanym (zob. Głęboka mediatyzacja ) coraz więcej aspektów naszego życia jest zapośredniczanych, regulowanych lub wzmacnianych przez niewidzialne technologie, oparte na algorytmicznym przetwarzaniu danych. Algorytmy nie mogą działać bez danych, natomiast dane funkcjonują w szerokim kontekście całego złożonego systemu społeczno-technologicznego, służącego ich generowaniu, nazywanego przez Roba Kitchina „asamblażem danych” (data assemblage) [1]. W sensie społecznym algorytm nie oznacza zaszyfrowanej procedury, która służy do rozwiązania problemu poprzez przekształcenie danych wejściowych w pożądane dane wyjściowe, lecz obejmuje szereg elementów (m.in.:", "Infrastruktura technologiczna służąca zbieraniu danych oraz kierowaniu na ich podstawie spersonalizowanych treści jest nazywana przez Anthony’ego Nadlera, Matthew Craina oraz Joan Donovan [2] Cyfrową Maszyną Wpływu (Digital Influence Machine). Składa się ona z szeregu technologii służących do:", "Cyfrowa Maszyna Wpływu funkcjonuje w ramach określonego „reżimu widzialności”, konceptualizowanego jako system władzy złożony z trzech wymiarów: architektonicznego (struktura, która to umożliwia), interakcyjnego (rodzaj interakcji, na jaką pozwala struktura) oraz politycznego (działania władzy, na które pozwala interakcja) [3]. Widzialność jest jednym z ważniejszych pojęć w naukach o komunikacji i mediach, a jako pole społeczne określa, w jaki sposób struktury relacji są widoczne, przypisuje również jednostkom i ich działaniom wewnętrznie relacyjne i ambiwalentne pozycje społeczne [4].", "W ten sposób działanie algorytmów podporządkowane jest określonym celom i ideologiom, ukrytym przed odbiorcami i opinią publiczną, co powoduje, że stanowią one rodzaj czarnej skrzynki, czyli narzędzia, którego działanie pozostaje nieznane (black box). Działają one według zdefiniowanych przez człowieka określonych reguł, które często są nieprzejrzyste lub których mogą nauczyć się w czasie rzeczywistym, na podstawie analizy konkretnych zachowań, postaw, wyborów i decyzji użytkowników, obarczonych – jak wiadomo – błędem stronniczości (algorithmic bias). Dlatego też tak istotne staje się badanie „odpowiedzialności algorytmicznej” (algorithmic accountability), czyli tego, w jaki sposób technologie obliczeniowe wpływają na demokrację, społeczeństwo i codzienne życie.", "Algorytmiczna widzialność w wymiarze architektonicznym rzutuje na sposób oraz rodzaj interakcji z dostępną treścią. Jeśli użytkownikowi pojawiają się treści, którymi jest zainteresowany, ponieważ wiążą się z jego światopoglądem lub odpowiadają preferencjom politycznym, będzie częściej podejmował interakcje z nimi. Również w ten sposób jest narzucana bądź podpowiadana przez technologię – oprogramowanie – określoną wizję świata (wartości, relacji społecznych), odzwierciedlającą bądź interesy jej twórców i innych aktorów społecznych, którzy czerpią wspólnie z nimi korzyści, bądź tych, którzy wykorzystują ją w tym celu. Nazwać ją można także „algorytmiczną ideologią”, która wynika z zaprogramowania systemu opartego na algorytmicznym przetwarzaniu danych, dokonującym ich weryfikacji według z góry określonych warunków, w taki sposób, aby osiągnąć określone korzyści.", "Powstanie algorytmicznych mediów, czyli platform i portali internetowych, które wyświetlają użytkownikowi treści w oparciu jego o aktywność było skutkiem z jednej strony nadmiaru informacji i treści w sieci, z drugiej – swobody konsumpcyjnej, jaką sieć umożliwiała. W ten sposób przemysł medialny chciał sobie poradzić z fragmentaryzacją widowni, która była efektem przejścia z modelu komunikacji masowej „jeden do wielu” na model komunikacji medialnej „wielu do wielu” (zob. Komunikowanie masowe i medialne – definicja i cechy ). Rozdrobnienie odbiorców mediów na różne grupy ze względu między innymi na gusta, zainteresowania i potrzeby okazało się na dłuższą metę wyzwaniem dla branży medialnej, która musiała zabiegać o uwagę użytkownika w dobie nadprodukcji treści. Dzięki zbieraniu różnorodnych danych o użytkownikach, a zwłaszcza ich zachowaniach w sieci, wyborach, gustach czy zainteresowaniach, można było niewielkim kosztem dostosowywać ofertę do ich preferencji.", "Jak wynika z badań [6], algorytmizacji treści towarzyszą różnego rodzaju obawy. Jednymi z częstszych w odniesieniu do konsumpcji newsów internetowych są: obawa przed stronniczością algorytmów i brakiem różnorodności punktów widzenia, lęk przed tym, że coś ważnego może nas omijać, a także obawa o własną prywatność.", "Źródło: Rosa-Luxemburg-Stiftung, How to hold algorithms accountable, 17.05.2017 (dostęp 23.11.2020). Dostępne w YouTube: https://youtu.be/4UHh6BUhLSI."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 869, "subject": "Widownia mediów – definicje, cechy, typy widowni", "paragraphs": ["Widownia (audytorium) to termin, który jest stosowany jako zbiorowa nazwa dla odbiorców przekazów i jest on również używany do określenia podmiotów odbierających komunikaty medialne. Jednak ma pewne specyficzne cechy odróżniające ją od tradycyjnej antycznej widowni teatralnej, z której się wywodzi. Widownia mediów masowych jest konstruktem teoretycznym, który nie może być obserwowany i poznawany wprost, a jedynie za pośrednictwem odpowiednio przygotowanej metodologii i aparatury badawczej, np. badania telemetryczne, sondażowe itp. [1]. W rezultacie widownia jako termin określający odbiorców mediów masowych jest problematyczny, gdy chcemy go zdefiniować. Przyjmując kryterium techniczne i organizacyjne określamy tym terminem odbiorców określonego rodzaju medium lub kanału i wówczas mówimy, np. o widowni telewizyjnej, radiowej lub TVN-u. Możemy też w oparciu o czas wydzielić widownię, np. dzienną, nocną albo aktywną w najwyższym paśmie oglądalności, a o treść przekazu widzów konkretnych gatunków medialnych. Widownię można też wyodrębnić ze względu na miejsce, np. w przypadku mediów lokalnych lub ludzi, gdy program jest adresowany do konkretnych kategorii odbiorców, np. wieczorynka dla dzieci itp. [2]. Różne rodzaje widowni można definiować inaczej, w zależności od przyjętych kryteriów. Jedną z propozycji jest typologia definicji widowni autorstwa Virginii Nightingale (2003) [3].", "Widownia (audytorium) a publiczność Pierwszym określeniem dla zbiorowości odbiorczych było określenie \"publiczność\". Został on wprowadzony w 1901 roku przez Gabriela Tarde, który tym terminem nazwał nowe formy zbiorowości społecznych odmienne od wcześniejszych zbiorowisk skupionych (np. tłum, czy widownia teatralna) [4]. Był to okres powstania i spopularyzowania się prasy, która pozwalała na utrzymywanie na wielką skalę kontaktów na odległość i umożliwiała tworzenie wokół pewnych tytułów prasowych zbiorowości odbiorców, którzy omawiali kwestie polityczne, społeczne i ekonomiczne. Czytelnicy gazet choć byli rozproszeni i fizycznie oddaleni to mieli poczucie łączącej ich więzi o charakterze duchowym, która sprawiała, że tworzyli grupę społeczną. Przy czym warunkiem koniecznym do zaistnienia tak rozumianej wspólnoty były wydarzenia, które stawały się przedmiotem dyskusji i wywoływały kontrowersje.", "Koncepcja ta narodziła się w końcu XIX wieku w pierwszej fazie umasowienia prasy i wciąż cechował ją pewien poziom elitarności. W tym okresie gazety nadal przyciągały specyficzny typ czytelnika, który był wyselekcjonowany i chciał utrzymać swą odrębność od odbiorców innych tytułów prasowych. Dalsze udoskonalenie druku oraz kolejne mass media – radio i telewizja spowodowały, że publiczność czytelnicza opisywana przez Tarde ulegała podziałom, a pod koniec XIX wieku świat książki i prasy stał się gałęziami przemysłu i służył milionom różnorodnych odbiorców. W tym okresie w miejsce publiczności pojawiło się audytorium (widownia), które nie wykształciło nigdy tak wyselekcjonowanej zbiorowości pod kątem społecznym lub psychicznym jak publiczność czytelnicza [1].", "Typologie widowni: a) Ze względu na zasięg wyróżniamy:", "b) Ze względu na czynniki sprzyjające powstaniu widowni: Czynniki społeczne:", "Czynniki zależne od medium:", "Zmieniające się sposoby postrzegania widowni Klasyczna widownia powstała około 2000 lat temu. Każde większe miasto w starożytnej Grecji i Rzymie miało amfiteatr lub arenę, gdzie odbywały się przedstawienia i przez wiele wieków rozwijała się ona obejmując kolejne miasta europejskie, budowano specjalne budynki i przestrzenie umożliwiające pokazy i publiczne występy oraz przedstawienia. Dopiero wynalezienie druku stworzyło warunki dla nowego rodzaju odbioru zbiorowego treści i spowodowało powstanie zbiorowości czytelniczej. W pewnym sensie ze względu na sam charakter czynności – jaką był odbiór przekazu miała ona charakter zbliżony do widowni spektakli teatralnych, wykładów, publicznych odczytów. Spowodowało to, że ten nowy rodzaj zbiorowości odbiorczej został również określony tym terminem. Jednak dla podkreślenia jego odmienności od tradycyjnej widowni nazwano ją widownią medialną [1].", "Kolejny etap rozpoczęło wynalezienie filmu i kinowej emisji, które spowodowało powstanie pierwszej widowni masowej. Pokaz filmowy zawsze był taki sam i dlatego zapewniał bardzo dużej ilości odbiorców identyczne przeżycie estetyczne i emocjonalne. Pozwoliło to na przekroczenie ograniczenia czasu i przestrzeni odbioru przekazu. Pokazało to, że media masowe mogły docierać do bardzo dużej liczby odbiorców, rozproszonych niemal po całym kraju, a nawet świecie. W odpowiedzi na ten fenomen Herbert Blumer (1939) stworzył ramy teoretyczne w ramach, których zdefiniował widownię medialną jako masę [2].", "W tym okresie powszechnie podzielano przekonanie, że społeczeństwo ma charakter masowy podobnie jak zbiorowości odbiorcze. Podkreślano, że społeczeństwo jest tworzone przez masy zatomizowanych izolowanych jednostek, które są uzależnione od siebie wzajemnie ale nie mają unifikujących je celi i wartości. W taki sposób definiowano też w tym okresie zbiorowości odbiorcze. Dość szybko jednak dostrzeżono, że w odniesieniu do przekazów medialnych trudno mówić o masowych widowniach, gdyż odbiór i korzystanie z mediów zawsze jest zapośredniczone przez otoczenie społeczne, podzielane wzory i wartości oraz nasze wcześniejsze doświadczenia i preferencje, co sprawia, że odbiór komunikatów masowych zawsze ma pewien rys indywidualny. To sprawiło że koncepcja widowni jako masy została zakwestionowana i zastąpiła ją koncepcja widowni jako rynku. Takie myślenie o odbiorcach przekazów medialnych nadal jest obecne pomimo dokonujących się przemian w mediach. Nawet sfragmentaryzowane zbiorowości odbiorców, które otrzymują przekazy odpowiadające ich potrzebom, są nadal definiowane, jako podmioty zależne w stosunku do nadawców, które adresują do nich ofertę w oparciu o badania indywidualne i profile socjoekonomiczne [6].", "Współczesne trendy Rozwój mediów masowych pokazał, że z jednej strony ewoluują one w kierunku stałego powiększania zbiorowości odbiorczych i wpisują się w trend globalizacji, z drugiej natomiast można zauważyć, że równolegle obserwujemy procesy odmasowienia i fragmentaryzacji mediów [5]. Nakładają się na to zjawiska, takie jak komercjalizacja internetu, rozwój technologii informatycznych. Powoduje to istotne zmiany jeśli chodzi o zbiorowości odbiorcze (więcej na ten temat w rozdziale Współczesne koncepcje widowni )."], "definitions": [{"name": "Definicja 1: Koncepcje widowni Virginii Nightingale", "content": "\nKoncepcje widowni Virginii Nightingale (2003)\n\nWidownia jako zgromadzeni ludzie: zbiór osób, które zwróciły uwagę na daną ofertę programową;\nWidownia jako zakładani adresaci: wyobrażona przez nadawcę grupa ludzi, do której dopasowuje on treść, inaczej widownia wpisana;\nWidownia jako wydarzenie: doświadczenie odbioru w pojedynkę lub w towarzystwie innych jako zdarzenie interakcyjne, będące częścią życia codziennego;\nWidownia jako przesłuchanie: doświadczenie publiczności uczestniczącej, kiedy stanowi ona część programu lub ma możliwość uczestniczenia w nim [3].\n"}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 866, "subject": "Współczesne koncepcje widowni", "paragraphs": ["Przemiany widowni w obrębie tradycyjnych technologii medialnych", "Od modelu biernych konsumentów treści do aktywnej widowni W ramach tradycyjnego przemysłu medialnego zbiorowości odbiorcze były traktowane najpierw jako masa, a potem jako konsumenci określonych produktów medialnych (zob. Widownia mediów – definicje, cechy, typy widowni ). Podejścia te podkreślały bierność widowni medialnych i nie uwzględniały jej twórczego potencjału oraz zdolności do kreowania znaczeń [2]. Zmienia to zaproponowany przez Francka Bioccę (1988) model aktywnej widowni, który autor stworzył analizując audytorium telewizyjne, można jednak szerzej odnieść go również do odbiorców innych mediów [3].", "Nowe media i ich widownia"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 870, "subject": "Fani mediów", "paragraphs": ["Wprowadzenie Przejawy uwielbienia zwykłych ludzi wobec realnych lub fikcyjnych postaci wyrażające się w emocjonalnych stanach lub podejmowanych wobec nich zachowaniach można było zaobserwować już w czasach starożytnych. Gladiatorzy wychodzący na arenę i wygrywający pojedynki zjednywali sobie nie tylko przychylność tego, który decydował o ich dalszym losie, ale również poklask i uwielbienie widzów. Z kolei pod koniec XIX wieku w Anglii i Stanach Zjednoczonych dało się zauważyć dosyć nietypowe zachowania młodych kobiet wobec aktorów i aktorek występujących w teatrze, zwłaszcza po zakończeniu spektaklu. Kobiety te, zwane \"matinee girls\" od pory, w której wystawiano przedstawienie (przez co ceny biletów były niższe), nie przychodziły de facto oglądać sztuki, lecz by nawiązać z aktorami lub aktorkami pozateatralne relacje. Po zakończeniu spektaklu potrafiły zaczaić się przy wyjściu dla aktorów na obiekt swoich westchnień, otwarcie wyrażając uwielbienie i pożądanie. O tym jak znaczące w kulturze anglosaskiej było to zjawisko, świadczy istniejący do dzisiaj w języku angielskim zwrot \"matinee idol\" (pol. bożyszcze kobiet). Matinee girls uważane były za jedną z pierwszych szeroko rozpoznawalnych klas konsumpcyjnych w historii Ameryki. Jednak dopiero wraz z upowszechnieniem kultury masowej i mediów fani zaczęli organizować się w społeczności i angażować w działania skoncentrowane na przedmiocie uwielbienia.", "Kim jest fan? Wyraz ten pochodzi o słowa „fanatyk”, oznaczającego pierwotnie osobę, która w obronie swoich poglądów (politycznych, religijnych itp.) skłonna jest posunąć się bardzo daleko, aby zdyskredytować kogoś, kto głosi zupełnie inne przekonania. Fanatykiem określa się również osobę, która jest czyimś zagorzałym wielbicielem. Negatywne nacechowanie słowa „fanatyk” przyczyniło się do tego, że przez długi czas fani byli postrzegani jako rozhisteryzowani i niezrównoważeni wielbiciele, choć stało się to tak naprawdę długo po tym, jak słowo to zafunkcjonowało w języku angielskim. W XIX w. wyraz „fan” odnosił się tylko do mężczyzn – wielbicieli sportu, o kobietach przejawiających zainteresowanie powieściami, pisarzami czy muzyką w taki sposób nie mówiono. Dopiero rozwój kinematografii na początku XX w. spowodował, że mężczyźni i kobiety w równym stopniu mogli wyrażać swoje uwielbienie do gwiazd srebrnego ekran, co przyczyniło się do rozwoju kultu celebrytów [1]. Popularność telewizyjnych gatunków – seriali – zapoczątkowała nowy rozdział w historii kultury fanów. Jednak dopiero na początku lat 90. XX w. grupy fanowskie stały się obiektem pogłębionych badań naukowych za sprawą prac amerykańskiego kulturoznawcy Henry’ego Jenkinsa, który jest uznawany za prekursora fan studies.", "Typologie fanów Jak już wspomniano, na początku fanów postrzegano jako osoby niezrównoważone psychicznie, bierne i całkowicie podporządkowane przemysłowi medialnemu i kulturze konsumpcji. Jolie Jenson w swoim eseju z 1992 roku o nieco prowokacyjnym tytule \"Fandom as Pathology\", dokonując przeglądu badań poświęconych kulturze fanowskiej, stwierdza: „istnieje niewiele literatury, w której bada się fandom jako normalne, codzienne zjawisko kulturowe lub społeczne. Zamiast tego, fan jest określany jako (przynajmniej potencjalnie) obsesyjny samotnik cierpiący z powodu izolacji lub oszalały członek tłumu. W obu przypadkach fan jest postrzegany jako osoba irracjonalna, porywcza i będąca ofiarą wielu sił zewnętrznych. Najczęściej przywołuje się wpływ mediów, narcystycznego społeczeństwa, hipnotycznej muzyki rockowej i tłumu, aby wyjaśnić, w jaki sposób fani stają się ofiarami swojego fandomu, a zatem działają w sposób dewiacyjny i destrukcyjny” [2].", "Zupełnie inne spojrzenie na kulturę fanów i grupy fanowskie przyniosła opublikowana w tym samym roku co esej Jenson (1992) książka wspomnianego już Henry’ego Jenkinsa zatytułowana \"Textual Poachers. Television Fans & Participatory Culture\", która zapewniła mu uznanie i autorytet w dziedzinie fan studies. W książce tej Jenkins traktuje fanów nie jak zwykłych konsumentów popkultury fanów, ale jak produktywnych konsumentów, których określa mianem „tekstowych kłusowników” (textual poachers), przeciwstawiając w ten sposób amatorską twórczość fanów, praktykom stosowanym przez producentów medialnych. W tym celu do opisu subkultur i praktyk fanowskich posługuje się kategorią „kłusownictwa” (poaching) zaczerpniętą z książki francuskiego historyka i myśliciela Michaela de Certeu „Wynaleźć codzienność”. Jenkins zauważa, że fani mediów, podobnie jak kłusownicy, w nie do końca legalny sposób działają na terytorium należącym do kogoś innego (przemysł medialny), dokonują różnych zabiegów na tekstach czy produktach, których nie są właścicielami i twórcami. W ten sposób, stają się twórcami nie tylko nowych tekstów, ale i nowych znaczeń nadawanych tekstom, z których czerpią, stając się krytykami kultury i wyrażając swój opór wobec kulturowej hierarchii. Początkowo Jenkins traktował zjawisko kultury fanów i działania przez nich podejmowane jako zarezerwowane do określonych subkultur, w późniejszych pracach (np. „Kulturze konwergencji” z 2006 roku) i pod wpływem krytyki (zob. Zaangażowanie a uczestnictwo ) podkreślał, że jest to cecha charakterystyczna dla współczesnej kultury, którą określał mianem „kultury konwergencji”.", "Ciekawe spojrzenie na fanów zaproponowali Nicholas Abercrombie i Brian Longhurst w książce „Audiences: A Sociological Theory of Performance and Imagination” wydanej w 1998 roku. Dokonali oni rozróżnienia fanów ze względu na trzy kategorie: korzystanie z mediów (dystrybucja i dostępność mediów), łączność (stopień zaangażowania w sieci/wspólnoty), oraz zainteresowanie, w ten sposób wyróżniając:", "Jak zauważa jednak Piotr Siuda [3], tego typu podział jest sztuczny, ponieważ tworzenie fanowskich tekstów nie musi jednocześnie oznaczać aktywnego zaangażowania na innych polach, np. udziału w zjazdach (tzw. konwentach), czy dyskusjach na forach. Mogą natomiast dowolnie wybierać sobie obszar własnego zaangażowania.", "Fani mogą działać w różnych obszarach związanych z tekstem lub produktem medialnym [4]: (1) indywidualnej lub zbiorowej, nierzadko powtarzanej recepcji dzieła bądź produktu medialnego (np. filmu, gry, serialu, książki, komiksu, programu telewizyjnego); (2) jego interpretacji i analizy; (3) zdobywania, kolekcjonowania, porządkowania, rozpowszechniania, wymiany wiedzy z nimi związanych (dyskusje na forach; (4) twórczości artystycznej inspirowanej nimi (np. fanfiki – fikcja literacka skoncentrowana na alternatywnych losach bohaterów lub ciągu dalszym tekstu; fanart – tworzenie obrazów, rysunków, komiksów; fanfilm – tworzenie filmów lub teledysków z wybranymi scenami; cosplay – tworzenie przebrań i strojów; fansub – tłumaczenie list dialogowych); (5) wytwarzania i podtrzymywania wokół nich społeczności złożonej z osób o takich samych upodobaniach i sposobie odbioru; (6) działań organizacyjnych i budowa infrastruktury na rzecz tej społeczności (fandom).", "Źródło: T7pro, DARTH MAUL: Apprentice - A Star Wars Fan-Film, 05.03.2016 (dostęp 05.12.2020). Dostępne w YouTube: https://youtu.be/Djo_91jN3Pk.", "Władza fanów Fani to jednak nie tylko twórczy i aktywni konsumenci kultury, ale również społeczność mająca duży wpływ na sam tekst lub produkt kultury, nierzadko wywierająca duży nacisk na producentów lub stacje telewizyjne. Jenkins przytacza wiele sytuacji, w których fani wywierali nacisk na producentów lub stacje telewizyjne. Opisuje między innymi sytuację z końca lat 60. XX w., kiedy jedna z pierwszych zorganizowanych grup fanowskich naciskała na staję NBC, aby przywróciła do ramówki serial „Star Trek”, którego emisję zakończyła w 1969 roku [5]. Obecnie za sprawą internetu i mediów społecznościowych fani z jednej strony mogą o wiele łatwiej wyrażać swoje niezadowolenie czy wywierać naciski, ale z drugiej strony mogą stanowić cenną wskazówkę dla producentów, w jakim kierunku rozwijać daną produkcję. Tak właśnie zrobił Peter Jackson, reżyser trylogii „Władcy pierścieni” (2001), który wraz z producentami z New Line Cinema postanowił od samego początku prowadzić dialog z fanami tej książki. Reżyser w kontakcie z fanami również przedstawiał się jako fan, zachęcając do dyskusji na temat scenariusza filmu, obsady, a także elementów z książki, które można pominąć. Tym samym zdobył sobie ich uznanie i zaufanie. Inną strategię przyjął George Lucas, który co prawda rozpoczął współpracę z fanami „Gwiezdnych wojen” (aktywnymi na polu własnych produkcji od pierwszej części wyreżyserowanej w 1977 roku), lecz narzucił im swoje warunki, co niejednokrotnie prowadziło to napięć między nim a fanami."], "definitions": [{"name": "Definicja 1: Fandom", "content": "zorganizowana społeczność fanów różnych tekstów kultury oraz oparta na więzi wspólnota praktyk społecznych i komunikacyjnych; przejawia się w kreatywnym i partycypacyjnym zaangażowaniu w proces konsumpcji tekstów kultury i otwartym ujawnianiu swojego uwielbienia dla nich lub ich bohaterów."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 867, "subject": "Od prosumentów do produserów", "paragraphs": ["Zalążki konsumpcjonizmu pojawiły się wraz z rozwojem przemysłu i uruchomieniem masowej produkcji towarów pod koniec XIX wieku. Firmy potrzebowały wówczas znaleźć odbiorców nabywających wytwarzane masowo przez nich dobra, których popyt symulowały reklamy. Przekształcanie się klientów w konsumentów następowało stopniowo i wiązało się z pojawieniem szeregu powiązanych ze sobą zjawisk, takich jak: coraz bardziej bezosobowy charakter relacji kupujący – sprzedający, samoobsługa (która pozwoliła obniżyć koszty sprzedaży), rynek reklamy oparty na quasi-personalnych relacjach między klientem a reklamowanym produktem czy markowe towary [1]. Na początku XX wieku zaszły również zmiany w firmach w zakresie zatrudnienia i świadczeń socjalnych, co podporządkowane zostało stymulowaniu konsumpcjonizmu stanowiącego ważny czynnik rozwoju kapitalistycznej gospodarki. Inicjatorem tych zmian w Stanach Zjednoczonych był Henry Ford, który jako pierwszy zaczął wprowadzać je w 1914 roku w swojej fabryce samochodów w Dearborn i który uchodzi za ojca idei masowego konsumpcjonizmu. Zgodnie z tą ideą pracownicy firmy byli jednocześnie potencjalnymi konsumentami wytwarzanych dóbr, w związku z czym wysokie płace umożliwiały im zakup towarów, a tym, których nie było na nie stać firmy pożyczkowe i banki oferowały zakup na raty lub kredyty. W społeczeństwie konsumpcyjnym konsument postrzegany był jako jednostka bierna, podporządkowana hedonistycznej potrzebie gromadzenia dóbr zaspokajających jej pragnienia czy stanowiąca narzędzie manipulacji w rękach kapitalistycznych producentów dóbr i towarów.", "Wraz z przemianami społeczno-gospodarczymi, jakie zaszły w II połowie XX wieku, konsumpcja stawała się coraz ważniejszym czynnikiem napędzającym rozwój gospodarczy w krajach rozwijających się. Producenci, aby pozyskać nowych klientów, postanowili zmienić swoje nastawienie do konsumentów i zaangażować ich w proces usług lub projektowanie produktów bądź modyfikowanie tych już istniejących zgodnie z ich potrzebami. W ten sposób firmy mogły też konkurować na rynku z innymi firmami nie tylko ceną, ale bardziej dopasowaną do potrzeb konsumentów ofertą towarów. Alvin Toffler, amerykański futurolog i zwolennik przemian społeczno-kulturowych stymulowanych przez wynalazki techniczne, nazwał to zjawisko w swojej książce „Trzecia fala” opublikowanej w 1980 roku prosumpcją. Zdaniem Tofflera, chociaż za sprawą prosumpcji producenci częściowo tylko tracili kontrolę nad swoim produktem, utrzymywali w ten sposób więź z konsumentami i pozyskiwali nowych. W rozumieniu Tofflera prosument był konsumentem typu „zrób to sam” (Do It Yourself), czyli wytwarzającym dobra, usługi i doświadczenia na użytek własny albo dla satysfakcji, a nie z przeznaczeniem do sprzedaży czy wymiany. W swoich późniejszych pracach Toffler rozszerzył prosumpcję na „niezapłaconą pracę, dzięki której wytwarza się wartość, którą dzielimy się z obcymi ludźmi na drugim końcu świata” [2].", "Jak zauważał Toffler, prosumpcja była już obecna w społeczeństwach przedindustrialnych, gdzie ludzie wytwarzali produkty w większości na własny użytek, a jedynie nadwyżki przeznaczali na sprzedaż. W społeczeństwie przemysłowym prosumpcja straciła na znaczeniu, ponieważ najważniejsza była produkcja masowa zorientowana na sprzedaż towaru na rynku. Dopiero za sprawą rozwoju technicznego pewne zadania wcześniej wykonywane przez ludzi dla innych w ramach świadczonych usług mogły zostać przejęte przez samych konsumentów, np. zastosowanie przez firmę American Telephone & Telegraph Company w 1956 roku automatycznej centralki telefonicznej pozwoliło samodzielnie dokonywać połączeń zamiejscowych bez konieczności łączenia się z telefonistką. Podobnie pojawienie się pierwszych przyrządów służących autodiagnozie własnego stanu zdrowia (np. przyrządu do pomiaru ciśnienia czy testu ciążowego w latach 70. XX w.) umożliwiło pacjentom przeprowadzanie drobnych zabiegów bez konieczności kontaktu z lekarzem. Tego typu prosumpcja jest obecnie bardzo rozpowszechniona dzięki jej zautomatyzowaniu, spotykamy ją m.in. w bankowości elektronicznej (samodzielna obsługa płatności czy możliwość skorzystania z produktów bankowych), usługach kurierskich (zamawianie kuriera, drukowanie etykiety, śledzenie przesyłek), czy przewozowych (zamawianie taksówki przez aplikację).", "Pod koniec lat 90. XX w. wraz z rozwojem internetu i powstaniem platform społecznościowych prosumpcja przybrała nieco inną formę – współpracy firm ze społecznościami konsumenckimi, która dzięki Web 2.0 stała się o wiele szybsza i łatwiejsza. Firmy zaczęły kierować do konsumentów oferty personalizowania kupowanych produktów. Przykładowo w 1998 roku firma LEGO wypuściła na rynek serię Mindstorms adresowaną początkowo do dzieci, dzięki której mogły one tworzyć prawdziwe roboty z programowalnych klocków. Seria została dobrze przyjęta również przez dorosłych, w związku z czym firma LEGO postanowiła na swojej stronie internetowej udostępnić kody programistyczne i w ten sposób umożliwić tworzenie konsumentom aplikacji do sterowania robotami z klocków. Tego typu nowa prosumpcja wykorzystuje wiedzę, doświadczenie i zaangażowanie konsumentów do ulepszania usługi lub produktu albo poszukiwania rozwiązań problemów. W ten sposób firma nie musi obawiać się, jak produkt zostanie przez nich przyjęty, ponieważ już na etapie jego tworzenia otrzymuje informację zwrotną, dzięki której może jeszcze bardziej dopasować swoją ofertę do potrzeb i oczekiwań konsumentów.", "Prosumpcja różni się jednak od innego, alternatywnego zjawiska, jakim jest produseryzm (produsage), które opisał australijski badacz Axel Bruns [3] 1. Zauważył on, że aktywni konsumenci mogą odgrywać istotną rolę w rozwijaniu i tworzeniu produktów bez kontroli i nadzoru ze strony firm. Innymi słowy, produser tworzy wspólnie z innymi członkami społeczności produkt, który nie ma charakteru komercyjnego i może być użytkowany bezpłatnie przez innych. Społeczności produserów mogły powstać dzięki rozwojowi internetu jako sieci komunikacyjnej. Bruns wyraźnie zdefiniował zasady, jakie powinny posiadać projekty, których celem jest wspólne tworzenie produktów: po pierwsze, należy zachęcać użytkowników, aby zechcieli stać się aktywnymi producentami i wnosić swoje doświadczenie i wiedzę w proces tworzenia; po drugie, struktura przywództwa ma charakter płynny i niezhierarchizowany oraz zależy od wkładu poszczególnych członków wspólnoty; po trzecie, praca nad produktem jest ciągłym procesem, którego celem jest wspólne ulepszanie produktu przez członków wspólnoty („wieczna wersja beta”); po czwarte, rozwój produktów opartych na produkcji z wykorzystaniem wspólnych zasobów wymaga przyjęcia nowych modeli własności intelektualnej – wytworzony produkt musi zostać formalnie uznany za wspólną własność społeczności zaangażowanej w jej tworzenie, przynajmniej w zakresie, w jakim jest to konieczne, aby umożliwić dalszy jego rozwój i weryfikację przez innych jego twórców w przyszłości. Jako przykład najpowszechniejszego działania o charakterze produserskim podaje się społeczność programistów open-source (np. Linuxa czy Firefoxa), którzy wspólnie pracują nad oprogramowaniem udostępnianym następnie za darmo, a także społeczność Wikipedii, która wspólnymi wysiłkami wytwarza nową wiedzę.", "Źródło: Jonathon Hutchinson, What motivates users to contribute to cultural production? Axel Bruns, 07.08.2017 (dostęp 20.09.2020). Dostępne w YouTube: https://youtu.be/LGKQnYyC77E.", "Jak podkreślają krytycy, prosumpcja choć wychodzi naprzeciw oczekiwaniom i potrzebom konsumentów oraz częściowo oddaje im władzę w zakresie współtworzenia produktu, jest w dalszym ciągu narzędziem władzy na konsumentem w świecie kapitalistycznym, zwłaszcza – kiedy tak jak w przypadku Web 2.0 – wytwarzane dobra nie mają charakteru komercyjnego towaru [4]. Prosumenci wykonują darmową pracę, za którą nie otrzymują wynagrodzenia, natomiast firmy czerpią z tego tytułu ogromne zyski lub – tak jak Facebook – opierają swój model biznesowy na treściach generowanych przez użytkowników portalu. Wyjaśnieniem fenomenu angażowania się konsumentów w darmową pracę na rzecz korporacji może być odwołanie się do korzyści symbolicznych oraz idei darmowego dostępu. Bez względu na rodzaj prosumpcji jej rozwój, jak słusznie przewidywał Toffler, wpłynął zasadniczo nie tylko na rynek i zmianę gospodarki (skoro konsument może pewne towary sam wyprodukować, to nie potrzebuje ich kupować), ale również na styl życia i sposób spędzania wolnego czasu (prosumpcja stała się częścią czasu wolnego)."], "definitions": [{"name": "Definicja 1: Prosumpcja", "content": "Pochodzi z połączenia słów „produkcja” i „konsumpcja”, oznacza proces polegający na wzajemnym przenikaniu się produkcji oraz konsumpcji (aż do granic całkowitego zatarcia się ich). Prosument jako nowy typ konsumenta może wytwarzać dobra czy usługi na własny użytek lub dla własnej satysfakcji, może również uczestniczyć aktywnie w procesie współtworzenia wraz z innymi konsumentami produktów na zlecenie i pod dyktando firm, może także wykonywać nieodpłatną pracę, wytwarzając wartość, którą dzieli się z innymi za darmo."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 868, "subject": "Zaangażowanie a uczestnictwo", "paragraphs": ["Wprowadzenie „Zaangażowanie” (engagement) i „uczestnictwo” (participation) to dwa kluczowe pojęcia często służące do opisywania relacji pomiędzy światem mediów cyfrowych a jego beneficjentami, czyli użytkownikami. Mogą wydawać się synonimiczne, jednak uczestnictwo należy traktować bardziej jako wspólnotową i społeczno-kulturową formę zaangażowania. Obie te aktywności należy rozpatrywać nie tylko w kontekście szerokich możliwości, jakie daje usieciowiona komunikacja, ale również w kontekście modelu biznesowego przemysłu nowomedialnego, dla którego stanowią one bezcenne źródło danych i informacji na temat rzeczywistej konsumpcji treści kulturowych oraz nawyków związanych z użytkowaniem nowych mediów i technologii, a także możliwości technologicznych.", "Zaangażowanie i jego cechy Badacze różnie definiowali zaangażowanie użytkowników mediów [1]. W czasach przedinternetowych zwracano uwagę, że zaangażowanie jest jednym z typów aktywności widowni świadczącej o zaabsorbowaniu bądź zafascynowaniu swoim doświadczeniem medialnym, manifestujące się nie tylko w określonych zachowaniach, ale również przejawiające w sposób niewidoczny bądź słabo widoczny dla innych jako aktywność umysłowa (poznawcza bądź emocjonalna). Natomiast współcześnie „zaangażowaniem” określa się „kolekcjonowanie doświadczeń” odbiorcy lub użytkownika w kontakcie z marką medialną, które może mieć charakter utylitarny (np. dostarczać porad, wskazówek, pomysłów), hedonistyczny (np. pozwala uciec od rutyny i zrelaksować się) lub społeczno-psychologiczny [2]. Zaangażowanie jest zatem przede wszystkim aktywnością umysłową, której konsekwencją jest podejmowanie określonych działań.", "Zdaniem Oh, Bellur i Sundara [3] zaangażowanie użytkowników mediów interaktywnych zależy od czterech czynników: a) oceny interfejsu (interface assessments); b) fizycznej interakcji (physical interaction), c) skupieniu na treści (absorption) oraz d) cyfrowego działania (digital outreach), czyli podejmowanych aktywności wobec treści, takich jak udostępnianie czy komentowanie. Badacze ci postrzegają zaangażowanie jako proces, rozpoczynający się od fazy fizycznej interakcji oraz fazy oceny interfejsu medium (działanie wzajemnie się warunkujące), po których następuje faza skupienie na treści/zawartości, zaś kończy faza cyfrowych działań na treści. Jeśli interfejs ma estetyczną oprawę graficzną oraz jest przyjazny dla użytkownika (czyli kieruje jego uwagą, uwzględniając sposób przetwarzania informacji przez mózg, pozwala mu znaleźć odpowiednie treści, eliminuje ryzyko powstawania błędów), bardziej sprzyja poznawczemu skupieniu na treści, a to z kolei wpływa na zachowanie podejmowane wobec niej, w tym jej społeczne rozpowszechnianie.", "Zaangażowanie może być wyzwalane zarówno przez określone techniczne cechy urządzenia – dobrze zaprojektowane interfejsy urządzenia, aplikacji, strony, portalu społecznościowego, umożliwiające na przykład personalizację użytkowania lub łatwe korzystanie, jak i zawartość mediów, czyli pojawiające się treści – czemu służy proces zwany projektowaniem zaangażowania (specjaliści od mediów społecznościowych prześcigają się w poradnikach mających zwiększyć zaangażowanie). Wiadomo na przykład, że treści silnie odwołujące się do emocji lub zgodne z naszymi przekonaniami będą angażowały nas bardziej, podobnie jak treści narracyjne czy udostępniane przez naocznego „świadka wydarzenia”. Zaangażowanie może wynikać także z dynamiki relacji sieciowej, czyli interakcji z innymi użytkownikami, jak to ma miejsce na przykład w mediach społecznościowych. Ważnym czynnikiem, pomijanym jednak w badaniach nad zaangażowaniem użytkowników mediów interaktywnych, jest postawa wobec technologii/mediów oraz poziom kompetencji medialnych, które wydają się w dużym stopniu determinować nie tylko samo zaangażowanie, ale również sposób wykorzystywania medium.", "Uczestnictwo jako praktyka społeczno-kulturowa Uczestnictwo ze względu na bardziej wspólnotowy i kulturowy charakter należy traktować jako odmienną formę zaangażowania. W taki sposób zresztą postrzega je Mark Deuze, dla którego jest ono jednym z trzech typów zaangażowania w kontakcie z nowymi mediami (obok remediacji i brikolażu) i jednym z głównych składników kultury cyfrowej, dzięki któremu użytkownicy stają się aktywnymi podmiotami w procesie tworzenia znaczeń, co umożliwia rekonstrukcję naszego życia nasyconego mediami ekranowymi, sieciowymi i cyfrowymi narzucającymi interpretację rzeczywistości [4]. Uczestnictwo nie sprowadza się jedynie do zaangażowania (poznawczego, emocjonalnego lub behawioralnego), ale jest swoistą praktyką kulturową, wymagającą bardziej aktywnej postawy niż samo uczestniczenie w kulturze, które może być bierne i konsumpcyjne albo aktywne i produktywne.", "Początkowo uczestnictwo w kulturze cyfrowej łączono z powstaniem niezależnych od mediów masowych głównego nurtu ośrodków medialnych – interaktywnych nowych mediów i technologii – dzięki którym użytkownicy mogli stawać się jednocześnie producentami i dystrybutorami tworzonych przez siebie treści oraz wymieniać ze sobą informacjami, dzielić wiedzą, współpracować, czy podejmować decyzje (zob. Fani mediów ). Na ważną rolę uczestnictwa w kulturze jako pierwszy zwrócił uwagę Henry Jenkins w książce \"Textual Poachers. Television Fans & Participatory Culture\" z 1992 roku, wprowadzając tam pojęcie „kultury uczestnictwa”, które odnosiło się na początku tylko do aktywności członków społeczności fanowskich, pozostających na marginesie głównego nurtu kultury. Takie ujęcie spotkało się z krytyką europejskich badaczy mediów, m.in. Mirko Tobiasa Schäfera czy Christiana Fuchsa, którzy zarzucali Jenkinsowi dosyć wąskie spojrzenie na uczestnictwo i brak uwzględnienia roli mediów w politycznych buntach, protestach i rewolucjach. Pod wpływem tej krytyki pojęcie ewoluowało i zaczęło się odnosić do wielu różnych grup, które wykorzystują produkcję i dystrybucję medialną w celu realizacji własnych wspólnotowych interesów.", "Zdaniem Danah Boyd pojęcie „kultura uczestnictwa” jest przykładem, jak funkcjonuje ono w obiegu niezgodnie z zamysłem jego twórcy, dlatego też Jenkins, Ito oraz Boyd [5] definiują je w nowych warunkach technologiczno-kulturowych, zwracając jednocześnie uwagę, że w dalszym ciągu jest to „proces w toku”. W związku z tym formułują pięć definiujących je cech:", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 871, "subject": "Historyczne koncepcje wpływu mediów", "paragraphs": ["Zmieniające się poglądy na temat siły oddziaływania mediów masowych", "Przekonanie o sile wpływu mediów masowych ulegało zmianom wraz z rozwojem badań nad efektami i skutkami odziaływania środków masowej komunikacji na odbiorców. Pozwala to wyodrębnić w historii rozwoju badań nad teorią oddziaływania mediów cztery zasadnicze fazy.", "Faza 1: Okres wszechpotężnych mediów Obejmuje okres od przełomu wieku XIX i XX do lat 30 XX wieku. Na tym etapie prasa, film i radio zyskały bardzo dużą popularność i stały się powszechnie obecne w życiu codziennym odbiorców. W tym okresie mediom przypisywano ogromną władzę w kształtowaniu opinii, postaw i zachowań widzów. To przekonanie wyrastało z doświadczeń związanych z działaniem mediów w sferze publicznej i politycznej, zwłaszcza ich dużej skuteczności w działaniach propagandowych w czasie pierwszej wojny i okresie międzywojennym, w tym podczas rewolucji w Rosji. Dowodów na bardzo silny wpływ mass mediów na społeczeństwo dostarczało bardzo popularne w tym czasie kino i radio [1].", "W tym okresie rozwinęła się teoria magicznego pocisku z ang. hypodermic needle mode, według której wpływ mediów masowych na jednostkę był bezpośredni i silny. W kontakcie ze środkami masowego przekazu odbiorcy byli pasywni, nastawieni na odbieranie komunikatów, a przekazy medialne wywoływały podobne efekty u wszystkich i wpływały na ich umysły oraz zachowanie w jednakowy sposób [3].", "Harold Lasswell (1902-1978), który jest traktowany jako główny przedstawiciel tego nurtu badań uważał, że społeczeństwo i jednostki mogą być skutecznie kontrolowane przez mniejszość poprzez propagandę, której nośnikiem są środki masowej komunikacji [4].", "Z tego okresu pochodzi też model wszechmocy propagandy autorstwa Serge Tchakhotina (1883-1973), który w oparciu o doświadczenia osobiste wynikające z propagandy hitlerowskich Niemiec uważał, że nadawca – propagandzista – kierując się własnymi motywacjami buduje przekazy, które wykorzystują naturalne ludzkie popędy i wywierają bardzo silny wpływ na odbiorców. Model ten działał na zasadzie bodziec–reakcja. Odbiorca skupiał się na informacjach i treściach przekazu i ulegał ich manipulacji, nie dostrzegając pośrednich implikacji przekazów [3].", "Faza 2: Ograniczonego wpływu mediów Okres ten trwał od lat 30. do lat 60. XX wieku. W latach trzydziestych XX wieku rozpoczął się drugi etap rozwoju koncepcji dotyczących siły oddziaływania mediów. Faza ta związana była z rozwojem badań naukowych, których celem było ustalenie na ile media masowe zdolne są do celowego wywoływania zmian w zachowaniach, postawach i przekonaniach odbiorców. Uzyskane wyniki podważały wcześniejsze założenia teoretyków [1].", "W tym okresie teoria osobistego wpływu (1955), której autorami byli Elihu Kat (1926) i Paul Lazarsfeld (1901-1976), podważyła koncepcję magicznego pocisku w odniesieniu do siły oddziaływania mediów i doprowadziła do stworzenia modelu dwustopniowego przepływu informacji i opinii [5].", "Modelu dwustopniowego przepływu informacji i opinii Katz i Lazarsfeld (1955) Na podstawie badań prowadzonych podczas wyborów prezydenckich w USA, doszli oni do wniosku, że treści, które są rozprzestrzeniane przez środki masowego przekazu nie zawsze bezpośrednio docierają do masowej publiczności, często są one zapośredniczone przez specyficzną kategorię odbiorców, których nazwali liderami opinii publicznej. Odgrywali oni istotną rolę w procesie komunikacji, gdyż mogli wpływać na postawy innych. Osłabiając lub wzmacniając przekazy medialne poprzez ich dalsze rozpowszechnianie i komentowanie lub pomijanie [3].", "Etap ten kończy opublikowanie przez Josepha Klappera książki pt. \"The Effects of Communication\" [6], w której pokazuje w oparciu o wyniki przeprowadzonych badań, że media masowe nie wpływają w sposób bezpośredni na jednostkę zmieniając jej opinie i zachowania, a jedynie wzmacniają predyspozycje i utrwalają już istniejące opinie i przekonania. Stało się to podstawą do zbudowania teorii wieloetapowego wpływu [4].", "Teoria wieloetapowego przepływu Klapper (1960) Media stanowią tylko jeden z czynników wpływających na postawy i zachowanie jednostki. Ich wpływ nie jest dominujący, ponieważ jednostka pozostaje jednocześnie w kręgu oddziaływania grup pierwotnych i wtórnych, w których uczestniczy, m.in. grupy rówieśniczej, rodziny, grup wyznaniowych, które ją kształtują. W takim ujęciu media jedynie wzmacniają już istniejące skłonności, np. zachowania agresywne. Mass media mogą stymulować agresję, ale tylko w sytuacji, gdy inne czynniki, takie jak: niepowodzenia szkolne i osobiste w relacjach społecznych, sytuacja w rodzinie itp. będą ją wywoływały [7].", "Na tym etapie uznano, że nie ma bezpośredniego powiązania pomiędzy przekazami medialnymi a reakcjami publiczności. Wpływ mediów jest osłabiony przez zróżnicowanie psychologiczne i socjo-demograficzne odbiorców, które w znaczący sposób kształtuje to jak odbierają oni przekazy medialne. Dodatkowo ludzie żyjąc w otoczeniu społecznym, są przez nie kształtowani i to też wzmacnia lub osłabia siłę niektórych komunikatów masowych. W miarę przeprowadzania coraz większej liczby badań nad efektami medialnymi w tym okresie ustalono, że efekty medialne nie były tak silne, jak początkowo sądzono. Okazało się, że recepcja przekazów medialnych była wysoce selektywna, a interpretacja treści mogła być całkiem odmienna u różnych osób, co sprawiało, że każdy przekaz miał ograniczony wpływ na odbiorców [4].", "Faza 3: Okres ponownego odkrycia wszechmocy mediów", "Pojawienie się telewizji w latach 50. i 60. XX wieku przyniosło powrót do koncepcji potężnych środków masowego przekazu. Prowadzone w tym okresie badania koncentrowały się na ukazywaniu długoterminowych efektów wpływu mediów, co pozwoliło im podważyć mit braku efektów i ograniczonego wpływu mediów ukształtowany na wcześniejszym etapie. Przekonanie o słabym oddziaływaniu mediów pozostawało w opozycji do powszechnych doświadczeń, które wskazywały, że media mają wpływ na odbiorców i mogą zmieniać ich opinie oraz zachowania. Zmusiło to badaczy do ponownej rewizji poglądów na temat efektów działania środków masowej komunikacji i doprowadziło do wniosków, które wskazywały, że media mają istotny wpływ na społeczeństwo, jednak nie należy skupiać się na efektach krótkotrwałego wpływu na jednostkę, np. w okresie wyborów, ale analizować długofalowe zmiany we wzorach kulturowych, ideologiach, motywacjach itp. dokonujące się pod wpływem mediów masowych [3].", "Istotną postacią tego etapu była Elizabeth Noelle-Neumann (1916-2010), autorka teorii spirali milczenia, która lansowała hasło powrotu do silnych mediów, a jej badania pozwoliły na nowo odkryć siłę środków masowego przekazu” [4] (zob. Spirala milczenia ).", "Faza 4: Negocjowany wpływ mediów", "Rozpoczyna się w latach 90. XX wieku. Ta faza oznacza powrót do ograniczonych efektów wpływu mediów [1]. W tym czasie popularność zdobyło nowe podejście do badania skutków wpływu mediów, które wyrastało z założeń konstruktywizmu społecznego. Badania nad efektami odziaływania mediów koncentrowały się na tym, co robią media w zakresie tworzenia definicji i konstruowania znaczeń społecznych, które dzięki rozpowszechnianiu przez media masowe docierały do dużej liczby odbiorców, którzy na drodze negocjacji włączali je lub nie do swoich struktur poznawczych [3]. W tym podejściu istotną rolę odgrywały zarówno media konstruujące rzeczywistość, jak i publiczność decydująca, czy je przyjąć i zaakceptować światopogląd mediów, czy też nie [4]. Na tym etapie mieliśmy więc do czynienia ze swoistą równowagą jeśli chodzi o rolę i znaczenie w procesie komunikacji: mediów i ich odbiorców. Ujęcie to dostrzegało bowiem zarówno siłę środków komunikowania masowego, jak i odbiorców na płaszczyźnie negocjacji znaczeń, w ramach których przyjmowane są lub odrzucane przekazy i to co wnoszą [3].", "Inne podejścia do teorii efektów mediów Alternatywne modele teorii efektów medialnych odchodziły od zaprezentowanego modelu czterofazowego (por. [4]):"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 872, "subject": "Poziomy i rodzaje oddziaływania mediów", "paragraphs": ["Skutki oddziaływania mediów", "Charakter zmian wywoływanych przez media: Media mogą:", "Każdy z tych skutków może występować na poziomie jednostkowym lub społecznym, instytucjonalnym, kulturowym [4]. Siła mediów i ich oddziaływanie może zmieniać się w czasie, w okresach kryzysów, niepokojów media działają silniej, a ich wpływ na odbiorców jest większy [1].", "Krótkotrwałe skutki mediów [4]: Obok efektów o charakterze indywidualnym media mogą też oddziaływać w sposób:", "Długotrwale skutki mediów [4]:", "Oddziaływanie mediów Dotychczasowe analizy dotyczące wpływu mediów pokazują, że media oddziaływują na jednostki i społeczeństwo oraz na kulturę. Jednak ludzie mają skłonność do przekonania, że inni są pod większym wpływem przekazów medialnych niż oni sami i działają w oparciu o takie spostrzeżenia. Te „inne” osoby uważają dokładnie tak samo. Ten paradoks efektów medialnych stał się znany, jako efekt trzeciej osoby [5]. Wywoływane przez media zmiany były wyjaśniane na różne sposoby uwzględniające złożoność rzeczywistości społecznej, wzajemne oddziaływanie mediów oraz motywacje i potrzeby odbiorców.", "Teoria akumulacji minimalnych efektów mediów Media przez dłuższy czas zajmują się jakimś tematem. Pojawia się on w różnych środkach masowej komunikacji, a przekazy potwierdzają się wzajemnie w ujmowaniu tematu. Ludzie przyjmują interpretacje płynące z mediów i pod ich wpływem zaczynają formować lub zmieniać dotychczasowe postawy, opinie, zachowania. Dzięki akumulacji tych jednostkowych zmian dochodzi do wyłonienia się nowych norm wartości lub wzorów [1].", "Teoria zależności medialnej Dotychczasowe badania nad mediami nie dały jednoznacznej odpowiedzi na temat skuteczności wpływu mediów, pozwoliły jednak dostrzec, że ten wpływ nie zawsze jest bezpośredni, a efekty odziaływania mediów mogą wpływać pośrednio i modyfikować zachowania i poglądy ludzi. Stanowi to punkt wyjścia dla teorii zależności medialnej. Zgodnie z jej założeniami we współczesnych społeczeństwach ludzie są uzależnieni od mass mediów, gdyż potrzebują informacji, bez których trudno dziś żyć. We wszystkich społeczeństwach informacje były potrzebne ludziom do tego by mogli podejmować różnego rodzaju decyzje istotne z punktu widzenia ich funkcjonowania biologicznego i społecznego. W tradycyjnych społeczeństwach jednak mogli oni czerpać informacje od osób im znanych osobiście. W nowoczesnych i ponowoczesnych społeczeństwach tą rolę przejęły media, które zaczęły być źródłem informacji na tematy umożliwiające codzienne życie i podejmowanie decyzji. W rezultacie ludzie dziś ze środków masowego przekazu czerpią informacje, rozrywkę, rady, wzory itp. [1].", "Teoria egzemplifikacji Teoria egzemplifikacji dowodzi, że gromadzenie informacji i budowanie w oparciu o niej wiedzy jest bardziej użyteczne dla podejmowania decyzji, niż opieranie się na wiedzy pochodzącej z pojedynczego abstrakcyjnego zdarzenia – zwłaszcza, że istotne wydarzenia zapadają w pamięć jednostek lepiej niż te nieistotne. Ludzie gromadzili i kategoryzowali informacje niezbędne do podejmowania określonych działań (w tej koncepcji są one określane wzorami), np. zapewniających przetrwanie właściwie od tysiącleci. Początkowo w historii człowieka musiała wystarczyć w tym celu mowa, jednak jak tylko wykształciło się pismo, zostało ono wykorzystane w tym celu. Kolejno pojawiające się w rozwoju cywilizacyjnym media masowe pozwalały na zbieranie, przetwarzanie i udostępnianie ważnych z punktu widzenia człowieka lub społeczności wzorów. Sprawia to, że konieczne jest dokonanie ich klasyfikacji aby ocenić ich znaczenie. Taką rolę pełnią środki masowego przekazu, które pozwalają na przedstawienie różnych wzorów i umożliwiają porównanie ich między sobą i zbudowanie klasyfikacji. W rezultacie ludzie często opierają swoją ocenę rzeczywistości społecznej na wzorcach doniesieniach mediów [6].", "Teoria modelowania Teoria modelowania ma swoje źródło w psychologii uczenia się. Zakłada ona, że jednostka identyfikuje się z osobą – modelem prezentowaną w mediach i chce być do niej podobna. Dlatego naśladuje zapamiętane zachowania, poglądy, działania modelu w innych sytuacjach. Przynosi to jej nagrodę w postaci pozytywnego wzmocnienia [1]. Teoria modelowania, może przyczyniać się do zaistnienia „efektu Wertera”. To znaczący wzrost samobójstw spowodowany nagłośnieniem w mediach samobójstwa znanej osoby. Informacje o samobójstwach oraz ich opisy zamieszczane w mediach mogą spowodować naśladownictwo, tych dla . Nazwa pochodzi od tytułowego bohatera powieści Johanna Wolfganga von Goethego „Cierpienia młodego Wertera”, który popełnił samobójstwo. W jego ślady poszło wiele osób, które w swoisty sposób identyfikowały się z tym bohaterem. Wpływ mediów jest w tym wypadku tak duży, że WHO opublikowało w 2003 roku wskazówki dla dziennikarzy, jak pisać o samobójstwach [7].", "Teoria oczekiwań społecznych Treści medialne portretują różne grupy społeczne, tworząc w mediach ich reprezentacje. Jednostki poznają za pośrednictwem środków masowego komunikowania te obrazy, które często są uproszczone, lub w jakiś sposób nieprawdziwe i w oparciu o nie budują oczekiwania dotyczące określonych wzorów zachowania wśród osób z tych grup [8]. Podobny charakter ma teoria stereotypów, zgodnie z którą media portretują różne kategorie ludzi, np. osoby starsze, kobiety, osoby z niepełnosprawnością. Zwykle są one w bardzo podobny sposób ukazywane w różnych mediach. W związku z tym członkowie widowni medialnej zapamiętują stereotypowe reprezentacje, które są uproszczone i zwykle negatywne. W oparciu o nie budują swoje postrzeganie tych kategorii społecznych, niezależnie od ich cech jednostkowych [1].", "Teoria kultywacji Oglądanie telewizji, sprzyja stopniowemu kształtowaniu i umacnianiu się wśród odbiorców przekonania, że świat społeczny jest zgodny ze stereotypowym, zniekształconym i wybiórczym obrazem rzeczywistości ukazywanym w programach telewizyjnych. Na uznanie rzeczywistości medialnej za rzeczywistą wpływają wzory korzystania z mediów, a zwłaszcza intensywność używania ich. Im dłużej ktoś ogląda telewizję tym mocniej jego wyobrażenia o społeczeństwie stanowią odbicie świata przedstawionego w telewizji [9]. Odbiorcy oglądają takie same przekazy co prowadzi do społecznego efektu homogenizacji określanego jako „mainstreaming”. Efekt kultywacji dotyczy na przykład dużej ilości przemocy w telewizji, co przekonuje jej odbiorców że świat jest miejscem bardziej brutalnym niż jest w rzeczywistości [10]."], "definitions": [{"name": "Definicja 1: Skutki oddziaływania mediów", "content": "Skutki oddziaływania mediów to konsekwencje działania mediów zarówno zamierzone jak i niezamierzone. O skutecznym działaniu mediów mówimy jednak tylko wtedy gdy mamy do czynienia z planowanym i kontrolowanym wpływem na społeczeństwo pozwalającym wywołać planowany efekt. W takim rozumieniu skuteczność mediów będzie oznaczała ich zdolność do osiągania założonego przez nadawcę celu [1]. Media mogą również wywierać wpływ, którego skutki są nieprzewidywalne i trudne do kontrolowania. Pomimo, że wywołane skutki są niezamierzone to media odegrały istotną rolę w ich wywołaniu. Taki charakter mają nawarstwiające się w mediach informacje np. o przypadkach zachorowań mogą doprowadzić do wzbudzenia niepokoju i lęku i w pewnych sytuacjach może to wywołać panikę skutkujacą niepożądanymi społecznie działaniami [2]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 873, "subject": "Teoria użytkowania i korzyści", "paragraphs": ["W pierwszym okresie badań nad komunikowaniem, prowadzonych w amerykańskich ośrodkach naukowych w latach 20. i 30 XX., koncentrowano się głównie na wpływie mediów na odbiorców (wówczas filmów propagandowych) i ich biernej postawie wobec komunikatów medialnych. Dopiero w kolejnej dekadzie problematyka słuchacza, jego nastawienie wobec różnych treści medialnych oraz ich wybór, a także korzyści z tego wynikające zainteresowały nielicznych badaczy, w tym pochodzącą z Austrii Hertę Herzog [1], której opiekunem pracy doktorskiej był Paul Lazarsfeld profesor Columbia University. Prowadzone przez Herzog nietekstocentryczne badania zapoczątkowały nowe podejście zwane teorią użytkowania i korzyści, które w kolejnych dekadach miało coraz więcej zwolenników i zyskało status teorii naukowej.", "W procesie kształtowania się założeń teorii użytkowania i korzyści (tłumaczona na polski również jako „korzyści i satysfakcji”, „korzystania i gratyfikacji”, „użytkowania i gratyfikacji”) można wyróżnić kilka faz rozwoju badań [2]:", "Faza pierwsza – opisu – to empiryczne badania nad znaczeniem treści medialnych w życiu słuchaczy radiowych i korzyściami, jakie odnoszą z tego powodu, a także sfomułowanie wstępnych założeń dotyczących tego podejścia, w tym scharakteryzowanie motywacji słuchaczy. Pionierskie na tym polu były badania Herty Herzog nad odbiorem popularnych w tamtym czasie programów radiowych, m.in. „oper mydlanych” czy „teleturniejów”. Analiza wywiadów przeprowadzonych wśród 100 kobiet z Nowego Jorku (większość stanowiły gospodynie domowe), słuchających różnych programów w radiu [1], pozwoliła wyróżnić trzy grupy korzyści: uwolnienie emocji (płacz, podekscytowanie, ulga, że inni mają podobne kłopoty); przemodelowanie własnego niesatysfakcjonującego życia (np. kompensowanie własnych niepowodzeń, fantazjowanie o byciu kimś innym); otrzymanie wskazówek, jak rozwiązań problemy życiowe. W podsumowaniu badania Herzog zwróciła uwagę na edukacyjną funkcję mediów: „(…) historie radiowe stały się integralną częścią życia wielu słuchaczy. Są nie tylko skutecznym środkiem powodującymi chwilowe uwolnienie emocji lub ucieczkę od nielubianej rzeczywistości. Wielu słuchaczom wydaje się, że stały się dla nich wzorem rzeczywistości, dzięki któremu można nauczyć się myślenia i działania w świecie realnym. W związku z tym programy radiowe muszą być tworzone nie tylko z myślą o ich walorach rozrywkowych, ale także ze świadomością wielkiej odpowiedzialności społecznej, jaka na nich spoczywa” [3].", "W fazie drugiej – operacjonalizacji – nastąpiła weryfikacja wcześniejszych założeń oraz doprecyzowanie kluczowych pojęć dla tego podejścia. Duże zasługi na tym polu miał amerykański badacz Elihu Katz, współpracownik Paula Lazarsfelda, który w artykule \"Mass Communications Research and the Study of Popular Culture: An Editorial Note on a Possible Future for This Journal\" opublikowanym w \"Studies in Public Communication\" w 1959 roku sformułował najważniejsze założenia podejścia. To właśnie w nim Katz w lapidarny sposób ujął główną ideę, że ważniejsze od badania tego, co media robią z ludźmi, jest zajmowanie się tym, co ludzie robią z mediami. W ten sposób Katz zwrócił uwagę na ważną rolę czynników psychologiczno-społecznych, takich jak wartości, zainteresowania czy role społeczne, które powodują, że ludzi selektywnie wybierają treści medialne w zależności od tego, co jest dla nich ważne.", "Kolejna faza badań nad teorią użytkowania i korzyści to faza wyjaśnień, w której tworzono zręby teorii oraz badano motywacje i potrzeby odbiorców mediów masowych, a także spodziewane i rzeczywiste korzyści i efekty tego odbioru. W tej fazie badacze sformułowali podstawowe założenia teorii oraz zaproponowali typologie potrzeb, które mogą być zaspokajane przez wybór mediów (np. typologia Blumlera, McQuaila i Browna). Według Katza, Blumlera i Gurevitcha [4] potrzeby mają źródła społeczne i psychologiczne; rodzą one określone oczekiwania pod adresem mediów masowych lub innego rodzaju przekazów; to prowadzi do poszukiwania kontaktu z określonymi mediami lub przekazami albo angażowania się w inne czynności związane z nimi, w wyniku których dochodzi do zaspokojenia potrzeb lub innych konsekwencji.", "Na przełomie lat 70. i 80. XX w. badania nad teorią użytkowania i korzyści weszły w ostatnią, zasadniczą fazę konstruowania i weryfikowania teorii , w której naukowcy w sposób bardziej usystematyzowany i zgodny z metodologicznymi założeniami wypracowanymi we wcześniejszych latach prowadzili badania nad potrzebami użytkowników i korzyściami z ekspozycji na określone treści medialne. W latach późniejszych wraz z ewolucją mediów i pojawianiem się nowych środków technicznych służących do komunikowania teoria użytkowania i korzyści znajdowała swoje dalsze zastosowanie, na przykład Garrett O’Keefe i Barbara Sulanowski [5] w odniesieniu do korzyści wynikających z używania telefonów wskazali na takie, jak: zarządzenie czasem, dostępność, rozrywka i towarzyskość. Badacze, porównując korzyści korzystania z telefonu i mediów masowych, zauważyli między innymi, że poszukiwanie rozrywki było jednym z najczęstszych motywów w obu przypadkach.", "Źródło: Oxford Internet Institute, University of Oxford, Media Uses and Gratifications: Some Features of the Approach / J. Blumler, 13.08.2015 (dostęp 21.09.2020). Dostępne w YouTube: https://youtu.be/LIy4J_4LRmM.", "Założenia teorii użytkowania i korzyści zaczęto również aplikować do nowego środowiska medialnego, związanego z korzystaniem z internetu, w tym mediów społecznościowych. Paul Haridakis i Garry Hanson [6] zbadali potrzeby użytkowników portalu YouTube, do których zaliczyli: społeczną interakcję, ucieczkę, bycie użytecznym dla kogoś, współoglądanie, łatwe poszukiwanie informacji, rozrywkę w zasięgu ręki. Z kolei Adam Joinson [7] wyróżnił takie potrzeby użytkowników Facebooka, jak: więź społeczna, ucieczka, tworzenie treści, rozrywka, gromadzenie informacji i dzielenie się nimi oraz dzielenie się własną tożsamością i zdjęciami.", "Sundar i Limperos [8] zauważyli, że w kontakcie z medialnymi technologiami cyfrowymi korzyści dla użytkownika mogą nie wynikać z wrodzonych potrzeb, ale być kształtowane przez różne afordancje technologii cyfrowej, takie jak: modalność (sposób prezentacji) (modality), sprawczość (agency), interaktywność (interactivity) czy łatwość nawigacji (navigability). Badaczce zaproponowali autorski Model MAIN (akronim od angielskich nazw afordancji), który zakłada, że afordancje dostarczają użytkownikom pewnych wskazówek, które z kolei uruchamiają określone heurystyki poznawcze (uproszczone reguły wnioskowania) odnoszące się do cech konsumowanych treści. Wskazówki mogą mieć formę określonej afordancji w interfejsie (np. funkcja czatu) lub miar/wskaźników (np. liczba znajomych na Facebooku). Innymi słowy, afordancje nowych mediów i technologii mogą kreować potrzeby gratyfikacji, których zaspokojenie staje się możliwe dzięki korzystaniu z tych mediów i technologii. Dlatego też nowe media charakteryzują się nowymi funkcjonalnościami, oddziałując na „proces korzyści”, oraz określają „gratyfikacje treści”, wpływając na charakter treści, do których uzyskuje się dostęp, dyskutuje o nich czy tworzy podczas interakcji z innymi użytkownikami [9]. Ponadto afordancje, takie jak sprawczość czy interaktywność kreują nowe potrzeby, które użytkownicy chcą zaspokoić w kontakcie z nowymi technologiami. Dlatego też Sundar i Limperos proponują nową typologię korzyści z nowych technologii medialnych dla użytkownika:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 875, "subject": "Spirala milczenia", "paragraphs": ["Wprowadzenie Ludzie funkcjonują w ramach licznych sieci społecznych, których elementem są media i realizowane przez nie debaty publiczne, składające się na szeroko rozumianą opinię publiczną, stanowiącą z kolei źródło wiedzy i przekonań. W ten sposób media wpływają na społeczeństwo czy politykę, co dla niektórych badaczy jest podstawą do określania ich mianem czwartej – a wobec rozwoju internetu i wirtualnych społeczności także piątej – władzy, która w teorii powinna kontrolować działania pozostałych organów władz ustawodawczej, wykonawczej oraz sądowniczej [1]. Niestety potencjał mediów do szerokiego oddziaływania niesie za sobą także możliwie negatywne skutki, a jednym z nich jest zjawisko spirali milczenia.", "Mechanizm działania spirali milczenia", "Negatywne konsekwencje spirali milczenia Spirala milczenia wywołuje szereg negatywnych zjawisk – zarówno dla debaty publicznej, jak i jakości życia publicznego czy decyzji politycznych. Wspomnieć należy o ograniczaniu przyjmowanych perspektyw oraz różnorodności opinii, co ma kluczowe znaczenie w nowoczesnych demokracjach – wrażliwych na procesy polaryzacji opinii, dezinformacji czy realizowanej na szeroką skalę manipulacji. Podążanie na popularnymi opiniami ma też wpływ na procesy polityczne, co Noelle-Neumann opisała na przykładzie niemieckich wyborów federalnych z 1965 roku, w których zwycięstwo było pochodną publikacji sprzyjających prognoz dla jednej z rywalizujących stron, co w dniu wyborów wywołało efekt konformizmu i sprawiło, że większa część wyborów skierowała się w kierunku oczekiwanych na podstawie sondaży zwycięzców [2]. Jednocześnie ujawnił się tu problem rozbieżności sondaży z wynikami wyborów. W tym kontekście warto też wspomnieć o efekcie kuli śnieżnej, wzmacniającym opisywane tu procesy, który odnieść można to sytuacji, w której kolejne jednostki – najczęściej nieświadome lub słabo zorientowane – poddają się wpływowi spirali milczenia i niejako potwierdzają wiodące poglądy poprzez ich przyjęcie i dalsze propagowanie. Jednocześnie ludzie wyznający mniejszościowe poglądy mogą rezygnować z publicznego ich wygłaszania, co zamyka ich w swoistej sferze ciszy. Co więcej, media poprzez realizację przyjętej agendy mogą wpływać na nastroje społeczne, wytwarzając swoisty klimat wokół danego tematu. W ten sposób przestają one jedynie opisywać wydarzania czy kontrolować przedstawicieli władz, a włączają się w proces kreowania rzeczywistości oraz poglądów obywateli.", "Zjawisko spirali milczenia do pewnego stopnia przypomina inny fenomen określany mianem społecznego efektu słuszności, który zdaniem psychologa Roberto Cialdiniego stanowi jedną z siedmiu – ważnych szczególnie w komunikacji marketingowej – zasad wywierania wpływu."], "definitions": [{"name": "Definicja 1: Spirala milczenia", "content": "Hipotezę spirali milczenia sformułowała Elisabeth Noelle-Neumann (1916-2010) – niemiecka politolog, publicystka i założycielka Instytutu Demoskopii w Allensbach, będącego cenionym ośrodkiem badania opinii publicznej. W myśl tej koncepcji ludzie chętniej podążają za opiniami, które sprawiają wrażenie dominujących, nawet jeśli nie mają one pokrycia w rzeczywistości. W efekcie indywidualne opinie ulegają unifikacji, zbliżając się do przekonań, które mają pokrycie w szerokich narracjach medialnych. Jednocześnie brak poparcia w opinii publicznej prowadzi do milczenia. Ten mechanizm zależności – wzmacniania popularnych opinii przy jednoczesnym wyciszaniu tych zyskujących słabszą medialną recepcję – przypomina efekt spirali, stąd nazwa dla opisywanego efektu. Ludzie czując, że ich przekonania nie odpowiadają przekonaniom postrzeganej większości, zaczynają odczuwać presję konieczności dostosowania (przyjęcia postawy konformistycznej) w obawie przed społeczną izolacją, a w konsekwencji marginalizacją."}, {"name": "Definicja 2: Społeczny efekt słuszności", "content": "Społeczny dowód słuszności kształtuje zachowania ludzi szczególnie w sytuacjach, gdy brakuje im przekonania o właściwej normie postępowania czy przy braku jednoznacznej oceny danego zjawiska. W takich przypadkach podejmowanie decyzji może opierać się na uproszczonym rozumowaniu, wedle którego słuszne jest to, co czuje lub myśli większość osób z otoczenia danej jednostki [3]. Źródłem wiedzy o przekonaniach innych mogą być nie tylko bezpośrednie relacje interpersonalne, ale także wszelkie przekazy medialne, na przykład posty publikowane w mediach społecznościowych czy filmy umieszczane na portalach typu YouTube lub Twitch."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 874, "subject": "Teoria porządku dnia (agenda setting)", "paragraphs": ["Codziennie w mediach ukazują się setki wiadomości, przy czym tylko niektóre z nich traktowane są priorytetowo i trafiają na pierwsze strony gazet lub do serwisów informacyjnych. Jednak i w tym wypadku ich kolejność nie jest przypadkowa, ponieważ decyduje o tym ważność, jaką przypisuje się każdej wiadomości przez redakcję danego medium. Tego typu praktyka hierarchizacji tematów nosi nazwę porządku dnia (lub ustanawiania agendy) i odnosi się do hipotezy agenda-setting sformułowanej po raz pierwszy w latach 20. XX w. przez amerykańskiego badacza opinii publicznej Waltera Lippmana. Zdaniem Lippmana media (w tamtym okresie prasa) ogrywają znaczącą rolę w tworzeniu uproszczonych modeli rzeczywistości w głowach odbiorców, którzy sami nie są zdolni do dokonywania ich prawidłowej percepcji. Środki masowego przekazu ułatwiają więc w ten sposób zrozumienie rzeczywistości, kształtując określone opinie na jej temat [1].", "Terminu „porządek dnia” (agenda-setting) użył po raz pierwszy Bernard Cecil Cohen, który był również autorem popularnego stwierdzenia, że „być może mass media nie decydują o tym, co ludzie myślą, ale mają zasadniczy wpływ na to, o czym myślą”. Jednak dopiero empiryczna weryfikacja założeń hipotezy agenda-setting przez Maxwella McCombsa i Donalda Shaw w trakcie wyborów prezydenckich w Stanach Zjednoczonych pod koniec lat 60. XX w. rozpoczęła pierwszy etap badań nad założeniami tej teorii, które opisali w pracy z 1972 roku zatytułowanej \"The Agenda-Setting Function of the Mass Media\" a rozwinęli w \"The Emergance of American Political Issue\" z 1977 roku. W publikacjach tych badacze zawarli odpowiedź zarówno na pytanie jak działa ustalanie porządku dnia oraz dlaczego się pojawia. Ich zdaniem teoria porządku dnia jest związana z jednym z najważniejszych efektów komunikowania masowego, jakim jest organizowanie i porządkowanie świata realnego w umysłach odbiorców. Agenda-setting ustala zatem najważniejsze sprawy i wizerunki w głowach widzów bądź czytelników, które wcześniej zostały wyselekcjonowane przez redakcje wydawców medialnych jako swoistych gate-keeperów informacji (zob. Filtrowanie i selekcja informacji ). W ten sposób wiedza publiczności na temat spraw społecznych czy politycznych w określonym czasie stanowi efekt pracy redaktorów i jest odzwierciedleniem treści prezentowanych w mediach [2]. Cały proces „porządku dnia” przedstawia stworzony przez McCombsa i Shawa model, w którym można wyróżnić poziom mediów oraz odbiorców. Na pewnym etapie łączą się one, tworząc wiedzę społeczną, będącą wynikiem hierarchii ważności wydarzeń, ich właściwego wyeksponowania oraz informacyjnych potrzeb odbiorców, co z kolei przekłada się na ich określone zachowania społeczne.", "Efekt „porządku dnia” jest tym silniejszy, im większa jest potrzeba informacyjna odbiorców, którą zaspokajają, korzystając z mediów informacyjnych, a także niski poziom uczestnictwa w dyskusji. Zasadniczą rolę w procesie agenda-setting odgrywa także czas oddziaływania, ponieważ im dłużej odbiorcy mają styczność z prezentowaniem określonej hierarchii ważności spraw czy tematów w mediach, tym trudniej jest im dokonać jej zmiany pod wpływem krótkotrwałych oddziaływań o innych charakterze.", "Teoria agenda-setting miała swoich zwolenników i przeciwników. Krytycy przez długi czas zarzucali jej brak dowodów empirycznych oraz niespójność metodologiczną jako metody badawczej [3], [4]. Jednak z czasem teoria porządku dnia została udoskonalona, a wraz z pojawieniem się internetu zaczęto odnosić ją również do tego środowiska komunikacji medialnej, zadając jednocześnie pytanie o to, na ile teoria porządku dnia i związany z nią wpływ mediów w takim samym stopniu oddziałują na odbiorców w nowym, niezhierarchizowanym środowisku medialnym1. W toku badań zaproponowano wyodrębnienie nowych typów agend, co pozwala lepiej zrozumieć różne zjawiska zachodzące w zmediatyzowanej rzeczywistości [5]. Do nowych typów agend należą m.in.:", "W kontekście konsumpcji wiadomości przez użytkowników mediów cyfrowych można również mówić o pojawieniu się nowych zjawisk związanych z teorią agenda-setting , takich jak: ustanawianie agendy intermedialnej (intermedia agenda-setting), odwrócony proces ustanawiania agendy (reverse agenda-setting) czy agenda building (tworzenie agendy tradycyjnych i nowych mediów na podstawie różnych źródeł). We wszystkich przypadkach chodzi o zbadanie, jak wygląda relacja pomiędzy starymi (tradycyjnymi) a nowymi (internetowymi) kanałami informacyjnymi w ustanawianiu agendy publicznej, który z nich ogrywa ważniejszą rolę i czy efekty ustanawiania agendy różnią się ze względu na typ medium [4], [6].", "Literatura dodatkowa 1.\tMcCombs, M.: Ustanawianie agendy. Media masowe i opinia publiczna, przeł. Radwan, B., Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2009. 2.\tVargo, Ch., Guo, L., Amazeen, M. A.: The agenda-setting power of fake news: A big data analysis of the online media landscape from 2014 to 2016. New Media & Society 2018, 20(5), https://doi.org/10.1177%2F1461444817712086."], "definitions": [{"name": "Definicja 1: Teoria agenda-setting", "content": "Teoria opierająca się na założeniu, że media dokonują swoistej selekcji wydarzeń i przedstawiają najważniejsze wiadomości z całego dnia w ściśle określonym porządku ważności. W konsekwencji widownia zaczyna postrzegać je jako tak samo ważne. W ten sposób media kreują rzeczywistość, uwypuklając pewne zagadnienia czy tematy lub pomijając inne i wpływając na sposób myślenia o rzeczywistości przez odbiorców mediów."}, {"name": "Definicja 2: Odwrócony proces ustanawiania agendy (agenda cutting)", "content": "Rodzaj nowej agendy publicznej związanej z wynikami aktywności nadawców nieprofesjonalnych (internauci) i profesjonalnych (dziennikarzy). Jej celem jest ustalenie związku pomiędzy agendą wyszukiwań (popularność haseł, tematów, treści wśród użytkowników), a agendą medialną (tematy, które opracowywane są przez dziennikarzy i pojawiają się w mediach)."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 876, "subject": "Media a przemoc i przestępczość", "paragraphs": ["Wpływ mediów masowych na zachowania agresywne Przekonanie, że brutalne treści w mediach wpływają na widzów i stymulują agresję oraz przemoc jest powszechne we współczesnych społeczeństwach. Popularność tej opinii można przypisać powszechnie znanemu eksperymentowi przeprowadzonemu w latach 60. XX przez Alberta Bandurę i jego zespół. Pokazał on że dzieci, które oglądały sceny brutalne w mediach częściej, niż te które ich nie oglądały naśladowały zachowania agresywne bawiąc się lalkami bobo [1]. Badanie to wywołało kontrowersje i krytykę, jednak kolejne realizowane w tym obszarze projekty badawcze pokazały, że istnieje związek przyczynowy między przemocą w mediach a rzeczywistą [2].", "Wyjaśnienia dla tego wpływu (w kierunku negatywnym i pozytywnym) dostarczają liczne koncepcje psychologiczne, które można zaliczyć do teorii stymulacji – postrzegają one przekazy zawierające agresję jako przyczyniające się do pobudzania napięcia i agresji oraz teorie redukcji agresji w ramach których obrazy przemocy w mediach obniżają napięcie i ograniczają lub niwelują zachowania agresywne [3].", "Teorie stymulacji [3]", "Teorie redukcji agresji [3]", "Media jako narzędzie i przestrzeń przemocy elektronicznej Pojawienie się internetu doby Web 2.0 oraz popularyzacja smartfonów, które pozwalają na łatwe tworzenie i publikowanie treści w internecie spowodowały, że sieć umożliwiła realizowanie zachowań agresywnych. Od 2003 roku zaczęto mówić o elektronicznej przemocy rówieśniczej, zwanej również cyberprzemocą lub cybermobbingiem (cyberbulling) [4]. Szybko dostrzeżono jednak, że agresja w internecie nie ogranicza się wyłącznie do działań na szkodę rówieśników i jest wymierzona również w: celebrytów, grupy pokrzywdzone, np. alkoholików, osoby w kryzysie bezdomności itp., przypadkowe osoby lub w całe grupy, do których należą osoby o określonej przynależności rasowej, narodowościowe, etnicznej, religijnej itp. lub przejawiających podobne zainteresowania, preferencje lub podzielających zbliżone idee, np. kibice drużyn piłkarskich [5]. Spowodowało to potrzebę szerszego spojrzenia na problem zachowań agresywnych w sieci.", "Agresję elektroniczną cechuje [5]:", "Typologia agresji elektronicznej"], "definitions": [{"name": "Definicja 1: Agresja elektroniczna", "content": "Agresja elektroniczna najszerzej rozumiana jest jako taki zbiór wrogich zachowań,\nktóry realizowany jest za pomocą Internetu lub telefonów komórkowych, określanych zbiorczo jako tzw. nowe media lub współczesne technologie komunikacyjne [6]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 877, "subject": "Media jako stymulator dyfuzji innowacji i rozwoju", "paragraphs": ["Media a rozwój społeczno-gospodarczy", "I. Wczesne teorie mediów i rozwoju Media masowe odgrywają przyczyniają się do rozwoju społeczno-gospodarczego dostarczając informacji o nowoczesnych technologiach i możliwościach ich wykorzystania – upowszechniają wiedzę techniczną. Zachęcają ludzi do zmian i mobilności, wspierają działania w kierunku alfabetyzacji i wprowadzania powszechnej oświaty oraz kultury zdrowotnej. Przyczyniają się też do promowania demokracji, ale również propagują postawy konsumenckie [1]. Wczesne teorie mediów i rozwoju widziały w mediach masowych narzędzie, które umożliwi modernizację społeczeństwa. Media masowe miały pełnić ważną rolę w edukacji oraz być użytecznym i skutecznym narzędziem oświaty dla urzędników, ekspertów, lokalnych przywódców Media w takim ujęciu służyły modernizacji. Należy jednak zauważyć, że promowały one wyłącznie idee i wartości zachodniego świata, co obniżało ich skuteczność [1].", "Dla rozwoju koncepcji teoretycznych widzących w komunikowaniu ważny czynnik rozwoju istotne znaczenie odegrała koncepcja Daniela Lernera (1964). W jego przekonaniu proces modernizacji należy rozpatrywać w oparciu o cztery wzajemnie powiązane zmienne: poziom urbanizacji, analfabetyzmu, korzystania z mediów i partycypacji politycznej. Widział on potrzebę rozpatrywania zachodzących zmian na poziomie jednostkowym i społecznym. Uważał bowiem, że konieczne są zmiany indywidualne do przekształcenia instytucji oraz całego systemu [2].", "W latach 60. ubiegłego wieku ważną rolę w określeniu relacji pomiędzy środkami masowej komunikacji a rozwojem społeczno-gospodarczym odegrały tzw. Zasady Schramma (1964). Zgodnie z nimi media odgrywały istotną rolę w transformacji społecznej i ekonomicznej realizując funkcję:", "W ten nurt wpisuje się koncepcja Everetta Rogersa (1962) [4]. Postrzegał on dyfuzję innowacji jako proces, w trakcie którego innowacja jest przekazywana z czasem wśród coraz większej liczby jednostek tworzących system społeczny. Na tej podstawie zbudował model dyfuzji innowacji, który składa się z czterech elementów, wpływających na rozprzestrzenianie się innowacji: wynalazek, kanały komunikacyjne, czas i system społeczny. Zwrócił on uwagę, że innowacje nie rozprzestrzeniają się od razu a ich popularność najpierw stopniowo rośnie aż do osiągniecia szczytu a potem opada. Na każdym z tych etapów media jako jeden z ważnych kanałów pozwalających na komunikację odgrywają istotną rolę (por. Rys. 1 ).", "Proces dyfuzji innowacji (Everett M. Rogers) Proces dyfuzji informacji obejmuje pięć etapów:", "Model konwergencji komunikacji (Rogers, Kinkaida 1981) Założeniem tego modelu było utrzymywanie w procesie dyfuzji informacji i rozwoju stałej komunikacji pomiędzy nadawcami i odbiorcami, które miały pomóc w lepszym zrozumieniu.", "II. Współczesne koncepcje mediów i rozwoju Nowsze koncepcje słabiej oceniają wpływ mediów masowych na rozwój społeczno-gospodarczy obszarów i państw słabiej rozwiniętych. W oparciu o doświadczenia z pierwszej połowy dwudziestego wieku dziś podkreśla się, że skuteczność działań modernizacyjnych zależy od współpracy ze społeczeństwem i nie może pozostawać w konflikcie z jego kulturą. W innym przypadku nie przyczynia się do rozwoju danych podmiotów ale utrwala ich podrzędną pozycję w stosunku do państw rozwiniętych. Potwierdziły to analizy prowadzone w ramach nurtu teorii krytycznej w latach 70. XX wieku. Wykazały one wyraźny związek pomiędzy teoriami rozwoju a utrzymywaniem relacji zależności potwierdzając tym samym wnioski płynące z teorii zależności, które narodziły się dekadę wcześniej w krajach południowoamerykańskich. Pokazywały one że kraje postkolonialne są w swoim rozwoju zależne od krajów rozwiniętych. W tej perspektywie media, które pochodziły z krajów rozwiniętych nie przyczyniały się do modernizacji krajów uboższych, rozwijających się, tylko stanowiły kanały dla przekazywania norm, wartości i kultury właściwej dla krajów Zachodu i szerzenia konsumpcjonizmu. W konsekwencji powodowało to likwidację autonomii kulturowej i budowanie dalszej zależności od krajów rozwiniętych państw rozwijających się [6]. Krytyka ta spowodowała powstanie nowych modeli, które mediom masowym przypisywały mniejszą role w procesie dyfuzji innowacji i rozwoju oraz podkreślały, że skuteczność takich działań zależy od stałych kontaktów z odbiorcami i ich kulturą. Zaczęto praktykować komunikację uczestniczącą, dopasowaną do społeczności, które mają przyjąć określone innowacje [7].", "Współcześnie nadzieją w tym obszarze są nowoczesne technologie komputerowe i internet, które rozprzestrzeniają się znacznie szybciej niż wynalazki ery przemysłowej i mogą wpierać procesy rozwoju."], "definitions": [{"name": "Definicja 1: Dyfuzja innowacji", "content": "Złożony proces poznawania i przyjmowania innowacji technologicznych przez określone jednostki, grupy i społeczności. Realizowany jest najczęściej za pośrednictwem reklam, kampanii promocyjnych itp. [1]."}, {"name": "Definicja 2: Dyfuzja rozwoju", "content": "Planowe wykorzystanie mediów masowych w celu osiągnięcia długofalowych efektów w różnego rodzaju kampaniach i innych działaniach wykorzystujących sieci kontaktów oraz struktury władz lokalnych i państwowych dla osiągniecia założonych przez odpowiednie podmioty celów [1]. "}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 880, "subject": "Kształtowanie opinii publicznej", "paragraphs": ["Opinia publiczna Już w czasach biblijnych można odnaleźć wzmianki o możliwości wywołania publicznego oburzenia. Odniesienie do opinii publicznej pojawiało się też w listach Cycerona, który pisał o „publicam opiniomen” i w XVI wieku u Erazma z Rotterdamu (opiniones publicare) [1]. Jednak dopiero w XIX i XX wieku termin ten stał się przedmiotem debaty naukowej i badań. We współczesnej refleksji nad opinią publiczną można wydzielić dwa odrębne podejścia w definiowaniu tego zjawiska:", "Przegląd definicji opinii publicznej – w ujęciu historycznym", "Schemat Allporta Wielość definicji opinii publicznej, spowodowała konieczność uporządkowania istniejących koncepcji tego zjawiska i stworzenia ich klasyfikacji. Taki charakter ma schemat, stworzony przez Gordona Allporta. Zwrócił on uwagę, że w istniejących podejściach do określania fenomenu opinii publicznej można dostrzec pięć elementów:", "W oparciu o tą klasyfikację elementów definiujących opinię publiczną Gordon Allport zaproponował własną definicję. Termin ten odnosi się do sytuacji, w których duże grupy jednostek wyrażają stanowiska na temat tego, co jest w określonych warunkach popierane/ odrzucane w stosunku do osób lub propozycji o szerszym znaczeniu, które stwarzają prawdopodobieństwo nieobojętnych działań wobec obiektu zainteresowań [3].", "Proces opiniotwórczy Zjawiska zachodzące podczas powstawania i ujawniania opinii publicznej określane są jako proces opiniotwórczy, obejmują one warunki konieczne do jej wykształcenia się, należą do nich:", "Beata Ociepka podkreśla, że w tworzeniu opinii publicznej istotną rolę odgrywają przywódcy opinii/ liderzy. Zgodnie z modelem dwustopniowego przepływu informacji (zobacz rozdział: Modele komunikowania) osoby te z uwagi na posiadaną wiedzę, której źródłem są również media masowe cieszą się dużym prestiżem i często są proszone o radę. Wraz z coraz większą ilością mediów z których można współcześnie czerpać informacje oraz uzyskiwać komentarze na tematy polityczne, społeczne i gospodarcze rola liderów w codziennym życiu uległa zmniejszeniu. Jednak nadal mają oni bardzo duże znaczenie w okresach kryzysowych, gdy stają się przedstawicielami i wyrazicielami opinii publicznej [2].", "Współcześnie taką rolę coraz częściej pełnią celebryci, czyli osoby będące obiektem zainteresowania mediów masowych, zwłaszcza tabloidów i portali plotkarskich, dzięki czemu są obecni w przestrzeni publicznej [5]. Mają oni bardzo wpływ na kształtowanie opinii publicznej, kreowanie trendów i mód oraz promowanie określonych poglądów i zachowań. Z jednej strony obecność celebrytów w przestrzeni publicznej wpływa na nią pozytywnie. Pozwala bowiem na „odnowienie” sfery polityki oraz przyczynia się do jej demokratyzacji. Zaangażowanie w sprawy publiczne, dzięki ich udziałowi celebrytów przybiera zupełnie inną postać niż ta utożsamiana z tradycyjną działalnością partyjną. Celebryci są w takim rozumieniu alternatywnym sposobem na polityczną działalność dla ludzi wcześniej niezaangażowanych i odciętych od spraw publicznych, np. mogą namawiać do udziału w wyborach lub promować symbole narodowe. Z drugiej strony aktywność celebrytów w przestrzeni publicznej może mieć charakter negatywny i przyczyniać się do jej degradacji poprzez trywializację dyskursu publicznego [6].", "Sfera publiczna w nowoczesnych społeczeństwach – nowe trendy Współcześnie możemy zauważyć fragmentaryzację sfery publicznej, co skutkuje powstaniem wielu mikrosfer. Stanowią one przestrzenie, w których członkowie marginalizowanych grup, np. środowisk LGBT i mniejszości etnicznych itp. mogą przedstawiać publicznie swoje poglądy i artykułować interesy oraz propagować określone wartości i zachowania. Celebryci odgrywają ważną rolę w mikrosferach – pokazują, że dla różnych grup społeczeństwa otwierają się nowe możliwości, wcześniej ograniczone, np. celebryci homoseksualiści zaświadczają, że można przyznać się do swojej orientacji i nadal być popularnym [7].", "Formy wyrażania opinii publicznej Wyrażanie opinii we współczesnym świecie odbywa się najczęściej za pomocą mass mediów, jednak dostęp do mediów tradycyjnych jest zwykle utrudniony. Co prawda radio i telewizja w swojej ofercie posiadają programy podczas, których widzowie mogą wyrazić swoją opinię, poprzez telefon lub mail to czas takich wypowiedzi jest limitowany co wynika z rygorów czasu antenowego. Dlatego dziś miejscem do wyrażania opinii stają się media społecznościowe, które pozwalają np. za pomocą nakładek na zdjęcia profilowe na FB lub możliwości łatwego udostępniania informacji lub wydarzeń wyrażać poparcie dla określonych idei lub protest wobec nich [8]. Opinia publiczna może być też wyrażana w formie demonstracji ulicznych czy protestów lub w formie petycji podpisywanych przez obywateli, które przedstawiają ich poglądy [2].", "Opinia publiczna a media Allport w swoich rozważaniach odnośnie opinii publicznej zaznacza, że opinia publiczna jest produktem powszechnej edukacji i wytworem nowoczesnego systemu komunikowania masowego [4]. Zdaniem Tomasza Gobana Klasa dla powstania opinii publicznej wystarczają środki prostsze, interpersonalne, jednak połączenie mediów masowych i interpersonalnych jest dla powstania opinii publicznej najskuteczniejsze [9]. Artykułowanie opinii publicznej współcześnie jest łatwiejsze dzięki mediom masowym, gdyż w państwach demokratycznych mają one obowiązek zapewnienia pluralizmu opinii i przedstawiania zróżnicowanych poglądów i opinii. Jednak środki masowej komunikacji nie są tylko przestrzenią do prezentowania różnych opinii i poglądów obywateli, ale stanowią instrument powstawania i artykułowania opinii publicznej [2]. Sprawia to, że media odgrywają ważną rolę w procesie formowania się opinii publicznej, co pokazuje teoria spirali milczenia autorstwa Elizabeth Noelle-Neumann (2004). Więcej o samym efekcie spirali milczenia przeczytasz w rozdziale Spirala milczenia.", "Źródło: TED-Ed, Pros and cons of public opinion polls: R. J. Jason, 17.05.2013 (dostęp 30.11.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=ubR8rEgSZSU&ab_channel=TED-Ed, 2020."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 879, "subject": "Media cyfrowe i problem niekontrolowanego korzystania", "paragraphs": ["Skutki społeczne wpływu i oddziaływania mediów masowych szybko znalazły się w kręgu zainteresowania psychologów, socjologów i pedagogów, głównie ze względu na masowość przekazu, zapośredniczony przez medium sposób percepcji treści oraz inny mechanizm ich przetwarzania. Przez dekady próbowano ustalić, jakie są poznawcze, emocjonalne i behawioralne konsekwencje kontaktu z przekazami filmowymi, radiowymi czy telewizyjnymi wśród różnych odbiorców, głównie jednak dzieci i młodzieży [1]. Najwięcej badań na ten temat prowadzono w krajach anglosaskich oraz Europie Zachodniej i przez długi czas koncentrowano się na badaniu związków pomiędzy oglądaniem aktów agresji na ekranie a zachowaniami agresywnymi w rzeczywistości (zob. Media a przemoc i przestępczość ).", "Pojawienie się nowego środka komunikowania społecznego – internetu – a także różnorodność treści i możliwości działania, jakie oferował, sprawiły, że badacze zaczęli stopniowo kierować swoją uwagę w stronę tego medium. Trochę trwało, zanim przygotowano odpowiednie metody i narzędzia badawcze, ponieważ ze względu na interaktywny charakter internetu nie można było zastosować tych wykorzystywanych do badania wpływu mediów masowych. Podkreślano wówczas, że „Musimy więc zacząć niemal od zera; mamy dużą wiedzę na temat czynników, które warunkują nasze zachowanie w innych sytuacjach, i na ich podstawie możemy się doszukiwać istotnych paraleli” [2]. Wraz z upowszechnieniem internetu zaczęto obserwować i badać nowe zjawiska związane z niekontrolowanym użyciem internetu.", "Hipertekstowa struktura internetu umożliwiała użytkownikom nieograniczone serfowanie po zasobach sieci. Globalny charakter nowego medium ułatwiał kontakty z nieznajomymi na całym świecie, z którymi można było wspólnie wykonywać różne czynności, np. podejmować rozgrywki w grach wideo czy rozmawiać na czacie. Internet o wiele bardziej niż telewizja stał się oknem na świat, ponieważ w przeciwieństwie do starego medium można było przez to okno wejść do tego świata i go eksplorować według własnych potrzeb. W konsekwencji pojawili się użytkownicy, u których zauważano trudności w kontrolowaniu czasu spędzanego w internecie, mające wpływ na ich społeczne funkcjonowanie. Jako pierwsza zwróciła na to uwagę w 1996 roku psycholożka Kimberly Young, która opisała przypadek 43-letniej kobiety poświęcającej 60 godzin tygodniowo na rozmowy na czacie. Na podstawie szczegółowej rozmowy z pacjentką oraz z innymi pacjentami Young zaproponowała pierwszy zestaw kryteriów diagnostycznych dla zaburzenia, które nazwała „uzależnieniem od internetu” (Internet addiction) [3]. Young wyróżniła również kilka rodzajów uzależnień od internetu, takich jak: cyberseks, socjomania internetowa, e-hazard, aukcje internetowe, przeciążenie informacyjne (kompulsywne surfowanie po sieci) oraz uzależnienie od komputera (gier) [4]. Określenie „uzależnienie”, stosowane przez Young, nie zyskało jednak powszechnej aprobaty w środowisku psychologów i psychiatrów, zwracano uwagę, że ma ono charakter oceniający i pejoratywny oraz że nie ma dostatecznych dowodów, że zjawisko ma takie same cechy, jak inne rodzaje uzależnień, czyli tolerancję i zespół abstynencyjny. Niektórzy badacze proponowali, aby w sytuacji, kiedy nie ma jeszcze naukowych dowodów świadczących o prawdziwym uzależnieniu używać określenia „problemowe użytkowanie internetu” [3]. Po prawie 25 latach od opisania pierwszego przypadku niekontrolowanego użytkowania internetu przez K. Young nie ma jednoznacznej definicji ani samego zaburzenia, ani jego nazwy. Z tego też względu nie znalazło się ono w żadnej z obowiązujących klasyfikacji zaburzeń i chorób psychicznych (ICD-11 i DSM-5), choć psycholodzy i psychiatrzy je diagnozują.", "Scott Caplan zaproponował koncepcję zgeneralizowanego problemowego używania internetu (GPIU), u podłoża którego leżą deficyty w obszarze relacji społecznych – lęk społeczny i niskie umiejętności nawiązywania i podtrzymywania relacji. Elementy tworzące mechanizm problemowego używania to: preferencja relacji online nad offline (z powodu deficytów społecznych jednostka decyduje się na bezpieczny dla siebie rodzaj komunikacji online); regulacja nastroju (korzystanie z internetu w sytuacji stresu czy odreagowania emocji); upośledzona samoregulacja (kompulsywne używanie i zaabsorbowanie poznawcze); negatywne konsekwencje w obszarze funkcjonowania (rezygnacja z pewnych aktywności w świecie offline na rzecz zaangażowania online) [5].", "W związku z tym, że dla wielu badaczy pojęcie problemowego korzystania z internetu wydawało się zbyt ogólne (sama Young zaproponowała sześć jego rodzajów – zob. wyżej), a niektóre z tych zaburzeń należałoby uznać ze przejaw patologicznych zachowań realizowanych w sieci (np. e-hazard czy cyberseks), skupiono się na zbadaniu zaburzenia specyficznego dla korzystania z komputera i internetu, czyli na problemowym graniu w gry wideo [6]. Wynikało to przede wszystkim ze wzrostu liczby młodych osób, którzy nadużywania grania, zaniedbując inne obszary swojego życia. Dlatego też Amerykańskie Towarzystwo Psychiatryczne zdecydowało o włączeniu w 2013 roku do zrewidowanej klasyfikacji zaburzeń psychicznych DSM-5 zaburzenia grania w gry internetowe (Internet Gaming Disorder) wraz z podaniem kryteriów diagnostycznych. Podobnie postąpiła Światowa Organizacja Zdrowia, która do swojej klasyfikacji ICD-11 także włączyła to zaburzenie.", "Pomimo iż zaburzenie grania w gry internetowe znalazło się w obowiązujących klasyfikacjach zaburzeń i chorób psychicznych, sformułowane kryteria diagnostyczne budzą w dalszym ciągu kontrowersje [8]. Nie jest do końca również wiadome, w jaki sposób typ motywacji (np. ucieczka, imersja, chęć rywalizacji czy chęć przebywania w grupie) ma wpływ na mechanizm uzależnienia od gier [9].", "Z niekontrolowanym użyciem mediów cyfrowych związany jest także całkiem nowe zjawisko – syndrom FOMO (akronim od wyrażenia Fear Of Missing Out), czyli lęk przed tym, że coś ważnego mnie omija. I choć samo pojęcia pojawiło się w połowie lat 90. XX w. i nie było związane z internetem, to wraz z natłokiem informacji spowodowanym rozwojem nowych technologii informacyjno-komunikacyjnych i platform społecznościowych zaczęto je coraz powszechniej obserwować. Wielu badaczy łączy FOMO z korzystaniem z internetu oraz mediów społecznościowych i jest uznawane za czynnik ryzyka sprzyjający problemowemu użytkowaniu internetu [10]. Pojawienie się FOMO wzmacniane jest także przez projektowanie technologii w sposób silnie angażujący, który pozwala użytkownikowi być na bieżąco z informacjami i nie przegapić niczego ważnego. Taką funkcję pełnią m.in. różnego rodzaju powiadomienia wysyłane przez urządzenia mobilne.", "Źródło: BBC Ideas, Is technology addiction a myth? Andrew Przybylski, 06.08.2019 (dostęp 21.09.2020). Dostępne w YouTube: https://youtu.be/pSNpO8tNMz0."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 878, "subject": "Wykluczenie cyfrowe", "paragraphs": ["Internet powstał jako sieć komunikacyjna przekraczająca nie tylko bariery czasowe i przestrzenne, ale głównie instytucjonalne, administracyjne i narodowe. Jego stworzenie wynikało z pragnienia swobodnego i niczym nieograniczonego dostępu do informacji oraz przestrzeni wolnej od dominacji przemysłu mediów masowych, który narzucał określone wartości, sposób myślenia i interpretacji rzeczywistości oraz zapewniał scentralizowaną kontrolę produkcji i dystrybucji treści. Internet miał zatem zdemokratyzować zapośredniczoną medialnie przestrzeń komunikacyjną i sprawić, aby wszyscy jej uczestnicy – producenci treści, użytkownicy i podmioty komercyjne – mogły swobodnie wymieniać się w niej informacjami (zob.Internet jako medium ). To założenie jest niezwykle istotne, ponieważ pokazuje, jak duże ponadnarodowe i oparte na merytokratycznej współpracy wysiłki organizacyjne, technologiczne i naukowe musiały zostać podjęte ze strony rządów, firm technologicznych, badaczy czy społeczności wirtualnych, aby powstała globalna, oparta na kulturze wolności, otwartości i współpracy sieć komunikacyjna [1].", "W tak rozwijających się okolicznościach oraz wraz z nastaniem globalnej ekspansji internetu w latach 90. XX w. swobodny dostęp do niego stał się prawem jednostki. Jednak rozwój internetowej sieci komputerowej miał różną dynamikę – najszybciej rozwijał się w Ameryce Północnej oraz krajach Europy Zachodniej, najwolniej w Afryce [2]. Wynikało to zarówno z kosztów rozwoju infrastruktury internetowej, cen sprzętu komputerowego, jak i motywacją ludzi do korzystania z sieci. Wskutek tego coraz częściej zaczęto zauważać zjawisko nierównego dostępu do sprzętu komputerowego oraz internetu (obserwowane zarówno w krajach rozwiniętych, jak i rozwijających się), które nazwano wykluczeniem cyfrowym (digital divide) i które na gruncie socjologii powiązano z koncepcją nierówności społecznych [3], [4]. W myśl tej koncepcji za bezpośrednią przyczynę nierównego dostępu do technologii uznaje się dystrybucję zasobów (materialnych, społecznych, czasowe, umysłowe, kulturowe), których sposób dystrybucji można wyjaśnić za pomocą właśnie nierówności społecznych (np. wieku, dochodów, pochodzenia etnicznego, zdrowia, niepełnosprawności, wykształcenia, wykonywanej pracy czy roli w gospodarstwie domowym).", "Na początku rozwoju komercyjnego internetu w latach 90. XX w. decydenci oraz badacze dostrzegali tylko nierówności w zakresie materialnego i fizycznego dostępu do sprzętu oraz internetu. Sądzono, że już przez sam fakt posiadania komputera z dostępem do sieci zwiększy się zainteresowanie korzystaniem z internetu i wykluczenie zniknie. Jednak, co podkreślał Jan van Dijk [5], takie założenie było fałszywe, ponieważ może wysunąć na pierwszy plan inne nierówności, np. kompetencyjne czy użytkowe (zastosowanie nowych technologii w życiu lub pracy). W związku z tym w kolejnych latach zaczęto koncentrować się na badaniu i rozwiązywaniu problemów związanych nie tyle z dostępem do sprzętu komputerowego i sieci, ale z celami, w jakich się z nich korzysta i potrzebnymi do tego kompetencjami. Takie podejście pozwoliło wyróżnić trzy powiązane ze sobą poziomy wykluczenia cyfrowego ( Rys. 1 ).", "Wykluczenie cyfrowe jest zjawiskiem złożonym i wielowymiarowym, ponieważ definiuje je szereg czynników, m.in. takich jak: płeć, pozycja społeczno-ekonomiczna, położenie geograficzne, narodowość lub przynależność etniczna, wykształcenie czy kompetencje. Najczęściej mierzy się je na podstawie takich kryteriów, jak: dostęp do internetu, liczba odwiedzanych stron, czas spędzany online, aktywności podejmowane za pośrednictwem internetu i umiejętności korzystania z nowych technologii informacyjno-komunikacyjnych. Ważną rolę w powstawaniu wykluczenia cyfrowego odgrywa również motywacja do posiadania określonego sprzętu czy korzystania z niego, co uważa się za podstawowy czynnik determinujący dostęp czy użytkowanie. Obecnie badacze są zgodni, że pomimo szerokiego dostępu na świecie do internetu oraz stosunkowo niskich cen sprzętu, pogłębiają się różnice w korzystaniu z sieci oraz w umiejętnościach (kompetencje cyfrowe). Za sprawą pojawiających się coraz to nowszych technologii wykorzystujących komunikację sieciową i sztuczną inteligencję (np. Internet Rzeczy, asystenci głosowi, urządzenia ubieralne) koncepcja wykluczenia cyfrowego i nierówności społecznych znalazła swoje nowe zastosowanie [6].", "Wyrównywanie nierówności cyfrowych i działania na rzecz walki z wykluczeniem cyfrowym na różnych poziomach są kluczowe z kilku powodów. Po pierwsze w społeczeństwie informacyjnym dostęp do internetu umożliwia rozwój nie tylko na poziomie indywidualnym, ale również zbiorowym (grupy, społeczności, społeczeństwa, kraje). Jak to celnie określił Castells: „rozwój bez internetu to coś jak uprzemysłowienie bez elektryczności w epoce industrializacji” [7]. Po drugie, osobom nie posiadającym dostępu do internetu albo nie umiejącym z niego korzystać jest trudniej znaleźć pracę czy zdobyć wykształcenie, także dlatego, że w wielu zawodach kompetencje cyfrowe związane np. z komunikacją mailową, czy wyszukiwaniem, oceną i analizą informacji w sieci są konieczne. Po trzecie, sposób i krytyczna umiejętność korzystania z nowych technologii (nie tylko z internetu) umożliwiają jednostce zaspokajanie różnych potrzeb (społecznych, komunikacyjnych, informacyjnych, poznawczych, emocjonalnych, rozrywkowych itp.) i ułatwiają funkcjonowanie w społeczeństwie cyfrowym. Z tego też powodu kompetencje cyfrowe zostały uznane przez Komisję Europejską za jedne z kluczowych kompetencji człowieka w XXI w. (zob. Kompetencje medialne, informacyjne i cyfrowe )."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 881, "subject": "Luka informacyjna i społeczny rozdział wiedzy", "paragraphs": ["Wprowadzenie Funkcjonowanie we współczesnym świecie nieuchronnie wiąże się z koniecznością przetwarzania informacji – zarówno na poziomie makrospołecznym (np. w procesach decyzyjnych w międzynarodowych korporacjach), jak i mikrospołecznym (np. w obszarze codziennego funkcjonowania ludzi). Ten stan rzeczy związany jest z rozwojem w kierunku społeczeństwa informacyjnego. Jednak niektóre negatywne zjawiska, takie jak przeciążenie informacyjne, w połączeniu z niską jakością informacji i nieefektywnymi formami jej przetwarzania mogą doprowadzić do patologicznych przekształceń, co niektórzy badacze określają mianem społeczeństwa (dez)informacji [1]. Jednym z jego przejawów jest społeczna luka informacyjna.", "Problem nadmiaru wiedzy Nieustanna w realiach społeczeństwa informacyjnego podaż generowanej na wielu poziomach informacji może być przyczyną wystąpienia niekorzystnego zjawiska określanego przez ekspertów mianem smogu informacyjnego [6] lub też informacyjnego przeciążenia (information overload), które powstaje w momencie, gdy dana osoba bądź instytucja nie posiada wystarczających zasobów do przetworzenia odbieranych informacji [7]. Ten szczególnego rodzaju problem naraża ludzi na poczucie dyskomfortu, zagubienia, rezygnacji czy pogorszenie jakości oraz poziomu życia, ale w realiach gospodarki opartej na wiedzy może też prowadzić do niekorzystnej z perspektywy społecznego rozdziału wiedzy polaryzacji [8]. Co więcej, podaż informacji prowadzi do podwyższenia „funkcjonalnego minimum”, będącego pewnym minimalnym zasobem informacji niezbędnym do sprawnego funkcjonowania w państwie, społeczeństwie, czy gospodarce [9]."], "definitions": [{"name": "Definicja 1: Społeczeństwo Informacyjne", "content": "Społeczeństwo informacyjne – termin ten kolejno zaproponowali i spopularyzowali Japończycy Tadao Umesamo i Kenichi Koyama – to forma organizacji społeczeństwa, która do tej pory nie została jednoznacznie zdefiniowana, co wynika z wielości możliwych do przyjęcia kryteriów (np. dominacji technologii ICT, transformacji gospodarki w kierunku sektora usług przetwarzania danych, zmian w zakresie wymogów kompetencyjnych na rzecz umiejętności cyfrowych itp.), czego efektem jest występowanie w dyskursie naukowym wielu pokrewnych dla niego określeń, między innymi społeczeństwa sieciowego, postindustrialnego, pokapitalistycznego czy opartego na wiedzy [2].\nJednym z często podkreślanych aspektów społeczeństwa informacyjnego jest dominująca rola informacji w najważniejszych jego obszarach:\n\ntechnologicznym – kryterium to odnosi się do procesu ewolucji technologii informacyjnych oraz ich popularyzacji poprzez rozpowszechnienie urządzeń cyfrowych i spadek ich cen (np. smartfonów);\ngospodarczym – przemiany procesów ekonomicznych, których podstawą staje się przetwarzanie informacji (np. wdrażanie w sektorze bankowym chmury obliczeniowej);\nspołecznym – odnoszącym się do zmian w życiu człowieka, głównie w wyniku powszechnego dostępu do informacji (np. rozwój telepracy);\nedukacyjnym – wynikającym z konieczności nabywania wiedzy w zakresie praktycznego wykorzystania technologii ICT i kreowaniem przeświadczenia o konieczności adaptacji do nowych okoliczności, co umożliwia nabycie umiejętności, wiedzy i władzy (np. nauka programowania) [3].\n"}, {"name": "Definicja 2: Informacja", "content": "Informacja, podobnie jak społeczeństwo informacyjne, jest pojęciem powszechnie używanym, ale jednocześnie wieloznacznym i rozumianym na wiele odmiennych sposobów [4].\nW ujęciu ograniczającym się do obszaru społecznych aktywności ludzi, przyjąć można, że informacja jest „specyficznym dobrem niematerialnym, które w miarę postępu gospodarczego oraz rozwoju środków i form komunikowania się społecznego nabiera coraz większego znaczenia, przeobrażając oblicze wielu tradycyjnie zorganizowanych gospodarek świata” [5]."}, {"name": "Definicja 3: Luka informacyjna", "content": "W zależności od przyjętej perspektywy luka informacyjna może być odmiennie rozumiana, przy czym zazwyczaj punktem wspólnym jest obserwowany „rozdźwięk” pomiędzy dostępnymi, a niezbędnymi w danym momencie informacjami. W specjalnościach takich jak zarządzanie strategiczne luka informacyjna stanowi różnicę pomiędzy dostępnymi a niezbędnymi do podjęcia decyzji informacjami, wpływając tym samym na podejmowanie efektywnych rozstrzygnięć, na przykład w zakresie strategii biznesowej przedsiębiorstwa [10].\nW perspektywie badań nad komunikacją zjawisko to bywa przedstawianie jako efekt procesu interpretacji, który powstaje, gdy pojawia się luka pomiędzy wiedzą niezbędną dla operacji nadania sensu w procesie interpretacji komunikatu a wiedzą – bazą interpretacyjną – posiadaną przez obiorcę, co może być celowo wykorzystywane do wzbudzania ciekawości (np. w działaniach edukacyjnych), ale też wywierania wpływu (np. w komunikacji marketingowej) [11].\n\nTego typu oddziaływania są możliwe, ponieważ według niektórych ujęć psychologicznych luka informacyjna jest jednym z mechanizmów generujących ciekawość, którą jednostka odczuwa w momencie uświadomienia sobie braków we własnej wiedzy i możliwości ich uzupełnienia odpowiednią informacją [12]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 882, "subject": "Edukacja medialna, czyli uczenie krytycznego rozumienia mediów", "paragraphs": ["Początki edukacji medialnej Edukacja medialna rozwijała się w odpowiedzi na zapotrzebowanie społeczne zarówno w obszarze badań, jak i praktycznych działań (kształtowanie kompetencji) związanych z korzystaniem przez odbiorcę z popularnych w danym okresie mediów. Jej korzenie sięgają czasów pierwszego masowego medium audiowizualnego, czyli filmu, kiedy badacze koncentrowali się głównie na wychowawczych skutkach jego oddziaływania na młodych odbiorców oraz umiejętności odbioru dzieła filmowego. W kolejnych dekadach zwracano uwagę na inne media masowe, głównie jednak telewizję, która od lat 50. XX w. stawała się coraz popularniejszym medium masowy.", "W latach 50. i 60. pod wpływem poczytnych wówczas nie tylko w Ameryce Północnej prac kanadyjskiego badacza mediów – Marshalla McLuhana – uznanie zyskiwała rozwijana przez niego teoria determinizmu technologicznego oraz działania upowszechniające wiedzę o mediach jako środkach społecznego przekazu w Kanadzie (m.in. kierowane przez niego Center for Culture and Technology przy Uniwersytecie w Toronto). McLuhan uważał, że media wraz ze swoistą gramatyką kształtują społeczeństwa oraz wpływają na otaczający świat, dlatego też należy uczyć rozumienia tego, w jaki sposób funkcjonują. Teorie McLuhana oraz jego współpraca ze środowiskiem amerykańskich badaczy, głównie jezuitą Johnem M. Culkinem, zaważyły w dużej mierze na rozwoju nowego podejścia do edukacji o mediach. Culkin w swojej dysertacji doktorskiej obronionej w Harvard Graduate School w 1964 roku zatytułowanej „Film Study in the High School: An Analysis and Rationale”, która była pierwszą pracą naukową na temat krytycznego wykorzystania mediów w edukacji, odnosił się do wielu tez McLuhana, podkreślając, jak ważne jest kształcenie umiejętności krytycznego odbioru filmu i telewizji.", "Dopiero tak naprawdę lata 70. i 80. XX w. przyniosły zasadniczą zmianę w podejściu do edukacji o mediach i jej dynamiczny rozwój także w krajach Europy, takich jak: Wielka Brytania, RFN, Finlandia, Włochy czy Francja, do czego w dużej mierze przyczyniło się zaangażowanie międzynarodowej organizacji UNESCO. Pod wpływem prac europejskich semiotyków (m.in. Rolanda Barthesa) oraz badaczy związanych z brytyjskimi studiami kulturowymi (m.in. Richarda Hoggarta, Raymonda Williamsa, Stewarta Halla, Dawida Moorleya) oraz popularnych koncepcji pedagogicznych Lwa Wygotskiego oraz Paolo Freire (zwłaszcza jego pracy „Pedagogia uciśnionych”) uczenie o mediach przybrało formę krytycznej praktyki społeczno-kulturowej. Sformułowano w tamtym czasie założenia krytycznej edukacji medialnej, której propagatorem i popularyzatorem był Len Masterman, profesor edukacji na Uniwersytecie w Nottingham, która do dzisiaj uznawana jest za edukację medialną sensu stricto.", "Edukacja medialna według Lena Mastermana Swoją koncepcję, opartą na doświadczeniu nauczyciela języka angielskiego w szkole średniej, Len Masterman opisał w wydanej w 1980 roku książce „Teaching about television” , która była pierwszą publikacją proponującą całościowy program nauczania dla szkół w zakresie television studies, i pokazywała jednocześnie – na konkretnych przykładach – jak ważną rolę w odbiorze tekstów medialnych i rozumienia całego systemu medialnego odgrywają takie pojęcia, jak: „symbol”, „produkcja”, „ideologia”, „mit” czy „reprezentacja”. Jednym z głównych założeń koncepcji edukacji medialnej Mastermana, rozwiniętej w książce \"Teaching the Media\" była krytyczna autonomia ucznia (critical autonomy). Uważał on, że „naprawdę ważnym i trudnym zadaniem nauczyciela uczącego o mediach jest rozwinięcie u ucznia wystarczającej pewności siebie i dojrzałości krytycznej, aby móc zastosować krytyczne osądy do tekstów medialnych, z którymi się zetkną w przyszłości” [1]. Uczeń miał być nie tylko krytycznym odbiorcą mediów, ale również aktywnym twórcą przekazów medialnych, jego podmiotowość miała wyrażać się w przejęciu kontroli nad odczytaniem przekazu, co w żaden sposób nie powinno być narzucane przez nauczyciela czy odzwierciedlać jego punktu widzenia . Masterman nie oceniał ani mediów, ani odbiorców. Jego koncepcja edukacji medialnej nastawiona była przede wszystkim na ich rozumienie. Zwracał uwagę na kontekst, w jakim tworzone są przekazy oraz uzależniał ich odczytanie od nastawienia odbiorców. Wśród powodów, dla których edukacja medialna zasługiwała na to, by się nią pilnie zająć, Masterman wymieniał (w duchu neomarksistowskiego podejścia do kultury) m.in.: wysoki odsetek konsumpcji mediów i poziom nasycenia mediami społeczeństw, znaczenie ideologiczne mediów i ich wpływ jako „przemysłów świadomości”, wzrost informacji oraz ich rozpowszechniania poprzez różnego rodzaju środki przekazu.", "Rola UNESCO w promowaniu i rozwijaniu edukacji medialnej Ważną rolę w ogólnoświatowej dyskusji na temat edukacji medialnej oraz uczenia rozumienia mediów odegrała (i wciąż odgrywa) międzynarodowa organizacja UNESCO. Od II połowy XX wieku była inicjatorem wielu spotkań eksperckich i publikacji poświęconych tej problematyce , a także przyczyniła się do rozpropagowania krytycznego podejścia do edukacji medialnej. To właśnie podczas jednego z takich spotkań ekspertów UNESCO w Paryżu w 1979 roku zostało doprecyzowane pojęcie edukacji medialnej, zaproponowane w 1973 roku przez International Film and Television Council. Przyjęto wówczas, że edukacja medialna obejmuje różne sposoby badania, uczenia się i nauczania o mediach na wszystkich poziomach (podstawowe, średnie, wyższe, kształcenie dorosłych, kształcenie ustawiczne): ich historii, korzystania z nich, twórczego wykorzystywania oraz ich ocena, miejsca, jakie zajmują w społeczeństwie, ich oddziaływanie, odbiór, dostęp do nich oraz ich rola w kreatywnej pracy.", "Znaczącym wydarzeniem dla całego środowiska praktyków i badaczy edukacji medialnej było potkanie eksperckie w mieście Grünwald w RFN, do którego doszło w 1982 roku, podczas którego podjęto szereg ważnych ustaleń, które utorowały w dużej mierze drogę edukacji medialnej w wielu krajach na świecie. Podczas kolejnych spotkań, m.in. odbywającego się w 1990 roku w Tuluzie pod hasłem „New Direction in Media Education” zaproponowano rozwiązania, których podjęcie na szczeblu narodowych miało umożliwić wprowadzenie edukacji medialnej do szkolnych programów nauczania.", "Wraz z dynamicznym rozwojem nowych technologii komunikacyjno-informacyjnych, jaki nastąpił w latach 90., dyskusja o edukacji medialnej ustąpiła miejsca dyskusji o kompetencjach medialnych potrzebnych ludziom do świadomego i krytycznego uczestniczenia w różnych obszarach życia (zob. Kompetencje medialne, informacyjne i cyfrowe ). Pojawianie się coraz to nowszych cyfrowych technologii informacyjno-komunikacyjnych oraz upowszechnianie się mediów mobilnych, powoduje szereg możliwości, ale również i wyzwań w obszarze edukacji medialnej [2]. Z jednej strony stanowią one ważne narzędzia w codziennym życiu człowieka, stąd też zainteresowanie nimi ze strony badaczy i praktyków edukacji medialnej było i jest czymś nieuchronnym. Stają się one nie tylko narzędziami umożliwiającymi tworzenie przekazów medialnych, ale również aktywne uczestnictwo. Dlatego też edukację medialną należy traktować jako „interdyscyplinarny obszar wiedzy teoretycznej i praktycznej związanej nie tylko z kształceniem czy doskonaleniem kompetencji medialnych (informacyjnych, cyfrowych), ale również z analizą ich uwarunkowań (społeczno-kulturowych, politycznych, ekonomicznych, technologicznych, prawnych itp.) oraz projektowaniem na wszystkich etapach życia człowieka (idea lifelong learning promowana przez UNESCO) działań służących rozwijaniu kompetencji ukierunkowanych na zaspokajanie różnych potrzeb jednostki” [3].", "Źródło: Events Foundation, Where are we going and how can we get there? - David Buckingham, Keynote speech, 03.06.2015 (dostęp 21.11.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=0_6pE_tHUak&feature=youtu.be."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja medialna", "subject_id": 883, "subject": "Kompetencje medialne, informacyjne i cyfrowe", "paragraphs": ["Czym są kompetencje? Kompetencje definiuje się jako połączenie wiedzy, umiejętności i postaw. Osoba kompetentna ma bowiem wiedzę na jakiś temat, posiada określone umiejętności (nazywane przez psychologów „wiedzą jak”, czyli wiedzą proceduralną), a także cechuje ją skłonność do negatywnego lub pozytywnego wartościowania, czyli postawa wobec kogoś lub czegoś. Kompetencje zdobywa się poprzez doświadczenie życiowe oraz w toku celowego i przemyślanego procesu uczenia się i wychowania. Kształtują się one pod wpływem wymagań jednostki w toku socjalizacji, uczestnictwa w kulturze, pracy zawodowej czy edukacji. Warto pamiętać, że to właśnie środowisko społeczne wyznacza standardy kompetencji oraz warunkuje procesy ich kształtowania, oceniania i sankcjonowania.", "Kompetencje medialne, informacyjne czy cyfrowe? Wraz z upowszechnianiem się środków społecznego komunikowania umiejętności związane z krytycznym rozumieniem mediów masowych i świadomym oraz twórczym ich wykorzystywaniem w różnych celach zaczęły być postrzegane jako niezbędne kompetencje umożliwiające społeczne funkcjonowanie człowieka. Na początku nazywano je kompetencjami medialnymi (media literacy), lecz wraz z pojawianiem się coraz to nowszych mediów i technologii informacyjno-komunikacyjnych (komputera, gier wideo, internetu, mediów społecznościowych) zaczęto nazywać je również kompetencjami medialnymi i informacyjnymi, a także kompetencjami cyfrowymi [1].", "Cześć z tych nieporozumień wynika z równoczesnego rozwoju koncepcji media literacy w różnych kręgach kulturowych i obszarach językowych: anglosaskim oraz germańskim. W krajach anglojęzycznych media literacy, w związku z posługiwaniem się przez różne media swoistą gramatyką oraz językiem, rozumiana była jako podstawowa praktyczno-poznawcza umiejętność (skill) odbioru mediów i tworzenia zróżnicowanych komunikatów medialnych, umożliwiająca funkcjonowanie w świecie zdominowanym przez media (swoisty alfabetyzm medialny). Natomiast w krajach niemieckojęzycznych koncepcję media literacy łączono z pojęciem „kompetencji medialnej” (Medienkompetenz), które wprowadził w latach 70. Dieter Baacke, profesor Uniwersytetu w Bielefeld. Dla Baacke kompetencja medialna stanowiła składową kompetencji komunikacyjnej i umożliwiała odbiorcy aktywny odbiór mediów poprzez przyjęcie krytyczno-refleksyjnej postawy. Wyróżniał on cztery elementy składowe kompetencji medialnej, takie jak: wiedza o mediach i systemie medialnym, krytyka mediów, korzystanie z mediów oraz tworzenie kreatywnych i innowacyjnych treści medialnych [2].", "W 2011 roku podczas międzynarodowego forum zorganizowanego przy wsparciu UNESCO w Fez (Maroko) z inicjatywy międzynarodowego środowiska informatologów, którzy jako jedni z pierwszych rozpoczęli dyskusję na temat umiejętności wyszukiwania i oceny informacji pochodzących z internetu, kompetencje informacyjne zostały uznane za równoważne z kompetencjami medialnymi. W przyjętej przez uczestników deklaracji (zwanej „Deklaracją z Fez”) taką decyzję uzasadniano potrzebą zintegrowania umiejętności medialnych z umiejętnościami informacyjnymi m.in. w związku z konwergencją technologii komunikacyjnych „w celu zapewnienia zrównoważonego rozwoju społecznego, budowy uczestniczących społeczeństw obywatelskich i przyczyniania się do konsolidacji pokoju, wolności, demokracji, dobrych rządów oraz wspierania konstruktywnej międzykulturowej wiedzy, dialogu i wzajemnego zrozumienia” [3]. Eksperci UNESCO wyróżnili w obrębie trzech wymiarów kompetencji medialnych: a) dostęp, b) rozumienie i ocena, c) tworzenie i udostępnianie dwunastu głównych kompetencji medialnych (zob. Kompetencje medialne i informacyjne wyróżnione przez UNESCO ).", "Źródło: EAVI – Media Literacy for Citizenship, EAVI PL – Edukacyjna podróż w Świat Mediów, 03.10.2013 (dostęp 23.10.2020). Dostępne w YouTube: https://youtu.be/yqsF6lCBbWE.", "Kompetencje medialne oraz kompetencje medialne i informacyjne często odnoszono do obszaru edukacji jako środowiska, w którym kształtuje się różne kompetencje. Dlatego też szereg inicjatyw i działań w zakresie rozwijania kompetencji medialnych skierowanych było do uczniów oraz nauczycieli. Takie myślenie, również w Polsce ukierunkowywało dyskusję nt. kompetencji medialnych na obecność odpowiednich treści w podstawach programowych. Jednak dynamiczny rozwój mediów cyfrowych, ogromna popularność smartfonów zwłaszcza w grupie młodych użytkowników oraz zmiany w konsumpcji treści medialnych i nowe praktyki medialne spowodowały, że o kompetencjach medialnych zaczęto mówić w kontekście idei uczenia się przez całe życie (lifelong learning) i podkreślać, że pozwalają one każdemu człowiekowi na swobodne uczestnictwo w życiu społeczno-kulturowym, a także obywatelskim oraz umożliwiają własną ekspresję oraz rozwój osobisty i zawodowy. Zaczęto także wyraźnie oddzielać kompetencje odnoszące się do mediów cyfrowych i niecyfrowych, wprowadzając pojęcie \"kompetencji cyfrowych\" (digital competece).", "Określenie \"digital competence\" zostało użyte po raz pierwszy w Zaleceniu Parlamentu Europejskiego i Rady z dnia 18 grudnia 2006 roku w sprawie kompetencji kluczowych w procesie uczenia się przez całe życie i zdefiniowane zostało jako „umiejętne i krytyczne wykorzystywanie technologii społeczeństwa informacyjnego (TSI) w pracy, rozrywce i porozumiewaniu się. Opierają się na podstawowych umiejętnościach w zakresie TIK: wykorzystywania komputerów do uzyskiwania, oceny, przechowywania, tworzenia, prezentowania i wymiany informacji oraz porozumiewania się i uczestnictwa w sieciach współpracy za pośrednictwem internetu” (https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:32006H0962&from=EN). W polskiej wersji dokumentu pojęcie \"digital competence\" przetłumaczono niefortunnie jako „kompetencje informatyczne”, nieco zawężając znaczenie użyte w oryginale, gdzie kładzie się nacisk także na krytyczne aspekty korzystania z technologii informacyjno-komunikacyjnych oraz wykorzystywanie ich w celach twórczych (a więc wychodzącego daleko poza umiejętności techniczne). Jest to o tyle niezrozumiałe, że w innym opublikowanym później dokumencie Komisji Europejskiej na określenie umiejętności czysto technicznych stosuje się określenie \"digital literacy\" jako „umiejętności potrzebnych do osiągnięcia kompetencji cyfrowych”. Pomimo tych niejasności językowych w 2010 roku Komisja Europejska podjęła pracę nad stworzeniem modelu kompetencji cyfrowych, który standaryzowałby działania w tym zakresie we wszystkich państwach członkowskich Unii. W ramach powołanego z inicjatywy Dyrekcji Generalnej ds. Edukacji i Kultury Komisji Europejskiej Wspólnego Centrum Badawczego (the Joint Research Center) rozpoczęto prace nad Europejską Ramą Kompetencji Cyfrowych – Digital Competence (w skrócie: DigComp), której celem było opracowanie kluczowych kompetencji cyfrowych oraz mapy ich wdrażania. W zaktualizowanej w 2006 roku wersji dokumentu \"DigCop 2.0\" [4] wyróżnia się również pięć obszarów kompetencji, modyfikując jednak ich zakres (1. Umiejętność korzystania z informacji i danych, 2. Komunikacja i współpraca, 3. Tworzenie treści cyfrowych, 4. Bezpieczeństwo, 5. Rozwiązywanie problemów). Wprowadzona zmiana dotyczyła przede wszystkim rozszerzenia kompetencji cyfrowych na dostępne technologie cyfrowe, np. komputery i urządzenia osobiste, telewizję cyfrową oraz – co ważne – na roboty i urządzenia wyposażone w sztuczną inteligencję (niestety znalazły się one jedynie w obszarze związanym z rozwiązywaniem problemów)."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 884, "subject": "Znaczenie pamięci kulturowej w komunikacji wizualnej", "paragraphs": ["Mimo wszystkich zmian, z którymi mamy obecnie do czynienia w komunikacji wizualnej, nie możemy zapominać o tym, że obrazy nie tylko podlegają ustawicznym transformacjom zarówno w sferze formalnej, jak i znaczeniowej, ale też przechowują w sposób zdumiewająco efektywny przekazy i wzorce kulturowej pamięci. Jednym z pierwszych, którzy zwrócili na to uwagę był Aby Warburg (1866-1929) [1], [2]. W końcu 1927 roku rozpoczął on pracę nad dziełem zatytułowanym \"Atlas Mnemosyne\" [3] (zob. Online Bilder Atlas Mnemosyne: https://warburg.sas.ac.uk/library-collections/warburg-institute-archive/online-bilderatlas-mnemosyne). Nie był to zwykły projekt książki, czy albumu z ilustracjami. Autor przez wiele lat zbierał przedstawienia różnorodnych typów ikonograficznych, czyli charakterystycznych układów przedstawianych postaci, występujących w sztuce Zachodu, począwszy od antyku aż do czasów sobie współczesnych, zwracając uwagę na ich gestykulację, mimikę, towarzyszące im atrybuty, a nawet ich otoczenie. Zauważył niezwykłą wprost trwałość niektórych wyobrażeń, systematycznie pojawiających się w różnych wariantach.", "W czasach Warburga funkcjonowało wyraziste rozgraniczenie między sztuką wysoką i wyobrażeniami ludowymi, czy użytkowymi. Uczony zauważył jednak, że wyodrębnione przez niego ujęcia można znaleźć w przedstawieniach reprezentujących wszystkie poziomy wizualnego przekazu, dlatego gromadził zarówno zdjęcia i ryciny znanych arcydzieł malarstwa i rzeźby, jak też numizmaty, wycinki prasowe zawierające ilustracje lub fotografie, pocztówki, znaczki czy reklamy (wśród nich znalazła się nawet reklama papieru toaletowego) i wiele innych. Tworzył z tych przedstawień specyficzne kolaże, układane na tablicach, na których umieszczał uszeregowany tematycznie materiał ikonograficzny. Przygotował początkowo 40 tablic. Potem powstały jeszcze dwie wersje \"Atlasu\". Ostatnia z 1929 roku zawierała 79 tablic. Z powodu przedwczesnej śmierci autora, wiele z tych plansz zostało niedokończonych. Warburg zamierzał napisać książkę zawierającą niezbędne wyjaśnienia wszystkich zestawień, zawartych w omawianej książce, nie zdążył jednak ukończyć i tej pracy, dlatego dysponujemy raczej szkicem projektu niż gotowym dziełem.", "Bogaty materiał porównawczy pozwolił Warburgowi wysnuć wiele oryginalnych wniosków, okazał się również bardzo ważną inspiracją dla innych badaczy. Nie sposób w tym miejscu przedstawić złożonej koncepcji tego dzieła, wspomnę więc wyłącznie o jednym aspekcie zbioru, pozwalającym nie tylko na lepsze rozpoznanie przesłania sztuki dawnej, lecz także na wykorzystanie koncepcji Warburga w kontekście współczesnej komunikacji wizualnej. Gromadząc źródła ikonograficzne Warburg stwierdził, że określone obrazy są nośnikami nie tylko znaczeń, lecz przede wszystkim wyrazistych emocji. Większość wyodrębnionych przez niego przedstawień charakteryzował pełen cierpienia patos, jednakże uczony znalazł również sceny pełne harmonii i łagodności [4]. Rozpatrywane w takim kontekście przedstawienia wizualne stawały się zarówno świadectwem określonego stylu, czy mody, właściwego dla danej epoki, jak też uzewnętrznieniem głębokich, często nieuświadomionych przeżyć. Dlatego też Warburg rozumiał sztukę jako rodzaj kulturowej praktyki psychoterapeutycznej, pomagającej w przepracowaniu indywidualnych i zbiorowych traum. Jego zdaniem, w określonych ujęciach zawierało się również przesłanie nadziei na możliwość zracjonalizowania i zharmonizowania tych trudnych przeżyć.", "Do koncepcji Warburga nawiązał Erwin Panofsky (1892-1968) [5], tworząc własną metodę pracy z obrazem. Wyróżnił on trzy poziomy analizy dzieła sztuki. Pierwszym jest opis, polegający na szczegółowym przedstawieniu danego wyobrażenia, poczynając od ustalenia autorstwa, czasu i miejsca powstania, materiału, z którego dany obiekt został wykonany, ewentualnie miejsca jego przechowywania itp. Analiza drugiego poziomu koncentruje się na ustaleniu ikonografii, czyli rozpoznaniu konwencjonalnych kodów przekazu, którymi posłużył się twórca danego przedstawienia. Trzeci poziom, czyli ikonologia stanowi natomiast próbę wniknięcia w treści, które ujawniają się na danym etapie kultury, chociaż czasem nie dostrzegają ich ani sam twórca, ani jego bezpośredni odbiorcy. Etap ten stanowi więc próbę odpowiedzi na pytanie, w jaki sposób dany artysta przekracza nie tylko zastane wzorce artystyczne, lecz także kulturowe schematy. Panofsky pokazał, że nawet perspektywa jest kulturową formą, dzięki której możliwa stała się większa racjonalizacja i obiektywizacja procesów widzenia [6]. Jego metoda jest obecnie wykorzystywana także do badań nad wizualnością w sieci.", "Refleksja nad kulturowym, a zarazem emocjonalnym kontekstem obrazu pozostała wyróżnikiem również współczesnych badań nad wizualnością. W rezultacie systematycznego procesu digitalizacji zbiorów archiwalnych i muzealnych mamy dziś ułatwiony dostęp do sztuki dawnej i najnowszej, wysokiej i popularnej. Wiele z tych obrazów stanowi ciągle żywy element kultury, a niestandardowe wykorzystanie tradycyjnych klisz tworzy podstawę dla nowych, inspirujących i czytelnych komunikatów wizualnych. Żeby jednak tak się stało, należy uwzględnić wszystkie aspekty wizualnego oddziaływania. Dlatego William J.T. Mitchell proponuje, by zastanawiając się nad specyfiką widzenia postawić sobie również pytania: „Dlaczego doświadczenie wizualne jest tak nasycone lękiem i fantazją? Czy widzenie ma historię? W jaki sposób wizualne spotkanie z innymi ludźmi (a także obrazami i przedmiotami) wpływa na konstrukcję życia społecznego?” [7] (por. [8]). Dopiero w perspektywie tak szerokiej rekonstrukcji kulturowej świadomości i pamięci obrazów możemy w sposób właściwy budować komunikację wizualną naszych czasów.", "Przykładem twórczej syntezy tradycji i nowatorskich wątków może być plakat kierunku Kulturoznawstwo (Wydział Humanistyczny AGH) autorstwa Dominiki Klimczak. W jego kompozycji został wykorzystany schemat jednego z najbardziej znanych obrazów na świecie, czyli \"Giocondy\" Leonarda da Vinci (1452-1519), a także motyw kojarzący się z filmem \"Matrix\". Mimo, że pochodzące z różnych epok, obydwa elementy tworzą spójną całość, ponieważ kojarzą się z zaciekawieniem, tym co nieznane i frapujące, a także niebezpieczne. Jednocześnie przez odwołanie do symboliki wirtualnej sieci, przedstawienie to ustanawia zupełnie nowy kontekst, trafnie wpisując się w kody najnowszej wizualności."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 886, "subject": "Komunikacja wizualna w kontekście psychoanalizy", "paragraphs": ["W ramach psychoanalizy nie wypracowano wprawdzie jasno określonego warsztatu badawczego odnoszącego się do obrazów, jednak nie sposób zaniechać jej przypomnienia w kontekście omawiania podstawowych zasad komunikacji wizualnej. Wynika to z uznania przez psychoanalityków wyjątkowej roli widzenia w procesie rozwoju każdego człowieka, a także w kulturze [1]. Według Zygmunta Freuda (1856-1939) skopofilia, czyli przyjemność oglądania, należy do najsilniejszych popędów i cechuje wszystkie dzieci, które przyszły na świat bez poważnych wad wzroku. Na doniosłą rolę widzenia w procesie kształtowania osobowości zwracał również uwagę jeden z najwybitniejszych uczniów Freuda, Jacques Lacan (1901-1981) [2]. Opisał on fazę lustra, w którą dziecko wchodzi między 6 a 18 miesiącem życia. Wyznacza ona moment, gdy człowiek zaczyna rozpoznawać siebie jako kogoś niezależnego od matki, a jednocześnie formować wyobrażenie o własnej odrębności. Ta świadomość prowadzi wprawdzie do alienacji, stanowi jednak również punkt wyjścia dla dalszego rozwoju osobowości. Lacan posługiwał się także pojęciem spojrzenia, reprezentującego gotowy i kulturowo usankcjonowany kompleks interpretacji widzenia. O ile przekraczając fazę lustra dziecko uczy się samodzielnego oglądania siebie w otaczającym świecie, to konfrontując się z tak rozumianym spojrzeniem wie, iż jest także oglądane przez innych, a co za tym idzie zastanawia się, czy sprosta przyjętym konwencjom i zmieści się w wyznaczonych regułach kulturowych. Człowiek szybko uświadamia sobie, że nie ma nad tą kulturową strukturą władzy.", "Psychoanalitycy analizowali komunikację wizualną w dwóch perspektywach. Pierwszą była kwestia kreacji przekazu wizualnego. Sztuka fascynowała Freuda, jednak nie interesowało go ustalanie historii konkretnych ujęć ikonograficznych, czy ich kulturowego odczytania, ale indywidualne doświadczenia twórców, których odzwierciedlenie znajdował w ich dziełach. Pisał na przykład, że w portrecie Giocondy kryje się wspomnienie matki malarza, a „Leonardowi udało się w uśmiechu Mony Lisy ukazać jego podwójny sens – zarówno obietnicę bezgranicznej czułości, jak i złowieszczą groźbę” [3]. Dla Freuda symbolem głębokich, wewnętrznych przeżyć znajdujących swe odzwierciedlenie w sztuce mógł być zresztą każdy przedmiot, nawet najprostszy, taki jak choćby kapelusz czy szuflada.", "Druga perspektywa psychoanalitycznej analizy przekazu wizualnego wiąże się ze strefą jego odbioru. Psychoanalitycy zwracali uwagę na indywidualne postrzeganie ikonosfery, w którym kulturowy wzorzec spotyka się z bardzo osobistym i zazwyczaj nieświadomym nastawieniem. Obraz działa bowiem bardzo często zanim odbiorca zda sobie z tego wpływu sprawę i niezależnie od treści przypisywanych mu przez jego twórcę lub zleceniodawcę. Proces ten uruchamia wspomniana wrodzona przyjemność oglądania, której widz nie potrafi się oprzeć. W przypadkach skrajnych skopofilia może stać się fetyszystyczna, uruchamiając skłonności do przypatrywania się ludziom na przykład w sytuacjach intymnych. Motyw tego specyficznego voyeryzmu jest zresztą często wykorzystywany w kinematografii.", "Zaciekawienie Freuda budziły obrazy pełne niesamowitości. Podobno w jego pracowni wisiała kopia słynnego obrazu zatytułowanego \"Koszmar nocny\" romantycznego malarza Johanna Heinricha Füssliego (znanego także jako John Henry Fuseli, 1741-1825), ukazującego kobietę śpiącą w komnacie. Ani pozycja jej ciała, ani wchodzące do sypialni zwierzęta, czyli fantastyczna małpa i koń z pokrytymi bielmem oczyma, nie zostały przedstawione realistycznie. Tytuł obrazu stwarzał jednak wiarygodne uzasadnienie takiego kompozycyjnego zestawienia, kojarząc się z legendarnym uniwersum pełnym tajemniczych i niebezpiecznych stworzeń. Natomiast w psychoanalitycznej interpretacji tego dzieła zwrócono uwagę przede wszystkim na treści nieświadomości, związane z ekspresją seksualności, pełnej perwersyjnych, a nawet sadystycznych asocjacji.", "Było to możliwe, ponieważ psychoanaliza dostarczyła języka opisującego seksualność, dzięki któremu ta sfera życia stała się na swój sposób oczywista i zrozumiała, a w konsekwencji przestała funkcjonować wyłącznie w kategoriach kulturowego tabu. Koncepcja kompleksu Edypa, czy Erosa i Thanatosa, a więc rozwoju oraz zniszczenia, dwóch komplementarnych popędów w ludzkim życiu [4], weszły na trwałe do powszechnie używanego słownika. W rezultacie została przesunięta również granica obrazowania, co miało wielkie znaczenie dla ukształtowania współczesnej ikonosfery.", "Koncepcja Freuda stała się istotną inspiracją dla wielu twórców, na przykład surrealistów. Ten wpływ jest zauważalny zwłaszcza w kinematografii [5], [6]. Pierwszy z filmów nawiązujących do myśli Freuda powstał już w 1926 roku w Niemczech i nosił tytuł \"Tajemnice duszy\", a opowiadał o psychoanalityku i jego pacjencie. Wyreżyserował go George Pabst (1885-1967), który jako konsultantów zatrudnił uczniów ojca psychoanalizy – Karla Abrahama (1877-1925) i Hansa Sachsa (1881-1947) [7]. W kreowaniu obrazów filmowych znaczącą rolę odegrało odwołanie do poetyki snów. Jak pisze Paweł Dybel: „(...) w marzeniu sennym – a następnie w jego językowej narracji – ma miejsce znacznie większa swoboda w łączeniu ze sobą poszczególnych 'przedstawień' i w poddawaniu ich różnego rodzaju transformacjom niż ma to miejsce w wypowiedziach, będących pod całkowitą kontrolą świadomości. W związku z tym możliwe stają się tutaj również różnego rodzaju połączenia między słowami oraz ich transformacje, które są nie do pomyślenia w różnych formach języka potocznego czy w języku naukowym” [8]. Takie ciągi swobodnych skojarzeń odgrywają istotną rolę również w przekazach wizualnych.", "Przekonanie o wadze doświadczenia widzenia w rozwoju człowieka potwierdziło wielu uczonych zajmujących się wizualnością. Na przykład John Berger pisał: „Widzenie poprzedza słowa. Dziecko patrzy i rozpoznaje, zanim nauczy się mówić” [9]. Jeszcze mocniej podkreślał to William J.T. Mitchell: „Nie jest po prostu tak, że widzimy w sposób, w jaki widzimy, ponieważ jesteśmy zwierzętami społecznymi, ale jest również tak, że nasze społeczne formy organizacyjne przybierają taką formę, jaką przybierają, ponieważ jesteśmy zwierzętami widzącymi” [10]. Na koniec należy dodać, że podejście psychoanalityczne jest dzisiaj często poddawane krytyce, na przykład ze względu na wspomniany już na początku brak jednoznacznej metody badań nad wizualnością i wynikającą z tego dużą dowolność w formułowaniu wniosków. Przedmiotem polemiki pozostaje również kwestia ustanawiania płci w sferze komunikacji wizualnej. Problem ten stanowi ważny element psychoanalitycznej refleksji, a zarazem pojawiające się w tym kontekście wyjaśnienia są dzisiaj często uznawane za niewystarczające [11]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 885, "subject": "Ramy komunikacji według psychologii postaci (Gestalt)", "paragraphs": ["W 1912 roku niemiecki filozof i psycholog Max Wertheimer (1880-1943) opublikował wyniki prowadzonych przez siebie badań nad zjawiskiem percepcji. Ludziom biorącym udział w eksperymencie pokazywał w specjalnych okularach dwa umieszczone obok siebie i migające naprzemienne światełka. Badani postrzegali je jednak jako jeden obiekt, znajdujący się w ruchu. Wertheimer nazwał to efektem lub fenomenem phi (niem. Phi-Phänomen). Jego badania kontynuowali Wolfgang Köhler (1887-1967) i Kurt Kofka (1886-1941). Zainicjowali oni nurt określany mianem Gestalt, czyli psychologią postaci, zwaną również konfiguracjonizmem lub formizmem [1], [2]. Podobne łączenie odrębnych bodźców w określone całości badacze zauważyli także w przestrzeni słyszenia.", "Koncepcję psychologii postaci tak podsumowywał Rudolf Arnheim (1904-2007): „Zobaczenie czegoś łączy się z wyznaczeniem mu miejsca w całości: z osadzeniem go w przestrzeni, z zakarbowaniem na skali jego rozmiarów, walorów i odległości. (...) Nie ustalamy z osobna rozmiarów, odległości, kierunków i nie porównujemy ich potem z fragmentami. Zazwyczaj postrzegamy je jako właściwości całego pola widzenia” [3]. Autor ten podkreślał znaczenie tradycyjnej sztuki, której dzieła pozwalały odnaleźć porządek w rzeczywistości [4], [5]. Arnheim wprowadził też pojęcie myślenia wzrokowego, które nie jest statyczne i umożliwia odkrywanie sensu w dynamice przekształcającego się świata [6].", "Podążając tym tropem, Kurt Lewin (1890-1947) powiązał koncepcję Gestalt z teorią pola, tworząc tzw. psychologię topologiczną. Udowadniał on, że człowiek postrzega sytuacje, w których funkcjonuje jako pewne całości i w taki sposób, że pole jego świadomości tworzy całość ze środowiskiem zewnętrznym, a jego zachowanie jest wypadkową obydwu tych warunków. Fritz Perls (1890-1970) na bazie badań psychologii postaci, koncepcji Lewina oraz psychoanalizy opracował po wojnie terapię Gestalt. Jej celem stała się holistyczna integracja człowieka, przy czym kwestie badań nad percepcją nie odegrały w tym przypadku już żadnej roli [7].", "Jednym z kluczowych odkryć psychologii postaci było określenie relacji figury i tła w percepcji. Ten wątek potwierdzili również inni uczeni, na przykład duński psycholog Edgar Rubin (1886-1951), który zajmował się złudzeniami wzrokowymi. Wskazał on, że w zależności od tego, na którym z elementów obecnych w polu widzenia się koncentrujemy, możemy dostrzegać odmienne kształty i inaczej rozumieć rzeczywistość. Ilustracją tego stała się słynna figura wazonu, która jednocześnie obrazuje dwie profilowo zwrócone do siebie twarze ( Rys. 1 ).", "Podobny pomysł uchwycił William Ely Hill (1887–1962) na rysunku nazwanym \"Moja żona i moja teściowa\" ( Rys. 2 ), wzorowanym na niemieckiej pocztówce z końca XIX wieku, ukazującym zarazem oblicze dwóch kobiet – profil młodej elegantki oraz surową twarz staruszki.", "W ramach psychologii Gestalt wypracowano podstawowe prawa percepcji, które są uwzględniane również dzisiaj, na przykład w projektowaniu interfejsów. Pozwalają one zrozumieć, w jaki sposób w chaosie wielu nadmiarowych bodźców koncentrujemy się na tych, które odbieramy jako czytelną informację. Innymi słowy, prawa te wskazują na percepcyjne uproszczenia rzeczywistości, dzięki którym możemy sprawniej funkcjonować w świecie.", "Prawo bliskości polega na łączeniu tych przedmiotów w zbiorze, które występują blisko siebie. Wolimy szukać wspólnych, większych kształtów, niż koncentrować się na rozproszonych, drobnych elementach, wyodrębniamy raczej całości niż poszczególne części. Dlatego na Rys. 3 uwagę przyciągają nie poszczególne kółka, ale figury, w których zostały one ułożone.", "Prawo domknięcia wskazuje na tendencję do dostrzegania w rzeczywistości pewnych określonych elementów, nawet jeśli nie są one kompletne. Dlatego widzimy kształty „całych” figur również tam, gdzie są one zaledwie zasugerowane, gdyż nasza percepcja „uzupełnia” brakujące elementy. Na przykład na Rys. 4 dostrzegamy prostokąt i koło, chociaż zostały narysowane jedynie odcinki.", "Prawo podobieństwa wiąże się z tendencją do grupowania podobnych do siebie elementów, według kształtu, wielkości, koloru czy faktury. Dlatego na Rys. 5 widzimy raczej „paski” podobnych elementów, niż to, że tworzą one kwadrat.", "Warto wspomnieć jeszcze o prawie „wspólnego losu”, ujawniającym się, gdy przyglądamy się zbiorowi elementów w ruchu i na przykład stado ptaków podrywające się do lotu, uznajemy za określoną całość, działającą pod wpływem jednego bodźca.", "Źródło: National Geographic, Flight of the Starlings: Watch This Eerie but Beautiful Phenomenon, 15.11.2016 (dostęp 10.09.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=V4f_1_r80RY.", "Te i inne prawa psychologii postaci są bardzo często wykorzystywane w projektowaniu graficznym. Na przykład prawo bliskości sprawdza się w konstruowaniu strony internetowej, na której zgrupowanie obok siebie określonych linków sugeruje, że są to elementy analogiczne, a ich funkcje podobne. Natomiast prawo „wspólnego losu” pozwala zsynchronizować ruch myszki komputerowej kierowanej ręką i kursora na ekranie komputera. Wszystkie prawa Gestalt w kontekście projektowania grafiki współczesnych interfejsów omawia Mads Soegaard [8]. Zebrany w przywołanym artykule materiał stanowi wymowne świadectwo, że zasady te stanowią niezmiernie ważny aspekt komunikacji wizualnej."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 887, "subject": "Wizualne przekazy wiedzy", "paragraphs": ["W latach trzydziestych XX wieku Margaret Mead (1901-1978) i Gregory Bateson (1904-1980) prowadzili badania antropologiczne na Bali. Interesowały ich przede wszystkim kulturowe wzorce płci oraz modele wychowania przekazywane w tamtejszych tradycyjnych środowiskach. Zastanawiali się, w jaki sposób wpływają one na rozwój ludzkich temperamentów. W dokumentacji chcieli pokazać również różnicę między kulturami pierwotnymi i schematami wychowania powielanymi w cywilizacji Zachodu. Postanowili wyniki swoich badań przedstawiać w formie opisowej – notatki prowadziła Mead oraz fotograficznej – tym zajął się Bateson, który wykonał około 25 000 zdjęć.", "Podsumowaniem tych badań stała się wydana w 1942 roku książka, w której autorzy posłużyli się niezwykle szeroką bazą fotograficzną [1]. W tej publikacji zdjęcia nie pełniły wyłącznie funkcji etnograficznej ilustracji tekstu. Można wręcz stwierdzić, że Bateson i Mead przygotowali pierwszą naukową książkę, w której obrazy pełniły rolę wiodącą, a narracja pozostała jedynie ich uzupełniającym wyjaśnieniem. Ten efekt udało się uzyskać, ponieważ fotografie zamieszczone w publikacji nie były pozowane, dzięki czemu pokazano rozbudowane sekwencje gestów i układów ciała, obrazujące na przykład zachowania matek względem swoich dzieci. W 1938 roku para uczonych przeprowadziła analogiczne badania w Nowej Gwinei, gdzie Bateson wykonał 10 000 zdjęć, jednakże osobne wnioski z tej naukowej wyprawy nie zostały nigdy opublikowane. Bateson i Mead przygotowali również filmy. Wielką popularność zdobył \"Trans and Dance in Bali\". Mead nakręciła jeszcze potem film \"Bathing Babies in Three Cultures\", ilustrujący zróżnicowane kulturowo postawy opiekuńcze matek wobec swoich dzieci.", "Źródło: Vivina Salvetti, M. Mead, Bathing Babies in Three Cultures, 15.03.2017 (dostęp 10.09.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=rmvqdDBSY0k.", "Bateson i Mead swoimi badaniami zapoczątkowali antropologię wizualności (visual anthropology), w której głównym problemem badawczym pozostają kulturowe obrazy. Warto wspomnieć, że jedną z ich najważniejszych inspiracji stała się psychologia Gestalt, wraz z podstawowym założeniem tego kierunku, dotyczącym postrzegania świata jako pewnej całości, co pozwala na odruchową interpretację rzeczy, zachowań i zdarzeń [2] (zob. Ramy komunikacji według psychologii postaci (Gestalt) ).", "W latach siedemdziesiątych Mieczysław Porębski [3], opisując ikonosferę, używał pojęcia „informacji wizualnej”, podkreślając tym samym, że obraz jest także przekazem wiedzy o kulturze i społeczeństwie. Dzisiaj ten wątek jest coraz szerzej wykorzystywany w nauce. Jak pisze Michał B. Paradowski: „Pojmowanie rzeczywistości poprzez abstrakcyjny system znaków językowych stopniowo ustępuje miejsca wnioskowaniu na podstawie obrazów, które zdobywają coraz większe znaczenie: nie tylko wspomagając, ale coraz częściej również zastępując formy tekstowe” [4]. O znaczeniu obrazu w prezentacji wiedzy świadczy upowszechnienie metod wizualnych nie tylko w naukach humanistycznych i społecznych, lecz także matematycznych, medycznych czy eksperymentalnych. Paradoks współczesności polega bowiem na tym, że coraz więcej danych ma charakter liczbowy i statystyczny. Wszystko (lub prawie wszystko) można przeliczyć i pokazać w formie numerycznej. Jednakże taki sposób ukazania informacji jest nie tylko nudny, lecz także niezrozumiały, nawet dla przedstawicieli środowisk naukowych. Dlatego pomimo powszechnego dostępu do informacji, nieocenioną wartością staje się umiejętność interpretowania i przekazywania ich zbioru w postaci obrazowej, zwłaszcza jeśli mają one charakter interdyscyplinarny.", "Przykładów tej wizualnej reorientacji w nauce jest wiele. Jednym z najbardziej znanych pozostaje założony w roku 2006 w Stanach Zjednoczonych portal Jove (https://jove.com) [5], który umożliwia publikacje wideoartykułów. Przykładami ułatwiającymi poruszanie się wśród zalewu danych są formy usytuowane na pograniczu wizualności i słowa, do których należy choćby chmura tagów, a także pozwalające zorientować się w poznawanym obszarze nauki wizualizacje lub wystawy interaktywne. W tym nurcie znajdziemy też – wskazywanie trendów, analizę związków, porównania, czy symulacje.", "Dzisiaj ikonizacja języka wstępująca powszechnie w komunikacji elektronicznej dotyczy również przekazów informacji przeznaczonych dla przeciętnego odbiorcy [6]. Jarosław Pacuła wskazuje, że połączenie słów i obrazu w medialnym przekazie odbywa się na cztery sposoby, do których należą: „1. Graficzne wyeksponowanie wybranego komunikatu językowego (…), 2. wkomponowanie grafiki w słowo pisane, 3. wpisanie słów w grafikę, 4. modyfikacja graficzna elementów językowych prymarnie zawartych w obrazie” [7]. Autor ten słusznie jednak zauważa, że dzięki takim zabiegom dziennikarskie zapowiedzi stają się nieraz nie tyle „informacją o informacji”, ale „reklamą informacji” [8].", "Wizualizacja danych ma spełnić kilka ważnych celów. Elementy graficzne uatrakcyjniają przekaz, a co za tym idzie budzą większe zainteresowanie odbiorców. Ich użycie ułatwia zapamiętywanie nawet skomplikowanych informacji, a jednocześnie pomaga w wyeksponowaniu komunikatu. Formy ikoniczne wzmacniają perswazyjność transmisji, dzięki oddziaływaniu na emocje i wywoływaniu osobistych skojarzeń czytelnika. Wizualizacja danych daje więc odbiorcy poczucie nie tylko, że widzi, ale też rozumie więcej.", "Dzisiaj coraz częściej elementami wizualizacji posługują się politycy, czy biznesmeni, zatrudniając fachowych ilustratorów, którzy na bieżąco w sposób zabawny, a jednak nie pozbawiony wartości merytorycznych, obrazują treści wygłaszane w trakcie ich wystąpień. Ta forma cieszy się rosnącym zainteresowaniem. W Polsce jedną z pierwszych osób zajmujących się graficznym transferem danych jest jest Agata Jakuszko-Sobocka, która przekłada na obrazy informacje o ideach, działaniach czy produktach."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 888, "subject": "Zwrot postmodernistyczny i wizualność", "paragraphs": ["Od kiedy Jean Baudrillard (1929-2007) sformułował w 1981 roku koncepcję hiperrzeczywistości, w której wszystko jest symulacją nawarstwiających się znaków, czyli symulakrów, obrazy zyskały w koncepcji kultury miejsce bezprecedensowe [1]. Symulakry nie prowadzą bowiem do żadnej ukrytej postaci rzeczywistości, nie stanowią też reprezentacji żadnej innej rzeczy oprócz ich samych. Ta reinterpretacja obrazu odzwierciedliła się również w postmodernistycznej koncepcji języka. Według interpretacji Rolanda Barthesa (1915-1980), obraz wprawdzie zawiera treść kodowaną, jednak nie mniej ważny pozostaje jego „przekaz bez kodu” [2], który oddziałuje na wyobraźnię odbiorcy. W konsekwencji jednym z postmodernistycznych przejawów odchodzenia od tradycyjnego definiowania pojęć stała się nowa formuła pojęcia dyskursu, który w tym kontekście oznacza wypowiedź nie tylko językową, lecz także ikoniczną. Obraz, podobnie jak tekst, staje się wówczas wyrażeniem określonej opowieści, której źródeł nie sposób ustalić w chaotycznym kłączu rzeczywistości, można jedynie sprawdzać bieżące oddziaływanie i reinterpretowanie jej znaczeń.", "Wizualność jako taka okazuje się potężnym narzędziem oddziaływania społecznego i indywidualnego, co wielokrotnie podkreślał na przykład Michel Foucault (1926-1984). Na podstawie analizy obrazu Diego Velazqeza (1599-1660) \"Las Meninas\" (\"Panny dworskie\" – Rys. 1 ) filozof analizował różne spojrzenia, kreujące przestrzeń – malarza, odtwarzającego dworską scenę, infantki, członków jej dworu, tajemniczego widza, stojącego w drzwiach wiodących na klatkę schodową, wreszcie odbitej w lustrze pary królewskiej [3]. Według Foucaulta, żadne z tych spojrzeń nie ustanawia rzeczywistości w sposób jednoznaczny – są one rozproszone. Tak też dzieje się w przestrzeni kulturowo-społecznej, w której żaden sposób widzenia nie jest w istocie wystarczający, by obiektywnie ją objąć i wykreować jej obraz. Dla Foucaulta dzieło Velazqueza stało się swoistym dowodem na postępujący w kulturze Zachodu proces zanikania podmiotu. Na marginesie warto jednak zaznaczyć, że trudno wyobrazić sobie powstanie koncepcji tego złożonego wyobrażenia, bez odwołania właśnie do idei podmiotu, szukającego obiektywnego poznania rzeczywistości w jej różnorodnych kontekstach.", "Foucault podkreślał, że władza jest w rękach tego, kto zarządza widzeniem. By to zilustrować, przywołał pomysł żyjącego w XVIII wieku angielskiego filozofa i prawnika, Jeremy’ego Benthama, który wymyślił projekt więzienia w kształcie pierścienia, podzielonego na cele, nazwanego Panoptikonem ( Rys. 2 ). Osadzeni w nim więźniowie są widoczni dla śledzącego ich zachowanie strażnika, który rezyduje w wieży znajdującej się pośrodku pierścienia, on sam pozostaje jednak dla nich niewidzialny. Rozważania nad tym szkicem stały się dla Foucaulta punktem wyjścia dla ustanowienia koncepcji społeczeństwa nadzorowanego, w którym ludzie są ciągle inwigilowani, chociaż nie dzieje się to za murami więzienia, lecz przy wykorzystaniu wiedzy i potęgi przekazu mass mediów [4]. Dzięki ich wykorzystaniu wytwórcy obrazów egzekwują swoją władzę nad biernymi odbiorcami widzenia. Koncepcja Panoptikonu, chociaż często krytykowana, stała się jedną z najczęściej powtarzanych współcześnie metafor władzy. Jedną z jej modyfikacji znajdziemy w książce Nicholasa Mirzoefa \"The Right to Look. A Counterhistory of Visual\" z 2011 roku, której wnioski Łukasz Zaremba trafnie podsumowuje, pisząc, że władza nie „widzi”, lecz „wizualizuje” [5].", "Również według Umberto Eco (1932-2016) wizualność stanowi bardzo ważny element dyskursu, ustanawiającego komunikację, którą filozof ten rozważał w perspektywie semiologii (semiotyki), analizując oddziaływanie znaków w kulturze współczesnej [6]. Eco opisywał na przykład funkcjonujące w przestrzeni społecznej figury woskowe i kiczowate kopie arcydzieł, wskazując, że pełnią one ważną funkcję informacyjną i dydaktyczną, ucząc, rozbudzając aspiracje, a także kreując nowe (nie zawsze najwyższych lotów) gusty. W konsekwencji wspomniane artefakty odwzorowują obraz świata, w którym tradycyjna hierarchizacja sztuki i autorytetów została zaniechana i każdy obrazowy sposób jest dobry, by się nim posłużyć dla przekazu treści i wywarcia wpływu.", "W podejściu postmodernistycznym na pierwsze miejsce wybija się waga odbiorczości, czyli tego, w jaki sposób przekaz ikoniczny może zostać odczytany i jak przez tę interpretację oddziałuje on na daną jednostkę lub grupę społeczną. Tym samym, dyskurs ustanawia rzeczywistość, ponieważ poza nim nie sposób wyłonić jakichkolwiek wartości, czy znaczeń."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 889, "subject": "Obraz w komunikacyjnej rzeczywistości nowych mediów", "paragraphs": ["Martin Jay określił dominację wizualności w kulturze współczesnej mianem okulocentryzmu (wzrokocentryzmu) [1]. Magdalena Szpunar, podążając za Gillian Rose, dzieli wizualność na dwie sfery określone jako przedstawienia i przejawy wizualne: „Przedstawienia wizualne to celowo tworzone obrazy (sztuka, reklama), a przejawy wizualne to wszystko to, co możemy poddać percepcji wzrokowej i przetworzyć, np. w obraz trwały za pomocą aparatu fotograficznego. Łatwo więc skonstatować, że niemal cała rzeczywistość społeczna mieści się w zakresie przejawów wizualnych i tylko od nas zależy, jak je zinterpretujemy i czy uznamy za wystarczająco znaczące, by poddać utrwaleniu” [2]. Niewątpliwie ten aspekt kultury zaznacza się dzisiaj szczególnie mocno, gdyż jesteśmy odbiorcami komunikatów ikonicznych, a jednocześnie bierzemy aktywny udział w ich generowaniu.", "Obraz jest obecny w przekazach mediów klasycznych, takich jak książki, prasa, ze szczególnym uwzględnieniem pism ilustrowanych, komiksów, plakatów czy telewizji. Do tego zbioru należy jeszcze dodać szeroką gamę środków wykorzystywanych przez nowe media (zob. Nowe media. Charakterystyka i cechy ). W tej przestrzeni pojawiają się rozmaite możliwości prezentowania i przetwarzania wiadomości wizualnych, występujących w postaci ilustracji, zdjęć, map, typografii, infografik oraz układów (layout) treści, charakterystycznych dla określonego nadawcy, a także coraz popularniejszych – filmów, animacji i materiałów wideo [3], [4]. Mieke Bal mówi przy tym o swoistej „nieczystości” obrazów w rzeczywistości wirtualnej, w której tracą one swoje urzeczowienie i mogą wprawdzie być źródłem doświadczeń i przedmiotem badań, nie posiadają jednak właściwej innym dziełom substancjalności [5].", "W rzeczywistości wirtualnej postępuje więc hybrydyzacja komunikowania związana ze stopniowym minimalizowaniem znaczenia tekstu, pełniącego często wyłącznie rolę opisową dla przekazu obrazowego. Nie oznacza to, że obrazy zupełnie wyeliminowały tekst, rzadko też występują one samodzielnie. W informacyjnym transferze zazwyczaj towarzyszy im jakiś krótki tekst, lub muzyka. Tendencja do wizualizacji tekstu dotyczy przede wszystkim ludzi młodych [6]. Wszystkie te warunki przekładają się na dążenie do autonomizacji ikonicznej przestrzeni. Jak podkreśla William J.T. Mitchell: „(…) obrazy chcą takich praw, jakie posiada język, a nie przekształcania w język. Nie chcą być sprowadzone ani do „historii obrazów” ani do „historii sztuki”, lecz chcą być postrzegane jako złożone byty zajmujące zróżnicowane podmiotowe pozycje i tożsamości” [7].", "Interpretacja obrazów odbywa się w kontekście reżimów skopicznych [8], które wyznaczają kulturowe ramy kształtowania widzialności, a wynikają z wszechobecności obrazowych komunikatów, a zarazem z przymusu ich śledzenia. Jednocześnie postępuje nieuchronna subiektywizacja tego procesu, wynikająca z podkreślania wagi indywidualnego odbioru wizualnego przekazu. Odruchowe dekodowanie treści zawartych w danym obrazie Ned Racine powiązał z umiejętnością wizualnej piśmienności (visual literacy) [9]. Ta zdolność pozwala na przykład na trafne odczytywanie emotikonów (ideogramów uzyskanych przez odpowiednie wpisanie znaków typograficznych) oraz emoji (emotikonów przekształconych w rysunek), którymi chętnie posługują się użytkownicy nowych mediów w przekazywaniu informacji. Dzieje się tak, ponieważ wskazane elementy graficzne wyrażają proste do rozszyfrowania emocje, nastroje i nastawienia, jak pokazują to Rys. 1 i Rys. 2. Pierwszy z nich przedstawia typowe emoji ilustrujące zadowolenie i radość.", "Obrazek drugi odsyła natomiast do frustracji i zmęczenia spowodowanego wybuchem pandemii, której symbolem stało się noszenie maseczek.", "Przewaga wizualności w kulturze ponowoczesnej budzi wiele głosów krytycznych. Giovanni Sartori przedstawił ją, opisując fenomen homo videns, czyli „człowieka widzącego”, który zatracając się w świecie obrazów gubi zdolność do abstrakcyjnego i krytycznego myślenia, odbierając i przekazując jedynie nieskomplikowane komunikaty, dotyczące najprostszych informacji i emocji. Wszechobecność obrazów sprawia, że widzenie dominuje nad innymi zmysłami, które wycofują się, a w każdym razie stają na drugim planie codziennej praktyki komunikacyjnej [10]. Utrzymanie tej tendencji może więc prowadzić do destabilizacji międzyludzkich relacji. Według Andrzeja Leśniaka dominacja obrazowania w komunikacji niejednokrotnie zaburza jasność przekazu, gdy występuje jako „wizualność spotęgowana” [11]. Jednym ze skutków tej nadmiarowości staje się postępująca inflacja transferu obrazów, która przyczynia się do ich nieuchronnej degradacji."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 890, "subject": "Barwa w komunikacji wizualnej", "paragraphs": ["Kolorystyka stanowi niezwykle istotny element komunikacji wizualnej. Wiąże się z nią bardzo rozbudowana problematyka, dlatego w tym rozdziale znajdą się jedynie podstawowe informacje, dotyczące funkcji barw w komunikowaniu. Barwy proste (monochromatyczne, widmowe), które są otrzymywane w wyniku rozszczepienia światła białego układają się w tęczę. Otwiera ją fiolet, przechodzący w indygo, a następnie niebieski, zielony, żółty, pomarańczowy, czerwony i zamykający układ – purpurowy. Każda z tych barw ma określoną długość i częstotliwość. Fala o określonej długości wywołuje wrażenie danego koloru. Jej postrzeganie jest uzależnione od subiektywnej percepcji, a w konsekwencji ta sama barwa przez różnych ludzi w zależności od ich wieku, czy ewentualnych wad wzroku, może być odbierana jako, przynajmniej do pewnego stopnia, odmienne kolory. Barwy proste nie podlegają rozproszeniu, a ich mieszanki składają się na barwy złożone. Barwy achromatyczne rozciągają się od bieli przez szarość do czerni i nie posiadają komponentu koloru.", "Widmo światła białego ułożone zgodnie z ruchem wskazówek zegara od fioletu do czerwieni układa się w tzw. koło kolorów [1]. Zmieszanie kolorów w kole daje efekt bieli, szarości lub czerni, więc prowadzi do syntezy addytywnej lub subtraktywnej. Kolory, które znajdują się w tym układzie naprzeciw siebie są uważane za dopełniające. Ich zestawienie daje efekty dynamiczne, bo zbudowane na opozycji. Wykorzystanie barw znajdujących się blisko siebie, czyli pokrewnych, pozwala uzyskać harmonijny rezultat. W kulturze Zachodu koło barw było przedmiotem zainteresowania od dawna, a w literaturze spotykamy jego liczne przedstawienia (zob. https://publicdomainreview.org/collection/colour-wheels-charts-and-tables-through-history).", "Funkcjonuje wiele modeli komputerowego przetwarzania barw [2]. Monitor może wyświetlać od 256 do ponad miliona różnych kolorów. Wśród najbardziej znanych narzędzi przetwarzania kolorów należy wymienić system RGB. Jego nazwa została utworzona od barw – czerwonej (ang. Red), zielonej (ang. Green) i niebieskiej (ang. Blue). System ten ma charakter addytywny, to znaczy, że kolor biały powstaje, gdy połączą się wszystkie występujące w nim barwy. Jeden z popularnych systemów przetwarzania kolorów w druku, czyli CMYK, nosi nazwę od kolorów prostych i czerni: Cyan – turkusowy, Magenta – magenta, Yellow – żółty, blacK – czarny. Ten system jest określany jako subtraktywny, co oznacza, że przez połączenie występujących w nim barw otrzymuje się kolor czarny. Jego możliwości są znacznie ograniczone w porównaniu z przetwarzaniem komputerowym. Trzeba również pamiętać, że każdy nośnik inaczej przetwarza barwę, dlatego to samo zdjęcie oglądane w aparacie fotograficznym, na ekranie komputera czy w wersji drukowanej, może istotnie się różnić. Z tego powodu należy zawsze sprawdzić zgodność koloru z zamierzonym projektem i przygotować na przykład próbny wydruk.", "Najobszerniejszy zbiór barw zawiera Pantone (Color) Matching System (PMS), obejmujący 1761 kolorów, występujących także w wersji metalicznej i fluorescencyjnej (zob. https://www.pantone.com/color-finder). Każdy z kolorów tego zbioru został oznaczy numerem zawierającym odnośnik do systemów RGB i CMYK. W 2014 roku badania firmowane przez Pantone Color Institute zostały zawieszone, a wzorniki przygotowane przez tę instytucję nie mają już otwartego dostępu, jednak począwszy od 1999 roku eksperci tej firmy ogłaszają wiodący kolor na nadchodzący sezon. Prognozują to na podstawie bieżących analiz sztuki, wzornictwa przemysłowego i artystycznego, mediów społecznościowych, najnowszych trendów w modzie, a nawet preferowanych sposobów spędzania wolnego czasu.", "W ciągu wieków kolorom nadawano znaczenia, zróżnicowane w zależności od kultury i sytuacji [3], [4], [5]. Na przykład na Zachodzie kolor biały jest kojarzony z niewinnością, czystością i początkiem życia, natomiast w Japonii symbolizuje żałobę. Strony internetowe wielu instytucji zostały zaprojektowane w kolorze białym, ze względu na jego neutralny charakter, a zarazem łatwość odnajdywania na tym tle pożądanych informacji. Obecnie biel koreluje z popularnym minimalizmem. Kolor zielony w Stanach Zjednoczonych kojarzy się z pieniędzmi, podczas gdy w Irlandii jest narodowym symbolem wyspy itd.", "W projektowaniu przekazu wizualnego znajomość konwencjonalnego przyporządkowania barw pełni istotną rolę. Na przykład informacje dla wielbicieli muzyki metalowej często opierają się na dynamicznych zestawieniach czerni i czerwieni, natomiast o sztuce ogrodowej opowiemy raczej w barwach stonowanych i pastelowych. Wprawdzie obecnie nikogo nie dziwi przekraczanie stereotypów, jednak decyzja w sprawie zastosowania niekonwencjonalnej kolorystyki w graficznym przedstawieniu określonego projektu, powinna zapaść po rozpoznaniu upodobań jego odbiorców, dla uzyskania pewności, że niestandardowy przekaz spotka się z dobrym i oczekiwanym przyjęciem. Ta decyzja jest bardzo istotna, ponieważ kolorystyka stanowi jeden z najważniejszych aspektów identyfikacji marki. Zbyt duża ilość barw w komunikacie powoduje zbytnie rozproszenie uwagi. Z kolei komunikat monochromatyczny może się okazać nudny. Do bardzo dobrych przykładów odpowiedniej synchronizacji kolorów należą projekty filmowe, utrzymywane zazwyczaj w określonej gamie barwnej [6].", "Każda barwa może wpływać na psychikę odbiorcy, co wynika m.in. z tego, że kolory budzą silne skojarzenia emocjonalne, indywidualne dla każdego człowieka [7], [8]. Dają się jednak ustalić również pewne zasady odbioru danej barwy, które stały się podstawą koloroterapii. Na przykład kolor niebieski oddziałuje wyciszająco, a czerwony pobudzająco. W wystroju pomieszczeń kolory odbierane jako lekkie, czyli żółty, albo biały powinny znajdować się na górze, natomiast ciężkie i ciemne – czerń, brąz, granat – na dole, gdyż człowiek przebywający w pomieszczeniu pomalowanym według odwróconego porządku może odczuwać dyskomfort i niepokój. Zastosowanie intensywnej kolorystyki angażuje również inne zmysły, na przykład dotyku, czy węchu.", "Zastosowanie odpowiednich kolorów pełni także funkcje informacyjne. W tym przypadku przykładem jest sygnalizacja świetlna na drodze, do której stosujemy się odruchowo. W tym kontekście warto też zwrócić uwagę na historyczno-społeczne identyfikacje znaczenia kolorów. Dotyczy to choćby mundurów różnych służb, czy barw wiązanych z ruchami politycznymi. Zwłaszcza te ostatnie mogą budzić negatywne skojarzenia, wystarczy wspomnieć choćby czerwień komunistycznej flagi."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 891, "subject": "Infografika", "paragraphs": ["Jedną z najpopularniejszych form wizualizacji danych jest infografika. Jej korzeni można szukać w odległej przeszłości. Na przykład w 1658 roku Jan Amos Komeński (1592-1670), czeski filozof i pedagog, wydał wyjątkowy w tamtym czasie podręcznik nauki łaciny zatytułowany \"Orbis Sensualium Pictus\" (\"Świat zmysłowy w obrazach\"), w którym pojawiały się zestawienia zdań w języku niemieckim z łacińskimi odpowiednikami i ilustracjami. Komeński wyszedł z założenia, że fraza łacińska będzie łatwiejsza do zapamiętania, jeśli zostanie skojarzona nie tylko z zapisem w rodzimym języku, ale też z odpowiednią ilustracją. Bardzo szybko książka ta została przetłumaczona na inne języki, wydano ją również po polsku.", "Za jedną z wzorcowych infografik uchodzi mapa napoleońskiej inwazji na Rosję autorstwa Charlesa Josepha Minarda (1781-1870) wydana w 1869 roku ( Rys. 1 ). Nie zawierała ona geograficznej mapy przemarszu wojsk, ale uproszczony schemat trasy z oznaczeniem najważniejszych punktów tej wędrówki.", "Kamieniem milowym w kształtowaniu idei i narzędzi infografiki był pomysł austriackiego socjologa Otto Neuratha (1882-1945), który w latach dwudziestych XX wieku wymyślił język graficzny Isotype (International System of Typographic Picture Education [1]. Autor ten po raz pierwszy zastosował w nim m.in. zwielokrotnienie symboli i ich zróżnicowanie kolorystycznie dla zilustrowania danych statystycznych ( Rys. 2 ).", "Współczesna infografika w znanej nam postaci pojawiła się na początku lat osiemdziesiątych XX wieku w gazecie „USA Today” [2]. Prezentowano tam poglądowe materiały dotyczące danych liczbowych i statystyk w prostej formie graficznej. Początkowo takie podejście spotkało się z krytyką, ponieważ zarzucano dziennikarzom nadmierne upraszczanie ważkich problemów. Szybko jednak okazało się, że nowy sposób przedstawiania danych zyskał wielu zwolenników. Okazało się też, że zbytni realizm graficznych przedstawień towarzyszących przekazowi informacji może zaciemniać rozumienie przekazu, który jest łatwiejszy do przyswojenia, gdy rysunek pojawia się w postaci schematycznej [3], [4]. Infografiki przyciągają wzrok mocniej niż zdjęcia i chociaż wymagają skupienia, budzą większe zainteresowanie. Opierają się na myśleniu analitycznym i takie właśnie rozumowanie kształtują u odbiorców [5]. Ukazują w skrótowy sposób i na stosunkowo niewielkiej powierzchni charakter przedstawianego procesu, koncentrując się na najważniejszych trendach i decydujących zmiennych.", "Infografika może zawierać przekaz dotyczący wszelkich danych liczbowych, także statystycznych, informacji orientacyjnych, wzbogaconych o graficzne rozszerzenie. Występuje w formie symboli, kolorów, map, diagramów czy wykresów. Wielka popularność syntezy schematycznych obrazków, liczb i słownych wyjaśnień, spowodowała, że ukształtowała się nowa dyscyplina praktyczna określana jako projektowanie informacji [6], [7], [8].", "Jedną z najciekawszych stron internetowych, zawierających wizualne opracowania danych statystycznych jest portal \"Information is beautifull\" (zob. https://informationisbeautiful.net/). Dobrym przykładem praktycznych i prostych infografik są plany linii metra ( Rys. 3 ), które pozwalają znaleźć możliwie szybko właściwe połączenie, także podróżnym nieznającym danego miasta. Plany te nie odzwierciedlają rzeczywistego ukształtowania terenu, są zgeometryzowane, a każdą trasę oznacza inny kolor.", "Infografika powinna być zrozumiała nawet bez słownych objaśnień. Zresztą te ostatnie są zazwyczaj skrótowe i ujmują jedynie najistotniejsze informacje. Wprawdzie same symbole graficzne nie wystarczą w przypadku prezentacji złożonych problemów, wymagających obszernego wyjaśnienia, jednak dobrze sprawdzają się w popularyzacji nauki, a także informacji, których ukazanie w inny sposób stanowiłoby jedynie żmudny transfer danych liczbowych.", "Ze względu na szerokie wykorzystanie infografiki konieczne jest kształtowanie nowych kompetencji umożliwiających właściwy odbiór graficznego zapisu danych, a także tworzenia tego rodzaju treści. Istnieje wiele darmowych lub częściowo darmowych programów pomocnych w wykonaniu własnych infografik [9]. Są to na przykład: Easelly (https://www.easel.ly/), Infogram (https://infogram.com/), Piktochart (https://piktochart.com/) Visually (https://visual.ly/product/infographic-design), Wordle (http://www.edwordle.net/) i inne."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 892, "subject": "Fotografia", "paragraphs": ["W 1977 roku ukazały się dwie ważne książki poświęcone problematyce fotografii we współczesnym świecie. Pierwsza z nich była zbiorem felietonów Susan Sontag (1933-2004) [1]. Autorka opisała w nich niezwykłą popularność fotografii i jej doniosłe znaczenie w kulturze. Zwracała szczególną uwagę na niejednoznaczność tej techniki, będącej świadectwem danej chwili, a zarazem zakłamującej o niej prawdę. W swoich felietonach Sontag nie ograniczyła się wyłącznie do refleksji dotyczących współczesności, ponieważ umieściła fenomen fotografowania w szerokiej panoramie myśli filozoficznej, poczynając od Platona i jego słynnej metafory jaskini, w której niewolnicy przypatrują się tajemniczym cieniom rzucanym na ścianę i mylnie traktują ten obraz jako odbicie prawdziwego świata. Tym samym, wskazała ona na naśladowczy, a zarazem iluzoryczny charakter zdjęć. Według Sontag, fotografowanie daje poczucie zdobywania i kontrolowania, ponieważ umożliwia uchwycenie ulotnych obrazów, którym można się potem przyglądać, poddawać je wszechstronnej analizie i deszyfracji, by dzięki zdobytej wiedzy jeszcze skuteczniej wywierać wpływ na rzeczywistość.", "Autorka postawiła ciekawą tezę, że fotografowanie okazało się pasją ludzi, którzy nie identyfikują się z przeszłością, są natomiast zdeterminowani, by w pełni przeżyć i udokumentować swoje „teraz”. W tym kontekście Sontag pisała: „Fotografia stała się jednym z najważniejszych wynalazków zwiększających skalę naszych doznań, a to wskutek stworzenia pozorów uczestnictwa” [2]. Jako taka, jest ona też paradoksalnym świadectwem przemijania i śmierci, ponieważ zdjęcia dają poczucie zatrzymania przeszłości, która i tak nieuchronnie odchodzi. Świadectwem takiego podejścia do fotografii, upamiętniającej bolesne doświadczenia graniczne stała się wstrząsająca dokumentacja choroby i śmierci Sontag, którą przygotowała jej życiowa partnerka, Annie Leibovitz.", "W tym samym roku, w którym ukazała się książka Sontag, Roland Barthes (1915-1980) wydał poświęcone podobnej problematyce \"Światło obrazu\" [3]. Niedługo przedtem zmarła jego matka, a autor boleśnie odczuł jej stratę. Z tego też względu we wspomnianej publikacji przenikają się niejako dwie narracje. Pierwsza dotyczy samej fotografii i jej miejsca w kulturze, druga ma charakter osobisty i wiąże się z poszukiwaniem wspomnień, a konkretnie takiego zdjęcia matki, które oddałoby w sposób możliwie najwierniejszy jej osobowość. W pewnym sensie ten ostatni aspekt zdominował rozważania, w związku z czym praca Barthesa jest nie tyle naukowym opracowaniem, co ideowym manifestem autora.", "Barthes wyróżnił dwa typy fotografii. Pierwszy określił jako studium. Fotografie tego rodzaju odzwierciedlają chwilę, stanowiąc konwencjonalne przedstawienie związane na przykład z jakimś rodzinnym wydarzeniem, odbytą podróżą, wartym zapamiętania spotkaniem. W tym kontekście każde zdjęcie może stanowić ważne kulturowe świadectwo, służące systematycznej, naukowej analizie w zakresie kultury i komunikacyjnych wzorców. Przykład studium stanowi fotografia wykonana w 1932 roku na krakowskich Czyżynach, przedstawiająca pilota Ignacego Giedgowda (1897-1974) przed samolotem PZL.19 podczas zawodów lotniczych ( Rys. 1 ). Na jej podstawie można sporo powiedzieć na temat sposobów spędzania czasu przed wojną, rozwoju lotnictwa, ówczesnej konstrukcji samolotów, a nawet męskiej mody.", "Dla Barthesa znacznie istotniejsze były jednak fotografie drugiego typu, zawierające punctum. O obecności tego elementu decyduje coś, co sprawia, że wybrane zdjęcie zwraca uwagę odbiorcy, który zapamiętuje je na dłużej. Autor nie podał dokładnej definicji tego pojęcia, określając go jedynie w metaforyczny sposób. Pisał więc, że punctum to „użądlenie, dziurka, plamka, małe przecięcie – ale również rzut kośćmi” [4], a każdy odbiera je inaczej. Barthes doświadczył tego uczucia, gdy znalazł fotografię swojej matki, wykonaną, gdy była małą dziewczynką i uznał, że właśnie ta podobizna najlepiej oddaje jej charakter, a zarazem potwierdza nieuchronną przemijalność czasu i pewność śmierci. Rzecz znamienna, nie zamieścił w książce tego zdjęcia, jedynie je opisał, zaznaczając tym samym osobisty i subiektywny charakter swojego odkrycia.", "Przykładem fotografii zawierającej potencjał takiego „użądlenia” może być zdjęcie wykonane w 2018 roku na Islandii, przedstawiające zagubiony w kamienistej przestrzeni wrak samolotu Dakota C-117 na plaży Sólheimasandur ( Rys. 2 ). W latach siedemdziesiątych miało tam miejsce awaryjne lądowanie, podczas którego szczęśliwie nikt nie zginął, kadłub samolotu pozostał jednak bez żadnych zabezpieczeń i niszczeje do dziś.", "Iza Zdziebko, autorka fotografii, zobaczyła w tym ujęciu także kosmiczny krajobraz marsjańskiej pustyni, a przede wszystkim skojarzyła porzuconą maszynę z nieuchronnością losu, a zarazem słabością technologicznej cywilizacji, której artefakty zaśmiecają nawet oddalone od ludzkich siedzib pustkowia. Zauważmy jednak, że i pierwsze z analizowanych zdjęć może zawierać kontekst punctum, ponieważ w biografii Ignacego Giedgowda znajdziemy wiele dramatycznych zwrotów akcji. Wystarczy wspomnieć, że w czasie wojny był on pilotem RAF-u. Po uszkodzeniu samolotu przez wroga wodował na Atlantyku, po którym dryfował 3 dni, zanim został odnaleziony. Jego pogodne zdjęcie z przedwojennego pikniku lotniczego zawiera więc przesłanie melancholii, tak istotne dla rozpoznania Barthesa.", "Martin Jay stwierdza, że fotografie znaczących wydarzeń mogą łączyć w sobie obydwa aspekty wskazane przez Barthesa, gdyż są kulturową opowieścią o świecie, podlegającą analizie właściwej dla studium, a równocześnie jako punctum ilustrują społeczny proces przekraczania ustalonego porządku i związane z nim indywidualne doświadczanie emocji [5]. Współczesne badania potwierdzają tę znaczącą rolę fotografowania w dokumentowaniu, a zarazem stanowieniu kultury [6], [7], [8], [9]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja wizualna", "subject_id": 893, "subject": "Komunikowanie wizualne generacji post-millenialsów", "paragraphs": ["Przedstawiciele pokolenia wchodzącego obecnie w dorosłe życie urodzili się w czasach internetu, więc trudno im wyobrazić sobie funkcjonowanie bez sieci (zob. Wzory komunikacji millenialsów i post-millenialsów ). W tej sytuacji należy zadać pytanie, na ile wizualność wirtualnej rzeczywistości kształtuje ich rozumienie świata oraz ich obraz samych siebie. Wprawdzie problem ten wymaga wielu badań i jako taki stanowi jeszcze zagadkę przyszłości, można jednak już teraz wskazać na kilka jego aspektów.", "Jednym z ważniejszych elementów współczesnej komunikacji są zdjęcia, a przede wszystkim selfie zamieszczane w mediach społecznościowych. Według Magdaleny Szpunar: „Upublicznienie fotografii staje się szansą na zaznaczenie własnej obecności, przypomnienie o sobie, gdy nasze jestestwo rozmywa się w kakofonii konkurujących o uwagę publiczności jednostek. W sytuacji, gdy nie można nic zaproponować innym sporządza się setki własnych wizerunków, by zaistnieć w ich świadomości. Im więcej reprodukujemy się na obrazach, tym bardziej istniejemy” [1]. Użytkownicy mediów społecznościowych opowiadają więc o sobie obrazami, jednak ich autobiograficzne narracje mają charakter tymczasowy, ponieważ fotografie zamieszczane w sieci podlegają zazwyczaj licznym weryfikacjom, bywają retuszowane lub modyfikowane przez filtry czy nakładki udostępniane w aplikacjach, by przekazywany w mediach obraz okazał się satysfakcjonujący dla właściciela profilu [2]. W tym specyficznym przetwarzaniu wizerunków nie chodzi bynajmniej o przechowywanie zdjęć. Popularny Snapchat, aplikacja wprowadzona w 2011 roku, służy do wysyłania znajomym krótkich filmików czy fotografii, do utworzenia których można wykorzystać liczne filtry i emoji, a także dodać krótki tekst. Materiały te znikają jednak zaraz po ich odtworzeniu przez odbiorcę [3].", "Wspomniany trend wpisuje się w nurt wizerunkowego (i nie tylko) narcyzmu [4], [5]. Jednocześnie w przekonaniu wielu młodych ludzi obraz samego siebie, przynajmniej na pierwszy rzut oka, wydaje się być podatny na transformacje i łatwy do odwołania [6]. Dodajmy jeszcze, że zdjęcia gromadzone w portalach społecznościowych są przede wszystkim świadectwem określonego „teraz” i tracą wartość, gdy ono przemija. Jako takie służą więc przede wszystkim nawiązywaniu bieżących relacji, a udostępniający je liczą na szybki odzew życzliwego zainteresowania jako wiadomość zwrotną. W tym kontekście wartość zyskuje nie tylko odwiedzenie ciekawego miejsca, ale możliwość pochwalenia się tym na Instagramie.", "Jednym z wzorców pokoleń millenialsów i post-millenialsów stali się influencerzy, a więc osoby prowadzące blogi lub/i vlogi, które zyskały znaczną popularność w nowych mediach. Do pewnego stopnia zastąpili oni ikony popkultury, czyli ludzi wyróżniających się niezwykłą urodą, głosem, albo majątkiem [7]. Influencerzy znajdują się znacznie bliżej „zwykłych” ludzi, choćby z tego względu, że kupują stroje nie tylko u drogich projektantów, ale też w sieciówkach. Ich komunikacyjna sprawność stała się ważnym modelem, potwierdzającym, że umiejętność porozumiewania się w sieci może mieć także wartość rynkową. Z punktu widzenia producentów influencerzy tworzą osobiste i zaangażowane historie, oparte głównie na atrakcyjnych przekazach wizualnych, które okazują się przekonujące dla potencjalnych klientów, toteż chętnie proponują im współpracę w reklamowaniu produktów. Skala oddziaływania influencerów pozostaje oczywiście poza zasięgiem przeciętnego użytkownika mediów, nie zmienia to jednak faktu, że określa ona ważny wzorzec wizualnego komunikowania.", "Globalna kwarantanna spowodowana ekspansją koronawirusa uświadomiła nie tylko młodym ludziom, że komunikacyjna wizualność nowych mediów bywa niezwykle przydatna. Utrzymujący się stan izolacji przypomniał, że ona nie wystarcza i potrzebujemy również relacji budowanych w oparciu o bliskość i inne zmysły. Jednocześnie pojawił się nowy zbiór czytelnych znaków, symboli i zdjęć, które kształtują obraz kulturowych zmian wywołanych chorobą.", "Na koniec należy jeszcze wspomnieć że wizualna twórczość post-millenialów obejmuje nie tylko własne fotografie i memy. Gdy wybuchła pandemia jedną z osób przedstawiających jej przebieg w Polsce stał się uczeń klasy maturalnej, Michał Rogalski. Jego Twitterowe konto, na którym zamieszczał kolejne raporty dotyczące zachorowań w Polsce, zwizualizowane na przejrzystych i bardzo profesjonalnie przygotowanych wykresach było jednym z najczęściej odwiedzanych miejsc w sieci. Rogalski zainicjował też powstanie całego ruchu wolontariuszy, gromadzących i przetwarzających dane, dotyczące postępów epidemii w Polsce (zob. Wizualne przekazy wiedzy; Infografika ). Pracę tę docenili naukowcy, politycy i dziennikarze, którzy komentowali prezentowane przez niego dane. Rzecz znamienna, podstawowym narzędziem stały się w tym przypadku elementy wizualnego przedstawiania danych statystycznych. Dzięki działalności Rogalskiego kolejne wydarzenia związane z rozprzestrzenianiem się choroby w kraju były bardziej zrozumiałe, a jego systematycznie uzupełniany zbiór danych okazał się ostoją racjonalności w dopływie sprzecznych, zideologizowanych i niejednokrotnie histerycznych doniesień. Przykład ten jest może najwyraźniejszym świadectwem, że narzędzia komunikacji wizualnej budują ważny sposób ekspresji młodych ludzi, który kształtuje wyobrażenia o świecie również innych pokoleń."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 991, "subject": "Kultura jako język", "paragraphs": ["W naukach społecznych i humanistycznych „kultura” jest pojęciem zarazem kluczowym i wieloznacznym. Podjęte przez socjologów Clyde’a Kluckholna i Alfreda Kroebera próby usystematyzowania jej definicji wykazały, że ujęcie kultury jest uzależnione od przyjętych założeń antropologicznych, metodologicznych i filozoficznych właściwym poszczególnym orientacjom naukowym. Kulturę można równie dobrze rozumieć adaptacyjnie jako narzędzie służące przetrwaniu człowieka w zmieniających się warunkach bytowych, jak i jako przestrzeń symboli oraz interpretacji.", "Perspektywa adaptacyjna Perspektywa adaptacyjna koncentruje się na pragmatycznych funkcjach kulturowych wytworów, zakładając, że sfera kulturowa oraz biologiczna są ze sobą nierozerwalnie splecione. Zgodnie z nią celem kultury jest zwiększenie sukcesu reprodukcyjnego i szans na przetrwanie ludzkiego gatunku. W taki sposób kulturę przedstawia większość socjobiologów i psychologów ewolucyjnych (np. Edward Willson, Peter Richerson, Daniel Dennett). Adaptacyjne ujęcie ma jednak znacznie dłuższą tradycję. Już w XVIII wieku Johann Gottfried von Herder definiował kulturę jako narzędzie przystosowania rekompensujące człowiekowi słabsze wyposażenie fizyczne względem konkurujących z nim gatunków. Pozwalają na to takie środki jak narzędzia, schronienia, techniki, społeczności czy rozwinięty język. Nieco upraszczając, można powiedzieć, że głównym pytaniem zadawanym w ujęciu adaptacyjnym, jest pytanie „po co?” są te środki. Funkcją włóczni czy dzidy jest polowanie i obrona, wioski i ubrania schronienie, języka szybka komunikacja i przekazanie doświadczenia [1].", "Perspektywa językowa Druga z perspektyw – koncentrująca się na językowym charakterze kultury – analizuje jej wytwory raczej od strony znaczeń, jakie mają one dla członków społeczności oraz systemów symbolicznych i struktur, w jakie są uwikłane. Reprezentujących ją badaczy interesuje np. czym dla członków danej społeczności jest określony rytuał, zwyczaj czy ornament, którym ozdobiona jest włócznia bądź dzida, co wyraża taki a nie inny układ wioski, co o danej grupie mówią elementy ubioru jej członków. W centrum rozważań tej perspektywy jest pojęcie języka rozumianego bardzo szeroko. Kultura – zakłada się w tym ujęciu – przede wszystkim mówi, komunikuje, wyraża [2].", "Typy językowych teorii kultury Problem relacji kultury i języka analizowany jest na bardzo wielu poziomach, których lista wyznaczana jest przez pojemność samego pojęcia języka, który można badać m.in. w aspektach komunikacyjnym, gramatycznym, strukturalnym, symbolicznym, interpretacyjnym, czy nieświadomym. Poszczególne nurty badań nad kulturą różnią się w zależności od tego, na który z tych aspektów kładą główny nacisk:", "Wspólnym mianownikiem wszystkich tych ujęć jest przekonanie, że kultura mówi, a to co mówi należy rozszyfrować (strukturalizm), bądź zinterpretować (poststrukturalizm, postmodernizm, interpretacjonizm, psychoanaliza) [3]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 990, "subject": "Kultura jako tekst", "paragraphs": ["Kultura znaczeń Jednym z owoców zwrotu językowego w naukach o kulturze są narodziny podejścia pojmującego kulturę jako rodzaj tekstu. Głosi ono, że kultura jest przede wszystkim obszarem powstawania znaczeń, które należy odczytywać jak każdy inny tekst – poza analizą „gramatyki” jej języka (na czym koncentrował się strukturalizm) można ją zatem interpretować lub dekonstruować. Kultura jest przede wszystkim tym co „znaczy” dla swoich uczestników. Aby uchwycić specyfikę tego stanowiska, dobrze jest porównać je do stanowiska opozycyjnego, takiego jak popularny w XX wieku redukcjonizm ekonomiczny.", "Tekstualna koncepcja kultury versus redukcjonizm ekonomiczny Ekonomiczne ujęcie kultury ma u swoich źródeł materializm historyczny, którego powstanie wiąże się z Karlem Marksem. Zdaniem niemieckiego filozofa i jego kontynuatorów podstawą życia człowieka jest sfera materialna: procesy życiowe oraz to, co do życia potrzebne, czyli stosunki ekonomiczne. Czynniki te w sposób bezwzględny determinują całą sferę świadomości, która w istocie jest efektem i odbiciem materialnej części życia człowieka uznanej przez Marksa za pierwotną. Ten stosunek między materią a świadomością obrazuje metafora bazy i nadbudowy. Baza – to, co materialne – determinuje całą sferę duchową, która jest refleksem czy też echem tego, co dzieje się na poziomie procesów życiowych i relacji ekonomicznych. Oznacza to, że takie obszary życia, jak: sztuka, filozofia, myśl naukowa, religia i światopogląd nie mają żadnej samodzielności. Spory filozoficzne, światopoglądowe czy religijne w rzeczywistości odbijają konflikty na poziomie ekonomii – sfery odpowiedzialnej za podział pracy i dystrybucję środków do życia. Zależność jest tu zawsze oddolna: to baza oddziałuje „w górę”, wpływając na nadbudowę a nie odwrotnie. Późniejsi interpretatorzy tej teorii (np. Louis Althusser) zakładali także pewną reakcję zwrotną, ale najważniejszym pozostało to, co dzieje się w bazie.", "Czym jest tekst? Samo pojęcie „tekstu” wymaga jednak pewnego komentarza. Teksty literackie mają swoje kody, tradycje interpretacyjne, odbiorców, ale także twórców. Relacja między tekstem, twórcą i odbiorcą to jeden z klasycznych problemów literaturoznawstwa. Pytania o zamysł autora danego dzieła oraz prawidłowy sposób jego odczytania to częste zadanie, przed którym stoi odbiorca, obcując z lekturą bądź filmem. Czy zatem mówienie o kulturze jako tekście jest sensowne skoro ciężko wyznaczyć jej konkretnego autora [2]?", "Podejście do tekstu jako utworu wyrażającego przede wszystkim intencję swojego autora, zaczęło być podważane już w XIX wieku. Wymowa tekstu – argumentowano – znacznie wykracza poza zamierzenia autora. Możemy w nim odczytać ducha epoki, w której powstał, treści i wartości właściwe dla danego czasu i środowiska, „mimowolnie” umieszczone w nim przez twórcę. To jednak nie wszystko. Już w XX w. Hans Georg Gadamer przekonywał, że tekst żyje swoim własnym życiem, obrasta w nowe znaczenia, które współkonstruują jego odbiorcy. Tekst nie jest „własnością” swojego autora [3]. Co więcej, poststrukturaliści, tacy jak Roland Barthes i Jacques Derrida zaczęli twierdzić, że mówienie o konkretnym autorze w odniesieniu do jakiegokolwiek tekstu jest bezzasadne [4]. Każdy tekst jest nie tylko płynny znaczeniowo (a więc współtworzony przez interpretatorów), ale i skonstruowany przez niezliczoną liczbę odniesień do innych tekstów. Nie ma innego autora niż kultura, w której obrębie dany tekst powstał.", "Przekonanie, że intencja autora stanowi obowiązkowy element odczytania tekstu zostało już dawno zarzucone. Obecnie uważa się odbiorców za czynnych twórców znaczenia każdego tekstu. Znaczenia nie są zresztą stałe i nieruchome: zależą od kontekstu, obszarów w których są umieszczane, grup odbiorców. Tekst jest zawsze polisemiczny: stanowi nośniki wielu znaczeń i uprawnione są różnorodne sposoby czerpania z niego. Ostatnim krokiem do uznania kultury za rodzaj tekstu było rozszerzenie jego znaczenia: tekst nie musi mieć charakteru literackiego, może być nim równie dobrze dzieło sztuki, budowa architektoniczna, rytuał, zwyczaj czy nawet styl ubioru. Ważne, że możemy analizować je jak język, wyróżnić w ich obrębie znaczące i znaczone, wpisać w określony dyskurs, wskazać kody. Duża część powszechnie znanych i używanych określeń na przykład „kod kulturowy” ma zresztą sens tylko wtedy, jeśli kulturę rozumiemy właśnie jako tekst. Rozumiana w ten sposób kultura poddaje się tym samym zabiegom, co tekst literacki: interpretacji, dekonstrukcji, krytyce dyskursu. Można jej wytknąć elementy zideologizowane, przekłamane czy nawet oskarżyć o kicz."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 993, "subject": "Strukturalizm", "paragraphs": ["Langue i parole Ferdinand de Saussure, ojciec językoznawstwa strukturalnego, sformułował teorię, zgodnie z którą na język można popatrzeć dwojako: jako na langue (wym. lãɡ(ə)) oraz parole (wym. pəˈroːl). Langue to reguły i konwencje ustrukturyzowane w abstrakcyjny system, parole natomiast to indywidualne akty mowy, czyli podlegający wielu czynnikom i modyfikacjom język „w użyciu”. Formułując nasze zdania, poruszamy się w obszarze parole, czerpiąc jednocześnie z zestawu reguł wbudowanych w system językowy, czyli langue. O ile sposobów mówienia/języków narodowych/dialektów jest bardzo wiele i wykazują się one ogromną zmiennością oraz elastycznością, to langue ma charakter zasadniczo uniwersalny i niezmienny. Świadczy o tym fakt, że niezależnie od tego, z jakim językiem mamy do czynienia, opiera się on na znakach, których reguły łączenia są podobne. W językach wyróżnimy więc takie stałe, jak: określenia czynności i rzeczy, formy oznajmujące i pytające, kwantyfikatory, wyrazy, zdania. System językowy ma w sobie przy tym coś bezwarunkowego a zarazem naturalnego: poruszamy się w nim intuicyjnie, z łatwością stosując się do reguł, których istnienia sobie nie uświadamiamy. Nawet dziecko formułujące pierwsze zdania zasadniczo robi to prawidłowo, pomimo tego, że w późniejszych latach w szkole może mieć problem ze zdefiniowaniem reguł gramatycznych. Teoria ukrytej struktury języka (langue) naturalnie wbudowanej w umysł wyjaśnia to zjawisko, jak również fakt błyskawicznego tempa przyswajania przez dziecko pierwszego języka.", "De Saussure urodził się w 1925 roku. Pół wieku później jego ustalenia zostały przeszczepione na grunt nauk o kulturze przede wszystkim przez Claude’a Levi-Straussa. W książce Antropologia strukturalna [1] przedstawia on odkrycia językoznawstwa strukturalistycznego jako prawdziwą rewolucję w myśleniu nie tylko o języku, ale i o samym człowieku. Na poziomie językoznawstwa rewolucja ta polega na przejściu od badania pojedynczych, oderwanych zjawisk językowych (parole) do badania ich nieuświadomionej infrastruktury i ukrytych relacji mających swoje podłoże w systemowych zależnościach. A gdyby tak – sugeruje Levi-Strauss – popatrzeć w taki sam sposób na kulturę? Skupić się nie tylko na jej zewnętrznych, jednostkowych przejawach, ale podobnie jak w języku, poszukać ukrytej, uniwersalnej struktury? Rewolucyjne jest samo przekonanie Levi-Straussa, że kultura jest „taka jak język”. Skoro tak, to można w niej wyróżnić „jakieś” parole oraz „jakieś” langue. Kulturowym odpowiednikiem językowego parole mogą być zwyczaje, rytuały, tradycje czy estetyka właściwe określonemu kręgowi kulturowemu. Podobnie jak w przypadku języka mamy tutaj do czynienia z oszałamiającą różnorodnością. Tradycyjne kultury Dalekiego Wschodu, Afryki, świat Aborygenów, Innuitów czy Indian Ameryki Północnej różnią się tak bardzo od siebie i od zachodniej kultury, że na pierwszy rzut oka ciężko znaleźć ich wspólny mianownik. Różnice te – głosi Levi-Strauss – mają jednak charakter powierzchniowy. Obok parole możemy bowiem wskazać także na langue – uniwersalną strukturę, na której wszystkie te różnokulturowe wariacje są zbudowane i której są przejawem. O tym, że taka struktura istnieje, świadczą zdaniem Levi-Straussa, przede wszystkim systemy klasyfikacyjne oparte na optyce opozycji binarnych, które odnajdziemy nie tylko w każdej znanej kulturze, ale i w każdym kulturowym zachowaniu. Chodzi o to, iż pomimo tego, że kultury mają własne kanony i sposoby wartościowania, czasem skrajnie różniące się od siebie, to w każdej z nich coś jest dozwolone i coś zakazane, coś jest dobre, a coś je złe, coś jest jadalne a coś niejadalne, ktoś jest swoim, a ktoś obcym.", "Biologiczne czy kulturowe? Przykład zakazu kazirodztwa Zdaniem brytyjskiego antropologa społecznego Edmunda Leacha ten dualizm właściwy strukturze każdej kultury ma swoje podstawy we właściwościach mózgu ludzkiego i zauważalny jest nie tylko w symbolicznych systemach klasyfikacji, ale nawet w obrębie aparatu zmysłowego. Kultura czy język są ekstrapolacją czegoś, co tkwi bardzo głęboko w samej organizacji cielesnej człowieka. Kultura wynika więc jakoś z naszej biologii [2]. Zależność ta nie jest jednak prosta i oczywista. Przyjrzyjmy się bliżej pewnej uniwersalnej właściwości kultury tworzonej przez człowieka: zakazowi kazirodztwa.", "Kultura jako system klasyfikacji Analizy relacji pokrewieństwa doprowadziły Levi-Straussa do wniosku, że oparte na parach opozycji systemy, które organizują naszą kulturę, mają w rzeczywistości charakter symboliczny. Dotyczy to nie tylko krewnych i obcych, ale wszelkich innych sfer naszej kultury. Symboliczne podziały znajdujemy oczywiście w mitach i opowieściach, ale także w układzie wioski a nawet w czymś tak „fizjologicznym” jak jedzenie i picie. Levi-Strauss zapisał wiele stron, aby dowieść, że podział „jadalne versus niejadalne” zazwyczaj nie wynika z odżywczych właściwości samych produktów, ale ma charakter symboliczny. Biologiczne jest źródło kultury: zakorzeniona w naszym mózgu skłonność do organizowania doświadczeń w systemy oparte na opozycjach. Reszta – kulturowe parole – realizuje się w przestrzeni symbolicznej."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 992, "subject": "Poststrukturalizm", "paragraphs": ["„Po” strukturalizmie Nazwa „poststrukturalizm” sugeruje, że mamy do czynienia z nurtem, który pojawił się „po strukturalizmie”. W pewnym sensie poststrukturalizm jest kontynuacją strukturalizmu, w innym jego krytyką. Zachowuje przekonanie o językowym charakterze kultury, ale interpretuje je zupełnie inaczej niż strukturalizm. Przede wszystkim odrzuca ideę ukrytej, stałej struktury determinującej językowe formy, kładąc nacisk na to, co dla strukturalizmu było jedynie „powierzchniową” ekstrapolacją uniwersalnych reguł – na znaczenia, które kształtują się w żywych dyskursach [1].", "Śmierć człowieka W latach 70. XX w. Michel Foucault ogłosił „śmierć człowieka”. To apokaliptyczne sformułowanie oznacza konstatację sytuacji, która wcale nie jest nowa, ale w mocny sposób została wyeksplikowana dopiero przez poststrukturalizm. Człowiek – twierdzi Foucault – jest na tyle mocno uwikłany w struktury językowe, że jego przekonanie o własnej autonomiczności i władzy nad samym sobą jest iluzoryczne. W rzeczywistości jest w pełni kształtowany przez otaczające go dyskursy. Nie tyle język „należy do niego”, ile on „należy do języka” – rozpływa się w nim, bardziej jest „mówiony” niż mówi.", "Teza ta polemizuje z tradycyjnym wyobrażeniem języka jako „obrazu rzeczywistości”. Zgodnie z nim język jest neutralnym medium, które wyraża to, co „mamy na myśli”, przekładając na komunikaty słyszalne bądź widzialne dla otoczenia. Zdaniem poststrukturalistów język nie tyle wyraża, ile kształtuje. Badacze tacy jak Foucault i Barthes twierdzą, że tworzą nas dyskursy, wśród których funkcjonujemy. Na naszą tożsamość i światopogląd wpływa to, w jaki sposób w naszym otoczeniu mówi się o rzeczywistości. Przykładowo nie bez znaczenia dla naszego stosunku do przerywania ciąży będzie miał fakt, czy środowisko, w którym wzrastamy, używa określenia „płód” bądź „embrion”, czy też „nienarodzone dziecko”.", "Władza i dyskurs W \"Historii seksualności\" Michel Foucault pokazał, w jaki sposób na przestrzeni kilku wieków zmieniło się nasze podejście do seksu pod wpływem samych zmian w obrębie dotyczących go dyskursów. Mniej więcej do XVII wieku seks traktowany był jako sprawa czysto fizyczna, chociaż oczywiście często grzeszna i wymagająca spowiedzi, podczas której nie rzadko wymagano zreferowania całego przebiegu aktu seksualnego przy uwzględnieniu takich elementów jak „pozycja partnerów, zachowania, gesty, dotknięcia, szczytowy moment rozkoszy” [2]. W XVII wieku rozpoczyna się jednak proces, który Foucault nazywa „dyskursywizacją seksu”, nie pyta się już o detale stosunku, zamiast tego sfera seksualna zaczyna wykraczać poza czynności ciała i rozpychać się coraz szerzej. Nowy poradnik spowiedzi zaleca: \"Rozważ więc pilnie wszelkie władze swojej duszy – pamięć, rozsądek, wolę. Równie dokładnie rozważ swoje zmysły… Rozważ też wszystkie swoje słowa, myśli i uczynki. Rozważ nawet sny, czy po przebudzeniu nie dałeś im przyzwolenia… Niech ci się nie wydaje, że w tak drażliwej i niebezpiecznej materii cokolwiek może być mało ważne\" [3].", "Nowe duszpasterstwo zachęca do roztropności przy wypytywaniu o sprawy seksu, z drugiej strony jednak podejrzane staje się teraz to, co do tej pory było prywatne: marzenia, fantazje, nawet sny. Ta podwójna ewolucja – mówi Foucault – „prowadzi do uczynienia z ciała źródła wszelkich grzechów i przesunięcia akcentu z ciała na tak trudny do uchwycenia i opisania poryw pragnienia, jest to bowiem zło które, przybierając najbardziej tajemne kształty, atakuje całego człowieka” [3]. Inicjuje ona charakterystyczny dla naszej kultury nakaz: mówienia o seksie, analizowania, kalkulowania, zakazywania i wyznawania. Dyskursywizacja seksu zatacza coraz szersze kręgi: coraz mocniej wkracza w dyskurs medyczny, ekonomiczny, polityczy, zaczyna śledzić seks młodzieży, potem dzieci, wynajdować kolejne „zboczenia” a następnie je tropić. Stopniowo seks z czynności naturalnej przekształca się w zjawisko tajemnicze, podejrzane, wychylające się z każdego kąta i tak zaczyna być postrzegany przez całe społeczeństwo.", "Perswazyjna moc dyskursu wykorzystywana jest często w reklamie, prasie bądź w przekazie politycznym. Roland Barthes mówił w odniesieniu do tego o „naginaniu języka”, w którego efekcie powstaje szereg współczesnych „mitów”. Barthes przez wiele lat z uwagą śledził je we francuskich mediach oraz poddawał semiologicznym analizom. W skład „mitologii” danego społeczeństwa mogą wejść reklamy, pomniki, propagandowe plakaty czy szczególnie sugestywne nagłówki artykułów, które powoli, ale skutecznie oddziałują na społeczną świadomość [4]. Dla poststrukturalistów kultura „mówi” językiem perswazji i ideologii [5]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 987, "subject": "Postmodernizm", "paragraphs": ["Kultura ponowoczesna Etymologicznie post-modernizm oznacza to, co PO modernizmie. Jest zatem okresem następującym w kulturze po fazie nowoczesności z charakterystyczną dla niej afirmacją rozumu, porządku i rozwoju. Wkraczający potem okres ponowoczesny cechuje się zupełnie nowymi jakościami. Dla Ihaba Hassana należą do nich: upadek norm i autorytetów, utrata „ja” oraz utrata „głębi”, z kolei dla Leslie Fiedler i Susan Sontag przekraczanie granic i zasypywanie przepaści: między kulturą wysoką i niską, życiem codziennym i sztuką, odrębnymi stylami architektonicznymi czy literackimi [1].", "Postmodernizm jest jednak pojęciem niejednoznacznym. Rozumiany bywa nie tylko jako diagnoza rzeczywistości, ale także jako metoda (np. konstrukcji tekstu) bądź styl (np. w sztuce lub w modzie). Rozważany na gruncie filozofii, literatury, architektury czy filmu odsłania tak wiele twarzy, że pojawiają się poważne wątpliwości co do istnienia wspólnego mianownika. Ponadto bywa równie często optymistyczny i witany z nadzieją (Francois Lyotard, Leslie Fiedler) jak ze strachem (Jean Baudrillard). Są też tacy, którzy twierdzą, że mówienie o postmodernizmie jest przedwczesne, bo w rzeczywistości w kulturze nie zaszły żadne istotne zmiany. Ciągle porusza się ona w obszarze dobrze znanej, oświeceniowej narracji (Jürgen Habermas). Ci, którzy „wierzą” w postmodernizm, mówią o odczuciu atmosfery przełomu. Można go rozumieć zarówno jako apokaliptyczny koniec, jak i obiecujący początek.", "Koniec czy początek? Jednym z pierwszych obszarów, w którym zaczęto diagnozować zmiany zapowiadające nową fazę kultury, była literatura. Już na przełomie lat 50. i 60. XX w. mówiono o „wyczerpaniu się literatury”. Doszliśmy do takiego momentu – głoszono – w którym nasza kreatywność powiedziała „stop”. Nie wymyślimy niczego nowego, możemy już tylko się powtarzać. Diagnozę tą szybko zaczęto odnosić do całości kultury. Były jednak także głosy optymistyczne. Leslie Fiedler w książce \"Cross the Border – Close the Gap\" argumentowała, że nawet jeśli nie wymyślimy niczego nowego, to przynajmniej możemy w nowy sposób grać tym, co znane, zasypując dotychczasowe przepaście, mieszając style, bawiąc się kodami. Zatarcie ostrej granicy między sztuką a życiem codziennym, sztuką wysoką a masową, poziomami społecznej stratyfikacji – może nam wyjść na dobre.", "Na postmodernizm mocno wpłynęli francuscy poststrukturaliści. Granica między postmodernizmem a poststrukturalizmem nie jest jednak ostra. Niektórzy poststrukturaliści, jak Jacques Derrida, zyskali także etykietę postmodernistów. Derridzie zawdzięczamy nowe podejście do tekstu. Głosząc wraz z Rolandem Barthesem „śmierć autora”, postulował on usunąć z tekstu autora jako autorytet, źródło wiedzy na temat prawidłowego odczytania tekstu. Pytanie „co autor miał na myśli?” jest bezpodstawne – twierdził – bo nie istnieje jedna, najsłuszniejsza interpretacja. Każdy tekst jest polifoniczny: możemy w nim znaleźć krzyżujące się sieci znaczeń, odniesień, zapożyczeń z innych tekstów, w których intencja autora się rozpływa. Mało tego! Derrida jasno mówi: w ogóle nie ma czegoś takiego, jak prawda tekstu, jak jakiś czysty sens, który możemy w nim odnaleźć. Porzućmy interpretacje, bawmy się, czerpmy przyjemność z tekstu. Pod wpływem francuskiego poststrukturalizmu postmodernizm lat 70. przybiera nowe oblicze. Literatura, kino, architektura kierują się w stronę wyswobodzonego tekstu, gier językowych i zabaw ze znakiem. Nikogo już nie obchodzi realizm, reprezentacja, czy sens. Królują językowe eksperymenty, puste formy, pastisz [4].", "Kultura jako symulakrum Postmodernizm, podobnie jak poststrukturalizm i interpretacjonizm, pojmuje kulturę jako tekst. Mniej skupia się jednak na praktykach dyskursywnych (śledzeniu perswazyjnej roli języka), a bardziej na relacji znaczącego i znaczonego.", "Fundamentalną rolę w postmodernistycznych analizach kultury odgrywa wspomniana wyżej teoria Jacquesa Derridy, a zwłaszcza teza, że nie istnieje prawda tekstu. Skoro tak, nie istnieje również prawda kultury. W najbardziej skrajnych ujęciach kultura przedstawiana jest jako szereg pustych form, zbiór znaczących nie odsyłających do znaczonego. Reprezentantem takiej teorii jest Jean Baudrillard głoszący, że nasza rzeczywistość jest jedynie zalewem pustych obrazów, które nic nie znaczą. Jest samą powierzchnią, która tylko udaje, że coś się pod nią kryje. Głośna teza Baudrillarda brzmi: nasza kultura to symulakrum (od łac. Simulacrum – kopia, imitacja), czysta symulacja pozorująca rzeczywistość a jednocześnie „bardziej rzeczywista niż rzeczywistość”. Co gorsza jest to jedyne co mamy. „Oryginał” już dawno gdzieś wyparował [3]."], "definitions": [{"name": "Definicja 1: Element znaczący i element znaczony", "content": "\nW językoznawstwie strukturalistycznym element znaczący odnosi się do formy językowej, natomiast znaczony do pojęcia lub treści. Znaczące może być zapisem graficznym (ciągiem znaków) lub akustycznym, element znaczony natomiast to to, co mamy na myśli, gdy odczytujemy ten zapis. Rozróżnienie to stosuje się także w teorii kultury, jeżeli uznajemy ją za rodzaj tekstu. Znaczącym może być wtedy jakikolwiek wyraz kultury: budowla architektoniczna, zachowanie, rytuał. Znaczonym natomiast sens, jaki w danej kulturze się im przypisuje."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 985, "subject": "Interpretacjonizm", "paragraphs": ["Klasyczna antropologia kulturowa a podejście interpretacyjne Antropologia kulturowa jest klasyczną dyscypliną nauk społecznych zajmującą się badaniem kultury: jej praw, organizacji, etnicznej różnorodności czy zmienności. Jako nauka ukształtowała się w XIX wieku, jej przedmiotem badań były początkowo głównie społeczności pierwotne. Antropologia wypracowała właściwe sobie metody badawcze, wśród których w pierwszym rzędzie należy wyróżnić metodę terenową opartą na obserwacji uczestniczącej. Pionierskie były badania Bronisława Malinowskiego, który spędził wiele miesięcy mieszkając w tubylczej wiosce na Wyspach Trobrianda, wtopił się w życie tamtejszej społeczności a później opisał je na kartach wielu tomów rekonstruując system organizacji, myślenia i wartości tubylców. Wykazywał, że społeczność ludzka działa analogicznie do żywego organizmu. Instytucje kultury, takie jak struktury wymiany ekonomicznej, małżeństwo, religia są ze sobą nierozerwalnie związane. Każda z nich ma zadanie do wykonania: pełni określoną funkcję w obrębie całego systemu [1].", "Chociaż Malinowski odcinał się od ewolucjonizmu czy dyfuzjonizmu, to łączy go z nimi bardzo klasyczne podejście do badań kultury. Zgodnie z nim antropologia poszukuje w kulturze niezmiennych prawidłowości, reguł i faktów wzorując się na naukach ścisłych. Model ten został podważony w latach 70 gdy do antropologii zaczęły przenikać koncepcje postmodernistyczne. Od samego postmodernizmu ważniejsze było jednak wyciągnięcie pełnych konsekwencji z tezy, że kultura jest jak język a jej główną funkcją nie jest kodyfikowanie i organizowanie, ale komunikacja. Wpłynęło to na zmianę postrzegania roli antropologa: klasyczna antropologia widziała w nim niezależnego obserwatora, który analizuje, spisuje i gromadzi fakty, „nowa” antropologia – tłumacza, który dzięki wysiłkowi interpretacyjnemu usprawnia międzykulturowy dialog [2]. Antropologia przeformułowała tym samym swoje cele: nie chce być już „nauką eksperymentalną poszukującą praw, lecz nauką interpretatywną poszukującą znaczenia” [3].", "Zinterpretować kulturę Ojcem perspektywy interpretacyjnej jest uczeń Bronisława Malinowskiego – Edward Evans-Pritchard. Od swojego nauczyciela zaczerpnął przywiązanie do metody terenowej, a jednocześnie rozszedł się z jego szkołą rozwijając teorię antropologii jako „przekładu kultur”. Same prace Evans-Pritcharda nie różnią się jednak zbyt mocno od publikacji jego poprzedników, przełom następuje dopiero dzięki pracom kolejnego pokolenia badaczy: Clifforda Geertza oraz Jamesa Clifforda. Clifford Geertz jest jednym z najbardziej wpływowych współczesnych antropologów. Do jego głównych idei należy przedstawienie społeczeństwa jako tekstu a antropologa jako krytyka literackiego, który poddaje ten tekst interpretacji (zob. Co komunikuje rytuał? Clifford Geertz ).", "Opis gęsty Antropologia interpretatywna odchodzi od szeroko zakrojonych badań „wielkich całości” na rzecz przyglądania się zjawiskom lokalnym. Kładzie natomiast nacisk na jak najpełniejszą interpretację kontekstu danego zjawiska tworząc tzw. „opis gęsty”.", "Rozwikływanie to – pisze Geertz – jest nieskończonym procesem przybliżania: „prace antropologiczne same składają się z interpretacji, i do tego interpretacji drugiego i trzeciego stopnia. (Z definicji tylko ‘krajowiec’ tworzy interpretacje pierwszego stopnia: jest jego kultura). Są zatem fikcjami: fikcjami w tym znaczeniu, że są ‘czymś tworzonym’, ‘czymś ukształtowanym’ – takie jest pierwotne znaczenie słowa fictio – nie zaś w znaczeniu czegoś fałszywego, nierzeczywistego czy też eksperymentów pomyślanych ‘jak gdyby’.” Jednocześnie jednak dzięki nim udaje się poszerzyć uniwersum ludzkiego dyskursu, lepiej zrozumieć innych, nie tylko po to aby ich opisać, ale żeby stworzyć przestrzeń do porozumienia."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 986, "subject": "Co komunikuje układ wioski? Claude Levi-Strauss", "paragraphs": ["Umysł uniwersalny Claude Levi-Strauss, ojciec strukturalistycznej teorii kultury, wypracował metodę, którą stosował we własnej pracy terenowej [1]. Francuski uczony prowadził badania w rejonie Mato Grosso i dżungli amazońskiej, jakiś czas mieszkał wśród ludów Bororo i Guaycuru, zetknął się też bliżej z Nambikwara i Tupi-Kawahib.", "Badania tradycyjnych kultur służyły Levi-Straussowi do zgłębiania wiedzy na temat myślowych struktur, które leżą u podstaw nie tylko kultur społeczeństw pierwotnych, ale także złożonych cywilizacji. Nowością w antropologii było przekonanie francuskiego badacza, że pomiędzy umysłowością człowieka pierwotnego i współczesnego nie ma zasadniczych różnic. Fundament kultury zachodniej jest dokładnie taki sam jak kultury ludu Bororo, Trobriandów czy pierwotnych plemion afrykańskich. Różnica leży tylko w tym, że w bardziej złożonej kulturze znacznie trudniej te struktury rozpoznać bo przysłania je bogaty dorobek cywilizacyjny. Badając kulturę tradycyjną dowiadujemy się zatem bardzo dużo o naszej kulturze – w „nagiej” formie widzimy to, co jest w niej ukryte.", "Levi-Strauss postulował badania ahistoryczne (synchroniczne) – nie interesowały go zmiany, jakie w danej kultury zachodzą w toku ewolucji, ale to co pozostaje stałe. Dotrzeć do ukrytej struktury można jednak jedynie badając to, co jest dostępne „na wierzchu” – kulturowe opowieści, mity, zwyczaje, relacje między ludźmi, czy sposób w jaki organizują sobie oni przestrzeń do życia.", "Badania relacji pokrewieństwa Do najsłynniejszych analiz Levi-Straussa należą te dotyczące problemu awunkulatu. Awunkulat jest terminem oznaczający system organizacji rodziny, w którym istotną rolę odgrywa wuj, czyli brat matki. Z formalnego punktu widzenia to on jest właściwą „głową rodziny” a nie ojciec. Levi-Strauss badał warianty tej relacji odnosząc się do różnych społeczności tradycyjnych, z którymi zetknął się osobiście lub znał dzięki badaniom prowadzonym przez innych antropologów. Wykazywał, że zawsze mamy do czynienia ze strukturą czteroelementową, której towarzyszą dwie pary opozycyjnych wartości: relacje wuja i siostrzeńca, wuja i matki, ojca i matki oraz ojca i syna niezależnie od społeczności tworzą tą samą strukturę, w której zmienia się jedynie układ wartości. Struktura ta ma jednak głębszy sens: w optyce Levi-Straussa kultura jest systemem komunikacji łączącym mężczyzn, kobieta jest przedmiotem wymiany między nimi oraz punktem odniesienia dla całego układu. Pokazuje to poniższy graf.", "Ważnym i oryginalnym elementem teorii Levi-Straussa są badania mitu [3]. W społeczeństwach niepiśmiennych mity mają ogromne znaczenie: są rezerwuarem kulturowej pamięci, wzorców zachowań, regulują rytm życia społeczności, budują tożsamość jednostki. Dla badaczy problematyczna jest wielość wersji danego mitu, niekompletność przekazów, brak konsekwencji. Spójna rekonstrukcja, zakładająca ewolucję konkretnego motywu mitologicznego, jest zazwyczaj niemożliwa. Strukturalizm stosuje jednak własną metodę badania mitu – asynchroniczną i ukierunkowaną na odszukanie tylko tego co uniwersalne. Levi-Strauss uważał, że aby zrozumieć dany mit, należy zebrać wszystkie jego wersje i potraktować je jako równie ważne. Analizując wszystkie warianty, można odnaleźć powtarzające się, stałe motywy i schematy, które odsłaniają istotę danego mitu. Wykazywał, że wszystkie opowieści mityczne, niezależnie od tego, z jaką kulturą mamy do czynienia, oddają uniwersalne, ponadczasowe konflikty, z którymi mierzymy się w naszym życiu.", "Mitologiczne schematy możemy jednak odnaleźć także analizując zupełnie inne teksty kulturowe niż pisane, czy opowiadane. Badając kulturę ludu Bororo Levi-Strauss przyjrzał się dokładnie tradycyjnemu układowi wioski. Rozrysowanie jej struktury pokazało zależności niewidoczne podczas obserwacji zwykłego życia mieszkańców. Tymczasem układ wioski okazał się dokładnie odzwierciedlać złożony system klasyfikacji właściwy temu społeczeństwu oparty na mitologicznym obrazie świata, który zorganizowany jest zgodnie z parami opozycji natura-kultura oraz życie-śmierć [4]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 994, "subject": "Co komunikuje tekst? Jacques Derrida", "paragraphs": ["Dekonstrukcja versus interpretacja W latach 60. XX w. Jacques Derrida zaproponował nowe podejście do tekstu zwane dekonstrukcją. U jego podstaw leżała krytyka tradycyjnej koncepcji interpretacji tekstu: nakierowanej na scalenie i wyrażenie jego sensu, którą Derrida nazywa praktyką „teleologiczną i totalizującą dialektyką” bądź lekturą „transcendentną” [1]. Lektura taka skupia się na tym, co poza tekstem – na jego punkcie odniesienia, znaczeniu, zgodnie z założeniem, że język i forma są tylko reprezentującym je środkiem. Zdaniem Derridy takiemu odczytaniu umyka sam tekst, który skonstruowany jest nie tylko przez to, co poza nim, ale przede wszystkim przez język i formę. Ponadto tradycyjnej lekturze nieodłącznie towarzyszy przekonanie o „bezwarunkowym istnieniu bezpośredniego przedmiotu odniesienia” [2], co wcale nie jest oczywiste. Literatura „nie jest działaniem, które opiera się na schemacie wypełnionego wnętrza, które umożliwia moment wyrażenia, ekspresji” [3], bowiem to, co tekst „wyraża” jest także tekstem, który poddaje się dalszej lekturze i implikuje nieskończoność procesu odczytywania sensu [4]. Utopią jest też jakakolwiek próba scalenia sensu, bo nieodłączną cechą tekstu jest rozproszenie sensu i intertekstualność: każdy tekst odsyła do niekończącego się szeregu innych tekstów.", "Derridiańska definicja dekonstrukcji jest nieco hermetyczna, podobnie jak wszystkie teksty pisane przez francuskiego poststrukturalistę. Nie był on zwolennikiem typowego dyskursu naukowego, wybierał raczej język literacki. Idea dekonstrukcji wywarła jednak ogromny wpływ na teorię kultury i zaczęła żyć swoim życiem także poza filozofią i literaturoznawstwem zgodnie z założeniem, że tekstem, który można poddać dekonstrukcji, jest każda kulturowa forma. Znaczenie pojęcia nieco się jednak zmieniło.", "Dekonstrukcja tekstu kulturowego W takich obszarach kultury jak sztuka, architektura lub moda praktyki dekonstrukcji pełnią często rolę subwersyjną lub demaskującą. Zgodnie z Derridą zakłada się, że sens tekstu jest rozproszony a tradycyjna interpretacja, która stara się go scalić, coś pomija. Ujawnienie tego, co ukryte, możliwe jest jednak dzięki zabiegowi dekompozycji kodów. Manfred Frank przeciwstawia tak rozumianą dekonstrukcję destrukcji. Podczas gdy destrukcja oznacza zniszczenie, redukcję, sprowadzenie do podstaw, dekonstrukcja to rozbiórka murów, na których została wzniesiona pewna tradycja, odsłonięcie ich i zbudowanie na nich czegoś nowego, w bardziej dobitnej formie.", "Do architektury dekonstrukcja weszła głównie za sprawą współpracy Jacquesa Derridy z Peterem Eisenmanem, między innymi w pracy na konkurs na Parc de la Villette. Obok Eisenmana wymienia się też zazwyczaj Daniela Libeskinda. Twórcy ci mówili wprost, że architektura jest rodzajem języka i poddaje się lingwistycznym analizom. Na gruncie formalnym proponowali zabawę formą i nietypowe rozwiązania przy zastosowaniu takich środków, jak przemieszczenie i deformacja. Idea przemieszczenia ma ścisły związek z teorią Derridy. Głosił on, że każdy tekst zawiera w istocie dwa teksty: jeden poddający się klasycznej interpretacji oraz drugi, przesunięty względem niego. Właśnie owo przesunięcie pełni rolę demaskującą i szczególnie interesuje Derridę oraz jego spadkobierców [5].", "Zabieg przesunięcia i deformacji znajdziemy także u przedstawicieli dekonstrukcji w modzie. Dzięki jej zastosowaniu twórcy poddają krytyce kulturowe wizje kobiecości i męskości, kanony piękna a także dokonują autokrytyki odsłaniając absurdy branży modowej. Do najsłynniejszych przedstawicieli tego nurtu należą japońscy projektanci tacy jak Yohji Yamamoto i Rei Kawakubo (założycielka marki Comme des Garçons), Vivienne Westwood i Martin Margiela. Jako przykład może posłużyć kolekcja Body Meets Dress—Dress Meets Body des Garçons, w której Kawakubo w wykrzywiony sposób nawiązała do praktyki podkreślania za pomocą konstrukcji odzieży seksualnych atrybutów kobiecego ciała. Stosując zabieg przesunięcia, Kawakubo w sposób dobitny zwróciła uwagę na mechanizm seksualnego uprzedmiotowienia kobiet."], "definitions": [{"name": "Definicja 1: Dekonstrukcja", "content": "Jacques Derrida definiujący dekonstrukcję.\n\n\n\nŹródło: PrestyGomez, Derrida, reż. Kirby Dick, Amy Ziering Kofman (2002), 06.09.2008 (dostęp 12.12.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=vgwOjjoYtco.\n\n"}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 995, "subject": "Co komunikuje rytuał? Clifford Geertz", "paragraphs": ["Kultura jako publiczny dokument Jednym z najbardziej konsekwentnych orędowników idei kultury jako tekstu jest antropolog kulturowy Clifford Geertz, reprezentujący nurt zwany interpretacjonizmem. W swoich badaniach kładzie nacisk na sposób, w jaki uczestnik danej kultury odczytuje jej znaczenia, a także jak interpretuje samego siebie w odniesieniu do nich. Człowiek – mówi Geertz – jest „zawieszony w sieci znaczeń”, z których kultura jest zbudowana. Implikacją takiego ujęcia jest ukierunkowanie badań kultury na interpretację tych znaczeń.", "W czym tkwi oryginalność teorii Geertza? Aż do zwrotu językowego w naukach o kulturze, ambicją antropologii było docieranie do „twardych” faktów, stałych praw i reguł w zbliżony sposób do tego, jaki ma miejsce w naukach ścisłych. Tymczasem według Geertza praca badacza kultury bardziej przypomina działalność krytyka literackiego niż fizyka czy biologa. Nie znaczy to, że jest mniej ważna, ale cele takiej nauki zdefiniowane są nieco inaczej. W dużym stopniu jest to narzucone przez sam przedmiot badań [1].", "W powyższej definicji warto zwrócić uwagę na kilka elementów. Kultura jest dokumentem, a więc tworem poddającym się bardziej bądź mniej trafnej interpretacji, która stara się wniknąć w znaczenie, ale może dokonać tylko pewnych przybliżeń. Prace antropologiczne składają się z interpretacji – pisze Geertz – i to interpretacji drugiego lub trzeciego stopnia, pierwszy jest bowiem udziałem wyłącznie przedstawicieli danej kultury (ciągle pozostając „tylko” interpretacją a nie zbiorem bezpośrednich danych). Jednocześnie jednak kultura jest publiczna. Pomimo tego, że interpretacja dokonuje się w przestrzeni myśli to nie w nich mieści się sama kultura. Przedmiot interpretacji ma charakter intersubiektywny: składają się na niego widzialne praktyki, takie jak język, zwyczaje, rytuały [3].", "Wreszcie: kultura nie jest czymś tajemnym. Badacz kultury nigdy nie pozna jej w pełni, ale poznanie nie ma charakteru zero jedynkowego. Nie da się poznać kultury w stu procentach, analogicznie jak nie da się poznać w stu procentach osoby, którą staramy się zrozumieć. Zawsze pozostaje jakaś sfera prywatna i niedopowiedziana. Pomimo tego nie możemy z góry uznać prób zrozumienia za porażkę, zarówno w komunikacji międzyludzkiej, jak i w badaniu obcej kultury, ponieważ systematycznie pogłębiamy obszar rozumienia i porozumienia.", "Porównanie działalności badacza z sytuacją osób, które starają się porozumieć, ma głębsze znaczenie, gdyż odsyła do nowo zarysowanego celu badań nad kulturą. To, że badania te są nauką „miękką”, w której nie mamy do czynienia z czystymi faktami, ale interpretacjami, nie oznacza, że są one przez to mniej ważne. Ich celem nie jest spisanie reguł, sklasyfikowanie i skodyfikowanie, ale poszerzenie uniwersum ludzkiego dyskursu.", "Walki kogutów Kultura jest przestrzenią interpretacji nie tylko dla badacza, ale przede wszystkim dla samych jej członków. Poszczególne jej formy można uznać za teksty, w świetle których ludzie tworzący daną kulturę dokonują autointerpretacji [4]. Ogromną rolę odgrywają rytuały społeczne organizujące życie społeczności i angażujące większość jej przedstawicieli. Clifford Geertz analizował pod tym kątem między innymi kulturę Bali i fenomen walk kogutów, które odgrywają w niej niezwykle istotną rolę. W zasadzie cała męska część społeczności jest na tyle mocno zaangażowana w nie, że wprost deklaruje, że koguty są przedłużeniem ich własnego ciała i ich walki, a związane z nimi finansowe zakłady stanowią centralny punkt w organizacji codziennego życia.", "Walki kogutów są krwawym i brutalnym sportem, przede wszystkim jednak przedmiotem „głębokiej gry”. Określenie to oznacza grę, w której stawka jest na tyle wysoka, że z praktycznego punktu widzenia, uczestnictwo w niej jest czymś irracjonalnym. Przy tym obydwie strony zakładu ryzykują równie mocno. W istocie – dowodzi Geertz – o „głębi” tych walk nie decydują pieniądze, ale fakt, że w rzeczywistości gra jest przeniesieniem balijskiej hierarchii statusów do świata walk kogutów. Walki są symulacją matrycy społecznej, do której należą ich miłośnicy.", "W balijskim społeczeństwie prestiż odgrywa fundamentalną rolę w każdej sferze życia: od publicznej po rodzinę. Dla Balijczyka nie ma sprawy istotniejszej od hierarchii społecznej. Napięcie, jaką budzi problem prestiżu, jest jednak na co dzień maskowane za sprawą złożonej etykiety. Zdaniem Clifforda Geertza walki kogutów są emocjonalną osnową hierarchii i związanych z nią napięć, ukazując je w bardziej autentycznej formie niż pozwala etykieta. Walki kogutów są zatem balijskim sposobem odczytywania doświadczeń Balijczyków – są historią, którą opowiadają oni o sobie i w świetle której sami siebie interpretują."], "definitions": [{"name": "Definicja 1: Kultura", "content": "Kultura to „istniejący poprzez czyjeś działania dokument, jest zatem czymś publicznym (…) Chociaż jest abstrakcją, to nie mieści się w czyjejś głowie; chociaż nie jest fizykalna, to nie jest też bytem tajemnym” [2]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 996, "subject": "Co komunikują działania społeczne? Jacques Lacan", "paragraphs": ["Kultura jako język nieświadomości Sformułowanie „kultura mówi” można zinterpretować także na sposób psychoanalityczny – kulturę odczytujemy wówczas jako język naszej nieświadomości. Dzieła i zachowania kulturowe – to, jak działamy, jak się ubieramy, jakie mity i baśnie tworzymy – są ekspresją nie tylko naszej świadomej intencji, ale także nieuświadomionych czynników o bardziej fundamentalnym znaczeniu.", "Powyższy cytat z pism niemieckiego filozofa mógłby być mottem całej psychoanalizy. Sigmunt Freud, ojciec tego nurtu, był zresztą pod ogromnym wpływem Nietzschego, którego myśli przełożył na język psychologii i psychiatrii. Główną tezą Freuda jest przekonanie, że „naturalnym” stanem podmiotu nie jest przejrzystość dla samego siebie, ale samozakrycie. Podmiot nie rozpoznaje motywacji własnych działań, uczuć, a nawet myśli. Świadomość jest „zaszyfrowana” i trzeba ją poddać deszyfracji. W rzeczywistości naturę człowieka definiują przede wszystkim dwa popędy: ścierające się ze sobą Eros i Thanatos, czyli popęd seksualny oraz popęd śmierci [1].", "Popędy a kultura Ludzka osobowość kształtuje się przede wszystkim we wczesnym dzieciństwie, gdy zmagamy się z naszym dążeniem do przyjemności oraz wynikającymi z niej problemami. Według Freuda już wówczas człowieka określa jego seksualna natura, która daje o sobie znać w sposób polimorficzny w następujących po sobie fazach: oralnej, analnej, fallicznej i genitalnej. W trakcie przechodzenia przez te fazy, dziecko zmaga się z bardzo licznymi konfliktami, musi rozwiązać szereg kompleksów. Najsilniejszy z nich to oczywiście Kompleks Edypa, z którym musi się skonfrontować w fazie fallicznej. Jeżeli zostaje rozwiązany, przechodzi do fazy genitalnej. Ale to nie wszystko: znacznie wcześniej, już na poziomie fazy oralnej, dziecko musi skonfrontować się z ograniczeniami tzw. zasady przyjemności i nauczyć się żyć zgodnie z zasadą rzeczywistości. Mówiąc inaczej, musi zrezygnować z zachłanności w realizacji własnych popędów i dostosować się do wymogów życia społecznego [2]. Jest to jednak bardzo trudne, na drodze uspołecznienia koniecznym staje się wyparcie własnych popędów bądź ich sublimacja.", "Skoro centralnym problemem, z jakim zmaga się człowiek, jest jego nieświadomość – musi to znaleźć wyraz w kulturze. Kultura może być zarazem wyrazem nieświadomości, jak i narzędziem, które pomaga ludziom poradzić sobie z nieświadomymi siłami, które się w nich kłębią. Freud bardzo ostro przeciwstawia kulturę stanowi naturalnemu, który wyobraża sobie jako pierwotnej hordę przypominającą życie w stadzie szympansów. Ludzie chcą działać zgodnie z zasadą przyjemności i dochodzi do bardzo silnych przepychanek. Silny zagarnia wszystko, słabsi cierpią. Wprowadzenie kultury i narzucanych przez nią społecznych norm staje się zatem koniecznością. Kultura jest jednak nie tylko narzędziem represji, pozwala nam przeżyć życie bezpiecznie, oferuje także akceptowalne sposoby radzenia sobie z wewnętrznymi konfliktami, jakie generują niezaspokojone popędy. Przede wszystkim kultura wskazuje kierunki, w jakich możemy dokonać sublimacji: przekształcenia popędu seksualnego w filantropię, działalność polityczną, społeczną, naukową czy artystyczną. Nasza agresja zostaje przekierowana w stronę sportu i innych usankcjonowanych kulturowo form rywalizacji [3].", "Co to jednak faktycznie oznacza? Zarówno nasze wytwory, jak usankcjonowane kulturowo działania i społeczne rytuały są trochę czym innym niż się wydają: kultura zbudowana jest z przekształceń naszych popędów i to o nich, zakamuflowanym językiem mówią nasze wytwory i społeczne zachowania. Jacques Lacan, jeden z najsłynniejszych spadkobierców Freuda, ujął to w formule: „nieświadomość jest na zewnątrz”.", "Lacan jest jednym z głównych orędowników językowej interpretacji kultury w psychoanalizie. Uważa, że aspekt ten jest immanentnie zawarty w teorii Freuda. Starsze interpretacje myśli austriackiego psychiatry głosiły, że nieświadomość jest irracjonalnym kłębowiskiem ślepych popędów. Interpretacja szkoły lacanowskiej twierdzi, że nieświadomość ma własną logikę i własny język. Nieświadomość nie jest niema, szuka wyrazu i chce zostać usłyszana. Manifestacja w formach kulturowych jest najważniejszym sposobem jej ekspresji [4]."], "definitions": [{"name": "Definicja 1: Sublimacja ; wyparcie", "content": "Sublimacja to inaczej przekierowanie popędu ze względu na cel. Przykładowo: w miejsce bezpośredniej realizacji popędu seksualnego, oddajemy się twórczości artystycznej, uprawianiu sportu bądź filantropii.\nWyparcie jest stłumieniem popędu, pozbawieniem go realizacji. Niestety wyparty popęd nie znika nigdy całkiem i powraca w formie niekontrolowanej np. nerwicy. Wyparcia leżą zdaniem Freuda u podłoża większości zaburzeń psychicznych.\n\n"}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 997, "subject": "Co komunikuje kino? Slavoj Zizek", "paragraphs": ["Freud odczytany na nowo Jacques Lacan (1901-1981) – psychoanalityk i filozof, znany jest jako reformator francuskiej szkoły psychoanalitycznej oraz reinterpretator myśli Freuda. Inspirował się także językoznawstwem i antropologią strukturalną, co znalazło wyraz w językowym pojmowaniu kultury. Jedna z jego głównych tez głosi, że człowiek jest tak mocno uwikłany w kulturę, iż właściwie abstrakcją jest mówienie o jakimś podmiocie „poza” czy „przed” kulturą (w terminologii Lacana – Symbolicznym). Przez całe nasze życie poruszamy się w symbolicznej siatce, które reguluje nasze zachowania i kształtuje światopogląd. Co więcej, kultura kreuje także nasze pragnienia. Oznacza to – jak tłumaczy Slavoj Žižek komentujący Lacana – że nie ma w nas żadnych pragnień „naturalnych” czy też spontanicznych.", "Szkoła lacanowska odchodzi w tym miejscu od myśli Freuda, który postrzega człowieka jako rezerwuar popędów a ich ognisko, nieświadomość, lokalizuje we wnętrzu podmiotu. Dla Freuda kultura jest przestrzenią, w której popędy wyrażają się w sublimowanej formie, a zarazem pełni ona funkcję zaworu bezpieczeństwa, nie pozwalając im na bezpośrednią realizację. Lacan podchodzi do człowieka inaczej – podmiot nie ma żadnego „wnętrza”, jest całkowicie „zewnętrzny” – tożsamy ze swoimi zachowaniami, dziełami i deklaracjami. Nieświadomość wyczerpuje się w swoich kulturowych ekspresjach. Innymi słowy kultura nie jest fasadą, pod którą buzują nasze popędy, ale ich otwartym wyrazem.", "Kultura jako Inny Kultura kieruje naszymi działaniami, odczuciami i pragnieniami, ale paradoksalnie ona sama pozostaje dla nas nieprzenikniona. Działamy na jej zasadach, jednocześnie odbierając ją jako coś zewnętrznego, pełnego reguł i zjawisk, z którymi się nie utożsamiamy. Jedno ze związanych z nią określeń – Inny – odnosi się właśnie do tego nieprzeniknionego aspektu: kultura jest dla nas niepokojącym Obcym, który w dodatku cały czas nas obserwuje i czegoś wymaga.", "Prawda ma strukturę fikcji Najsłynniejszym interpretatorem i popularyzatorem myśli Lacana jest słoweński filozof Slavoj Žižek. Teorię francuskiego psychoanalityka stosuje on między innymi do analizy kultury popularnej, przekładając jednocześnie hermetyczny lacanowski język na formę bardziej przystępną. W swoich tekstach Žižek mówi językiem efektownym, w którym filozoficzny dyskurs przeplata się z odniesieniami do filmów czy popularnych książek. Szczególne miejsce w dorobku Žižka pełni analiza kina. W swoich książkach [2] oraz filmach, w których występuje (\"Z-Boczona historia kina\" (2006) i \"Perwersyjny przewodnik po ideologiach\" (2012)), filozof tłumaczy zawiłości lacanowskiej psychoanalizy, komentując fragmenty filmów m.in. Lyncha, Hitchcocka, braci Marx czy Tarkowskiego.", "Odwołania do kina są jednak czymś więcej niż ilustracją teorii psychoanalizy. Zabiegi Žižka mają znacznie głębszy sens. Istotny jest sam status kina jako przedmiotu analizy, czego podstawą jest z kolei lacanowska teoria kultury i jej relacji z nieświadomością. Przypomnijmy: dla Lacana kultura jest jednocześnie ekspresją nieświadomości oraz kreatorką pragnień. Kino odgrywa ważną rolę w obydwu tych aspektach. Jako ekspresja nieświadomego pełni analogiczną rolę do snów, które w klasycznej psychoanalizie Freudowskiej stanowiły „królewską drogę do nieświadomości” a ich interpretacja odgrywała fundamentalną rolę w terapii. Analizę współczesnego kina można zatem potraktować jako „królewską drogę” do zbiorowej nieświadomości całego społeczeństwa, z której zbudowana jest tkanka kultury. Z drugiej strony kino jest najpopularniejszym, a jednocześnie najbardziej perswazyjnym medium, jego rola jako kreatora pragnień jest zatem nieoceniona. Innymi słowy, filmy wśród których wyrośliśmy i które oglądamy, jednocześnie wyrażają nas i kreują. Žižek rezygnuje tym samym z klasycznego ujęcia filmu jako „imitacji” rzeczywistości, przedstawiając kino jako „symulację”, która trawersuje rozłam fikcji i rzeczywistości. Interpretacji kina prezentowanej przez Žižka przyświeca słynna teza Lacana: „prawda ma strukturę fikcji” [3]. Žižek wykłada ją we właściwym sobie stylu we wprowadzeniu do \"Z-boczonej historii kina\":", "Źródło: Garikoitz G. Quintanilla, The Pervert's Guide to Cinema, reż. S. Fiennes (2006), 03.10.2013 (dostęp 12.12.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=Nf1jBK0-XXo.", "Materiały dodatkowe"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 998, "subject": "Co komunikuje kultura masowa? Roland Barthes", "paragraphs": ["Mity życia codziennego „Świat jest nieskończenie wyzywający. Każdy przedmiot na świecie może przejść z istnienia zamkniętego, niemego, w stan podatny na zawłaszczenie przez społeczeństwo w postaci mowy, bo żadne prawo – naturalne czy nie – nie broni mówić o rzeczach” [1]. Słowami tymi poststrukturalista Roland Barthes podsumowuje swoje wieloletnie przedsięwzięcie polegające na śledzeniu „mitów życia codziennego”. Od lat pięćdziesiątych Barthes przyglądał się kulturze Francji i poddawał analizie semiologicznej przejawy perswazyjnego użycia języka, które nazywał „współczesnymi mitami” [2]. Do takich mitów mogą należeć np. artykuły w gazetach, fotografie w czasopismach, filmy, wystawy, reklamy, napisy na opakowaniach kosmetyków a nawet striptiz. Każde znaczenie – głosił Barthes – podatne jest na to, żeby nadpisać na nim nowe, naginając je i w ten sposób „kradnąc” jego pierwotny sens. Taka manipulacja językiem może przynieść szereg korzyści: pomóc sprzedać produkt, przekonać o czyjejś racji, wpłynąć na zmianę poglądów politycznych bądź przekonań społecznych. Nic dziwnego więc, że w kulturze stosowana jest powszechnie, dzisiaj równie aktywnie, jak ponad pół wieku temu, gdy zjawisko to zaczynało być analizowane w kręgu poststrukturalistów [3].", "Analiza semiologiczna mitu Pomysł Barthesa polegał na tym, żeby takie formy kultury jak opisane zdjęcie w 'Elle' poddawać semiologicznemu rozbiorowi języka. Analiza taka pokazuje, w którym dokładnie miejscu mamy do czynienia z nadbudowywaniem czy też „naginaniem” znaczenia. Jeżeli uda się coś takiego wykazać, mamy dowód, że dana forma językowa jest mitem skonstruowanym w określonym, politycznym lub marketingowym celu. Mit opisany w tekście „Powieści i potomstwo” to przykład chwytliwego zabiegu: podpis pod zdjęciem w sposób „naturalny” wiąże twórczość literacką z macierzyństwem. Analizując go od strony semiologicznej, możemy dostrzec dwa systemy semiologiczne: pierwotny i wtórny. Znaczenie pierwotne brzmi: istnieją pisarki, które jednocześnie są matkami. Znaczenie wtórne nabudowuje na nim konserwatywną wizję kobiecości: kobieta ma prawo do realizacji zawodowej o ile wcześniej spełni swój przyrodzony obowiązek. Perswazyjną rolę mogą w tym wypadku odegrać rozmaite elementy: kolor i pogrubienie czcionek, miejsce zdjęcia i podpisu w układzie strony i czasopisma itp. [5].", "Twórcy mitu z czasopisma \"France-Soir\" wyszli z założenia, że liczy się pierwsze wrażenie. Mit ma odnieść skutek natychmiastowy, którego siły nie zniweluje jego późniejsze podważenie. Większość odbiorców rzuci zresztą tylko szybko okiem na wyeksponowane hasło i uchwyci „sens ogólny”: obniżka cen warzyw i owoców jest efektem działań rządowych. Opisany chwyt jest typowy do konstrukcji mitu, pokazuje też, że istotą mitu nie jest kłamstwo tylko naginanie lub zawłaszczanie. Barthes mówi, że mit „kradnie” pierwotny sens i go dowolnie przekształca."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 988, "subject": "Co komunikuje moda? Thorstein Veblen, Georg Simmel, Caroline Evans", "paragraphs": ["Czy ubrania mówią? Jednym z najbardziej wpływowych fenomenów zachodniej cywilizacji jest moda. Chociaż dla wielu to są „tylko ubrania”, sposób, w jaki je dobieramy i odczytujemy oraz zawarty w nich kod, stanowią jeden z najbardziej pierwotnych języków, jakimi posługuje się kultura [1]. Kodów modowych używamy do podkreślania i rozpoznawania statusu, manifestowania własnej indywidualności, sprzeciwu czy przynależności do określonej grupy (np. religijnej lub subkultury). Wraz z rozwojem kultury wpływ ten zwiększa się i stopniowo zmienia swój charakter. O ile jeszcze na początku XX wieku najważniejszą funkcją mody była komunikacja społecznego statusu, o tyle obecnie nie ma wątpliwości, że sama moda coraz mocniej wpisuje się w nowy wzór antropologiczny, dla którego kluczowe jest myślenie o podmiocie w kategoriach autokreacji, autentyczności i indywidualności, która szuka swojego wyrazu [2].", "Moda jako wyraz zmian społecznych Przemiany w modzie nieodłącznie towarzyszą przemianom społecznym. W zwierciadle mody odbijają się obyczajowe rewolucje, ekonomiczne kryzysy czy konflikty polityczne. Niewiele było wydarzeń, które równie mocno wstrząsnęły modą, jak Pierwsza i Druga Wojna Światowa. Z damskiej garderoby zniknęły gorsety, radykalnie skróciły się spódnice, pojawiły spodnie. Pod względem praktyczności moda damska zaczęła wreszcie dorównywać męskiej. Analizując modę danego okresu, można wiele powiedzieć na temat klimatu danej epoki. Optymizm końca lat 60. XX w. – ekspansja młodości, wyzwolenie seksualne, zachłyśnięcie perspektywą kosmicznych lotów – jest łatwy do odczytania, gdy przyjrzymy się swobodnym, futurystycznym, strojom na zdjęciach z tej dekady. Hippisowska moda przełomu lat 60. i 70. wyraża rozczarowanie kapitalizmem i zwrot w stronę natury i duchowości. Minimalizm mody lat 90. pozostaje natomiast w relacji z gospodarczym kryzysem, który napiętnował tę dekadę [3]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja kulturowa", "subject_id": 989, "subject": "Synchroniczność w badaniu komunikatów kulturowych", "paragraphs": ["Polifoniczność kultury Kultura przemawia na wiele sposobów: „mówią” religijne rytuały i swingujące ulice, skodyfikowane systemy prawnych zasad i literatura popularna, sztuka wysoka i moda uliczna, ekonomia i rozrywka. Polifonia ta ma jednak pewną dynamikę i logikę, wszystkie komunikaty są ze sobą ściśle powiązane. Zależność tę podkreślał już dwieście lat temu niemiecki filozof Georg Wilhelm Friedrich Hegel mówiąc o istnieniu czegoś takiego jak „duch” danej epoki. Pozornie różne zjawiska, które obserwujemy w kulturze danego czasu, w rzeczywistości mówią jednym głosem wyrażając zestaw idei i wartości definiujących ten okres. Podobna intuicja towarzyszy wielu współczesnym badaczom kultury podkreślającym, że zjawiska kulturowe należy badać synchronicznie w ich wzajemnej zależności. Takie badania pokazują, że w kulturze nie ma rzeczy błahych i zupełnie przypadkowych.", "„Widma przeszłości” W książce Widma Marksa [2] Jacques Derrida pisał o nawiedzających kulturę „widmach przeszłości”. Istnieją okresy w kulturze zdominowane przez określone wyobrażenia, które pojawiają się jednocześnie w bardzo różnych jej obszarach. Podobne motywy eksplorowane są przez literaturę, film, filozofię a nawet modę. Interesująca jest obecność silnych natężeniem wyobrażeń futurystycznych widocznych w modzie zachodniej w szczególnych okresach dziejowych: zwłaszcza w latach poprzedzających pierwszą wojnę światową, latach sześćdziesiątych oraz latach dziewięćdziesiątych. Wyraźny powrót wyobrażeń futurystycznych w modzie widoczny jest też pod koniec drugiej dekady XXI. O ile futuryzm lat 60 miał optymistyczny charakter, to końcówka zeszłego wieku jest mroczna. Kultura przepełniona jest lękiem przed tym co obce, zrobotyzowane, sztuczne. Widać to w tekstach filozoficznych takich jak Manifest cyborga Donny Haraway oraz Symulakry i symulacje Baudrillarda, w literaturze i filmie (np. nurcie cyberpunkowym) aż po wybiegi modowe po których w latach 90 przechadzają się hybrydy i androidy (np. pokazy Thierry’ego Muglera, Alexandra McQueena, Husseina Chalayana). Jedną ze ścieżek, którą można poprowadzić analizę synchroniczną tych zjawisk, jest rozważenie ich w kontekście gospodarczego i społecznego kryzysu lat 90, który przekłada się na kryzys tożsamości podmiotu: poczucia alienacji, braku psychicznej stabilności i towarzyszącego im niepokoju. Nie bez powodu w modzie i innych obszarach kultury pojawiają się wówczas nawiązania do dystopijnych futurystycznych obrazów filmowych, takich jak Metropolis Fritza Langa. Film Laga również powstawał w okresie, w którym kulturę cechowało poczucie destabilizacji [3]. Według Jeana-Michela Rabatégo pod koniec XX w. mamy do czynienia z wspomnianymi przez Derridę „widmami przeszłości”, które należy interpretować jako duchy wczesnej nowoczesności z jej utopijnymi wierzeniami w działaniu. Widma te przenikają całe spektrum naszego kulturowego doświadczenia [4].", "Źródło: WHITEROSE PICTURES – Full Movies / Film Completi, METROPOLIS / F. Lang (1927), Full Silent Movie (Restored HD), 15.04.2020 (dostęp 12.11.2020). Dostępne w YouTube: https://youtu.be/Br9XXayHe_Y."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 999, "subject": "Kultury szerokiego i wąskiego kontekstu", "paragraphs": ["Edward T. Hall jest autorem podziału kultur na wysokokontekstowe (lub szerokokontekstowe) oraz nisko (bądź wąskokontekstowe). Kontekst, o którym tu mowa, to szerokie otoczenie procesu komunikacyjnego. Rozróżnienie między kulturami dotyczy tego, czy przekaz podczas komunikacji zawarty jest jedynie w słowach wypowiadanych przez uczestników tego procesu czy wręcz przeciwnie, a znaczenie jest komunikowane również przez niewerbalne aspekty komunikacji, w związku z czym odczytanie go wymaga znajomości kodów konkretnej kultury. Mimika, gestykulacja i świadomość kontekstu jest w komunikacji w kulturze wysokokontekstowej niezwykle ważna. Osoby pochodzące z kręgu kultury niskokontekstowej przedstawicielom kultury wysokokontekstowej mogą się wydawać bezpośredni, a czasem nawet zbyt bezpośredni, bezceremonialni lub wręcz bezczelni. Mówią oni wprost to co myślą, ich przekaz jest konkretny [1]. Poszczególne kultury możemy uszeregować w postaci kontinuum od kultur o najwyższym stopniu uzależnienia od kontekstu do tych o najmniejszym uzależnieniu od niego.", "Kultury niskokontekstowe:", "Kultury wysokokontekstowe:", "Przykłady różnic w komunikatach ze względu na rodzaj kultury Jak kulturalnie w różnych kulturach odmówić? W kulturze dalekowschodniej bezpośrednie odpowiadanie uważane jest za niegrzeczne. Dlatego przedstawiciel takiej kultury nie powie wprost \"nie\", będzie natomiast używał gestów to implikujących, np. w Japonii będzie to machanie ręką koło twarzy, które jest jednoznacznym znakiem braku zgody, Chińczyk czy Japończyk będzie próbował powiedzieć to inaczej powie np.: \"zobaczymy\", \"pomyślimy\", \"spróbujemy\", \"zobaczymy co da się zrobić\". Są to dla przedstawiciela kultury wysokokontekstowej jednoznaczne sygnały braku zgody [7]. W świecie arabskim natomiast często spotkamy charakterystyczne cmoknięcia i uniesione brwi, co również znaczy nie.", "Kulturowe uwarunkowania przerwy podczas rozmowy Dla Amerykanina cisza jest normalną, naturalną przerwą w interakcji, pozbawioną znaczenia, oznacza okazywaną uwagę, ale też brak inicjatywy, natomiast dla Japończyka jest to wyraz dezaprobaty, jakiego można użyć, tak by nie narazić partnera interakcji na utratę twarzy. Z kolei w Indiach milczenie służy do wprowadzania harmonii i wyrażania gotowości do współpracy i jest znakiem szacunku. W Chinach milczenie oznacza zgodę. Niemcy i Holendrzy uważają, zbyt długą ciszę za efekt braku wychowania. Włosi są zdania, iż przerywanie oznacza, że to, co mówi rozmówca, ich interesuje tak bardzo, że nie mogą się powstrzymać od wtrącania własnych uwag."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1000, "subject": "Wymiary komunikacji międzykulturowej", "paragraphs": ["Komunikacji międzykulturowej nie można sprowadzić jedynie do wymiany informacji między przedstawicielami rożnych kultur. W trakcie procesu komunikacji przekazywany jest również stosunek emocjonalny, zarówno do przekazywanej treści, jak i odbiorcy tych treści. Sama komunikacja służy również wymianie doświadczeń pomiędzy obiema stronami i często jest początkiem podejmowanego wspólnie działania [1].", "Wymiary komunikacji  Traktując komunikację międzykulturową analogicznie do komunikacji interpersonalnej należy zwrócić zatem uwagę na wymiar informacyjny, wymiar emocjonalny, wymiar współuczestniczenia oraz wymiar relacyjny. W komunikacji osób pochodzących z różnych kręgów kulturowych te wymiary komunikacji stają się niezwykle istotne i powinny być świadomie analizowane. W trakcie procesu komunikacji nadawca, wykorzystując pierwszy z wymienionych wymiarów, wymiar informacyjny, wpływa na doświadczenie odbiorcy, wzbogacając je i kształtując [1], poprzez przekazanie mu informacji i wiadomości. Kolejnym wymiarem komunikacji jest wymiar emocjonalny. Ważne jest zaangażowanie emocjonalne obu stron w sam proces komunikacji. Te emocje będą wpływały na motywację do podjęcia działań. Kształtujący się stosunek emocjonalny między przedstawicielami różnych kultur jest niejednokrotne determinowany przez funkcjonujące stereotypy i uprzedzenia obu stron komunikacji. Mogą one niejednokrotnie utrudniać komunikację. Brak odpowiednich kompetencji kulturowych stron komunikacji będzie stanowił niejednokrotnie przeszkodę. Realizując trzeci wymiar komunikacji, czyli wymiar współuczestniczenia, interlokutorzy tworzą wspólną płaszczyznę porozumienia, która zawiera uwspólnione znaczenia, doświadczenia i działania obu stron komunikacji międzykulturowej. Dzięki temu etapowi możliwe jest przejście do prawdziwego kontaktu między nadawcą i odbiorcą komunikatów. Wymiar ostatni, czyli relacyjny dotyczy stosunku między nadawcą a odbiorcą komunikatów. Na stosunek ten znacząco będzie wpływała nie tylko kultura pochodzenia osób lub grup między którymi zachodzi proces komunikacji, jest on również determinowany wcześniejszymi relacjami interlokutorów lub relacjami kultur pochodzenia obu stron procesu. Komunikacja z tej perspektywy może przybierać formę symetryczną i komplementarną [1]. Symetryczna relacja, zachodzi wtedy, gdy nadawca i odbiorca są sobie równi, natomiast komplementarna jest charakterystyczna, gdy jedna osoba zajmuje wyższą pozycję w hierarchii niż druga. W komunikacji międzykulturowej należy pamiętać, iż hierarchie statusowe w różnych typach kultur tworzone są według różnych kryteriów, zatem osoby z różnych kręgów kulturowych mogą prawidłowo nie rozpoznać swych pozycji, co może w tym kontekście prowadzić do nieporozumień. Oba typy relacji uczą interlokutorów rożnych zachowań, obu przydatnych w społeczeństwie. Zwłaszcza w przypadku kontaktu międzykulturowego.", "Wywieranie wpływu  Komunikacja międzykulturowa, podobnie jak komunikacja interpersonalna, zakłada niejednokrotnie potrzebę wywarcia wpływu na interlokutora. Strategie perswazyjne bardzo zależą od kultury w której są realizowane. Zupełnie inną formę przybiorą działania perswazyjne w kraju o kulturze indywidualistycznej, a inne w kraju o kulturze kolektywistycznej. Podobnie inny będzie przekaz w kulturze ceremonialnej i hierarchicznej, a inny w kulturze nieceremonialnej i niehierarchicznej. Skutkiem tego jest zupełnie inny styl reklamy, promocji czy propagandy w odmiennych kręgach kulturowych. Z różnic kulturowych będą wynikały różnice w sposobach tworzenia tożsamości grupowej, koncentracja uwagi na konkretnych przekazach lub kwestiach będzie również determinowana kulturą, podobnie jak różne będą źródła autorytetu w zależności od kultury społeczności. Powyższe kwestie pokazują zatem, iż perswazyjność komunikacji będzie bardzo mocno uwarunkowana kontekstem kulturowym. Aby zatem komunikacja międzykulturowa była skuteczna musi uwzględniać te kwestie."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1001, "subject": "Szok kulturowy", "paragraphs": ["Sytuacje, w których dochodzi do spotkania przedstawicieli odmiennych kultur, w dzisiejszym świecie, są na porządku dziennym. Obecnie dotarcie do najbardziej odległych miejsc na świecie zajmuje nam stosunkowo niewiele czasu, zwłaszcza jeśli porównamy to z przeszłością, gdzie by dotrzeć na odległy kontynent trzeba było udać się w wielotygodniową podróż statkiem. Obecnie mamy możliwość udawać się w bardzo odległe pod względem geograficznym i kulturowym regiony.", "Spotkanie międzykulturowe ma miejsce wtedy, gdy jednostka wychowana w innej kulturze wchodzi w nową kulturę. Ważnym aspektem takiego spotkania są etapy dostosowywania się do nowej sytuacji. Obecnie duża część ludzi doświadcza zjawiska migracji i uchodźctwa, zatem kwestie uczestnictwa w nowej kulturze, w kulturze gospodarzy wydają się być niezwykle istotne. Zjawisko dopasowywania się do nowej kultury jest nazywane akulturacją i asymilacją. Dzisiejsza nauka stawia raczej na woelokulturowość, jako proces bardziej znaczący i ułatwiający współistnienie różnych grup społecznych w nowym miejscu. Mówiąc o sytuacji osoby pochodzącej z innej kultury warto zwrócić uwagę na tak zwaną krzywą akulturacyjną, która podlega pewnym prawidłowościom. To w jaki sposób będzie ona przebiegała zależy w dużej mierze od otwartości zarówno kultury gospodarzy, jak i otwartości na nową kulturę u jednostki lub grupy owej akulturacji doświadczającej [1]. Doświadczamy tego zjawiska przebywając na stypendium, w procesie emigracji itp. Krzywa ta przyjmuje kształt litery U [2]. Na proces ten składają się następujące etapy:", "Odwrotny szok kulturowy Wiele osób, które wracają do swej kultury pochodzenia po dłuższym pobycie poza jej granicami ma trudności ze znalezieniem sobie miejsca w nowej-starej rzeczywistości, przeżywając drugi szok kulturowy. Jest to związane z faktem, iż wiele dotychczasowych więzi uległo już zniszczeniu, dodatkowo otoczenie nie rozumie problemów z którymi boryka się osoba powracająca z zagranicy. Dodatkowo ważną rolę odgrywa rozczarowanie tym, co spotyka w domu powracającego z dłuższego pobytu za granicą [5].", "Akulturacja Coraz częściej współcześnie w teoriach dotyczących kontaktu międzykulturowego zastępuje się pojęcie szoku kulturowego, jako akcentującego negatywne emocje, pojęciami akulturacja czy kulturowe przystosowanie. Uwagę zwraca się na proces akulturacji, w którym ważną rolę odgrywają komponenty poznawcze, emocjonalne i behawioralne. Współczesne teorie akcentują aspekty adaptacji do nowej sytuacji i aktywne radzenie sobie ze stresem i zmianą [6]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1004, "subject": "Bariery w komunikacji międzykulturowej", "paragraphs": ["Umiejętne komunikowanie się dziś w dobie globalizacji staje się szczególnie istotne, gdyż coraz częściej komunikujemy się z przedstawicielami innych kultur. Bardzo często jednak w tej komunikacji ponosimy porażkę. Skuteczna komunikacja nie jest możliwa bez otwarcia się na odmienność drugiego człowieka, bez gotowości dostosowania swojego zachowania, tak aby współpracować z nim oraz bez wyrozumiałości dla nieprzystosowanych do realiów naszej kultury obcokrajowców. Nasze sygnały są błędnie odczytywane przez osoby, które nie znają naszej kultury i nie rozumieją kontekstu wypowiedzi. Bariery towarzyszące komunikacji międzykulturowej mają swoje źródło w kulturze jednostek i grup uczestniczących w tym procesie oraz w różnicach dzielących owe kultury. Im więcej wspólnych cech posiadają kultury osób komunikujących się, tym z większą swobodą przebiega sam proces komunikowania się i pojawiają się zakłócenia mniej istotne dla komunikacji. Wpływ niewątpliwie wywierają określone kompetencje lub częściej ich brak i konteksty.", "Podstawowe błędy w komunikacji międzykulturowej:", "Przełamywanie barier Aby komunikacja międzykulturowa była skuteczna, powstałe bariery należy próbować przełamać. Jest to jedynie możliwe, jeśli uczestnicy procesu komunikacyjnego włożą wysiłek w to, aby doprowadzić do sukcesu komunikacyjnego. Podstawowymi kwestiami, które należy wziąć w tej kwestii pod uwagę, są:", "Należy postępować z szacunkiem i znać zasady zachowania stosowane w innych kulturach. Kompetencja międzykulturowa obejmuje zarówno wiedzę, którą zdobywamy wraz z doświadczeniem, w toku nauki, która pozwala zrozumieć zachowania komunikacyjne osób należących do danej kultury, jak i umiejętności, czyli zdolność do zachowania się tak, jak zachowują się ludzie należący do tej konkretnej kultury [7] (zob. Kompetencje międzykulturowe )."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1002, "subject": "Różnice kulturowe w komunikacji werbalnej", "paragraphs": ["Komunikacja werbalna", "Język a kultura Komunikację werbalną tworzą dźwięki, słowa i język, który ma bezpośredni związek z kulturą. To właśnie język umożliwia użycie symboli, dzięki czemu ludzie mają możliwość wymienienia między sobą informacji, w tym również abstrakcyjnych idei. Język pozwala przekazać innym swoje przekonania, wartości, postawy, światopogląd, emocje, aspekty własnej tożsamości oraz niezliczone cechy osobiste. Sposób w jaki się porozumiewamy może być formalny lub nie. Nie jest to zależne tylko od sytuacji w jakiej się znaleźliśmy, ale również od kultury w której funkcjonujemy. Osoby żyjące w tzw. kulturach nieformalnych czy nieceremonialnych, zakładają iż wszyscy są równi, więc styl wypowiedzi w takim typie kultury nie różni się znacząco, niezależnie od tego kto do kogo mówi. W kulturach bardziej formalnych zakłada się, że wśród ludzi istnieje hierarchia i oczekuje się od rozmówców przestrzegania określonych protokołów w zależności od tego, z kim rozmawiają [2]. Jednym z przykładów są normy grzeczności. Przykładowo w języku japońskim obecne są 3 poziomy okazywania szacunku. Pierwszy poziom to język nieformalny lub swobodny (kudaketa nihongo); jest używany gdy zwracamy się do kogoś, kto ma równą rangę lub jest bliską nam osobą. Drugi poziom to język formalny lub grzecznościowy (teineigo), gdy komunikujemy się z kimś, kto ma wyższą rangę. Ostatnim poziomem jest (keigo); jest to język honorowy i jest używany, gdy rozmawiamy z kimś znacznie wyższym rangą [3].", "Funkcje komunikacji werbalnej Język pełni ważne funkcje komunikacyjne. Przede wszystkim jest to bezpośrednia wymiana informacji z innymi ludźmi. Dodatkowo język pozwala werbalnie przekazać emocje czy je złagodzić np. złagodzić stres (np. przeklinając), aby wyrazić ból (auć), wrazić radość (łał!), a także rozczarowanie, zdumienie czy zaskoczenie. Tego typu sformułowania są używane podświadomie, nawet gdy nikogo nie ma w pobliżu. Język jest również używany do wzywania pomocy ze strony sił nadprzyrodzonych [4]. Wspólny język pozwala jednostkom tworzyć grupy społeczne i angażować się we wspólne działania, umożliwia tworzenie i przekazywanie wspólnej kultury, historii tradycji. Rodzaj języka używanego do wyrażania intymności, szacunku, przynależności, formalności, dystansu i innych emocji może pomóc w utrzymaniu związku z grupą. Język pełni niezwykle istotną rolę w wyrażaniu własnej tożsamości, zwłaszcza tożsamości narodowej [4].", "Komunikacja werbalna a płeć i wiek Sposób w jaki używamy języka wskazuje na nasz wiek lub płeć. Używana terminologia może dla osób młodszych wydawać się staroświecka i przeciwnie inna terminologia osobom starszym może wydawać się niezrozumiała. Ponadto język jest częścią naszej tożsamości płciowej. Gramatyka i składnia każdego języka jest inna i wskazuje na inne istotne kwestie. W niektórych językach akcentujemy istotność zaimkami osobowymi, liczbą, rodzajem itp. Jedną z podstawowych rzeczy, na które należy zwrócić uwagę to okazywanie szacunku. Tu języki różnią się od siebie znacząco. Poza kwestiami gramatycznymi w niektórych językach, które różnicują płeć np. w odmianie czasowników pojawiają się różnice w sposobie wykorzystywania języka przez osoby różnej płci. Kobiety i mężczyźni inaczej używają języka, zarówno jeśli chodzi o słowa jakich używają, ale również w kontekście zachowań komunikacyjnych. Wśród osób posługujących się językiem angielskim w USA kobiety mają tendencję do zadawania większej liczby pytań, częstszego słuchania i używania wspierającego stylu mowy. Z drugiej strony mężczyźni są bardziej skłonni do przerywania, wyrażania swoich opinii i są kiepskimi słuchaczami. W Japonii kobiety używają bardziej honorowych określeń, a obie płcie często używają innego słowa, aby powiedzieć to samo [4]. Język był również używany do kategoryzowania ludzi na różnych poziomach społecznych i ekonomicznych. Sposób w jaki mówimy ma niebagatelny wpływ na to jak jesteśmy odbierani przez innych.", "Od akcentu do żargonu Każdy język ma wiele wariacji. Przede wszystkim język zależy od miejsca w którym się go używa. Wyraźne różnice będą widoczne nawet w obrębie jednego języka np. amerykańska, australijska odmiana angielskiego czy austriacka odmiana niemieckiego itp. W obrębie jednego języka będą widoczne różnice w akcencie, czyli różnice w wymowie zależne od regionu. W języku funkcjonują również odrębne dialekty, czyli odmiany języka, które używane są przez określoną warstwę społeczną na określonym terytorium. Od języka ogólnonarodowego różnią go przede wszystkim cechy fonetyczne i fonologiczne, rzadziej składniowe. Jak zaznacza Halina Karaś podobnie można zdefiniować gwarę, zwracając jednak uwagę na inny zasięg zjawiska niż w przypadku dialektu, tu był on ograniczony do niewielkiego terytorium [5]. Ciekawym zjawiskiem jest również używanie żargonu, który oparty jest o specyficzne słownictwo wspólne dla jakiejś grupy, organizacji czy zawodu. Użycie specyficznego słownictwa buduje poczucie tożsamości. Zmieniając znaczenie istniejących słów lub wymyślając nowe, członkowie grupy mogą komunikować się z innymi członkami, skutecznie wykluczając osoby z zewnątrz. Podobnie działa slang, czyli język konkretnej grupy np. subkultury [4]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1003, "subject": "Różnice kulturowe w komunikacji niewerbalnej", "paragraphs": ["Komunikacja niewerbalna", "Najszerzej ujmując komunikacja werbalna to mowa, a niewerbalna to język ciała. Zazwyczaj przekazują one tę samą wiadomość, choć sygnały werbalne i niewerbalne różnią się. Za pomocą języka przekazujemy zarówno informacje, jak i emocje, natomiast komunikacja niewerbalna opiera się głownie na przekazywaniu stanów emocjonalnych. Należy zauważyć, iż język jest bardziej precyzyjny, natomiast język ciała można interpretować na wiele sposobów. Dodatkowo wymiana zdań ma początek i koniec, natomiast sygnały niewerbalne są wysyłane, o ile ludzie zauważają się nawzajem, nawet jeśli druga strona wykazuje brak zainteresowania komunikacją. Komunikat za pośrednictwem języka ciała wysyłamy często nieświadomie. Język można kontrolować, używać go celowo, a efekt można wcześniej zaplanować. Znaki niewerbalne mogą być również używane celowo, ale istnieją znaki ciała, których nie można kontrolować, np. pocenie się, zaczerwienienie i nagłe wybuchanie płaczem [1]. Kolejną cechą charakterystyczną będzie to, iż sygnały niewerbalne zależą od płci oraz co ważne, są głęboko zakorzenione, wyuczone w dzieciństwie i nabyte poprzez naśladowanie manier i cech rodziców i / lub grupy kulturowej; zatem należy podkreślić, iż przekaz niewerbalny zależy od kultury [2].", "Rola komunikacji niewerbalnej Rola komunikacji niewerbalnej jest niesamowicie duża. Określając jego rolę Broszinsky-Schwabe szacuje, że udział komunikacji niewerbalnej w dekodowaniu przekazu we wszystkich kulturach wynosi około \\( 70\\% \\) [1]. Natomiast Mehrabian (1971) uważa, że komunikacja niewerbalna stanowi \\( 93\\% \\) naszego rozumienia uczuć i postaw innych ludzi. Twierdzi, że \\( 55\\% \\) skutecznej komunikacji składa się z mimiki i mowy ciała, a kolejne \\( 38\\% \\) dotyczy tonu głosu. Słowa same w sobie stanowią zaledwie \\( 7\\% \\) skutecznej komunikacji. Dodatkowo zauważa, iż jeśli znaczenie naszych słów jest niezgodne z emocjami przekazywanymi za pomocą naszego tonu głosu, mimiki i poprzez mowę ciała, nasze słowa ledwo liczą się w komunikacji [3].", "Przykłady komunikacji niewerbalnej obejmują [2]:", "Rola sygnałów niewerbalnych:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1005, "subject": "Typy kultur", "paragraphs": ["Kultury można poddać analizie ze względu na bardzo wiele kryteriów. Kolejni twórcy wzmacniali wcześniejsze klasyfikacje zwracając uwagę na kolejne istotne elementy. W tej części podręcznika zostaną zaprezentowane najważniejsze systemy klasyfikacji kultur, które w literaturze przedmiotu można spotkać.", "Według F. Kluckhohna i F. L. Strodtbecka, autorów najstarszej typologii kultur [1] można je różnicować ze względu na:", "Geert Hofstede, na podstawie badań prowadzonych wśród pracowników międzynarodowych oddziałów firmy IBM w różnych kulturach, wyznaczył następujące wymiary kultury [2]:", "Obserwując sposoby reagowania przedstawicieli różnych kultur, Trompenaars i Hampden-Turner określili siedem podstawowych wymiarów kultury, które opierają się na stosunku do innych ludzi, do czasu oraz do otoczenia [3]. Pierwszy z wymiarów opisujący stosunki międzyludzkie dotyczy sposobu, w jaki ludzie oceniają zachowania innych członków społeczności. Wyróżniamy dwa rodzaje zachowań: z jednej strony te, które są oparte na powszechnie przyjętych zasadach postępowania, z drugiej zaś zachowania i oceny wynikające z partykularnych zobowiązań. W opozycji uniwersalizm vs partykularyzm jako przykład służyć może sytuacja, w której człowiek nie dostosowuje działania do specyficznych uwarunkowań, ale postępuje zgodnie z odpowiednią zasadą ogólną, zaś w przypadku kultur partykularystycznych wszystko rozpatruje się w odniesieniu do konkretnej sytuacji. Możemy zatem założyć, iż w kulturach uniwersalistycznych jest to skupienie na zasadach, a nie na stosunkach międzyludzkich, odwrotnie natomiast w kulturach partykularystycznych. Dla przedstawicieli kultury partykularystycznej istnieje kilka perspektyw rzeczywistości, innych dla każdej strony umowy, a nie jedna, którą uzgodniono w umowie [3].", "Kolejnym elementem różnicującym kultury jest określenie prymatu pragnień jednostki lub grupy. Indywidualizm określany jest jako „pierwotna orientacja na siebie”, a kolektywizm jako „pierwotna orientacja na wspólne cele i zadania” [3]. Dla kultury indywidualistycznej najważniejsza jest jednostka, a doskonalenie działań zespołowych ma na celu umożliwienie poszczególnym osobom jak najpełniejszej samorealizacji. Dla kultury kolektywistycznej najważniejszy jest interes grupy, a rozwój jednostek ma prowadzić do jego najpełniejszego zaspokojenia [3].", "Należy również zwrócić uwagę na rozróżnienie kultur na emocjonalne i powściągliwe − w tych drugich ludzie nie ujawniają swych emocji, muszą je kontrolować i tłumić. Kolejnym istotnym sposobem rozróżniania kultur jest zwrócenie uwagi na definiowanie sposobów zachowania jako dopuszczalne lub niedopuszczalne, związane z zakresem, w jakim dopuszczamy innych do obszarów naszego życia. Z tej perspektywy kultury dzielimy na wycinkowe, inaczej nazywane wąskokontekstowymi, oraz całościowe, czyli szerokokontekstowe [3].", "Kolejnym czynnikiem, który wpływa na zróżnicowanie kultur, jest sposób przyznawania w danej kulturze statusu społecznego. W niektórych kulturach jest on związany z indywidualnymi osiągnięciami, natomiast w innych nacisk jest kładziony na wiek, przynależność klasową, płeć, pochodzenie. Ostatnim elementem, który wpływa na zróżnicowanie kultury, jest dla Trompenaarsa i Hampden-Turnera postawa wobec przyrody, czyli przeświadczenie o możliwości i powinności kontrolowania jej albo wiara, iż człowiek jest częścią przyrody i musi się podporządkować jej nakazom. Pierwsza postawa jest przez autorów określana jako postawa skierowana na siebie w odróżnieniu od tej skierowanej na zewnątrz [3].", "Kluckhohn i Strodtbeck wyodrębnili trzy typy kultury: zorientowane na teraźniejszość, pozbawione tradycji i ignorujące przyszłość; zorientowane na przeszłość, zainteresowane głównie utrzymaniem i przywróceniem tradycji w teraźniejszości oraz takie, które są zorientowane na przyszłość, marzą o lepszym jutrze, pragną urzeczywistnić te wizje [4]. Czynności mogą być wykonywane jedna po drugiej albo jednocześnie. Metoda synchroniczna (E. Hall określał to jako polichromiczne), zakłada istnienie jednego, ostatecznego celu, do którego prowadzą liczne drogi. Natomiast ci, którym bliskie jest nastawienie sekwencyjne, mają tendencję do dokładnego planowania zajęć, zostawiając między nimi niewielką rezerwę czasową.", "Natomiast stworzony przez R. Gestlanda [5] podział kultur jest wykorzystywany niezwykle często w praktyce biznesowej. Koncentruje się on na podziale kultur na:"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1006, "subject": "Mapa kultur", "paragraphs": ["Podziałami kultur według różnorodnych kryteriów zajmowało się wielu badaczy. Wśród najczęściej wymienianych popularyzatorów szczegółowej wiedzy o kulturach są: Edward Hall [1], Richard Gesteland [2], Geert Hostedte [3], Fons Trompenaars, Charles Hampden-Turner [4]. Analiza różnic kulturowych podyktowana była bardzo wieloma przyczynami, jednak najwyraźniej zarysowany jest praktyczny aspekt tego zjawiska. Duża cześć badań skierowana jest na wskazanie sposobów działania biznesu w różnych częściach świata, gdyż to właśnie przedstawiciele świata biznesu i dyplomacji najczęściej komunikują się między kulturami. Poniżej zostały zaprezentowane najczęściej pojawiające się w literaturze grupy kultur:", "Kultury niskokontekstowe: Niemcy, Austria, Szwajcaria, kraje Beneluksu, Wielka Brytania, USA, Kanada, Szwecja, Dania, Holandia, Finlandia, Norwegia Kultury wysokokontekstowe: kraje arabskie, Japonia, Chiny, Singapur, kultury romańskie", "Kultury indywidualistyczne: Stany Zjednoczone, Wielka Brytania, Kanada, Holandia, Niemcy, Australia, Szwecja, Norwegia Kultury kolektywistyczne: Chiny, Japonia, Singapur, Tajwan, kraje arabskie", "Kultury o statusie przypisanym: kraje arabskie, Indie, Japonia Kultury o statusie osiąganym: Dania, Norwegia, Wielka Brytania, Nowa Zelandia, Kanada, Szwecja", "Kultury prorelacyjne, ceremonialne, polichroniczne, powściągliwe: Indie, Bangladesz, Mjanma, Laos, Wietnam, Tajlandia, Malezja, Indonezja, Filipiny Kultury prorelacyjne, ceremonialne, monochroniczne, powściągliwe: Japonia, Chiny, południowa Korea, Singapur", "Kultury prorelacyjne , ceremonialne , polichroniczne, ekspresyjne: kraje arabskie, Turcja, Grecja, Brazylia Meksyk Kultury prorelacyjne , ceremonialne , polichroniczne, umiarkowanie ekspresyjne: Rosja, Polska, Słowacja, Rumunia", "Kultury umiarkowanie pro-transakcyjne, ceremonialne, umiarkowanie monochroniczne, ekspresyjne: Francja, Belgia, Hiszpania, Węgry, Włochy Kultury umiarkowanie protransakcyjne, ceremonialne, umiarkowanie monochroniczne, powściągliwe: Litwa, Łotwa, Estonia", "Kultury protransakcyjne, umiarkowanie ceremonialnie, monochroniczne, powściągliwe: Wielka Brytania, Irlandia, Dania, Norwegia, Szwecja, Niemcy, Holandia, Czechy, Kultury protransakcyjne, nieceremonialne, monochroniczne, umiarkowanie ekspresyjne: Australia, Kanada, Stany Zjednoczone"], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1007, "subject": "Kultury protransakcyjne i prorelacyjne", "paragraphs": ["Ze względu na podstawy komunikacji możemy kultury podzielić na protransakcyjne i propartnerskie. Rozróżnienie to jest szczególnie ważne w sferze biznesowej, gdzie nieznajomość kultury partnera, zwłaszcza w tym wymiarze, może mieć wymierne konsekwencje.", "Przedstawiciele kultur o nastawieniu protransakcyjnym są przede wszystkim skoncentrowani na zadaniach, które muszą zrealizować, podczas gdy osoby o nastawieniu propartnerskim będą miały tendencję do skupiania się na ludziach i relacjach z nimi. Oczywiście relacje z ludźmi będą ważne w każdej kulturze, ale jak zauważa Gesteland, jest to zawsze kwestia skali [1].", "Kontakt osób pochodzących z tych odmiennych rodzajów kultur może powodować konflikty. Przykładowo osoby będące przedstawicielami kultury propartnerskiej będą postrzegać swych rozmówców czy partnerów w biznesie wywodzących się z kultury protransakcyjnej jako osoby bezczelne, zbyt pewne siebie, czy nawet i agresywne [2]. Te kultury komunikacyjne różnią się bardzo wieloma cechami, dlatego zostaną one zwięźle omówione.", "Kultury propartnerskie Ten typ kultury określany jest również mianem kultury prorelacyjne. W takim typie kultury ludzie oczekują od innych głębokich i długotrwałych relacji. Ma to skutki w wielu dziedzinach życia. Przykładowo w międzykulturowej komunikacji biznesowej dużym utrudnieniem będzie zainicjowanie współpracy z kimś, kogo się nie zna [3]. Potrzebni będą pośrednicy, którzy takie spotkanie zorganizują lub zainicjują, ponieważ przedstawiciele takich kultur absolutnie nie są skłonni do prowadzenia interesów z ludźmi obcymi. Pomocne może się okazać wsparcie ambasady, znanej instytucji czy wręcz profesjonalnych pośredników itp. W tym typie kultury sieć kontaktów jest niezwykle istotna. W kwestiach biznesowych, to ona często będzie decydowała o powodzeniu, bądź nie przedsięwzięcia [4].", "W relacjach z przedstawicielami kultury propartnerskiej należy pamiętać, iż relacje osobiste są niezwykle ważne, dlatego na zbudowanie zaufania należy przeznaczyć odpowiedni czas. Ważne jest nawiązanie dobrej i przyjacielskiej relacji, dlatego w komunikacji często pojawiają się pogawędki i rozmowy o kwestiach osobistych. Przedstawiciele kultury propartnerskiej najpierw spotykają się z potencjalnym kontrahentem kilka razy towarzysko, a podczas tych spotkań dominują rozmowy na tematy błahe, niezobowiązujące, i dopiero po poznaniu potencjalnego kontrahenta i nawiązaniu z nim bliższej znajomości umawiają się w celu omówienia szczegółów potencjalnych kontaktów biznesowych [5].", "W kulturach propartnerskich bardzo duże znaczenie ma unikanie konfliktów i zachowanie harmonii między ludźmi, a także zachowanie twarzy, gdyż jej utrata jest zagrożeniem i dyshonorem nie tylko dla jednostki, ale dla całej grupy np. rodziny czy klanu. Osoby z kultury propartnerskiej dążą do harmonii i miłych relacji, zatem trudno jest im mówić wprost, gdy są zmuszeni odmówić nie używają słowa „nie”, a w zamian powiedzą „to trudne”, „może”, „zastanowię się”. Takie zachowanie jest typowe np. w Japonii [6]. Komunikacja w kulturach propartnerskich często będzie komunikacją wysokokontekstową, gdzie rozumienie przekazu jest uwarunkowane od szerokiego kontekstu. Nie może zatem dziwić, iż jest to typ kultury, gdzie ludzie preferują się kontakty osobiste, twarzą w twarz.", "Kultury protransakcyjne Jest to typ kultury, gdzie komunikacja między ludźmi polega na jasnych i prostych komunikatach, ponieważ zrozumienie się jest niezwykle ważne, zatem zazwyczaj komunikaty są wypowiadane wprost, bez konieczności denotowania całego kontekstu społecznego. Dodatkowo większość spraw, zwłaszcza dotyczących wspólnych interesów można uzgodnić i rozwiązać raczej przez telefon czy za pośrednictwem maili, niż na spotkaniach twarzą w twarz. W kulturze protransakcyjnej ustalenia, które zostały podjęte, są obowiązujące i rzadko jest możliwość ich renegocjacji.", "W sferze biznesowej wprowadzenie i referencje mimo iż zawsze mogą być pomocne, jednak w tym typie kultury na ogół można się bezpośrednio skontaktować z potencjalnym klientem czy wspólnikiem. Co ważne podczas spotkań biznesowych przechodzi się do meritum zaledwie po kilkuminutowej rozmowie na tematy ogólne. W przypadku nieporozumień polega się na pisemnych kontraktach, a nie na stosunkach osobistych. W kulturze protransakcyjnej kontrahenci poznają się podczas spotkań formalnych, podczas których omawiają formalne kwestie, takie jak: ceny, terminy, szczegóły transakcji [3]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1010, "subject": "Kultury ceremonialne i nieceremonialne", "paragraphs": ["Jedną z cech różnicujących kultury w kontekście komunikacji międzykulturowej jest charakterystyczne dla kultur podejście do ceremoniału i hierarchii.", "Kultura ceremonialna jest określana jako hierarchiczna i formalna, tzn. iż kulturę ceremonialną reprezentują społeczeństwa hierarchiczne, w których ludzie są skłonni podkreślać status społeczny i pozycję społeczną swoją i swoich rozmówców. Ważne jest miejsce jakie jednostka zajmuje w hierarchii władzy [1]. To właśnie komunikacja w tych kulturach jest sposobem okazywania szacunku, a osiągnięty status społeczny jest podstawą ładu i punktem odniesienia w komunikacji międzyludzkiej. Kultury ceremonialne i hierarchiczne cechuje ceremonialność, która jest wyrazem okazywania szacunku osobie o wyższej pozycji w hierarchii społecznej (z racji osiągnięć, stażu pracy czy wieku); w tych kulturach podkreśla się i ceni różnice w statusie społecznym i zawodowym; do partnerów biznesowych zwraca się po nazwisku, poprzedzając je tytułem (na przykład prezes, dyrektor, kierownik, profesor, doktor, redaktor itp.); rytuały protokolarne są liczne i rozbudowane – należy je poznać i ich przestrzegać. Hierarchia w kulturach ceremonialnych uwzględnia takie kwestie jak wiek, płeć, pozycję społeczną, a podczas rozmów biznesowych dodatkowo pozycję w strukturze władzy firmy oraz fakt czy jest się kupującym, czy sprzedającym (przypisując wyższy status kupującemu) [2]. W kulturach ceremonialnych kobiety rzadziej obejmują kierownicze stanowiska (najrzadziej Korea Południowa, Japonia czy Arabia Saudyjska).", "Rytuały, czyli społecznie akceptowane zbiorowe działania, które są uważane za właściwe zachowania w różnych sytuacjach odgrywają w tym typie kultury bardzo istotną rolę, a ich obecność jest dość częsta. Przykładem mogą być rytuały związane ze zwyczajowym powitaniem czy pożegnaniem, sposobami okazywania szacunku, ale także związane ze sposobem ubierania się na różne okazje czy przekazywania określonych wiadomości lub zaproszeń. Im więcej jest tego typu obowiązujących rytuałów, tym bardziej wymagające jest przygotowanie się do rozmów, np. biznesowych, gdyż nieprzestrzeganie rytuałów może powodować zakłopotanie drugiej strony, niezrozumienie, a w skrajnych przypadkach poczucie obrazy czy dyshonoru. Z powodu wymienionych różnic zetknięcie się przedstawicieli tych dwóch rodzajów kultur może powodować dyskomfort obu stron: przykładowo osoba z kultury ceremonialnej będzie odbierana jako zbyt oficjalna i sztywna, podczas gdy ona sama będzie odczuwać negatywne emocje z powodu braku okazywania jej należnego szacunku [3].", "Kultury nieceremonialne natomiast będą się charakteryzowały zachowaniami bezpośrednimi, a brak odpowiedniego ceremoniału nie jest uznawany za lekceważenie. W tym typie kultury ludzie bardzo szybko zwracają się do siebie bezpośrednio unikając tytułów naukowych, zawodowych czy sformułowań typu pan/pani, zwracając się do siebie po imieniu. W komunikacji różnice statusowe nie odgrywają żadnego znaczenia, zatem nie są przez interlokutorów podkreślane. Obowiązujące rytuały protokolarne są nieliczne i proste. W kulturach nieceremonialnych ludzie nie przywiązują wagi do rytuałów i konwenansów. To przykład kultur relatywnie egalitarnych. Negocjatorzy pochodzący z kultury nieceremonialnej starają się w celu poprawienia klimatu rozmów niwelować różnice społeczne między osobami biorącymi udział w rozmowach."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1008, "subject": "Kultury monochroniczne i polichroniczne", "paragraphs": ["Jedną z podstawowych różnic pomiędzy kulturami jest ta, dotycząca stosunku do czasu. Badacze różnic międzykulturowych określą zatem kultury mianem monochronicznych i polichronicznych, czasem te kultury nazywane są również kulturami synchronicznymi lub sekwencyjnymi. Cech różnicujących kultury ze względu na różne rozumienie czasu nie jest wiele, jednak są one bardzo znaczące.", "Kultury monochroniczne", "Kultury monochroniczne to kultury, w których dużą uwagę przywiązuje się do punktualności i harmonogramów [1]. W społeczeństwach przywiązujących wagę do czasu punktualność jest czynnikiem rozstrzygającym, harmonogramy traktuje się jako ustalone raz na zawsze, porządek dzienny – jako niepodlegający zmianom, a spotkania zawodowe są rzadko przerywane. W Niemczech, Szwajcarii, Holandii i innych krajach, w których przywiązuje się dużą wagę do terminowości, konieczne jest punktualne przybycie na zaplanowane spotkanie. Przedstawiciele kultury monochronicznej postrzegają czas jako biegnący liniowo. Spóźnianie się może być odebrane jako brak szacunku, a nawet lekceważenie. Dodatkowo, ponieważ jest to kultura sekwencyjna, w spotkaniach służbowych zwraca się pełną uwagę na jeden punkt programu po drugim [2].", "Kultury polichroniczne", "Kultury polichroniczne to kultury, które określamy przez zaprzeczenie cech kultur monochronicznych, którym został poświęcony poprzedni fragment rozdziału. Są to kultury, w których dobre relacje są znaczne ważniejsze niż punktualność, zatem czas ma mniejsze znaczenie [1]. Kultury polichroniczne, to takie, w których ludzie kładą mniejszy nacisk na punktualność i nie traktują terminów jako nieprzekraczalnych, panuje większa elastyczność. Osoby z kultur polichromicznych cenią harmonogramy, które nie są napięte, jak również posiedzenia, w czasie których może się odbywać kilka spotkań jednocześnie i mogą dotyczyć spraw kompletnie ze sobą niezwiązanych [3]. W niektórych kulturach polichronicznych, np. w krajach arabskich, normą jest, iż np. spotkania biznesowe przerywane są ze względu na odwiedziny kogoś z rodziny, zwłaszcza, gdy odwiedzającym jest ktoś ze starszyzny rodowej. Należy zatem stwierdzić, iż w tym typie kultur czas jest terminem bardzo elastycznym, a co ważniejsze, zarówno priorytety, jak i czas ich realizacji nie są niezmienne i będą wypadkową wielu czynników w zależności od sytuacji. Dodatkowo ze względu na zakłócenie przebiegu spotkania często będzie się ono znacząco przedłużało, o czym należy pamiętać [4]. Upływ czasu jest postrzegany jako rodzaj koła – przeszłość, teraźniejszość i przyszłość są ze sobą powiązane. Ten punkt widzenia wpływa na to, jak organizacje w tych kulturach podchodzą do terminów, myślenia strategicznego, inwestycji, rozwijania talentów od wewnątrz i koncepcji planowania długoterminowego [5]. Warto pamiętać, iż w tym typie kultur dobre relacje z innymi ludźmi są zdecydowanie ważniejsze niż punktualność i dotrzymywanie terminów. Można spóźnić się na przykład na spotkanie biznesowe, ponieważ trzeba było komuś nagle pomóc itp.  Co ciekawe jednak nawet w kulturach polichromicznych oczekuje się, że gość przyjdzie punktualnie na spotkanie, aby w ten sposób okazać szacunek dla gospodarza. Równie ważne jest przypomnienie, że jeśli np. podczas spotkań biznesowych przedstawiciele kultury polichronicznej będą spóźnieni, nie znaczy to, iż są niegrzeczni, a jedynie, iż w ich kulturze traktuje się czas elastycznie [3]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1009, "subject": "Kultury ekspresyjne i powściągliwe", "paragraphs": ["Podział na kultury ekspresyjne i powściągliwe dotyczy różnic w sposobie komunikowania obejmujących zarówno komunikację werbalną i niewerbalną. Zarówno określa to co mówimy, w jaki sposób, określając naszą ekspresyjność, ton głosu, ale również mimikę i mowę ciała, kontakt fizyczny i dystans między osobami wchodzącymi w komunikację [1].", "Kultury ekspresyjne Cechą charakterystyczną tej kultury jest sposób mówienia. Przedstawiciele tej kultury mówią głośno, dużo i w bardzo emocjonalnym stylu. Często sobie przerywają i wchodzą sobie w słowo. Komunikaty, które wypowiadają są niejasne, często bardzo rozbudowane w formie retorycznej [1]. Czasami ludzie nierozumiejący lokalnego języka mają wrażenie , że osoby rozmawiające ze sobą się kłócą, tymczasem jest to emocjonalna rozmowa w kulturze ekspresyjnej. Przedstawicie tej kultury bardzo mocno gestykulują i mają bogaty język ciała [2]. Wiele gestów jest w tych kulturach wyraźnie określony i bez ich znajomości bardzo trudno komunikować się skutecznie. Mieszkańcy krajów należących do kultury emocjonalnej mają skłonność do częstego dotykania się – uścisków i pocałunków na powitanie, poklepywanie jako forma okazania aprobaty czy wręcz trzymania się za ręce z przyjaciółmi. W zależności od konkretnej kultury będą wyraźne różnice w ekspresji w zależności od płci. W krajach muzułmańskich taka ekspresja jest możliwa wyłącznie między przedstawicielami tej samej płci, a w kulturach południowoeuropejskich obu płci. Dystans przestrzenny zachowywany podczas rozmowy jest niewielki około 0,5 m [3]. Ludzie utrzymują ze sobą kontakt wzrokowy. Jego intensywność będzie zależna od konkretnego miejsca, jednak wszędzie jest on oczekiwaną formą kontaktu i wyrazem szczerości i zainteresowania.", "Kultury powściągliwe Mieszkańcy krajów o kulturze powściągliwej będą wypowiadali się w zupełnie inny sposób niż mieszkańcy omówionych wcześniej kultur ekspresyjnych. Będą mówili cicho, nie będą sobie przerywali, gdyż jest to uważane za zachowanie nieuprzejme. Podobnie używanie podniesionego języka będzie uznawane za przejaw agresji. W tym typie kultury dotyk między osobami nie pozostającymi w bliskiej relacji jest stosunkowo rzadki, a dystans przestrzenny zachowywany miedzy osobami w procesie komunikacji jest większy i wynosi około 1 m [3], choć oczywiście będzie to zależało od konkretnej kultury narodowej i można tu zaobserwować pewne różnice. Intensywność kontaktu wzrokowego również będzie zależała od konkretnego przejawu kultury, ale z pewnością jest ona mniejsza niż w krajach ekspresyjnych. W kulturach Dalekiego Wschodu utrzymywanie kontaktu wzrokowego będzie mniej powszechne, natomiast w krajach Europy Północnej utrzymywanie kontaktu wzrokowego jest istotne, mimo, iż nie może być zbyt intensywne. Osoby pochodzące z kultur powściągliwych będą rzadziej gestykulowały, ich gesty będą bardziej powściągliwe, a w samej kulturze system znaków koniecznych do zrozumienia przekazu będzie bardzo ograniczony. To czy będą mówili wprost i wprost komunikowali informacje i swoje potrzeby będzie zależało, czy będą należeli do kultury wysoko czy niskokontekstowej."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1011, "subject": "Arabska i żydowska kultura komunikacyjna", "paragraphs": ["Kultura arabska Kultura krajów arabskich jest zdeterminowana religią wyznawaną przez większość społeczeństwa. Należy jednak pamiętać, iż trudno mówić o jednym islamie. Jest to religia złożona, która ma swoje lokalne odmiany, nie tylko związane z podziałem na sunnitów i szyitów. W świecie muzułmańskim bardzo trudno rozróżnić to, co świeckie od tego co związane ze sferą religijną, gdyż ta ostania przenika wszystkie aspekty życia społecznego. Wpływa na stosunki między ludźmi, kontakt przedstawicieli odmiennych płci, role zawodowe i sposób prowadzenia biznesu. Będzie również w jakimś stopniu determinować kulturę komunikacyjną w tym typie społeczeństw.", "Cechą charakterystyczną arabskiej wypowiedzi jest częste używanie sformułowania insha’ Allah – Jak zechce Bóg, które jest często uznawane za fatalizm czy pokorę Arabów [1]. Kultura arabska jest kulturą ceremonialną, zatem Arabowie zwracając się do innych, niezależnie od sytuacji chętnie używają tytułów, zarówno naukowych, jak i honorowych np. hadżi – na określenie człowieka, który odbył pielgrzymkę. Tradycyjni muzułmanie zamiast imienia używają tzw. kunji, czyli określenia zarezerwowanego dla ojców lub matek, określenia ojciec, matka wraz z imieniem dziecka - najczęściej najstarszego syna [2]. W świecie arabskim, czy szerzej w muzułmańskim, mowa ciała i wykonywane gesty są czymś niezmiernie istotnym. Charakterystyczną cechą komunikacji arabskiej jest podniesiony głos i przerywanie sobie w trakcie dyskusji. Często wielu uczestników spotkania mówi jednocześnie, każdy stara się przekrzyczeć innych, a dla podkreślenia wagi swoich słów Arabowie wykorzystują wiele gestów, które często przedstawicielom bardziej powściągliwych kultur mogą się wydawać wręcz przejawem agresji np. podniesiony głos czy uderzanie pięścią w stół. Arabowie nie lubią mówić nie, a ich tak, nie zawsze powinno być rozumiane jako zgoda, dopóki nie jest powtórzone kilkakrotnie. Dodatkowo, uważają iż kwestie istotne powinny być powtórzone kilkakrotnie [3]. Rozmawiając z Arabem, należy utrzymywać kontakt wzrokowy, jednak nie bardzo intensywny. W trakcie spotkań zawodowych Arabowie odbierają telefony, witają odwiedzających, których liczba i ranga świadczy o prestiżu przedsiębiorcy.", "Spóźnienia w tej kulturze są rzeczą zupełnie naturalną, mogą być niekiedy naprawdę poważne. Sprawy załatwia się powoli, ponieważ Arabowie lubią wielogodzinne negocjacje. Jeśli rozmowy utknęły w martwym punkcie, należy oczekiwać wsparcia od najstarszej osoby w gronie arabskich negocjatorów i to w jej kierunku należy się zwracać. Nigdy nie należy jednak spoglądać na zegarek – jest to traktowane jako wyraz braku szacunku [4].", "Biznes z Arabami Podczas współpracy z Arabami kilka kwestii wydaje się niezwykle istotnych. Po pierwsze niezwykle istotne jest wykorzystanie kanałów nieformalnych w prowadzeniu własnej działalności gospodarczej, ze względu na dominację powiązań rodzinnych, plemiennych czy klanowych we wszystkich sferach życia społecznego, w tym także w sferze zawodowej. Zastosowanie więzi i powiązań rodzinnych i przyjaźni jest nie tylko rozpowszechnionym, ale również ważnym i koniecznym środkiem prowadzenia działalności gospodarczej w świecie arabskim. Firmy i organizacje pochodzące z innych regionów, pozbawione koneksji, muszą korzystać z agentów i pośredników, co wiąże się z prowizjami i łapówkami. Specyfika społeczeństwa arabskiego polega na istnieniu, nie tylko w kręgach związanych z prowadzeniem biznesu, instytucji zwanej wasta (arab. mediator, mediacja), czyli osoby odpowiedzialnej za utrzymywanie kontaktów nieformalnych. Arabowie nie mają w zwyczaju przekazywania uprawnień czy obowiązków swym podwładnym, stąd też ciężar pracy i decydowania spoczywa na liderze [2]. Podejmując decyzje, Arabowie zasadniczo wybierają styl autorytarny lub ewentualnie opierają się na niewiążących konsultacjach. Nieformalność jest niezwykle widoczna podczas negocjacji handlowych. Podczas prowadzenia rozmów zawsze pojawiają się pytania o rodzinę, zdrowie i najnowsze przedsięwzięcia kontrahentów. Nie jest to jedynie sposób na rozładowanie napięcia, to przede wszystkim czas na stworzenie lub podtrzymanie więzi z kontrahentem. Rozpoczynając negocjacje, arabski przedsiębiorca zawsze angażuje się nie tylko w rozmowy towarzyskie, ale również w dodatkowe rytuały, które jego obserwatorom czy kontrahentom z zagranicy często mogą wydać się długie [5]. Spotkanie biznesowe w krajach arabskich zaczyna się zawsze od niezobowiązującej rozmowy na tematy ogólne bądź prywatne, ale zawsze niezwiązane z zagadnieniami dotyczącymi współpracy. Jest to czas potrzebny na poznanie się, wytworzenie przyjaznej atmosfery i zdobycie szacunku. Ważną zasadą islamu są też zakazy alimentacyjne, czyli zakaz spożywania wieprzowiny oraz alkoholu, co wpływa również na biznes w krajach muzułmańskich [6].   Żydowska kultura komunikacji Pod względem komunikacyjnym kultura żydowska jest niezwykle podobna do kultury arabskiej. Mieszkańcy Izraela utrzymują ze sobą bliski kontakt przestrzenny w obrębie tej samej płci, również dotyk jest tu dość częsty. Kultura izraelska ma tendencję do bardzo bezpośredniego, ekspresyjnego i nieformalnego stylu komunikacji. Izraelskie „dugri” , mówienie wprost, jest znane na całym świecie. Izraelczycy mówią, co myślą, niezależnie od okoliczności. Ten styl można interpretować jako szczery, konkretny, spontaniczny i ciepły. Jednak ludzie wywodzący się z kultur, które preferują pośrednią, powściągliwą i bardziej formalną komunikację, często postrzegają sposób, w jaki Izraelczycy komunikują się, jako niegrzeczny, nietaktowny, nieodpowiedni i arogancki. Izraelczycy są bardzo bezpośredni, mają zwyczaj zadawać bardzo osobiste i intymne pytania i poruszać osobiste tematy, również z osobami, których jeszcze dobrze nie znają. Dodatkowo gestykulacja jest bardzo żywa, a mowa głośna i ekspresyjna. Izraelczycy często sobie przerywają [7]. Izraelczycy są bardzo elastyczni i lubią elastyczne podejście do problemów. Należą do kultury polichronicznej, co oznacza, iż wykonują w tym samym czasie wiele czynności, często nie oddzielając życia zawodowego od prywatnego, zwłaszcza dotyczy to sfery biznesowej, gdzie np. transakcje biznesowe są omawiane w parku podczas spaceru z dziećmi. Izraelczycy wyznają zasadę i wszystko podlega negocjacjom, które zawsze należy podejmować. Podjęcie próby negocjacji jest zawsze doceniane. Izraelczycy nie zwracają często uwagi na szczegóły i estetykę. Jest dla nich ważne, aby idea była zrozumiała, a dopracowywanie szczegółów jest uznawane często za zbędną stratę czasu [8]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1012, "subject": "Azjatyckie kultury komunikacji", "paragraphs": ["Chińska kultura komunikacji Chiny to kraj o kulturze wysokiego kontekstu, co oznacza, iż życie w Chinach jest mocno ceremonialne i zrytualizowane. To również kultura kolektywistyczna. Komunikacja pełna jest niejasnych i niebezpośrednich komunikatów, a w jej obrębie dominuje komunikacja niewerbalna, jednak brak jest kontaktu wzrokowego, silnych emocji nie okazuje się i - co ważne podkreślenia - niejednokrotnie nawet słowa różnią się w zależności od statusu odbiorcy komunikatu [1]. Komunikacja nie służy wymianie informacji, a raczej jest elementem nawiązywania i pogłębiania relacji, które w Chinach są niezwykle ważne. Cechą charakterystyczną tego społeczeństwa jest bardzo rozszerzona sieć wzajemnych relacji międzyludzkich, która ma wpływ na wszystkie obszary życia Chińczyka. Sieć ta – guanxi – jest formą kapitału społecznego, przy pomocy której kreowana są dodatkowe wartości, w tym wartość ekonomiczna [2], [3]. By rozpocząć jakiekolwiek działania w Chinach, niezbędne jest wytworzenie takiej sieci i zbudowanie w jej obrębie wzajemnego zaufania. Kolejną cechą charakterystyczną tej kultury jest konieczność zachowania twarzy, jej utrata to utrata honoru [4]. Chińczycy stosują szereg strategii komunikacyjnych, których celem jest utrzymanie twarzy.", "Specyfika komunikacji chińskiej ma swe konsekwencje w różnych dziedzinach życia społecznego. Jedną z wyraźniejszych jest komunikacja biznesowa. Kiedy chińscy menedżerowie negocjują umowę, nie opierają się na treści umowy, ale na kontekście, w jakim została ona negocjowana. Ważne są relacje między jednostkami, ponieważ w razie pojawienia się kłopotów chińscy menedżerowie zakładają, że podstawą rozwiązania problemu będzie komunikacja. Prawo nigdy nie jest ostatecznym sposobem określania standardów zachowania, gdyż może być zmienne. Chińscy menedżerowie nie obawiają się niedotrzymania warunków umowy, gdyż jest ona postrzegana jako symbol relacji między partnerami [5].", "Zgodnie z regułami zachowania w Chinach nikt nie powinien się wywyższać, podczas spotkań prosi się wszystkich o zabranie głosu, a stoły do spotkań czy negocjacji są zazwyczaj okrągłe. Wbrew temu Chiny są jednak bardzo mocno zhierarchizowane. Chińczycy są świadomi nierówności występujących w ich społeczeństwie, zarówno dotyczących dostępu do władzy, jak i rozpiętości dochodów. Decyzje lidera są niepodważalne, wymaga się od niego zaangażowania w życie prywatne pracowników, reagowania na problemy, które mają pracownicy i ich rodziny. Ważne, aby lider był wzorem dla innych. Konfucjańska doktryna dotyczy też pracy w grupach, nie warto wychodzić z inicjatywą, gdyż jest to postrzegane jako popisywanie się i zaburza harmonię zespołu, która jest uznawana za wielką wartość [6]. W sferze biznesowej dystans władzy związany jest z autorytarną władzą lidera, ze zhierarchizowanym stosunkiem przełożony-podwładny oraz koniecznością akceptacji każdej decyzji przez wszystkie szczeble hierarchii w organizacji znacząco wpływają na czas podejmowania decyzji.", "Japońska kultura komunikacji Japoński styl opiera się na komunikacji w wysokim kontekście. W kulturach wysokiego kontekstu ludzie w mniejszym stopniu polegają na komunikacji werbalnej, a bardziej na kontekście działań niewerbalnych i otoczeniu środowiskowym, aby przekazać znaczenie, ponieważ tak duża część przekazu jest przenoszona za pomocą wskazówek i interpretacji „między wierszami”. Te różnice kontekstowe są widoczne np. w sposobie, w jaki osoby pracujące w Japonii podchodzą do takich sytuacji, jak podejmowanie decyzji czy negocjacje [7]. Japończycy mogą spędzać więcej czasu na budowaniu relacji, niż na wypracowywaniu umów. Innymi słowy, ochrona relacji biznesowych może być równie ważna jak podjęcie ostatecznej decyzji biznesowej. Na przykład Japończycy mówią „tak” zamiast „nie”, ale w kontekście wskazują, czy „tak” oznacza tak, czy naprawdę nie. Japończycy jako osoby pochodzące z kultury z wysokim kontekstem mają tendencję do komunikowania się w sposób bardziej niejawny [8]. Zakładają oni na przykład podczas spotkania biznesowego, iż ich interlokutor zinterpretuje, co mają na myśli, wiedząc o wartościach kulturowych, które kryją się za tymi słowami.", "Indyjska kultura komunikacji Unikalną cechą indyjskiego sposobu myślenia jest to, że łączy w sobie zarówno tendencje indywidualistyczne, jak i kolektywistyczne. Mieszkańcy Indii jako indywidualiści są zorientowani na cel, jednocześnie jednak są bardzo zorientowani na rodzinę, a swoją lojalność i przywiązanie ograniczają i racjonują tylko wśród bliskich im osób. Kultura indyjska jest mocno hierarchiczna. Podejmowanie decyzji odgórnie jest normą, a najczęściej w organizacji występuje tylko przepływ informacji w dół. Podwładni rzadko, jeśli w ogóle, będą kwestionowali decyzje przełożonych. Hierarchicznemu charakterowi towarzyszy równoległa tendencja do tego, że podwładni chcą być otoczeni ojcowską opieką przełożonych. Podwładni oczekują, że przełożony będzie wobec nich życzliwy, a jeśli ta życzliwość zostanie odwzajemniona, podwładny prawdopodobnie zareaguje również pozostaniem lojalnym [9]. Hinduskie zespoły negocjacyjne są odzwierciedleniem silnych podziałów kastowych w społeczeństwie hinduskim. Sam proces negocjacji jest długotrwały, gdyż indyjscy negocjatorzy potrzebują wielu informacji, które poddają bardzo szczegółowej analizie. Dodatkowo ich wysokie aspiracje, wiara w hierarchię i niezdolność do pracy w zespole niezwykle wydłużają proces negocjacji. Zakorzeniona nuta indywidualizmu powoduje, iż w początkowej fazie negocjacji dbanie o relacje nie odgrywa takiej roli, jak np. w Chinach czy Japonii, jednak ich znaczenie prawdopodobnie wzrośnie na etapie realizacji przedsięwzięcia. Badanie negocjatorów z 12 różnych kultur wykazało, że mieszkańcy Indii byli najmniej wrażliwi na względy czasowe [10]. Należy również pamiętać, iż praca dla ludności pracującej w Indiach nie jest po prostu źródłem utrzymania, ale stanowi podstawę statusu społecznego, uprawnienia do kredytu hipotecznego oraz podstawę perspektyw małżeństwa [11]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1013, "subject": "Północno- i południowoamerykańska kultura komunikacji", "paragraphs": ["Kultura Ameryki Północnej Kultura Stanów Zjednoczonych jest klasyfikowana jako kultura nieceremonialna, protransakcyjna, monochromiczna, o zróżnicowanej ekspresyjności [1]. Kultura amerykańska to kultura bardzo indywidualistyczna, w której ludzie często nastawieni są na osiągnięcie własnego sukcesu i cenią sobie wolność. Kultura ta jest kulturą męską, zatem jej cechą charakterystyczną jest dominacja takich wartości jak rywalizacja, ambicja czy asertywność [2]. W kulturze Ameryki Północnej czas jest postrzegany liniowo, jako następstwo przeszłości teraźniejszości i przyszłości . Amerykanie uważają, iż jest on cenny, a przeszłość ma wpływ na przyszłość [3]. Amerykanie w komunikacji zawodowej, pomimo początkowej wymiany grzeczności z rozmówcami, chcą szybko przejść do meritum. W komunikacji biznesowej przywiązują oni ogromną wagę do dokumentów i przepisów. Amerykanie znani są z bardzo bezpośredniego sposobu komunikacji, bardzo szybko skracają dystans chociażby poprzez zwracanie się do siebie po imieniu. Ich zachowanie wynika z postaw egalitarystycznych, które są dla nich istotne, co się przekłada na postrzeganie statusu jednostki bez względu na płeć, pozycję społeczną czy wiek [4].", "Kultura komunikacyjna mieszkańców USA i Kanady nie będą identyczne, nie identyczne będą również ich kultury biznesowe. Amerykanie wyrażają się bardziej wprost, momentami wręcz dosadnie. Natomiast Kanadyjczycy będą prezentowali bardziej subtelne podejście, często wykazując się dystansem do siebie. Amerykanie są dumni ze swojej egalitarnej kultury, wobec czego zazwyczaj uczestnicy spotkań zabierają głos i często nie zgadzają się z przełożonymi. Kanadyjczycy prowadzą bardziej powściągliwe spotkania biznesowe. Spotkania służbowe raczej charakteryzują się poszukiwaniem konsensusu, nieporozumienie zawsze wymaga szacunku. Przeszkadzanie sobie nawzajem i wchodzenie w słowo jest postrzegane jako nieuprzejme [5].", "Południowoamerykański styl komunikacji Bardzo trudno jest mówić o jednej kulturze południowoamerykańskiej, gdyż jest to kontynent złożony z bardzo różnych krajów, różniących się nie tylko wielkością, strukturą etniczną, historią, ale również wierzeniami i tradycją. Ze względu na potrzeby pewnej systematyzacji wzięte zostały pod uwagę te cechy, które będą typowe dla większości krajów Ameryki Południowej.", "Kraje Ameryki Południowej należą do kultur ekspresyjnych, polichronicznych o propartnerskim stylu komunikacji i negocjacji. W kulturze regionu ważną rolę odgrywa kwestia płci i różnic społecznych generowanych przez role społeczne wynikające z płci. W komunikacji ważną rolę odgrywa hierarchia społeczna. Kultura południowoamerykańska należy do kultur ceremonialnych. Mieszkańcy Ameryki Południowej są bardzo ekspresyjni, zarówno w komunikacji werbalnej, jak i niewerbalnej. Podczas ożywionej dyskusji należy się spodziewać żywej gestykulacji, wyrażania własnych emocji oraz przerywania wypowiedzi innym uczestnikom rozmowy.", "Analizując kulturę komunikacyją społeczenstw Ameryki Południowej nie sposób pominąć kwestii kontaktu fizycznego – strefa intymna nie jest tu szeroka, dodatkowo ludzie wzajemnie często się dotykają, a wśród przyjaciół oraz bliskich partnerów pocałunki czy obejmowanie jest czymś normalnym [6]. Latynosi należą do społeczności kolektywistycznych, co oznacza, że lubią tworzyć i przynależeć do grup. Istotną rolę odgrywa znajomość języka – hiszpańskiego lub portugalskiego – w lokalnych odmianach. Język angielski jest coraz bardziej popularny, jednak jego znajomość nie jest na tyle powszechna, by móc oprzeć się tylko na niej w kontaktach z mieszkańcami Ameryki Południowej. Kontakt wzrokowy jest utrzymywany i jest w tej kulturze konieczny, ponieważ jest oznaką skupienia się na interlokutorze. Dużą wagę mieszkańcy Ameryki Południowej przykładają do kontaktów międzyludzkich, zatem częste kontakty telefoniczne, nawet w momencie ważnego spotkania, przerywanie spotkań biznesowych  przez osoby przychodzące w odwiedziny lub w konkretnym pilnym celu będą normą.  Cechą charakterystyczną komunikacji z i między mieszkańcami Ameryki Południowej jest fakt, iż nie lubią oni mówić pewnych rzeczy wprost. Jeśli interlokutor unika odpowiedzi lub z nią zwleka, należy przeformułować pytanie, jej brak nie oznacza w tej kulturze zgody. Akceptacja powinna być wyrażona wprost. Dla Latynosów kwestie ceremonialne są niezwykle istotne, zatem będą się zwracać do innych, zwłaszcza w kontaktach oficjalnych, z poszanowaniem wieku, płci, stanu cywilnego oraz wykształcenia oraz zajmowanego stanowiska czy posiadanego tytułu naukowego [6].", "Cechy kultury południowoamerykańskiej kształtują model kultury negocjacyjnej, która jest niezwykle ważna i opiera się na kilku elementach. Spotkania biznesowe to nie tylko spotkania skoncentrowane na meritum, jakim jest np. zawarcie umowy. Dla negocjatorów pochodzących z Ameryki Południowej niezwykle istotne będzie by negocjacje były poprzedzone rozmowami i spotkaniami towarzyskimi, wspólnymi posiłkami itp., podczas których poruszane będą tematy nie tylko związane z kwestiami zawodowymi, ale również te prywatne. Rozmawia się o sobie, o firmach itp. Podstawą jest nawiązanie relacji przyjacielskiej, dopiero wtedy można myśleć o bliższej współpracy [7].", "Kolejnym ważnym aspektem kultury i etykiety biznesowej w krajach Ameryki Południowej są kwestie związane z punktualnością i rozumieniem czasu. Czas jest pojęciem abstrakcyjnym dla Latynosów, dlatego też umówione spotkanie niezależnie od charakteru może opóźnić się nawet o kilkadziesiąt minut i nie należy odbierać tego jako afrontu. W tym rejonie świata Wenezuelczycy oraz Chilijczycy należą do najbardziej punktualnych [7]. Kontaktów biznesowych nie inicjuje się przez telefon, ważne są spotkania osobiste [4]. Ze względu na relacyjny charakter tej kultury biznesowej mile widziane są wszelkie podarunki, drobne, którymi można obdarować kontrahenta z Ameryki Południowej [8].", "Podczas negocjacji należy unikać odmowy od razu, nawet wtedy, gdy spełnienie czyiś oczekiwań jest trudne bądź niemożliwe. Negatywna odpowiedź na samym początku jest odbierana bardzo negatywnie, uznana może być za brak podjęcia nawet próby i rozczarowanie kontrahenta–przyjaciela [7]. Negocjacje biznesowe będą obierane również przez pryzmat miejsca, w którym się odbywają. Istotne jest wnętrze, wystrój, standard np. restauracji. W większości krajów Ameryki Południowej targowanie się jest koniecznością, bez względu na to, jak korzystna jest oferta [4]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1014, "subject": "Europejskie kultury komunikacji", "paragraphs": ["Przedstawienie i scharakteryzowanie każdego kręgu kultury, zwłaszcza w perspektywie komunikacji społecznej i międzykulturowej, jest niezwykle trudne. Jednak zadanie to nabiera dodatkowych trudności, gdy próbujemy scharakteryzować kulturę europejską. Podobnie, gdy będziemy mówić o kulturze komunikacji biznesowej, czy stylu prowadzenia negocjacji mieszkańców Europy. To, o co możemy się pokusić, to wskazanie pewnych podobieństw między rozmaitymi regionami. W związku z tym mówi się o północnym, południowym lub łacińskim, środkowoeuropejskim, wschodnioeuropejskim oraz anglosaskim stylu komunikacji, choć klasyfikacja ta nie obejmuje całej różnorodności Europy.", "Północny styl komunikacji Północny styl komunikacji jest związany jest z faktem, iż jest to kultura pełna rezerwy. Obejmuje Danię, Belgię, Holandię, Szwecję, Norwegie i Finlandię. Stopień ceremonialności kontaktów różni się oczywiście między poszczególnymi krajami, np. Belgowie uchodzą za dość ceremonialnych (np. uznają używanie tytułów np. naukowych). To, co łączy ten typ kultur w komunikacji, to fakt, iż są to kultury w większości monochroniczne, gdzie czas jest istotnym czynnikiem, a spóźnienia, niewywiązywanie się z terminów czy nieprzestrzeganie harmonogramu stają się problemem. Są to ludzie, którzy lubią dystans przestrzenny, a dotyk podczas spotkań w zasadzie nie ma miejsca. Komunikaty przekazywane przez partnerów procesu komunikacyjnego są formułowane wprost, w sferze biznesu często opierają się o starannie przygotowaną dokumentację. Cechą charakterystyczną jest brak wyraźnej hierarchii władzy, skłonność do kompromisów. To, co również odróżnia ten typ kultury w skali całej Europy, to bardzo wyraźna społeczna akceptacja pracy kobiet i ich wysokiego miejsca w strukturze władzy [1].", "Południowy styl komunikacji Kultura łacińska jest zgoła odmienna od północnej. Są to kultury ceremonialne, polichroniczne, ze zróżnicowanym podejściem do czasu. Ponieważ kultury łacińskie to kultury ceremonialne, zatem każde spotkanie, zwłaszcza dotyczące negocjacji będzie swego rodzaju spektaklem. Mowa ciała jest bardzo mocno rozwinięta, choć każda z kultur wchodzących w skład tego typu kultury będzie miała swoją specyfikę związaną np. z gestami. Jednocześnie są to ludzie, którzy lubią dyskutować, unikają presji, zatem podjęcie decyzji wymaga sporo czasu. We Francji w spotkaniach biznesowych niejednokrotnie można zwrócić uwagę, iż nadal kategorie klasowe odgrywają istotną rolę, ważnym wyznacznikiem jest to jaką pozycję społeczną ma osoba, z którą wchodzi się w interakcje, np. w sprawach biznesowych.  Przykładem takiej kultury komunikacyjnej będzie kultura Włoch, Hiszpanii, Francji i Grecji [2].", "Anglosaska kultura komunikacji Jest to kultura komunikacji charakterystyczna dla Wielkiej Brytanii i dla niemieckojęzycznych społeczeństw Europy. Cechą charakterystyczną tego typu kultury jest szacunek względem autorytetu. Komunikacja jest często formalna.  Wzór osobowy w tej kulturze, zwłaszcza w kulturze niemieckiej, to osoba, na której można polegać, robiąca to, czego się od niej oczekuje, której zachowanie jest przewidywalne, stabilne i nie ma większego wpływu na opinie innych ani możliwości. Badania wskazują, iż status klasowy jest nadal dość ważny dla przedstawicieli tych kultur [3]. Punktualność jest cechą niezwykle istotną, gdyż są to kultury monochroniczne. Zwłaszcza dotyczy to Niemców i Szwajcarów. Przedstawiciele tego typu kultury są dobrze zorganizowani, a w kontekście zachowań biznesowych zawsze dobrze przygotowani do prowadzenia negocjacji [1], [2].", "Kultura komunikacyjna krajów Europy Wschodniej i Środkowo-Wschodniej Kultura krajów określanych tym mianem będzie się oczywiście różnić między sobą. Dlatego podkreślone zostaną pewne podobieństwa i różnice. Wśród krajów zaliczanych do kultury wschodniej możemy wymienić Rosję, Ukrainę, Białoruś. Jest to grupa krajów o kulturze prorelacyjnej, celebracyjnej, polichronicznej i średnioekspresyjnej [4]. Pozostałością po dawnym systemie w sposobie działania społeczeństw jest nadal istotność koneksji i znajomości które ułatwiają zrealizowane własnego planu. Między poszczególnymi krajami będą występować różnice w poziomie wykorzystywania koneksji. Najbardziej potrzebne będą one w Rosji, gdzie nawet warunki kredytu będą od nich zależały. Preferowane kontakty to kontakty twarzą w twarz, nadal większość spraw załatwia się dzięki takim spotkaniom. Jak zostało wspomniane ten typ kultur to kultury polichroniczne, co znaczy, iż członkowie tych społeczeństw nie mają bardzo restrykcyjnego podejścia do casu. Spotkania, również te zawodowe czy biznesowe mogą być opóźnione i się znacząco przedłużać. Są one często przerywane, przedstawiciele tych kultur często robią kilka rzeczy jednocześnie, prowadzą kilka rozmów jednocześnie. Są to kultury bardzo hierarchiczne. Struktura władzy jest jasna, a łańcuchy zależności dość długie. Zwyczaje dotyczące powitań są podobne w wymienionych krajach. Dominuje krótki uścisk ręki.  W Rosji warto zwrócić uwagę na użycie tak zwanego otczestwa, czyli imienia odojcowskiego (sformalizowane użycie otczestwa występuje również na Ukrainie, Białorusi, Bułgarii). Jest to grupa państw, gdzie kobiety zajmują czołowe pozycje w hierarchii firmy stosunkowo rzadko. Styl negocjacji jaki przedstawiciele kultur prezentują podczas rozmów biznesowych będzie się nieco różnił. Rosjanie nadal stosują taktykę twardej piłki – twarde, czasem konfrontacyjne podejście, czasami przerywane waleniem w stół, napadami złości czy wybuchami emocji, a czasem wręcz głośnymi groźbami [4].", "Swoją specyfikę mają zarówno kraje Europy Środkowo-Wschodniej jak Polska, Czechy, Słowacja, Węgry – gdzie np. Czechy ze względu na swą historię są kulturą najbardziej protransakcyjną i monochroniczną wśród mieszkańców tego szerokiego regionu – jak i kraje bałtyckie, czyli Litwa, Łotwa i Estonia. Określając je można stwierdzić, iż jest to kultura umiarkowanie protransakcyjna, ceremonialna, dość monochromiczna i powściągliwa [4]. Oznacza to iż w tych kulturach dość szybko przechodzi się do meritum. Mieszkańcy krajów bałtyckich działają zgodnie z harmonogramem, natomiast bardzo chętnie wchodzą w kontakt bezpośredni, dotyczy to również sfery kontaktów biznesowych [2]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1015, "subject": "Etnocentryzm i relatywizm kulturowy", "paragraphs": ["Każda kultura ma swoje indywidualne wzory zachowań, które osobom pochodzącym z innej kultury będą się wydawały dziwne czy wręcz niezrozumiałe. Im dystans miedzy obserwowaną kulturą a kulturą pochodzenia będzie większy tym trudniej będzie zrozumieć tę nową obserwowaną kulturę. Etnocentryzm jest jednym z podstawowych pojęć, kiedy mówimy o relacjach międzykulturowych [1].", "Dylemat: Etnocentryzm versus relatywizm kulturowy W antropologii dość wcześnie pojawił się dylemat, dotyczący tego, w jaki sposób badać inne kultury, czy na zasadzie etnocentryzmu, którego zwolennikami byli Radcliffe-Brown i Lévi-Strauss, czy też na zasadzie relatywizmu kulturowego, czyli w kategoriach sensów i wartości własnych w danej kulturze, czego zwolennikami byli między innymi tacy badacze kultury jak Geertz, Mead i Benedict. Mimo, iż współcześnie wydaje się dominować drugie ze wspomnianych podejść, to jednak należy zauważyć, iż wszelkie badanie obcej kultury zawsze stwarza problem przenoszenia kategorii pojęciowych, które każdy wyniósł z własnej kultury i przeniósł na kulturę badaną [2]. Nie tylko badacze doświadczają tego dylematu. Ludzie spotykając przedstawicieli innych kultur również dokonują analizy tego, co widzą, zatem również w ich widzeniu świata etnocentryzm odgrywa istotna rolę. Etnocentryzm jako postawa został zdefiniowany już dość dawno temu przez amerykańskiego socjologa Williama Grahama Sumnera jako pogląd, zgodnie z którym własna grupa jest centrum wszystkiego, a pozostałe grupy są oceniane z jej punktu widzenia [3]. Niektórzy badacze zwracają uwagę, iż etnocentryzm może być definiowany jako skłonność do postrzegania świata przez pryzmat własnych filtrów kulturowych, zatem niemal wszyscy jesteśmy etnocentryczni [1]. Ponieważ kultura jest źródłem naszej wiedzy o świecie, jest rodzajem „okularów przez które postrzegamy rzeczywistość” i jest wynikiem socjalizacji.", "Podstawy etnocentryzmu U podstaw etnocentryzmu leżą sądy o tym, co jest słuszne, moralne i racjonalne. Sądy te przenikają każdy aspekt istnienia kultury, od zupełnie nieistotnych do bardzo znaczących, np. dotyczących wyznawanej religii. Istnieje bardzo naturalna tendencja do wykorzystywania własnej kultury, jako punktu wyjścia przy ocenie zachowań innych ludzi i innych kultur [4]. Patrząc w ten sposób na świat człowiek nieświadomie postrzega inne kultury jakby były one częścią jego kręgu kulturowego i ocenia je według kryteriów związanych z własną kulturą. Często zakładamy, iż to, co jest typowe dla naszej kultury jest typowe w ogóle, niejako uniwersalne. Czasem to co akceptowane i pożądane w jednej kulturze, w innej jest absolutnie naganne i niepożądane. Dotyczy to wielu sfer życia społecznego. Wnioski jednak do których dochodzimy wykazując się takim podejściem będą fałszywe [3]. Jak stwierdzają Nanda i Warms etnocentryzm to pogląd, że nasza własna kultura jest lepsza od innych, zatem inne kultury powinny być mierzone stopniem, w jakim spełniają nasze standardy kulturowe. Jesteśmy etnocentryczni, gdy patrzymy na inne kultury przez wąski pryzmat naszej własnej kultury lub pozycji społecznej [4]. W procesie socjalizacji kształtują się nasze zachowania i oczekiwania wobec innych, ale również sposoby oceny tych zachowań i wzory reakcji emocjonalnych na te zachowania [1]. W szkole dziś dzieci niezależnie od regionu uczą się o swojej historii, swojej literaturze, swoim języku i jest to wszystko związane z budowaniem tożsamości, poczucia przynależności oraz poczuciem dumy z osiągnięć członków własnego społeczeństwa [4]. Mówiąc o perspektywie etnocentrycznej nie zawsze będziemy mówili o gorszym traktowaniem grup nienależących do wspólnoty, której my jesteśmy członkami [5]. Ponieważ nie jest możliwe zupełne odrzucenie własnej kultury, dlatego patrząc na inną kulturę warto przyjąć założenia relatywizmu kulturowego, w którym zakładamy, że formułowane twierdzenia, dotyczące rozumienia, czym jest prawda, sprawiedliwość, mają status lokalny. Tylko w tym ujęciu (lokalnym) posiadają one uchwytne znaczenie, czyli takie, które można ustalić. Podejście to zakłada, iż próbujemy zrozumieć odmienną kulturę według właściwych dla tej kultury kategorii. Oznacza to przede wszystkim, iż staramy się patrzeć na konkretną kulturę bez uprzedzeń i stereotypów. Przyjmując postawę relatywizmu kulturowego unikamy oczywistych pomyłek i nieporozumień [6].", "Poziomy etnocentryzmu Etnocentryzm można postrzegać jako mający trzy poziomy: pozytywny, negatywny i skrajnie negatywny. Pierwszy poziom to przekonanie, że własna kultura jest ważniejsza od wszystkich innych. Jest to związane z faktem, iż kultura wpływa na naszą tożsamość i wierzenia. Na poziomie negatywnym etnocentryzm zaczyna przybierać wymiar wartościujący, pojawia się przekonanie, że własna kultura jest centrum wszystkiego, a wszystkie inne kultury powinny być mierzone i oceniane według jej standardów. To ewoluuje, gdy jednostka lub grupa uważa, że jej osobiste przekonania i wartości są bezsprzecznie poprawne. Wreszcie w skrajnie negatywnej formie, nie wystarczy uważać swoją kulturę za najbardziej aktualną i użyteczną, dodatkowo pojawia się przekonanie, iż nasze wartości i zwyczaje powinny zostać przyjęte przez inne kultury. Niebezpieczeństwo etnocentryzmu polega na tym, że jest on najsilniejszy w odniesieniu do kwestii politycznych, moralnych i religijnych. W tych kontekstach łatwo jest pozwolić, aby ograniczone kulturowo poglądy przesłaniały racjonalność [4].", "Przyjęcie postawy relatywizmu kulturowego jest zadaniem trudnym, ponieważ wymaga od ludzi zdobycia wiedzy dotyczącej innych kultur. Jest ona zawsze wynikiem pewnych przemyśleń. Jak wskazują W. Wilczyńska, M. Mackiewicz i J. Krajka namysł może wynikać po pierwsze z zauważenia ich złożoności i funkcjonalności w konkretnym lokalnym przypadku lub może wynikać z założenia, że nie da się uznać jednej kultury lub jej przejawów za lepszej niż inne [7]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1016, "subject": "Język a kwestia wielokulturowości. Hipoteza Sapira-Whorta", "paragraphs": ["Hipoteza Sapira-Whorfa Hipoteza ta dotyczy tez przedstawionych przez Edwarda Sapira i Benjamina Lee Whorfa (zob. także Języki komunikacji ), którzy nigdy ze sobą nie pracowali, a co więcej ich poglądy nie były identyczne. Mimo, iż najważniejsze tezy powstały na przełomie lat dwudziestych i trzydziestych ubiegłego wieku dyskusja nad ich sensownością trwa nadal [1]. Badacze poszukujący źródeł twierdzeń Sapira i Whorfa wskazują na tezy głoszone przez Wittgensteina oraz von Humbolta [2]. Jak twierdził Wittgenstein, ograniczenia naszego języka kształtują ograniczenia naszego świata [3].", "Hipoteza Sapira-Whorfa przyjmuje postać silną w postaci determinizmu językowego oraz postać słabą w postaci relatywizmu językowego. W pierwszym przypadku występuje założenie, iż język kształtuje, determinuje postrzeganie świata, ponieważ jest on przekazywany w procesie socjalizacji i tym samym wpływa na nasze schematy poznawcze. Ta deterministyczna wersja jest jednak przez większość badaczy podważana. Natomiast druga wersja hipotezy jest przez większość badaczy zjawiska podzielana. Relatywizm ów zakłada, iż różnice miedzy systemami językowymi powodują , iż ludzie widzą świat odmiennie. Różnice między strukturami gramatycznymi i leksykalnymi powodują różnice w percepcji i interpretacji świata [4]. Przykładowo różnice w postrzeganiu kolorów, postrzeganiu liczb czy postrzeganiu czasu będą miały wpływ na nasze postrzeganie świata. Jak twierdzą zgodnie badacze kultura i język są ze sobą ściśle związane. Język jest wytworem kultury, równocześnie jednak kultura wpływa zarówno na sposób w jaki używamy języka, jak i na jego strukturę. Różnice językowe są odbiciem różnic między kulturami. Różnice te są na tyle istotne, iż wpływają na utrwalenie kultury. Przedstawiciele różnych kultur w różny sposób porządkują swój świat za pomocą języka, którym ten świat opisują [5]. Ludzie gromadzą indywidualne doświadczenia, natomiast społeczeństwo lub społeczność za pośrednictwem języka gromadzi doświadczenia społeczne. Zatem możemy przyjąć, iż język kategoryzuje doświadczenia i tworzy ponadindywidualny świat, przez co możliwe jest porozumiewanie się. Język przenika bezpośrednie doświadczenie w taki sposób, iż trudno jest oddzielić rzeczywistość od odnoszących się do niej symboli językowych. Jak podkreśla Sapir język oddziałuje na myślenie, a w konsekwencji na zachowania ludzi [6]. Język zawiera nieuświadomione sądy o świecie i stereotypy, które mogą eksponować lub skrywać konkretne cech rzeczywistości. Żyjemy w świecie zapośredniczonym językowo. Dla Whorta język służy do interpretacji kultury, a leksyka i gramatyka są swoistą siatką interpretacyjną, na którą nakłada się doświadczenie przez co tworzy się obraz świata [6]. Jak stwierdza E. Sapir, światy, w których żyją społeczeństwa są światami odrębnymi, a nie jednym i tym samym światem, tylko z innymi etykietami [7].", "Źródło: Copernicus Center for Interdisciplinary Studies, Teoria relatywizmu językowego - ABC Humanistyki #44, prof. Bogusław Skowronek, 03.11.2019 (dostęp 05.12.2020). Dostępne w YouTube: https://youtu.be/8pCLdwV8qfA.", "Konsekwencje i przykłady Ludzie pochodzący z różnych kultur patrząc na to samo zjawisko mogą widzieć je i zapamiętać zupełnie inaczej. Na przykład osoba anglojęzyczna, patrząc na wydarzenie, zapamięta kto to zrobił (ktoś zbił szklankę), a ktoś mówiący po polsku zapamięta je jako przypadek (szklanka się zbiła – wiadomo, że nie sama, ale skoro to przypadek to nie potrzeba szukać winnego). Nasz język może wpłynąć również na to, jak szybko określimy różnicę między kolorami. W języku angielskim niebieski jest niebieski i może ewentualnie być ciemny lub jasny. W języku rosyjskim funkcjonuje osobne słowo na ciemny niebieski i osobne na jasny. Zatem Rosjanin znacznie szybciej zauważy różnicę w tych kolorach. Podobnie w języku angielskim występuje rozróżnienie między kolorami zielonym i niebieski, podczas gdy Tarahumara, język Uto-Azteków z północnego Meksyku, nie ma tego rozróżnienia i zamiast tego ma kolor siydname, który oznacza zielony lub niebieski [4]. Analizując subiektywną ocenę tego, jak podobne lub różne są kolory badano czy różnica językowa – zielony / niebieski a nazwa siydname spowoduje różnicę w subiektywnej odległości między kolorami. Kolory w pobliżu zielono-niebieskiej granicy będą subiektywnie rozróżniane przez osoby mówiące po angielsku znacznie szybciej, ponieważ język angielski zawiera słowa zielony i niebieski, podczas gdy osoby mówiące Tarahumara, bez tego rozróżnienia leksykalnego, nie będą rozróżniać tych kolorów [4]. Znaczenie ma również rodzaj gramatyczny przypisywany przedmiotom. Opisując rzeczowniki, które są rodzaju żeńskiego częściej będziemy używać określeń stereotypowo uważanych za kobiece np. ładny, elegancki itp. i odwrotnie, często rzeczowniki rodzaju męskiego opiszemy cechami stereotypowo uznawanymi za męskie. Należy jednak pamiętać, iż w różnych językach ten sam przedmiot może być rodzaju żeńskiego a w innych męskiego. Zatem ten sam przedmiot będziemy patrzeć zupełnie inaczej w zależności od tego jakim językiem mówimy."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1018, "subject": "Kompetencje międzykulturowe", "paragraphs": ["Specyfiką komunikacji międzykulturowej jest nieprzystawalność kompetencji komunikacyjnej parterów, ze względu a odmienne systemy symbolicznych znaczeń, które będą wpływały na interpretację przekazu [2]. Udana komunikacja prowadzi do podobnego rozumienia znaku przez nadawcę i odbiorcę. Jest to możliwe, wtedy gdy nadawca i odbiorca korzystają z tych samych reguł kodu w procesie kodowania i dekodowania, jednak w przypadku komunikatów wieloznacznych lub w przypadku różnic w kodach kulturowych, jest to możliwe jeśli osoby się komunikujące mają świadomość tej wieloznaczności [3].", "Kompetencja międzykulturowa jest również umiejętnością diagnozy różnic kulturowych w obszarze aparatury pojęciowej rozmówców [3]. Możemy powiedzieć, iż zdolność rozumienia osób pochodzących z innej kultury jest podstawą kompetencji międzykulturowych. Składają się na nie – wiedza ogólna na temat danej kultury, jej specyfiki i dynamiki oraz wiedza o zróżnicowaniu kulturowym i jego konsekwencjach. Kompetencje międzykulturowe umożliwiają zrozumienie przedstawicieli innych kultur, a także wspólne z nimi działanie oraz umiejętność znalezienia się w sytuacji intensywnego kontaktu międzykulturowego [4].", "Kompetencja kulturowa obejmuje wymiar poznawczy, emocjonalny i behawioralny. W pierwszym wymiarze możemy mówić o znajomości języka , kodów niewerbalnych i wartości innej kultury. W wymiarze afektywnym jest ona motywacją, orientacją emocjonalną i postawą wobec innej kultury. Nasza zdolność do mówienia, słuchania, stosowania reguł interakcji wyznacza wymiar behawioralny [5].", "Źródło: SIETAR Polska, Kompetencja międzykulturowa - co i jak?, 22.01.2020 (dostęp 05.12.2020). Dostępne w YouTube: https://youtu.be/DQDvAHLsdlw.", "Model rozwoju kompetencji kulturowych Kompetencja międzykulturowa to właściwe zarządzanie interakcją ludzi, którzy reprezentują różne lub rozbieżne orientacje emocjonalne, poznawcze i behawioralne w stosunku do świata, zatem będą one ewoluowały w czasie, indywidualnie lub w relacjach. Relacje między przedstawicielami różnych kultur mogą stać się bardziej kompetentne poprzez ciągłe interakcje, które prowadzą do większej świadomości jednostek, do procesu uczenia się i włączania odpowiednich perspektyw kulturowych. Dzięki procesowi uczenia się ludzie stają się bardziej kompetentni w procesie interakcji, zatem modele kompetencji międzykulturowych mogą zidentyfikować kolejne etapy rozwoju tych kompetencji.", "Jednym z modeli, który uwzględnia rozwój kompetencji w trakcie trwania komunikacji międzykulturowej jest model zaproponowany przez King i Baxter Magoldę (2005), którzy identyfikują poziomy rozwoju kompetencji międzykulturowych: początkowy, średniozaawansowany i dojrzały. Jest to model w którym podkreślony jest proces dojrzewania i próbuje na różnych jego etapach określić poziom świadomości, wrażliwości i zdolności do przyjmowania różnic między kulturami. Niski poziom świadomości i wrażliwości reprezentuje niższy model kompetencji międzykulturowych, a im wyższy poziom tym wyższe kompetencje. Założenie modelu jest takie, iż człowiek przechodzi na wyższy poziom kompetencji tylko w trakcie nauki, obserwacji i interakcji z reprezentantami innej kultury. King i Baxter Magolda zauważają, iż człowiek zazwyczaj w trakcie zdobywania kompetencji międzykulturowych przechodzi od postawy etnocentrycznej do relatywistycznej. Podstawowym założeniem modelu jest to, że gdy doświadczenie różnicy kulturowej staje się bardziej złożone i wyrafinowane, wzrasta potencjalna kompetencja w relacjach międzykulturowych. Im człowiek bardziej przyjmuje perspektywę relatywistyczną, tym bardziej jest zdolny patrzeć również na własną kulturę z perspektywy innych kultur. Przyjęcie postawy, iż własna kultura jest tylko jedną z możliwych wersji kultury jest początkiem akceptacji [6], [4]. Interakcja prowadząca do rozwoju kompetencji międzykulturowych jest w stanie wytworzyć u jednostki poziom akceptacji w procesie dostosowywania zachowania do standardów obecnych w innej kulturze. Jeśli interakcja będzie się rozwijała w kierunku relatywistycznej komunikacji, proces doprowadzi do integracji własnego i innych kulturowych światopoglądów [4]."], "definitions": [{"name": "Definicja 1: Kompetencja międzykulturowa", "content": " Zdolność do przyjęcia postawy relatywizmu kulturowego w kontaktach z ludźmi pochodzącymi z odmiennych kultur, wzbogaconej o wiedzę dotyczącą różnych kultur [1]."}]} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1069, "subject": "Edukacja międzykulturowa", "paragraphs": ["Współczesny świat jest coraz bardziej złożony, a wielokulturowość jest codziennością coraz większej liczby społeczeństw, zatem przygotowanie do życia i współdziałania w takim typie społeczeństwa staje się z dnia na dzień coraz bardziej istotne. Przygotować nas może do tego właściwie prowadzona edukacja międzykulturowa, a międzykulturowe uczenie się, powinno zapewniać wiedzę o tym, jak zminimalizować efekty niekorzystne, a zmaksymalizować pozytywne, psychologiczne wyniki kontaktu kulturowego [1].", "Cele edukacji międzykulturowej", "Edukacja międzykulturowa, rozumiana jako próba zmiany postaw wobec przedstawicieli innych kultur lub grup etnicznych poprzez dostarczanie wiedzy, ma stosunkowo długą historię. Taki typ edukacji pojawił się już wtedy, gdy po drugiej wojnie światowej w Stanach Zjednoczonych Afroamerykanie i Amerykanie pochodzenia meksykańskiego zaczęli konkurować z osobami białymi na rynku pracy. Ówczesna edukacja międzykulturowa miała na celu zredukowanie napięć na tle rasowym i zwiększenie zrozumienia między przedstawicielami różnych grup etnicznych. Wiele programów edukacyjnych opierało się na badaniach psychologicznych, dotyczących interakcji międzyrasowych [2].", "Podstawowe postawy i umiejętności nabywane w toku edukacji międzykulturowej to:", "Efekt edukacji międzykulturowej Efektem edukacji międzykulturowej jest zdobycie przez uczniów czy studentów kompetencji międzykulturowych. Same kompetencje będą przez badaczy różnorodnie definiowane. Kompetencja międzykulturowa obejmuje „skuteczne i odpowiednie zachowanie oraz komunikację w kontekstach międzykulturowych”. Można ją również zdefiniować jako umiejętność „działania w języku obcym w sposób właściwy pod względem językowym, socjolingwistycznym i pragmatycznym”. Samovar i Porter opisując osobę o kompetencjach międzykulturowych uznają, iż jest to osoba która potrafi „dostosować się do kultury innej niż jego własna i efektywnie współdziałać w niej” [4]. Ting-Toomey widzi cel szkolenia międzykulturowego jako działania umożliwiającego uczącym się kompetentną i wzmacniającą adaptację komunikacji między przedstawicielami różnych kultur [5]. Badacze definiują osobę o kompetencjach międzykulturowych, zdobytych dzięki edukacji międzykulturowej, jako osobę zdolną do interakcji z innymi, akceptowania innych perspektyw i postrzegania świata, zdolną do mediowania między różnymi perspektywami, jako osobę skłonną do bycia świadomą różnej oceny odmienności przez osoby posiadające różne perspektywy. Stopień w jakim opanujemy kompetencje międzykulturowe będzie różny, zatem badacze identyfikują kilka poziomów kompetencji międzykulturowych, od jednostki monokulturowej, która nie rozpoznaje ważnych aspektów danego kontekstu kulturowego, po zaawansowanego uczestnika komunikacji międzykulturowej, osobę transkulturową, która potrafi zaakceptować ważność różnych kulturowych punktów widzenia [6], [4].", "Podstawowym miejscem, gdzie we współczesnym świecie będzie dochodziło do edukacji kulturowej jest szkoła i uczelnia wyższa. Nie są one jedynie miejscem zdobywania wiedzy, to także obszar życia i doświadczenia, solidarności i wzajemnej akceptacji. Konieczne jest, aby również nauczyciele czy wykładowcy prezentowali postawy otwarte i mieli odpowiednie kompetencje międzykulturowe, a samo miejsce edukacji międzykulturowej i jej forma sprzyjały nabywaniu odpowiednich postaw [3]. Kompetencje międzykulturowe są zwykle trenowane poprzez uczestniczenie w kontaktach z innymi kulturami np. poprzez wyjazdy zagraniczne. W dzisiejszym świecie, gdzie dystans między różnymi kręgami kulturowymi się zasadniczo skrócił, jest to znacznie prostsze niż dawniej. Dotyczy nie tylko możliwości wyjazdu w celach turystycznych, ale młodzi ludzie, głównie studenci i uczniowie maja wiele możliwości skorzystania z szerokiej oferty stypendialnej w innych krajach, czego przykładem może być chociażby popularny wśród studentów program Erasmus [7]. Jednak nie należy zapominać, iż różni ludzie mogą mieć zupełnie inne postrzeganie tego, co stanowi inność i różnicę. Dlatego w procesie edukacji międzykulturowej nauczyciele, wykładowcy czy edukatorzy muszą wiedzieć, jak te różnice są przez konkretne grupy społeczne kodowane, jak wygląda proces przypisywania im znaczenie i jak wiążą oni nowe doświadczenia z istniejącymi układami odniesienia. W przeciwnym razie może być trudne podniesienie świadomości wśród młodych ludzi na temat takich kwestii, jak np. rasizm, które są oparte na określonych konstrukcjach różnic kulturowych, z którymi mogą się nie identyfikować, ponieważ nigdy ich nie doświadczyli. Trudne może stać się również skłonienie młodych ludzi do oderwania się od własnej perspektywy w stopniu potrzebnym do zaangażowania się w światopogląd innych w sposób, który przypuszczalnie wzmocni ich kompetencje międzykulturowe [4].", "Jeśli człowiek nie zamknie się w swych uprzedzeniach i spojrzy na nową dla siebie kulturę wystrzegając się stereotypów, może „dostrzec piękno, którego źródłem jest właśnie jej inność”. Aby się rozwijać, trzeba nauczyć się patrzeć i uczyć od siebie nawzajem. Edukacja międzykulturowa może się rozwijać jedynie na bazie edukacji regionalnej, która daje możliwość wnikania w inne kultury i rozumienia ich poprzez odniesienie, porównanie z własnym zasobem kulturowym. Zadaniem edukacji jest wydobywanie i pielęgnowanie tradycji pluralistycznych, traktowanie swojej kultury jako części kultury światowej i wzbogacanie jej o elementy jej bliskie. Nabywanie kompetencji międzykulturowych odbywa się dzięki edukacji międzykulturowej, której podstawą jest wzajemne wzbogacanie się różnych kultur, akceptacja odmienności, nabywanie postawy tolerancji i uznania dla innych kultur [8], nauka języka obcego wraz z kontekstem kulturowym i historycznym, a także włączanie polskich studentów w pomoc studentom zagranicznym [1].    W Polsce, jak często podkreślają badacze, nie „ma dobrego klimatu – edukacja wielo- i międzykulturowa nie znajduje poparcia. Staje się ona w  istocie dodatkową  sprawą nauczycieli, rodziców, władz samorządowych, niektórych środowisk akademickich czy działaczy organizacji pozarządowych. Tymczasem w związku z faktem, iż w Polsce swój dom znajduje coraz więcej migrantów zarobkowych, uchodźców, studentów zagranicznych oraz  Polaków, którzy po latach spędzonych na emigracji wracają do Polski, rozwój edukacji międzykulturowej  staje się koniecznością. Jak podkreślają niektórzy badacze priorytetowe powinno być stworzenie spójnej koncepcji, opartej na solidnych podstawach naukowych, całościowo ujmującej problem edukacji w świecie różnorodności, uzupełnianej o nowe i słabo rozpoznane wątki, które jednak stają się istotne w perspektywie  kształtowania postaw otwartości wobec świata, porozumienia między osobami o różnym pochodzeniu i tradycji, zaangażowania na rzecz pokoju i poszanowania wobec różnych systemów wartości i stylów życia [9]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1067, "subject": "Wielokulturowość w dzisiejszym świecie", "paragraphs": ["Współcześnie mamy do czynienia z nieustanie zwiększającym się odsetkiem osób migrujących na inne terytoria. Przyczyny, dla których ludzie opuszczają swoje domy są bardzo różnorodne, od uchodźctwa związanego z wojnami, konfliktami politycznymi, religijnymi czy etnicznymi, poprzez konieczność opuszczenia swojej przestrzeni ze względu na zmiany klimatyczne uniemożliwiające dalszą egzystencję na danym obszarze, poprzez poszukiwanie lepszych warunków życia i wreszcie kończąc na migracji z powodów związków z mieszkańcem innego kraju lub ze względu na rozpoczęcie edukacji w innym kraju. Ten wzrost odsetka ludzi migrujących spowodował wzrost różnorodności wielu współczesnych społeczeństw. Spowodował również debatę nad tym jak mają wyglądać relacje osób przybywających ze społeczeństwem przyjmującym. Debata ta jest toczona zarówno przez środowiska akademickie, jak jest przedmiotem ideologicznej debaty politycznej w zasadzie wszędzie na świecie, nawet w społeczeństwach stosunkowo homogenicznych. Idee, które są podnoszone w tej debacie to przede wszystkim idea asymilacji migrantów, perspektywa wielokulturowości i międzykulturowości.", "Perspektywa asymilacji Z perspektywy asymilacji imigranci i mniejszości etniczne powinni przyjąć kulturę mainstreamową lub dominującą (analogia narodu jako tygla, w którym roztapiają się różnice), a różnice międzygrupowe powinny być bagatelizowane lub wręcz ignorowane. Zwolennicy teorii asymilacji twierdzą, że takie podejście jest najlepsze dla społeczeństwa zróżnicowanego pod względem etnicznym, ponieważ stwarza poczucie wspólnoty, jednocześnie sprawiając, iż różnice grupowe nie są tak istotne [1]. Przeciwnicy asymilacji argumentują, że teoria ta jest przestarzała i powinna zostać zastąpiona ideą  wielokulturowości. Na poziomie instytucjonalnym i społecznym panująca ideologia dotycząca różnorodności (czyli wielokulturowości czy asymilacji) wyznacza granice właściwej adaptacji kulturowej. Oznacza to, że w społeczeństwie ceniącym asymilację indywidualne utrzymanie kultury pochodzenia może być trudne lub czasami niemożliwe, podczas gdy w społeczeństwie ceniącym wielokulturowość jednostki mogą mieć możliwość bycia dwukulturowym (tj. uczestniczenia i identyfikowania się zarówno z dziedzictwem, jak i grup głównego nurtu) [1].", "Wielokulturowość Z perspektywy wielokulturowości ludzie z różnych kultur mogą współistnieć w jednym społeczeństwie i przyjmować wartości pochodzące od różnych kultur. Dlatego ten pogląd jest zwykle opisywany za pomocą analogii do sałatki: istnieje harmonijna mieszanka różnych grup w społeczeństwie, a każda grupa jest w stanie zachować swoją niepowtarzalną tożsamość, podobnie jak składniki sałatki. Ponadto wielokulturowość pozwala na zachowanie odmiennych tradycji kulturowych i przekonań, ludzie nie muszą rezygnować ze swojego dziedzictwa kulturowego, aby przyjąć kulturę społeczeństwa przyjmującego [1].", "Wielokulturowość – międzykulturowość – transkulturowość Wielu badaczy prowadzi spory, które z pojęć jest adekwatnym do opisu i wdrażania zmian w sposobie budowania relacji: grupy etniczne lub migranci a społeczeństwo dominujące. Część badaczy uważa te terminy za podobne, nie odnosząc się do uznania któregoś z nich za lepszy lub gorszy, zwłaszcza pod względem praktyki społecznej [2]. Międzykulturowość potwierdza różnorodność kulturową, kładzie nacisk na komunikację i budowanie relacji między różnymi grupami kulturowymi, etnicznymi i religijnymi [3]. Celem międzykulturowości jest przeciwdziałanie procesom segregacji i wykluczenia, które przypuszczalnie mają miejsce w społeczeństwach zróżnicowanych kulturowo, przy jednoczesnym promowaniu wartości demokratycznych i poszanowania praw człowieka poprzez pozytywne interakcje między grupami i jednostkami [4], [5].", "Polityka dotycząca wielokulturowości Murphy [6] rozróżnia siedem typów polityk wielokulturowych:", "Za i przeciw Analiza sytuacji, w której na tym samym terytorium żyją ludzie o odmiennych systemach poznawczych i aksjologicznych, skłania badaczy i ideologów do debaty o jej pozytywnych i negatywnych cechach. Przez niektórych badaczy perspektywa wielokulturowa jest wyrazem zerwania z praktyką podporządkowania mniejszości etnicznych czy religijnych społeczeństwu dominującemu oraz zerwania z praktyką asymilacji, która jest uznawana za niesprawiedliwą [7]. Perspektywa ta łączy się z uznaniem inności i różnorodności za wartość, za kategorię zasługującą na szacunek i tolerancję. Dzięki obecności osób od nas różnych mamy również szansę na pogłębioną refleksję na temat nas samych. W tym samym czasie, gdy wielokulturowość rozwinęła się w Europie w ciągu ostatnich dwóch dekad, stała się ona kontrowersyjna – zarówno jako idea polityczna, jak i jako teoria naukowa. Prawicowa populistyczna retoryka uznaje wielokulturowość za porażkę. Zwolennicy tego nurtu nawołują do silniejszej integracji i spójności społecznej. Wielu krytyków obwinia wielokulturowość za niepowodzenie w tworzeniu zintegrowanych, spójnych społeczeństw, za przystosowywanie się do niemoralnych praktyk kulturowych i za faworyzowanie relatywizmu kulturowego. Krytycy takiego podejścia argumentowali, że skupienie się wielokulturowości na rozpoznawaniu tożsamości grupowej, dostosowaniu praktyk religijnych i skupienie się na docenieniu różnorodności kulturowej doprowadziło do segregacji między grupami etnicznymi w społeczeństwach europejskich i braku spójności społeczności [8].", "Dialog międzykulturowy Relacje między społeczeństwami przyjmującymi a migrantami, grupami etnicznymi czy mniejszościami żyjącymi na danym terytorium opisuje również perspektywa dialogu międzykulturowego, zainicjowana Białą Księgą Rady Europy w 2008, która skupia się na komunikacji międzykulturowej i zrozumieniu międzykulturowym [9]. W związku z tym rozwój kompetencji międzykulturowych stał się priorytetowym obszarem edukacji, związanym z edukacją na rzecz demokratycznego obywatelstwa i świadomości praw człowieka [10]. Koncepcja dialogu międzykulturowego zakłada wspólne wartości uniwersalne – prawa człowieka i demokrację – i godzi pozorną opozycję między uniwersalizmem a partykularyzmem, przyjmując pogląd, że abstrakcyjne wartości uniwersalne zawsze muszą być interpretowane w określonych kontekstach kulturowych, gdy są wprowadzane w życie [8]. Dialog międzykulturowy dotyczy przede wszystkim otwartości, wzajemnego zrozumienia, szacunku i akceptacji różnic, a nie zmian, jest otwartą i refleksyjną wymianą poglądów opartą na wzajemnym zrozumieniu i szacunku, ma na celu pogłębienie zrozumienia różnorodnych światopoglądów i praktyk oraz rozwoju osobistego [10]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1068, "subject": "Media a komunikacja międzykulturowa", "paragraphs": ["Komunikacja międzykulturowa jest wzajemną relacją przedstawicieli różnych kultur. Realizuje się przez kontakty interpersonalne, wymianę informacji i edukację międzykulturową. Współczesne media stanowią istotny kanał tej komunikacji. Przekazy pochodzące z różnych mediów kształtują obraz odmiennych kultur, wzmacniają lub obalają stereotypy i uprzedzenia wobec przedstawicieli innych grup etnicznych, narodowych czy wyznaniowych. Dotyczy to zarówno mediów tradycyjnych, masowych, jak i nowych mediów, które dominują współcześnie. Biorą one udział w komunikacji międzykulturowej i tworzeniu obrazu rożnych kultur na różne sposoby. Dziś zgodnie ze słowami Levi-Straussa mamy do czynienia z hiperkomunikacją. Każdą kulturę pokrywa warstwa tworów innych kultur, następuje ciągła interferencja i wzajemne oddziaływanie. Producenci w obrębie jednej kultury przekształcają się w konsumentów innych kultur. Ich twórczość dociera do nas w formie zmienionej przez zapożyczenia i z uzupełnieniami pochodzącymi innych kultur Przykładem takiego zjawiska w mediach tradycyjnych może być telewizja ARTE, jak również anglojęzyczna wersja telewizji Al Jazeera [1]. Niektórzy badacze podkreślają, iż komunikacja zapośredniczona może rozwijać zjawisko nazwane wirtualnym kosmopolityzmem, czy wirtualną trzecią kulturą. Tworzenie się kultury sieci sprzyja tworzeniu się hybrydowej kultury, w której przedstawiciele różnych kultur mogą zdobywać informacje, budować społeczności i tworzyć relacje międzykulturowe [2].", "Rola nowych mediów komunikacji międzykulturowej Współcześnie w komunikacji międzykulturowej dominują nowe media. Ich rola jest w tym procesie niezwykle szeroka. Po pierwsze dzięki nowym mediom przedstawiciele różnych kultur mogą mieć poczucie przynależenia do wspólnoty. Dotyczyć to będzie grup wykluczonych z dominującego dyskursu, takich jak grupy migrantów żyjących w społeczeństwie przyjmującym. Przykładem takiej społeczności, która dzięki tworzeniu własnej wspólnoty w intrenecie przezwycięża poczucie wykluczenia są chociażby polscy muzułmanie, których w Polsce żyje bardzo niewielu, zatem możliwość kontaktu face to face jest niewielka, a przez to uzyskanie bezpośredniego wsparcia jest często również mało realne, a jedyna możliwością kontaktu jest sieć, zwłaszcza w przypadku ludzi mieszkających poza wielkimi ośrodkami miejskimi. Dodatkowo kontakt z muzułmanami mieszkającymi w innych miejscach na świecie, daje poczucie przynależności do większej grupy i możliwość porozmawiania o wspólnych problemach [3].", "Kreowanie i podtrzymywanie obrazów różnych kultur Współczesne media odgrywają niebagatelną rolę w edukacji międzykulturowej i rozprzestrzenianiu się informacji o innych kulturach. Dzięki mediom, a w szczególności dzięki dostępowi do internetu możliwy jest dostęp do nieograniczonego źródła informacji. Ludzie zainteresowani innymi kulturami mają możliwość śledzenia blogów, profili związanych z prezentacja różnych kultur czy możliwość uczestniczenia w szkoleniach czy webinarach na temat jakiegoś wycinka rzeczywistości w innej kulturze. Dzięki sieci mamy również możliwość inicjowania i podtrzymywania kontaktów z przedstawicielami innych kultur. Jednak należy pamiętać, iż informacje do których jednostka ma dostęp w sieci, są wyselekcjonowane przez algorytmy, zatem szeroki dostęp do informacji nie zawsze będzie miał działanie informujące, a często będzie jedynie utwierdzał nas w naszych przekonaniach. To algorytm decyduje jakie wyniki otrzymamy w odpowiedzi na wpisaną przez nas frazę w wyszukiwarce, wpływając przez to na źródło informacji użytkowników. Wynik ten jest związany z naszą wcześniejszą aktywnością w sieci [4], [5].", "Z tego powodu internet nie zawsze będzie miał pozytywny wpływ na kształt i zasięg komunikacji międzykulturowej. Algorytmy Googla czy Facebooka tworzą bańki informacyjne, w których funkcjonujemy i wpływa to również na komunikację międzykulturową i przekonania dotyczące innych kultur. Zatem można stwierdzić, iż internet może zarówno sprzyjać komunikacji międzykulturowej, jak i czasem pogłębiać istniejące podziały i wzmacniać stereotypy i uprzedzenia. Wszechobecność kultury memów jest tego najlepszym przykładem. Uproszczone wizerunki przedstawicieli innych kultur obecne w memach utwierdzają negatywne stereotypy wobec różnych grup ludności. Podobnie działają fake newsy, których w mediach społecznościowych jest niezwykle wiele, które odegrały niebagatelną rolę w kreowaniu negatywnego stosunku do uchodźców podczas kryzysu migracyjnego w 2015 roku. Dodatkowo należy pamiętać, iż to media są momentami odpowiedzialne za polaryzację nastrojów i wywołanie mowy nienawiści w kontekście międzykulturowym [6].", "Wpływ kultury na użytkowanie mediów społecznościowych Wszechobecność mediów społecznościowych na wszystkich szerokościach geograficznych jest dziś niepodważalnym faktem. Paleta wyboru platform komunikacyjnych z których można dziś skorzystać jest bardzo duża. Jednak należy zauważyć, iż wybór konkretnej platformy i treści jest w sposób wyraźny uwarunkowany kulturowo. Wybór platformy i zawartości jest podyktowany poprzez cel, dla którego dana jednostka korzysta się z mediów społecznościowych, ważne jest również to, jak otwarta jest kultura by dzielić się informacjami online, to znaczy jak ważne są dla niej takie kwestie jak bezpieczeństwo i prywatność. Na wybór ten wpływa również język, którego używa jednostka. Niebagatelne znaczenie ma także liczba i charakter użytkowników mediów społecznościowych w danej populacji [7].", "Facebook jest obecnie najpopularniejszą platformą mediów społecznościowych na świecie, którego liczbę – stale rosnącą – szacuje się obecnie na 2,3 miliarda użytkowników. W skali globalnej kolejne media społecznościowe pod względem liczby użytkowników to: YouTube, Instagram i WeChat z ponad miliardem użytkowników, następne są Tumblr i TikTok z ponad pół miliarda użytkowników [8]. Liczba użytkowników wszystkich mediów społecznościowych stale rośnie. Facebook jest obecnie wiodącą siecią społecznościową w 151 ze 167 krajów ( \\( 90\\% \\)), jednak w ostatnim czasie w niektórych regionach świata zaczynają go wyprzedzać inne platformy np. w Azerbejdżanie i Gruzji niezwykłą popularności cieszy się Odnoklassniki, który jest uważany za rosyjskojęzyczny odpowiednik Naszej Klasy, niegdyś popularnej również w Polsce. Natomiast w Kirgistanie, Mołdawi, czy Tadżykistanie palmę pierwszeństwa przejął serwis Ok.ru. W Chinach dominuje QZone, w Rosji VKontakte, a w Japonii Line [9]. To, która z platform zajmuje 2 miejsce jest również bardzo zróżnicowane w zależności, z jaka kulturą mamy do czynienia. Instagram zajmuje drugie miejsce w sieci społecznościowej w 23 krajach, a Twitter w ciągu ostatnich 12 miesięcy zyskał popularność w 22 krajach. Reddit rośnie, zwłaszcza w Europie Północnej, a w tym roku zajął 2. miejsce w 7 krajach [10] . Co ciekawe Twitter jest od dłuższego czasu dominującą siecią społecznościową w Japonii, a Japonia jest drugim co do wielkości rynkiem Twittera na świecie, po USA i drugim pod względem odsetka ludzi korzystających właśnie z tego medium, po Arabii Saudyjskiej [11].", "Wykorzystanie mediów społecznościowych będzie również w różnych kulturach zależne, od tego po co są one wykorzystywane. W zależności od kultury ludzie będą preferować, albo rozszerzanie swej sieci społecznej, albo dzięki mediom będą utrzymywali i pielęgnowali swe dawne relacje, będą pracowali nad własnym wizerunkiem lub będą głównie użytkowo traktować media społecznościowe, jako medium służące wyszukiwaniu treści by być na bieżąco lub jako pomoc w zakupach.", "Po co nam media społecznościowe Kultura w sposób wyraźny wpływa na to jak używamy mediów społecznościowych, wpływając zarówno na to, w jaki sposób inicjujemy proces komunikacji, jak i na efekt końcowy interakcji. Wzory myślenia, styl ekspresji, kontekst kulturowy to według badaczy czynniki wpływające na to, jak ludzie zachowują się w mediach społecznościowych [12]. Podział kultur według Edwarda Halla – na te wysokiego i niskiego kontekstu – oraz indywidualizm i kolektywizm, czyli jeden z wymiarów kultury wymieniony przez Geerta Hofstedtego są uznawane za dwa podstawowe modele analizy relacji między kulturą a mediami społecznościowymi [13]. Przykładowo osoby pochodzące z kultur indywidualistycznych, niskokontekstowych maja skłonność do publikowania treści w mediach społecznościowych, które podkreślają ich własne, indywidualne osiągnięcia, jak i będą promować siebie, tak by rozszerzyć swoją sieć społeczną [14]. Z kolei przedstawiciele kolektywnej, wysokokontekstowej kultury jak np. Koreańczycy zdecydowanie bardziej koncentrowali się na wsparciu istniejących sieci społecznych, podczas gdy np. Amerykanie, czyli przedstawiciele niskokontekstowej, indywidualistycznej kultury skupiali się bardziej na rozrywce niż na budowaniu sieci relacji społecznych [13]. W Chinach używanie mediów społecznościowych jest związane z utrzymywaniem kontaktów z przyjaciółmi, podobnie w Australii, a w Japonii i USA jest związane głównie z wyszukiwaniem produktów [7].", "Adaptacja kulturowa Media społecznościowe mają swe niebagatelne zastosowanie w procesie adaptacji międzykulturowej, podczas której osoby nowo przybyłe wykorzystują social media, by zdobyć informacje o kraju, w którym obecnie się znajdują, zawiązać i utrzymać relacje społeczne i jednocześnie by nie stracić kontaktu ze społecznością z której się z różnych powodów wyemigrowało [15]. Jest to dziś ważne, ponieważ liczba osób migrujących rośnie. Jest to spowodowane przymusową migracją z ziem objętych konfliktami zbrojnymi, z miejsc gdzie zmiany klimatyczne uniemożliwiają życie, ale również wiele osób dziś migruje w celach zarobkowych lub by np. studiować."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1070, "subject": "Różnice kulturowe a reklama", "paragraphs": ["Reklama jako forma komunikacji międzykulturowej W dzisiejszym świecie coraz częściej reklama staje się formą komunikacji międzykulturowej. Z jednej strony jest to związane z językiem reklamy i coraz częstszym wykorzystywaniem języka angielskiego w reklamach lokalnych, przez co możemy mówić o hybrydyzacji języka reklamy [1].  Jak zauważają Wilczyńska, Mackiewicz i Krajka często język angielski nadaje sloganowi reklamowemu strukturę syntaktyczną, która jest wypełniana środkami leksykalnymi pochodzącymi z języka rodzimego danego regionu [1]. Z drugiej strony należy zauważyć, iż wykorzystanie języka angielskiego lub użycie bezpośredniej kalki językowej może stanowić problem i być przyczyną klęski reklamy czy wręcz może ośmieszyć markę. W zależności od produktu, który jest reklamowany firmy opanowując nowe rynki mogą przyjąć różnorodne strategie dotyczące wyboru języka w jakim pojawi się komunikat reklamowy. Mogą się one zdecydować się na pełną standaryzację reklamy, tzn. iż niezależnie od miejsca produkt będzie reklamowany w ten sam sposób. Taka możliwość dotyczy niewielkiej grupy produktów, które niezależnie od kultury będą u odbiorców wywoływały podobne odczucia. Inną strategią jest niepełna standaryzacja przekazu reklamowego pojawiającego się w różnych kulturach. W takim przypadku następuje pewna adaptacja kulturowa przekazu np. tekst jest w języku lokalnym i nie jest bezpośrednim tłumaczeniem, a jedynie oddaniem ducha przekazu [1]. Często jednak występuje konieczność odrzucenia standaryzacji przekazu reklamowego i tworzenia go z myślą o konkretnym rynku lokalnym. Jest to niejednokrotnie wymuszone zmianami zachodzącymi już na poziomie produkcji, a wynikającymi z różnic kulturowych. Zmiany dokonywane już na etapie produkcji to zmiany np. w składzie (np. użycie bądź nie alkoholu), różnice w smaku, konsystencji, wykorzystywanych kolorach. Wszystkie one będą skutkować odmiennościami w reklamie produktu na rynku lokalnym.", "Stereotypowy obraz kultur w reklamie Reklama bazuje na stereotypach, ale równocześnie sama ma często potencjał do utrwalania zarówno stereotypów, jak i uprzedzeń.  Wykorzystanie stereotypów nie zawsze ma charakter negatywny, postaci występujące w reklamie mogą być komplementarne zarówno z charakterem produktu, jak i jego pochodzeniem - np. niemiecka precyzja czy włoska kuchnia. Stereotypy są między innymi wykorzystywane do wprowadzenia humoru, zadziwienie lub do zaskoczenia odbiorców. W takiej sytuacji prowadzą często do przerysowania pewnych cech stereotypowych np. niemiecka reklama Media Markt wykorzystująca przerysowane stereotypy dotyczące Polaków.", "Reklama reklamie nie równa – cechy charakterystyczne reklam w zależności od kultury Bardzo trudno jest scharakteryzować reklamy typowe dla konkretnego kręgu kulturowego. Niektórzy podejmując się tego zadania wskazują najbardziej typowe przejawy zjawiska, co oczywiście nie wyczerpuje wszystkich, ani nawet najważniejszych cech przekazów reklamowych pochodzących z konkretnych kultur.", "1. Reklama amerykańska. Język reklam jest prosty. Komunikat przybiera formę bezpośredniego przekazu, przyjacielskiej rozmowy, z jednocześnie dość agresywnym prezentowaniem produktu. Reklamy odwołują się przede wszystkim do osobistych potrzeb konsumentów. Często pojawiają się sformułowania: nowy, ulepszony, najlepszy. W reklamach amerykańskich przedstawiane są fakty, dane naukowe, ciekawostki techniczne, niekiedy tradycja i patriotyzm. Często wykorzystywana jest także obecność osób znanych [2]. 2. Reklama angielska. Charakterystyczną cechą stylistyki tej reklamy jest wykorzystanie humoru. Jej forma to zazwyczaj prezentacja produktów przez pojedyncze osoby, porównania, narracyjny wykład, przedstawienia historyjek z życia, wykorzystanie postaci symbolizującej dany produkt (personifikacja), przedstawienie produktu w użyciu. Głównymi elementami eksponowanymi są: wysoki standard produktu, ale także rozsądna cena, działanie produktu, jego skutki, raczej tradycyjność niż nowoczesność, naturalność, itp. [2]. 3. Reklama chińska. W reklamie chińskiej informacje są przekazywane prostym językiem, ale w sposób pośredni (gra słów, dźwięków i wizualności). Atrybuty produktów, które są podkreślane to ich nowoczesność, wykorzystywana do produkcji technologia, wysoka jakość, właściwości prozdrowotne. W reklamach na rynku chińskim często spotkać można wątki dramatyczne, metafory, grafikę, efekty specjalne, komputerowe animacje, itp. Wykorzystywane symbole dotyczą głównie natury, tj. nieba i chmur, które przynoszą pomyślność. Elementami tradycyjnymi są: przynależność do grupy, szacunek dla starszych i władzy, zgodność życia z naturą, itp. [2]. 4. Reklama francuska. Język reklam francuskich jest pełen metafor, elementów muzycznych, natomiast brak w nim obcojęzycznych fraz i nazw. Wyraźne są odwołania do takich kategorii jak piękno, kruchość, erotyka, image, ekstrawagancja itp. Informacje prezentowane są głównie za pomocą historyjek z życia z udziałem produktu, itp. Rzadko spotyka się tutaj reklamę w postaci wykładu i prezentacji różnych faktów, unika się także logicznego rozumowania i argumentacji. Ważne są elementy związane z tożsamością, zatem pochodzenie produktów często jest podkreślane [2]. 5. Reklama hiszpańska. Język używany w reklamach hiszpańskich jest zazwyczaj prosty i zrozumiały. Informacje dotyczą stylu życia, są przekazywane w sposób pośredni za pomocą dużej ilości metafor. Nastrój panujący w reklamach jest ciepły i pogodny, dużo jest w nich dynamiki. Hiszpańska reklama jest odzwierciedleniem paradoksu, w którym z jednej strony prezentowane są innowacje i nowoczesność, a z drugiej strony dużą wagę przypisuje się tradycji. Przesłanką wielu reklam hiszpańskich jest „la buena vida” [2]. 6. Reklama japońska. Język reklam japońskich jest bardzo prosty, grzeczny oraz subtelny. Konsument sam rozszyfrowuje przedstawione w reklamach aluzje. Japoński styl odnosi się do przeproszenia widza za wtargnięcie do jego domu i narzucanie się oraz zabieranie mu cennego czasu. Głównym celem reklamy japońskiej jest wzbudzenie zaufania klienta [2]. 7. Reklama niemiecka. W reklamach niemieckich używa się jasnego i konkretnego języka. Głównymi formami reklam są wykłady, eksperymenty, w których eksperci lub inne doświadczone osoby (w większości z tytułami akademickimi) przedstawiają produkty w jasny, racjonalny i uporządkowany sposób. Informacje o produkcie skupiają się na wysokiej jakości nowych rozwiązań, danych technicznych, solidności firmy, dobrej ceny [2]. 8. Reklama włoska. Duże znaczenie w reklamie włoskiej odgrywa komunikacja niewerbalna, a zwłaszcza gestykulacja. Informacje przekazywane są często w formie metafor. Zauważalne są elementy teatralne, a włoską reklamę można określić jako głośną i dynamiczną [2].", "Znaczenie koloru w odmiennych kulturach Niezwykle istotną rolę w reklamie odgrywa kolor. Jego znaczenie jest uwarunkowane kulturowo. Na postrzeganie określonego koloru wpływają takie kwestie jak skojarzenia językowe (idiomy i wyrażenia), skojarzenia mitologiczne i religijne (odniesienia do koloru w tekstach religijnych), skojarzenia polityczne i historyczne (kolory flag, partie polityczne) itp. Niektóre kwestie związane z kolorem wydają się uniwersalne. Dla przedstawicieli większości kultur kolor życia to kolor czerwony, jako, iż jest to kolor krwi. Jest on również w miarę powszechnie uważany za kolor miłości. W Chinach kolor czerwony oznacza również szczęście, powodzenie i dobrobyt. Tradycyjnie jest używany podczas wielkich uroczystości (Nowy Rok), również panna młoda ubrana jest za zwyczaj na czerwono. Podczas świąt i innych specjalnych okazji wręczanie prezentów obejmuje czerwone koperty z pieniędzmi. Na giełdach w Azji Wschodniej kolor czerwony oznacza wzrost cen akcji, podczas gdy na rynkach europejskich i północnoamerykańskich oznacza spadek [3].", "Jaki jest kolor nadziei? Żółty lub zielony. W niektórych krajach, takich jak Kanada, gdy członek rodziny uczestniczył w działaniach wojennych, rodziny umieszczały żółte wstążki na ścianach domu rodzinnego, aby podtrzymać nadzieję na bezpieczny powrót. W Stanach Zjednoczonych i Europie zieleń często kojarzy się z nadzieją ze względu na jej związek z wiosną i poczucie rozkwitu. Zielony jest również kolorem zazdrości, co jest łączone ze sztuką Williama Szekspira pt. Otello i zazdrość jako „zielonookim potworem”. Również w języku polskim obecne jest powiedzenie zzielenieć z zazdrości. Natomiast jest to najważniejszy kolor w islamie. W Koranie znajdują się opisy raju wskazujące, iż ludzie w raju noszą zielone ubrania i siedzą na zielonych poduszkach. Mówi się również, że zielony był ulubionym kolorem Proroka Mahometa i kolorem, w którym został pochowany [4].", "W Laosie, Tajlandii, Kambodży i Birmie mnisi buddyjscy noszą szaty w pomarańczowym kolorze, dlatego też w tych krajach jest to kolor kojarzony z tym co święte. Mnisi wybrali ten odcień wieki temu głównie ze względu na dostępny wówczas barwnik, ale tradycja jest kontynuowana do dziś. W Chinach kolor żółty ma silne skojarzenia historyczne i kulturowe. Pierwszy cesarz był nazywany Żółtym Cesarzem. We współczesnej chińskiej popkulturze „żółty film” odnosi się do filmów dla dorosłych. Z kolei w Polinezji żółty to święty kolor, boski kolor. W wielu kulturach purpura jest kolorem śmierci lub żałoby. Tajskie wdowy noszą fiolet, podobnie jak pobożni katoliccy żałobnicy w Brazylii. Włochy również silnie kojarzą fiolet z pogrzebami. Biel natomiast reprezentuje doskonałość i czystość, nowość i neutralność na Zachodzie. Jest wykorzystywana w wielu religiach. Dzieci chrzczone i przyjmujące pierwszą komunię ubierają się na biało. Muzułmańscy pielgrzymi podczas hadżu w Mekce noszą ihram, prosty biały strój, który ma oznaczać, że przed Bogiem wszyscy są równi [4], [3].", "Największe wpadki reklamowe Reklamowanie tego samego produktu, lecz skierowanego do przedstawicieli innych kultur musi pociągać za sobą zupełnie inne strategie komunikacyjne. Nie zastosowanie się do tej reguły często pociąga za sobą porażkę komunikacyjną lub wręcz konsekwencją jest strata wizerunkowa dla firmy. Należy również pamiętać, iż różne produkty w zależności od kultury mogą mieć różny status – w jednych krajach uchodząc za produkt luksusowy, w innych będąc produktami codziennego użytku nie kojarzonymi z wysokimi kosztami."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Komunikacja międzykulturowa", "subject_id": 1017, "subject": "Protokół i etykieta kulturowa w biznesie międzynarodowym", "paragraphs": ["Czym jest etykieta w biznesie międzykulturowym Etykieta to ustalony i obowiązujący sposób zachowania się w pewnych środowiskach. Etykieta jest związana z miejscem, którego dotyczy np. etykieta biznesowa odnosi się do stosunków w miejscu pracy, sposobów zachowania uznawanych za dopuszczalne w sytuacjach społecznych i biznesowych w kontekście międzynarodowym, obejmuje różnice kulturowe w przedstawianiu się, wymianie wizytówek, uznawaniu pozycji i statusu, komunikowaniu się między przedstawicielami różnych kultur, praktykach kulinarnych, napiwkach, dawaniu prezentów i podróżowaniu [1].", "Pierwszą osobą, która poruszyła kwestię etykiety biznesowej była w roku 1922 Emily Post w książce pod tytułem „Etiquette In Society, In Business, In Politics, And At Home”, która koncentrowała się na znaczeniu „pierwszego wrażenia”. Wskazywała na kwestie dość oczywiste, jak nietrzymanie nóg na stole, niepalenie w miejscu pracy, utrzymywanie pokerowej twarzy, czy wagę pokory w zachowaniu w miejscu pracy [2].", "Współczesność z nieustannymi kontaktami przedstawicieli niemalże wszystkich kultur wytworzyła potrzebę tworzenia etykiety biznesowej (w znaczeniu protokołu biznesowego – czyli dotyczącego zagadnień biznesu międzynarodowego). Wiele badań realizowanych obecnie przypisuje niepowodzenie niektórych międzynarodowych przedsięwzięć biznesowych trzem istotnym czynnikom: brakowi kompetencji międzykulturowych, niezdolności do skutecznej komunikacji na poziomie globalnym oraz niestosowanie akceptowalnej etykiety podczas negocjacji biznesowych [3]. Etykieta biznesowa będzie obejmowała podstawowe zasady związane z zachowaniem się w trakcie negocjacji czy spotkań biznesowych i dotyczy takich kwestii, jak ubiór podczas takiego spotkania czy kwestie przedstawiania się partnerów biznesowych pochodzących z różnych obszarów o różnych kulturach itp. Etykieta ta bywa również pomocna w zespołach mieszanych, gdzie członkami zespołu są przedstawiciele różnych kultur.", "Zasady etykiety Analizując etykietę biznesową w różnych regionach świata, warto zwrócić uwagę na kilka kwestii.", "1. Ubiór i dodatki do stroju Pierwsza zasada jest dość ważna, jednak nie będzie zbytnio różnicowała kręgów kulturowych. Przy kontaktach z przedstawicielami różnych kultur zawsze ważny jest ubiór i powinien być on elegancki, zarówno w przypadku kobiet, jak i mężczyzn powinien to być klasyczny strój biznesowy. Ważną kwestią są również błyszczące buty [4]. W etykiecie biznesowej warto zwrócić uwagę na specjalne elementy kształtujące wizerunek osoby biorącej udział w kontaktach biznesowych. W krajach azjatyckich, np. Chinach czy Japonii, elementami sprzyjającymi w kształtowaniu wizerunku będą specjalnie przygotowane wizytówki, którym towarzyszy specjalny rytuał ich wręczania – w Chinach i Japonii podajemy i przyjmujemy wizytówkę obiema rękami. Odbiorcy powinni przez chwilę patrzeć na wizytówkę, a następnie ostrożnie położyć ją na stole; natychmiastowe włożenie wizytówki do kieszeni lub portfela jest oznaką braku szacunku, dodatkowo ważne, by wizytówki w tym rejonie świata miały złote zdobienia a w treści pojawiały się informacje o miejscu firm na rynku, np. określenia typu lider. Na wizerunek negocjatora wpływa także stan jego uzębienia, a w krajach muzułmańskich i Indiach jakość akcesoriów, z którymi negocjator przybywa, czyli teczki, zegarek, pióra itp. [4].", "2. Powitanie Etykieta biznesowa definiuje również takie kwestie, jak powitanie i uścisk dłoni, a w dalszej części komunikacji utrzymywanie kontaktu wzrokowego. Są to te elementy, które wyraźnie różnicują etykietę biznesową w zależności od regionu, w którym się znajdziemy. Zapoznaniu towarzyszy uścisk dłoni, objęcie, pocałunek lub ukłon w zależności od kultury. Rosjanie słyną z mocnego sposobu obejmowania, po którym często następuje silny uścisk dłoni. Mieszkańcy Ameryki Łacińskiej, basenu Morza Śródziemnego i części Afryki obejmują się tak, że często towarzyszy temu uderzenie w plecy. W Japonii i Chinach zwyczajowo stosuje się ukłon, a nie uścisk dłoni; uścisk dłoni jest jednak często łączony z ukłonem podczas międzynarodowych spotkań biznesowych, tak aby każdej kulturze oddać należny szacunek [5]. Mocny uścisk dłoni, który świadczy o sile i profesjonalizmie będzie typowy dla Ameryki Północnej czy Europy. Z kolei w krajach arabskich uścisk dłoni będzie umiarkowanie silny, natomiast w krajach azjatyckich będzie on niezwykle rzadki i delikatny. W krajach azjatyckich formę powitania stanowią raczej ukłony o różnym stopniu pogłębienia.", "3. Kontakt wzrokowy Podobnie etykieta, nie tylko biznesowa, reguluje intensywność kontaktu wzrokowego, jaki należy utrzymywać z interlokutorem. W krajach azjatyckich preferowany jest umiarkowany kontakt wzrokowy, w krajach muzułmańskich jest on zależny od płci interlokutorów, między kobietami i między mężczyznami intensywny, natomiast gdy interlokutorami są osoby odmiennej płci, zdecydowanie mniej intensywny. Kontakty interpersonalne w krajach europejskich różnią się między sobą w skali kontaktu wzrokowego: duża intensywność dominuje w Hiszpanii, Francji, mniej intensywny kontakt jest charakterystyczny dla Wielkiej Brytanii. Zarówno w Stanach Zjednoczonych, jak i w Kanadzie będzie on dość intensywny.", "4. Pan, Pani czy pielgrzym Etykieta biznesowa określa również sposób, w jaki powinni się do siebie zwracać kontrahenci w różnych kulturach. W Japonii i Chinach należy używać tytułu zawodowego lub nazwiska. W krajach arabskich zwraca się do innych „per pan”, stosuje się pierwsze trzy człony imienia, jeżeli ktoś posiada tytuł naukowy, to niezależnie od kontekstu tytuł ten jest używany, dodatkowo niektórzy, którzy odbyli pielgrzymkę do Mekki, są tytułowani „per hadżi”, również w kontaktach zawodowych [6]. W Europie panują różnorodne zwyczaje, np. W Holandii zwracamy się po nazwisku, w Niemczech we Włoszech po tytule zawodowym, we Francji dominuje zwracanie się zgodnie ze stanem cywilnym. W Ameryce Północnej początkowo należy zwracać się do kontrahentów po nazwisku, po zapoznaniu się zazwyczaj po imieniu.", "5. Zaproszenie na obiad Elementem etykiety biznesowej jest również wspólne spożywanie posiłków. W krajach muzułmańskich temat posiłków jest niezwykle ważny. Przede wszystkim dlatego, iż negocjacje biznesowe mogą się odbywać w czasie ramadanu i wtedy niezwykle ważne jest przestrzeganie zasad alimentacyjnych. W tym okresie kontrahenci z krajów muzułmańskich będą mieli tendencję do zapraszania swych partnerów biznesowych na tak zwane śniadania ramadanowe, czyli pierwszy posiłek po zachodzie słońca, zazwyczaj celebrowany mocniej niż zwykły posiłek. Wspólne posiłki są w kulturze muzułmańskiej istotne i kontrahenci z krajów muzułmańskich będą oczekiwali wspólnego spotkania przy stole i będą oferowali obfity poczęstunek. Zgodnie z zasadami kultury muzułmańskiej podczas takich posiłków należy unikać wieprzowiny i alkoholu. Spotkanie z kontrahentami z Chin czy Japonii również będzie miało czasem formę spotkania przy stole i jest elementem tworzenia dobrej relacji między stronami. Dobrze wtedy opanować np. sztukę jedzenia pałeczkami. W Stanach Zjednoczonych i Kanadzie popularne są biznesowe lunche [4].", "6. Podarunki Ponieważ wręczanie prezentów jest integralną częścią budowania dobrych relacji biznesowych, ważne jest zrozumienie niuansów związanych z wręczaniem prezentów, w tym jakie prezenty są odpowiednie, a jakie zupełnie nieodpowiednie w zależności od kultury regionu. I tak odwiedzający Francję powinni unikać obdarowywania Francuzów winami pochodzącymi z innych rejonów świata, ponadto należy unikać podarunków w postaci alkoholu we wszystkich krajach, gdzie dominuje islam, ponieważ alkohol jest zabroniony przez religię. Inne prezenty, których należy unikać, to nóż lub chusteczka w krajach Ameryki Południowej, ponieważ nóż byłby interpretowany jako chęć zakończenia związku, a chusteczka kojarzy się ze łzami. Prezenty, których należy unikać w Indiach, to te wykonane ze skóry bydlęcej, ponieważ krowa jest zwierzęciem świętym. Należy również brać pod uwagę przesądy i tabu związane z konkretnymi rzeczami. Na przykład, dając prezent w Chinach lub Arabii Saudyjskiej, należy unikać wszystkiego, co ma na sobie orła, ponieważ orzeł w tych krajach oznacza pecha [7], [8]. Przykładowo w Chinach zegary, chusteczki do nosa, parasole lub białe kwiaty mogą kojarzyć się ze śmiercią i smutkiem, ostre przedmioty oznaczają zerwanie związku, a wszystko, co jest związane z liczbą cztery, jest uważane za pechowe."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 894, "subject": "Komunikacja w kontekście antropologii kultury", "paragraphs": ["Antropologia komunikacji stanowi jedną z subdyscyplin antropologii kulturowej (społecznej), dlatego na początku należy krótko przedstawić tę wyjściową dziedzinę nauki, w której przedmiotem badań jest różnorodność kultury w jej wszelkich przejawach ideowych i materialnych [1], [2], [3], [4]. Źródła tych zainteresowań sięgają nowożytnej epoki wielkich odkryć geograficznych. Dalekie podróże do nieznanych wcześniej cywilizacji uświadomiły bowiem Europejczykom, że w świecie żyje wiele społeczności zorganizowanych według modeli zupełnie innych niż zachodnie, posługujących się odmiennymi językami, głoszących własne przekonania religijne i systemy wartości, preferujących oryginalne estetyczne upodobania, a co z tego wynika – zupełnie inaczej opisujących i wyjaśniających otaczający świat. Najpierw problematyka owej różnorodności frapowała głównie chrześcijańskich misjonarzy, a także podróżników, uczonych oraz handlowców. Ich prace i świadectwa, niejednokrotnie bardzo interesujące i trafne w swych wnioskach, stanowiły jednak tylko wstęp do ukonstytuowania antropologii kulturowej, poświęconej tradycjom ludów pierwotnych. Nastąpiło ono w drugiej połowie XIX wieku, kiedy rozpoczęły się prowadzone w tym zakresie regularne badania naukowe.", "Początkowo antropolodzy kulturowi nie podejmowali badań terenowych, a reprezentanci pierwszej szkoły tej dyscypliny, zwanej ewolucjonizmem, koncentrowali się na porównawczych studiach tekstów źródłowych, na przykład historycznych i podróżniczych, zawierających omówienia dawnych lub/i dalekich kultur, szukając w ich rozwoju wspólnego mianownika. Szybko jednak okazało się, że bogactwa fenomenów charakteryzujących dorobek egzotycznych i nieznanych ludów nie można w sposób skuteczny i wiarygodny analizować z perspektywy najlepiej nawet wyposażonego księgozbioru i własnej kwerendy. Dlatego kolejne badania były prowadzone już bezpośrednio, w różnorodnych społecznościach rozsianych na całym świecie. Dużą rolę w rozwoju tej dyscypliny odegrała etnografia (etnologia), zajmująca się kulturą ludową społeczeństw Zachodu, odkrywaną na nowo w epoce romantyzmu. W konsekwencji antropologia kulturowa z założenia stała się dziedziną interdyscyplinarną, obejmującą elementy antropologii fizycznej, wspomnianej etnografii, językoznawstwa, archeologii, religioznawstwa, lingwistyki, historii (przede wszystkim społecznej) oraz związanej z nią socjoantropologii i innych nauk.", "Takie podejście wymagało przygotowania specyficznych narzędzi metodologicznych, które umożliwiłyby przeprowadzenie obiektywnych badań. Za metody o kluczowym znaczeniu uznano obserwację uczestniczącą oraz wywiady. W wyniku tych prac badawczych powstała bogata dokumentacja zarówno opisowa, jak i ilustracyjna – fotograficzna, a następnie także fonograficzna i filmowa, dotycząca życia w środowiskach plemiennych i wiejskich. Fundamentalnym osiągnięciem antropologii kulturowej była pogłębiona analiza szeroko rozumianego dorobku ludów niepiśmiennych, obejmująca wszelkie wytwory, a także kody kulturowego przekazu.", "W drugiej połowie XX wieku pojawiła się konieczność wprowadzenia znaczących transformacji w obszarze teorii i praktyki antropologii kulturowej. Wynikała ona najpierw stąd, że tradycyjne kultury, także ludowe, zaczęły pod wpływem procesów globalizacji stopniowo zanikać, a w każdym razie radykalnie zmieniać swój charakter. Zadawano pytanie, czy w tej sytuacji jest w ogóle zasadne dalsze uprawianie badań antropologicznych i etnograficznych, a także utrzymywanie związanych z nimi akademickich kierunków. Okazało się jednak, że podejścia i metody wypracowane w ramach antropologii kulturowej dają się z powodzeniem przenosić do analiz współczesnych społeczeństw i charakteryzującej je różnorodności. W ten sposób powstały liczne odmiany i subdyscypliny tej dziedziny nauki, takie jak na przykład: antropologia pamięci, antropologia miasta, antropologia obrazu, antropologia wizualności, antropologia organizacji, antropologia reklamy, antropologia doświadczenia, antropologia ciała i wiele innych. Punktem wyjścia tych dziedzin humanistyczno-społecznych jest bogate zaplecze badawcze antropologii kulturowej, jednak dzisiejsze konteksty i stosowane w każdym przypadku metody mogą, nawet znacznie się różnić od narzędzi wypracowanych w ramach dziedziny źródłowej. W tym właśnie szerokim nurcie znalazła się również antropologia komunikacji.", "Oczywiście problematyka komunikacji nie była i nie jest wyłącznie przedmiotem badań antropologicznych i ma bardzo stare korzenie. Przypomnijmy, że pojęcie to wywodzi się z języka łacińskiego, w którym wyraz \"communicatio\" oznaczał łączność, rozmowę, a zarazem wymianę. Ten źródłosłów ilustruje też dobrze zakres współczesnych znaczeń wiązanych z komunikacją, które dotyczą wymiany zdań, a także wzajemnego zrozumienia, przekazu informacji oraz negocjacji przyjmowanych stanowisk. Kwestie dotyczące złożonego procesu porozumiewania się były ważkim tematem już w antyku. Pojawiały się one na przykład w filozoficznych rozważaniach nad retoryką, czyli umiejętnością tworzenia poprawnej, a jednocześnie przekonującej wypowiedzi o charakterze perswazyjnym, a także rozwijających się od epoki hellenistycznej badań filologicznych i lingwistycznych, obejmujących mi.in. prace translatorskie. Ten nurt na trwałe wpisał się w dzieje kultury Zachodu. Także w drugiej połowie XX wieku pojawiły się różne językoznawcze i filozoficzne koncepcje komunikacji [5]. Za Bogusławą Dobek-Ostrowską należy wymienić najważniejsze funkcje komunikacji – dawnej i współczesnej: informacyjną, edukacyjną, identyfikacji osobistej, integracyjną, mobilizacyjną, a także rozrywkową [6].", "Antropologowie kultury otwarli dla studiów nad komunikowaniem nową perspektywę, stwierdzając, że nie dotyczą one wyłącznie języka, lecz obejmują cały zespół zachowań i uwarunkowań sytuacyjnych. Toteż aby zrozumieć przedstawicieli różnorodnych kultur, należy poznać obowiązujące w tych środowiskach sposoby kodowania, a zarazem interpretowania komunikatów, które nigdy nie są wyłącznie oralne. Dzięki takiemu podejściu problematyka komunikacji została uznana za integralną część wszelkich antropologicznych badań nad kulturą.", "Podsumowując można stwierdzić, że antropologia komunikacji jako subdyscyplina antropologii kulturowej zajmuje się problemem interakcji wynikających z przekazywania informacji za pomocą kodów kulturowych na ich wielu złożonych poziomach, obejmujących przekazy językowe, jak również sygnały wynikające z mowy ciała, wyrażane na przykład mimiką czy gestykulacją [7]. Obecnie niezwykle istotnym przedmiotem analizy pozostają również nowe media, będące platformą komunikacji, prowadzonej na niespotykaną do tej pory skalę [8]. Złożoność obecnej sytuacji wymaga uruchomienia zupełnie nowych badań, pozwalających stwierdzić, w jaki sposób wypracowane do tej pory postawy komunikacyjne funkcjonują i sprawdzają się w rzeczywistości wirtualnej, co ona w nich zmienia, co nowego oferuje oraz jakie niesie ze sobą zagrożenia."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 895, "subject": "Kulturowe znaczenia komunikacji niewerbalnej", "paragraphs": ["W drugiej połowie XX wieku szczególnie dużo miejsca poświęcono doniosłości komunikacji niewerbalnej, często wcześniej pomijanej lub niedocenianej w antropologii kulturowej. Zainicjowało to szereg badań, które pozwoliły uchwycić różnice w komunikowaniu, występujące nie tylko między reprezentantami różnych grup etnicznych, lecz także zawodów, pokoleń, płci czy mniejszości (zob. Różnice kulturowe w komunikacji niewerbalnej ). Pierwsze studia w tym zakresie prowadził znany antropolog amerykański, Franz Boas (1858-1942). Zwrócił on uwagę na to, że określone sygnały mimiczne, postawy ciała czy gesty są również przekazem istotnych i jasno określonych komunikatów, pełniących funkcję nie mniej ważną niż transmisja werbalna. Badania te kontynuował w końcu lat czterdziestych Levette J. Davidson (1894-1957), który pokazał informacyjne znaczenie gestu występujące w kulturze Zachodu na przestrzeni dziejów, odwołując się do różnych zwyczajów i kodów obecnych na przykład w wojsku, handlu czy w religii [1]. W latach sześćdziesiątych XX wieku Ray Birdwhistell (1918-1994) wprowadził pojęcie kinezyki, obejmującej wszystkie aspekty złożonej komunikacji niewerbalnej [2], [3].", "Na konieczność badania pozasłownych treści komunikacji międzyludzkiej zwrócił szczególną uwagę Edward T. Hall (1914-2009), twórca proksemiki, czyli nauki o kulturowym znaczeniu przestrzeni i wynikającym stąd zagadnieniu dystansu społecznego [4]. Wykazał on, że istotne zróżnicowanie w tym względzie daje się zaobserwować w kulturach całego świata. Hall wyodrębnił dwa typy transferu kulturowej komunikacji, które zupełnie inaczej wykorzystują element przestrzeni i nazwał je kulturami niskiego i wysokiego kontekstu (zob. Kultury szerokiego i wąskiego kontekstu ). W kulturach niskokontekstowych wiodącą rolę spełniają informacje słowne, które powinny być możliwie precyzyjne i jednoznaczne. Ten przekaz charakterystyczny jest przede wszystkim dla krajów kultury Zachodu. Natomiast w kulturach wysokokontekstowych, występujących głównie w Azji i Afryce, znacznie ważniejszą wartość komunikacyjną zyskuje środowisko społeczne oraz sygnały sytuacyjne, nieuchwytne lub niezrozumiałe na pierwszy rzut oka dla obcego odbiorcy. Ludzie żyjący w kulturach niskiego kontekstu są nastawieni na rozwój własnego indywidualizmu i cenią utrzymywanie dystansu. Natomiast przedstawiciele kultur wysokiego kontekstu przywiązują dużą wagę do wzajemnej bliskości i budowania wspólnoty. W konsekwencji, te same sygnały mogą być w różny sposób postrzegane i interpretowane przez reprezentantów kultur odmiennego typu. Podział ten nie oznacza bynajmniej, że w środowisku niskokontekstowym nie odgrywają roli elementy mowy ciała, a w przypadku kultury wysokiego kontekstu informacja słowna zawsze tworzy jedynie dopełnienie przekazu. W podziale zaproponowanym przez Halla chodzi raczej o podkreślenie dominujących w danej kulturze elementów interakcji.", "Kategoria antropologii komunikacji pojawiła się po raz pierwszy w latach sześćdziesiątych w artykule Della Hymesa (1927-2009), który wskazał na swoistą hierarchię badań dotyczących komunikacji kulturowej [5], [6]. Na pierwszym miejscu uplasował on etnografię mówienia (ethnography of speaking), która określa wszelkie badania nad komunikowaniem się stosunkowo niewielkich grup i wspólnot lokalnych. Zdaniem tego uczonego, wyróżniona na drugim miejscu etnografia komunikacji (etnography of communication), wymaga poszerzenia obszaru badawczego i prowadzenia obserwacji w większym kręgu społecznym. Pisząc o tym poziomie badań, Hymes podkreślił doniosłe znaczenie komunikatów niewerbalnych, stwierdzając, że prowadzone analizy komunikacji powinny ujmować wszystkie konteksty obserwowanych wystąpień, a nie tylko przekaz słowny. Na trzecim miejscu znalazła się antropologia komunikacji, obejmująca badania porównawcze nad procesami i kodami komunikacji, występującymi w różnych, często bardzo odmiennych kulturach. Etnograficzny aspekt badań nad komunikacją długo był uznawany za jeden z najistotniejszych wyróżników tej dziedziny antropologii, a zapoznanie się ze wszystkimi elementami ekspresji, budującymi komunikacyjne interakcje stało się warunkiem sine qua non funkcjonowania tej dyscypliny. Takie podejście utrzymał również Yves Winkin, będący jednym ze współczesnych klasyków antropologii komunikacji [7].", "Badania nad kinezyką Raya Birdwhistella stały się inspiracją dla Ervinga Goffmana (1922-1982), który zaproponował, by najważniejsze typy komunikacyjnych interakcji określić trzema metaforami – gry, dramatu i rytuału [8]. Pierwszy typ bazuje na określonych regułach przekazywania informacji, drugi odwołuje się do różnorodnych form działania, natomiast trzeci wynika z uwzględnienia porządku moralnego ważnego w danej grupie. Każda z wymienionych transmisji urzeczywistnia się nie tylko w doniosłych widowiskach kulturowych, lecz przede wszystkim w drobnych, potocznych gestach ustanawiających status codzienności. Zdaniem Goffmana, używając różnych typów relacji, ludzie przekazują sobie komunikaty, a także kreują swoją tożsamość i potwierdzają poczucie własnej wartości. Uczony zwrócił też uwagę na fakt, że społeczne porozumiewanie się jest zgodne z wyobrażeniem określonych ról, które podejmujemy w życiu [9].", "Antropologowie zajmujący się badaniem kulturowych znaczeń komunikacji niewerbalnej na ogół uznawali założenia uniwersalizmu językowego, zgodnie z którymi wszystkie systemy językowe mają pewne cechy wspólne, a zawarte w nich treści są przekładalne i dają się wyrazić w innych strukturach lingwistycznych. Pewnym niebezpieczeństwem tego szerokiego ujęcia komunikacji staje się podejście, w którym każdy aspekt kulturowego współistnienia jest traktowany jako akt komunikowania, ponieważ omawiana dyscyplina antropologii gubi wówczas swoją specyfikę."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 896, "subject": "Języki komunikacji", "paragraphs": ["Na ukształtowanie koncepcji językoznawczych ważnych dla najnowszej postaci antropologii komunikacji, znaczący wpływ wywarły badania Benjamina Lee Whorfa (1897-1941) i Alfreda Korzybskiego (1879-1950). Whorf studiował najpierw inżynierię chemiczną w Massachusetts Institute of Technology. Jeszcze przed ukończeniem studiów rozpoczął pracę w sektorze ubezpieczeń przeciwpożarowych, która przynosiła mu znaczne zyski. W 1931 roku po raz kolejny zapisał się na studia, ponieważ interesowały go rozmaite kwestie językoznawcze, na które natknął się w trakcie samodzielnej nauki języka hebrajskiego, a następnie języków mezoamerykańskich. Tym razem wybrał lingwistykę. O ukierunkowaniu jego pasji naukowej w dużej mierze zdecydowało spotkanie z wybitnym antropologiem i językoznawcą, Edwardem Sapirem (1884-1939) [1], który uznał Whorfa za swego najwybitniejszego ucznia. Whorf wyspecjalizował się w językach Indian Środkowej i Północnej Ameryki, a zwłaszcza ludu Hopi. W latach 1937-38 został wykładowcą antropologii na Uniwersytecie Yale, zastępując w tym czasie Sapira, nie porzucił jednak swojej działalności biznesowej. Jego wystąpienia i prace spotkały się z bardzo dobrym przyjęciem. Nie zdążył rozwinąć wielu swoich naukowych pomysłów, gdyż zmarł przedwcześnie na raka.", "Whorf pokazał, że Indianie Hopi posługują się językiem pozbawionym oznaczenia czasów, a wszystkie wydarzenia są w nim ukazane w dwóch kontekstach – tego, co już ujawnione i tego, co właśnie się ujawnia. Kontekst pierwszy ma charakter obiektywny i obejmuje teraźniejszość, a także wydarzenia z niedalekiej przeszłości. Kontekst drugi, uznawany za subiektywny, odnosi się do obszarów refleksji istniejących wyłącznie w umyśle. Wyraża on również nadzieję i oczekiwanie na to, co przyniesie przyszłość. W tym trybie opowiada się mity i podania historyczne, rozumiane jako rodzaj domniemania, którego nikt nie może sprawdzić w gwarantującym obiektywizm „teraz”. Dzięki temu, obraz świata Hopi charakteryzuje się rozciągłością i cyklicznością, która nie występuje w kulturach bazujących na językach temporalnych. Whorf mocno to podkreślał: „U Hopi nie istnieje (...) przyszłość temporalna; na płaszczyźnie subiektywnej nie ma niczego, co stanowiłoby ekwiwalent owych ciągów i następstw sprzężonych z przestrzenią i zmiennością konfiguracji fizycznych, jakich my upatrujemy na płaszczyźnie obiektywnej” [2]. Zupełnie inną sytuację można zaobserwować w języku Indian Nutka, w którym: „(...) wszelkie wyrazy zdają się być czasownikami i brak jest rozróżnienia dwu podstawowych gramatycznych kategorii. (...) W języku nutka nie mówi się «dom», lecz raczej «pojawia się dom» czy «domuje się»” [3]. W konsekwencji, w zdaniach wypowiadanych w tym języku nie ma podziału na podmiot i orzeczenie. Zestawiając tak różnorodne systemy lingwistyczne, Whorf udowadniał, że język, którym ludzie operują od dzieciństwa określa ich rozumienie świata, a co za tym idzie – w kulturze nie występuje uniwersalne pojmowanie czasu i przestrzeni, gdyż lokalne modele tych idei są uzależnione od języka danej społeczności.", "Wynikiem tych badań stało się wypracowanie hipotezy Sapira-Whorfa, zwanej również prawem relatywizmu językowego [4], [5]. Głosi ona, że język stosowany w danej kulturze, określa zawarty w niej sposób myślenia i obraz rzeczywistości. Nawiązując do odkryć Alberta Einsteina, Whorf nazwał tę koncepcję zasadą językowej względności [6] (zob. Język a kwestia wielokulturowości. Hipoteza Sapira-Whorta ). Koncepcje te były też niejednokrotnie poddawane krytyce. Sprzeciwiał się im m.in. Dell Hymes (1927-2009), który, przychylając się do stwierdzeń uniwersalizmu językowego, uważał, że o tym jak funkcjonuje język w danej społeczności decydują okoliczności, w których uczą się go ludzie oraz stosowany repertuar leksykalny [7].", "Korzybski, wywodził się z polskiej rodziny arystokratycznej. Od dziecka biegle posługiwał się czterema językami – oprócz polskiego, znał także rosyjski, francuski i niemiecki, później nauczył się jeszcze włoskiego i angielskiego. Zdobył wykształcenie na Politechnice Warszawskiej, gdzie również ukończył inżynierię chemiczną, następnie studiował w Rzymie. Po wybuchu I wojny światowej trafił do Stanów Zjednoczonych. Osiadł w Chicago. W 1919 roku ożenił się z malarką Mirą Edgerly (1872-1954), która twórczo włączyła się do prowadzonych przez niego prac naukowych. W 1940 roku otrzymał obywatelstwo amerykańskie.", "Jego pierwsza książka „Manhood of Humanity” ukazała się w 1921 roku. Korzybski postawił w niej pytanie o istotę człowieczeństwa. Uważał, że człowiek jest jedynym stworzeniem, które „wiąże czas”. Oznacza to, że tylko ludzie umieją przekazywać wiedzę w procesie złożonej edukacji, dzięki czemu kolejne pokolenia nie muszą zdobywać jej ciągle od początku, lecz w procesie uczenia systematycznie ją poszerzają i przetwarzają [8].", "W 1938 roku Korzybski założył w Chicago Instytut Semantyki Ogólnej (Institute of General Semantics). Nie utożsamiał on powołanej przez siebie dyscypliny naukowej z semantyką jako taką, twierdząc, że jej zakres jest znacznie szerszy. W swoim rozpoznaniu bazował na logice nie-arystotelesowskiej. Arystoteles głosił, że język ujmuje istotę rzeczy i pogląd ten wywarł decydujący wpływ na późniejsze dociekania językoznawcze. Tymczasem Korzybski podkreślał, że język jest jedynie sposobem opisu świata, często niepełnym i złudnym. Podstawy tej nauki przedstawił w dziele \"Science and Sanity\" wydanym w 1933 roku [9]. Wypracowana przez niego koncepcja zyskała charakter swoistej syntezy filozoficzno-socjologicznej. Zgodnie z jej założeniami, wiedza jest przekazywana przez sprzężone struktury – systemu nerwowego i języka. Uczony wskazywał, że ludzie zazwyczaj utożsamiają obiekt, o którym mówią ze słowem, które go oznacza, popełniając w ten sposób kardynalny błąd (zob. Mapa i terytorium ). Uświadamianie abstrakcyjnego charakteru procesów poznawczych może więc stanowić rodzaj uwolnienia dla wielu osób, niejako „uwięzionych” w swoim języku.", "Bardzo ważną cechą semantyki ogólnej stało się dążenie do praktycznych zastosowań wypracowanych w jej obrębie koncepcji. Korzybskiemu nie tyle chodziło o badania nad językiem, co o stworzenie pragmatycznego systemu opartego na naukowych podstawach, który stanowiłby wsparcie dla komunikacji międzyludzkiej, w rezultacie zwiększenia świadomości własnych wypowiedzi i poprawy związanego z nią – wzajemnego zrozumienia. Proponował, by wykorzystywać semantyczne narzędzia na przykład w przygotowywaniu wystąpień, w prowadzeniu negocjacji, a także w psychoterapii. W semantyce ogólnej, podobnie jak w hipotezie Sapira-Whorfa, ważną rolę odgrywa założenie relatywizmu językowego. Za jedyny uniwersalny, a zarazem najprecyzyjniej ujmujący rzeczywistość język, Korzybski uważał matematykę, chociaż i ona mogła, jego zdaniem, jedynie przybliżyć człowieka do uchwycenia specyfiki fenomenów rzeczywistości, nigdy natomiast nie była z nimi tożsama."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 897, "subject": "Cybernetyczne ujęcie komunikacji", "paragraphs": ["Istotnym aspektem antropologii komunikacji stało się jej powiązanie z cybernetyką, zainicjowaną przez Norberta Wienera (1894-1964). Jego ojciec, Leo Wiener (1862-1939), wywodzący się z białostockiej rodziny żydowskiej, wyemigrował do Stanów Zjednoczonych, gdzie został wykładowcą języków słowiańskich na Uniwersytecie Harvarda. Norbert Wiener był „cudownym dzieckiem” i już w wieku 14 lat ukończył pierwsze studia uniwersyteckie. Został wówczas absolwentem biologii, następnie studiował filozofię i matematykę (u Bertranda Russella). W perspektywie tego rozległego uniwersum interdyscyplinarnego uczony analizował także problemy komunikacji, w procesie której szukał syntezy elementów biologicznych i mechanicznych.", "W czasie II wojny światowej Wiener brał udział w tajnym projekcie rządowym, prowadząc badania nad przewidywaniem trajektorii lotu samolotów wroga. Uczony opracował na potrzeby armii metodę nazwaną filtrem Wienera, którego zadaniem było możliwie precyzyjne wytyczenie toru pocisków. Przy pomocy filtra analizowano różnorodne dane, w tym nawet minimalne przesunięcia mięśni pilotów, które wpływały na trajektorię lotu pocisku, by wyznaczyć jak najdokładniejsze miejsce jego upadku. Dzięki zastosowaniu tej metody można więc było – przynajmniej do pewnego stopnia – prognozować przyszłość.", "Koncepcje wypracowane w czasie wojny Wiener przeniósł do cybernetyki, czyli nauki o sterowaniu. W języku greckim słowo \"kybernes\" oznacza zarządcę lub sternika. Pojęcie to zostało po raz pierwszy zastosowane przez polskiego filozofa i mesjanistę Bronisława Trentowskiego (1808-1869) w książce \"Stosunek filozofii do cybernetyki, czyli sztuki rządzenia narodem\" wydanej w 1843 roku i stąd też zaczerpnął go Wiener. Odwołując się do koncepcji zarządzania, opisywał on w obrębie rozwiązań technologicznych układy zamknięte, w których informacje tworzą pętle. Dzięki temu kształtują one ciągi przyczynowo-skutkowe kolejnych zdarzeń, oddziałujące na cały system, a nie tylko lokalnie. Co istotne, włączył on do analiz nad zjawiskiem komunikacji również zwierzęta, a przede wszystkim maszyny, w sposób znaczący poszerzając zakres tego terminu, a jednocześnie wskazując na możliwy pozaludzki, a także nie-biologiczny kontekst przekazu informacji.", "Myśl Wienera rozwinął Claude Shannon (1916-2001) z Bell Telephone Comp., który opracował model komunikacji zwany telegraficznym, oparty na matematycznej teorii emisji sygnałów [1], [2], [3]. Jako współpracownik firmy telefonicznej, Shannon stanął przed koniecznością rozwiązania konkretnego technologicznego zdania. W tym podejściu komunikacja została sprowadzona do połączenia dwóch elementów systemu. Dlatego Shannona nie interesowała treść prowadzonych rozmów, lecz jak najlepsza drożność kanałów telefonicznych oraz jakość odbioru komunikatów. Ze zrozumiałych względów Shannon nie brał pod uwagę niewerbalnych aspektów w komunikacji i to nie one stanowiły dla niego o jej istocie. Uważał, że w procesie komunikacji myśli, odczucia i intuicje człowieka wymagają przetworzenia w werbalny kod, który zostanie wypowiedziany lub zapisany. W konsekwencji, komunikacja rozpoczyna się i kończy w umyśle człowieka, przy czym osoba, która podejmuje ją pierwsza, zarazem ją ustanawia.", "Zgodnie z modelem telegraficznym: „Osoba A decyduje się przekazać osobie B komunikat, który został zakodowany, przesłany przez fale, otrzymany, odkodowany, zrozumiany lub nie. Osoba B może więc ze swej strony przekazać komunikat osobie A i tak dalej. Akt telegrafowania jest werbalny, intencjonalny, linearny, ograniczony w czasie i przestrzeni. Telegram jest zazwyczaj przejrzysty, oparty na denotacji oraz informacyjny” [4]. W tej perspektywie podstawowym celem przekazu stała się redukcja niepewności, umożliwiająca budowanie przewidywalnych modeli rzeczywistości. Za warunek skutecznej komunikacji uznano reakcję na wysłany sygnał, czyli informację zwrotną (feedback). Sprzężenie zwrotne ma charakter pozytywny, gdy jego efektem jest stymulowanie dalszych kontaktów oraz negatywny – w przypadku celowego osłabienia przez nadawcę komunikacyjnego działania.", "W modelu telegraficznym komunikat jest zawsze racjonalny, dobrowolny i podlega wartościowaniu. Z tego względu uważano, że procesy komunikacyjne można badać w sposób w pełni obiektywny i niemal laboratoryjny. Shannon koncentrował się też na problemie szumu, czyli zakłóceń, zagłuszających i zniekształcających informacyjny przekaz. Dodajmy, że jego źródła są rozmaite, gdyż szum może pochodzić z otoczenia, lecz także na przykład z niedyspozycji zdrowotnych ludzi biorących udział w komunikowaniu. Nie wszystkie szumy pozwalają się wyciszyć, a zadaniem technologii jest ich minimalizacja.", "Wiener podkreślał swoistość i niesprowadzalność informacji do innych fenomenów: „Informacja jest informacją, a nie sprawą energii. Żaden materializm, który nie zgadza się z tym twierdzeniem, nie może przetrwać w dzisiejszych czasach” [5]. Był też przekonany, że nauka o wymianie informacji stanie się wkrótce najważniejszą wiedzą społeczną. Pisał: \"Społeczeństwo można zrozumieć jedynie poprzez studiowanie informacji oraz związanych z nimi sposobów porozumiewania się. Przyszły rozwój informacji i sposobów porozumiewania się pomiędzy człowiekiem a mechanizmem, mechanizmem a człowiekiem, pomiędzy maszyną a maszyną – będzie odgrywał coraz większą rolę\" [6]. Również Shannon uznawał autonomię informacji i jej niezależność od medialnych nośników [7].", "W 1964 roku Wiener wydał książkę pod znamiennym tytułem \"God & Golem, Inc.\" [8]. Znalazły się w niej wyjątki z jego wykładów wygłoszonych w Yale oraz seminarium prowadzonego w Colloques Philosophiques Internationaux de Royaumont pod Paryżem. Intrygujące zestawienie wyrażone w tytule stało się swoistym podsumowaniem myśli uczonego. Wiener uznał, że wywodząca się z tradycji żydowskiej postać Golema, czyli sztucznego człowieka, obdarzonego nadzwyczajną siłą i wiedzą, chroniącego wprawdzie Żydów przed niebezpieczeństwami świata, ale też groźnego dla ich społeczności, staje się swoistym symbolem współczesności [9]. Wyrażał też swoje wątpliwości związane z problemami uczenia się maszyn i ich reprodukowania, a także ich współistnienia z ludźmi. Podkreślił, że problem sztucznego człowieka, który narodził się w środowisku religijnym i wyraził w charakterystycznej dla niego symbolice, nabrał charakteru społecznego i politycznego i w takiej też perspektywie należy go współcześnie rozpatrywać. Tym samym książka Wienera wydana niedługo przed śmiercią autora stała się zapowiedzią wielu obecnych dylematów i kontrowersji."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 900, "subject": "Mapa i terytorium", "paragraphs": ["Wprowadzona przez Alfreda Korzybskiego (1879-1950) koncepcja mapy i terytorium, pozwala uzasadnić różnorodność, a zarazem niejednoznaczność przejawiającą się w indywidualnych sądach i przekonaniach dotyczących zarówno własnej osobowości, jak i świata [1], [2]. Stanowiła ona istotny aspekt semantyki ogólnej (zob. Języki komunikacji ). Terminem terytorium Korzybski określił otaczającą człowieka rzeczywistość, która jest dynamiczna, złożona, niemożliwa do uchwycenia w pełni i zawsze przynajmniej częściowo ukryta. Człowiek poznaje ją przy pomocy zmysłów, następnie sygnały tych bodźców są przetwarzane przez układ nerwowy na kolejnych poziomach poznawczych i ostatecznie zostają określone w formie językowej. Specyfikę tego procesu tak podsumowuje Paweł Kamiński: „Wszelkie nasze uczucia, myśli, miłości, nienawiści itd. zdarzają się na poziomach milczących, niewypowiadalnych. Mogą one jednak podlegać wpływowi poziomów werbalnych dzięki istnieniu między nimi stałej współzależności. Owa stała współzależność możliwa jest dzięki strukturze przenikającej rzeczywistość i język” [3].", "Informacje o świecie składają się na kształtowane w umyśle człowieka mapy, budujące skomplikowane systemy poznawcze. Stanowią one zawsze wypadkową pracy systemu nerwowego oraz wspólnej wiedzy przekazywanej w różnych językach (także matematycznych), wreszcie indywidualnych preferencji i skłonności. Fundamentalnym założeniem Korzybskiego było twierdzenie, że mapa nie jest terytorium, podobnie jak słowo nie jest rzeczą. Wynika to stąd, że mapa i terytorium przynależą do dwóch różnych porządków – ontologicznego i kognitywnego. Mapy stanowią zawsze odzwierciedlenie wybranego aspektu rzeczywistości, którego nie należy mylić z terytorium jako takim. Są one samozwrotne, czyli mówią jedynie same o sobie. Wprawdzie tworzą bazy abstrakcyjnych danych, nie mają jednak charakteru iluzorycznego, podobnie jak iluzją nie jest obszar terytorium. Warto jeszcze wspomnieć, że teoria ta powstawała w epoce dynamicznego rozwoju fizyki, stając się niejako próbą uchwycenia relatywnej rzeczywistości w języku.", "Źródło: Gabriel Feijó de Carvalho, Alfred Korzybski, The World Is NOT an Illusion, 27.09.2012 (dostęp 10.10.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=A-7zYBKgzfs&feature=emb_logo.", "Mapy wypracowane i utrwalone przez poszczególne osoby są zawsze wyjątkowe i nieidentyczne z mapami innych. Ta osobliwość leży u podstaw wielu komunikacyjnych problemów, ponieważ ludzie na ogół nie dostrzegają różnicy między terytorium i ujmującymi jego specyfikę mapami. W konsekwencji tego błędnego utożsamienia traktują swoje mapy jak obiektywną rzeczywistość zewnętrzną, która dla wszystkich jest taka sama. Takie przekonania nie tylko prowadzą do błędnych założeń, przyczyniają się również do powstawania problemów psychicznych. Dlatego Korzybski w ramach terapii proponował wypracowanie nowej perspektywy postrzegania świata przez ćwiczenie takich wypowiedzi, które byłyby pozbawione czasownika „być”, uznanego przez niego za bardzo mocny czynnik fałszywej identyfikacji mapy z przestrzenią terytorium, nieuchronnie prowadzący do zaburzania percepcji w rezultacie mylenia poznawczych poziomów.", "Na przykład, gdy mówimy „Róża jest czerwona”, nie bierzemy pod uwagę tego, że zjawiskiem naturalnym są jedynie fale światła różnej długości, które postrzegamy jako barwy. Nie wszyscy widzą też kolory jednakowo, a niektórzy nie widzą ich wcale (zob. Barwa w komunikacji wizualnej ). Możemy więc jedynie powiedzieć: „Widzę czerwoną różę”. Rozwijając ten pomysł, D. David Bourland Jr. zaproponował w 1949 roku, by w ogóle wyrzucić ze słownika czasownik „być”. Zabieg ten miał podkreślać, że język, w którym opowiadamy o rzeczywistości, wyraża tylko nasze doświadczenia. Język bez „to be” nazwano E-Prime (od słów „English-Prime”) [4].", "Niezależnie od swych wpływów, Korzybski oraz jego zwolennicy byli niejednokrotnie krytykowani. Twórcy semantyki ogólnej zarzucano na przykład, że nie prowadził systematycznych akademickich badań, które mogłyby potwierdzić jego teorię, w związku z czym miała ona jedynie pseudonaukowy charakter. Polemikę wywołał też postulat radykalnej subiektywizacji wypowiedzi.", "Wątek mapy i terytorium podjął Gregory Bateson (1904-1980), który jeszcze mocniej podkreślił ich odrębność, a jednocześnie trudność z jednoznacznym określeniem tych obszarów [5]. Dlatego w ich opisie odwołał się do symbolicznego tekstu Carla Gustava Junga \"Septem sermones ad mortuos\" [6]. W tym tekście Jung ukazał dwa, niesprowadzalne do siebie aspekty rzeczywistości. Pierwszy z nich określił mianem Pleromy, czyli przestrzeni umysłu, utożsamionej przez Batesona z mapą, która, nazywana obszarem \"the non-living\", nie ma granic, charakteryzuje ją natomiast jednorodność i cyfrowy system przetwarzania danych. Przestrzeni Pleromy/mapy odpowiada ludzki umysł, który poznaje i porządkuje świat dzięki logice. Mapa stanowi reprezentację cybernetycznego kontekstu komunikacji, gdyż wiąże się z cyfrowym kodowaniem i dekodowaniem przekazu informacji werbalnych.", "Równie ważna pozostaje analogowa transmisja danych, obejmująca wszelkie elementy komunikacji niewerbalnej, wyrażana w przestrzeni terytorium. Według Batesona kategorii terytorium odpowiada Jungowskie pojęcie Creatura, czyli Stworzenie, odzwierciedlające obszar natury, nazwany \"the living\". Obszar ten cechuje się różnorodnością i przejawia w postaci form energii. Ciało człowieka stanowi jego element i jako takie odpowiada za komunikację w trybie niewerbalnym. Dzięki temu możemy rozumieć intencje kogoś, kto mówi wprawdzie językiem dla nas nieznanym, jednak używa czytelnej mimiki i gestykulacji. Niewerbalny poziom komunikacji Bateson nazwał metakomunikacją lub ramą komunikacji. Tym samym, każdy człowiek nosi w sobie zarówno elementy świata cyfrowego, jak i biologicznego. Według Batesona, dopiero świadomość tej złożoności może uzmysłowić potencjał komunikacyjnych możliwości człowieka.", "By skutecznie funkcjonować w świecie, należy systematycznie uzgadniać poznawcze mapy z podlegającą ciągłym zmianom strukturą terytorium. To informacja stanowi sygnał, który dociera do mapy z terytorium, odzwierciedlając zachodzące w nim zmiany. Bateson uważał, że proces poznawczy polega na gromadzeniu danych w określonych wiązkach logicznych, a człowiekowi, chociaż sam posiada ciało, przynależące do terytorium, bliżej zawsze do rzeczywistości Pleromy. O tym, że mapy odzwierciedlają dynamiczne i żywe terytorium, decyduje różnica (difference), będąca podstawową jednostką informacji, której nie da się w sposób jednoznaczny zdefiniować. Mimo to, pełni ona fundamentalną funkcję w procesie poznawczym, gdyż „różnica czyni różnicę” (a difference makes difference) [7]. Pojawienie się różnicy otwiera przejście między jakościowo całkowicie odmiennymi obszarami, dzięki któremu dokonują się dynamiczne przekształcenia map, odpowiadające transformacjom terytorium. Bateson, podobnie jak Norbert Wiener (1894-1964), uznał więc autonomiczność informacji oraz fakt, że fenomen jej działania daje się wyjaśnić jedynie przez odwołanie do niej samej (zob. Cybernetyczne ujęcie komunikacji ).", "Koncepcja mapy i terytorium odbiła się szerokim echem w badaniach nad kulturą, również popularną [8]. Warto przypomnieć, że z tego pomysłu skorzystali m.in. Philip K. Dick (1928-1982) i Frank Herbert (1920-1986) w konstruowaniu swoich fantastycznych światów. Tym samym, ujęcie Korzybskiego i Batesona stało się jednym z czynników porządkujących nie tylko rozpoznanie naszego miejsca w świecie, lecz także organizację naszej wyobraźni."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 898, "subject": "Komunikacja w systemie", "paragraphs": ["Próbą uzgodnienia przeciwstawnych podejść w badaniach nad komunikacją – antropologicznego (zob. Kulturowe znaczenia komunikacji niewerbalnej ) i cybernetycznego (zob. Cybernetyczne ujęcie komunikacji ) – stał się jej systemowy model opracowany przez Gregory Batesona (1904-1980) i kontynuatorów jego podejścia. Uczony bardzo mocno podkreślał współistnienie i ważność obydwu wymiarów komunikacji – werbalnego i niewerbalnego. Był on absolwentem biologii i antropologii, prowadził badania na Bali i w Nowej Gwinei, ponadto żywo interesował się cybernetyką i przyczynił się do uruchomienia słynnych interdyscyplinarnych spotkań Macy Conferences poświęconych tej problematyce. W latach 1941-1960 gromadziły one reprezentantów różnorodnych dyscyplin, takich jak: fizyka, biologia, psychologia, antropologia kulturowa i inne. Brali w nich udział m.in.: Leo Berman, Ray L. Birdwhistell, Jerome S. Bruner, Erik H. Erikson, Erving Goffman, Konrad Z. Lorenz, Margaret Mead, Karl H. Pribram, Claude Shannon czy William Grey Walter. Punktem wyjścia dla syntezy Batesona stała się koncepcja mapy i terytorium (zob. Mapa i terytorium ). Zdaniem uczonego, zharmonizowanie obydwu tych czynników prowadzi do swoistej ekologii umysłu, łączącej holistycznie wszystkie elementy rzeczywistości [1]. System ten nie byłby jednak skuteczny, gdyby nie jego kulturowe podstawy, przekazywane z pokolenia na pokolenie.", "Według Batesona, komunikacja pełni w kulturze niezwykle istotną rolę, ponieważ spaja jej trzy poziomy, czyli życie społeczeństwa, jego etos oraz przyjmowane i przechowywane w jego obrębie wzorce zachowań [2]. Ten kompleks jest przekazywany członkom danej społeczności od urodzenia w procesie nauczania. Pierwszy etap edukacji odbywa się w sposób niejako naturalny – dziecko mimowolnie uczestniczy w życiu swoich rodziców, czy opiekunów, obserwuje i naśladuje ich zachowania, dlatego nauka odnosi się przede wszystkim do obszaru zachowań niewerbalnych. Bateson wyróżnił jeszcze cztery dalsze poziomy, obejmujące coraz bardziej złożone i abstrakcyjne zadania, które wymagają rosnącego osobistego zaangażowania ucznia. W rezultacie komunikacja pomaga w integracji wszystkich aspektów życia człowieka.", "Czasami jednak proces komunikacyjnej edukacji ulega zaburzeniu, które wywołuje m.in. sytuacja podwójnego wiązania (double bind) [3], [4], [5]. Polega ono na sprzeczności wyrażonej w komunikacie. Dzieje się tak na przykład, gdy matka mówi dziecku, że może wybrać sobie kolor czapki, lub krój spodni, ale niezależnie od jego decyzji, okazuje potem swoje niezadowolenie. Podobnie, gdy dziecko słyszy od rodzica: „Musisz mnie kochać” – najpierw dociera do niego wezwanie dotyczące powinności, której się od niego oczekuje, a jednocześnie zdaje ono sobie sprawę, że uczucie prawdziwej miłości jest spontaniczne i nie ma nic wspólnego z przymusem. Podwójne wiązanie rozdwojone pojawia się natomiast w sytuacji, gdy dwoje rodziców deklaruje sprzeczne oczekiwania wobec dziecka, które wie, że cokolwiek zrobi, spotka się z odrzuceniem jednego z nich. Jeśli ten rodzaj komunikacji dominuje w kontaktach rodziców z dzieckiem lub pojawia się często, ma bardzo destrukcyjny charakter i może prowadzić do ukształtowania osobowości schizoidalnej. Podwójne wiązanie nie ogranicza się do relacji rodzinnych, występuje również często w innych systemach, na przykład zawodowych czy partnerskich.", "Koncepcje Batesona wykorzystał w swojej pracy Paul Watzlawick (1921-2007), psychoterapeuta rodzin, związany z Mental Research Institute w Palo Alto. Podkreślał on, że komunikację zawsze tworzy zarówno przekaz treści, jak i towarzyszące mu relacje w rodzinie czy grupie. Jego podstawową tezą było stwierdzenie, że człowiek nie może się nie komunikować [6]. Na tej bazie powstał model komunikacji nazywany interpersonalnym lub orkiestralnym [7]. Model orkiestralny był wynikiem badań nad rodzinami, jednakże na analogicznych zasadach działają również inne grupy edukacyjne, czy organizacyjne. Tworzą one systemy, w których ludzie uczestniczą, przyjmując obowiązujące w nich reguły zachowań. W tej perspektywie, wszystko jest komunikacją, a co za tym idzie – nie ma możliwości jej zaprzestania. Ludzie komunikują się więc również, gdy jedynie przysłuchują się innym, milczą i nie odpowiadają albo dają radykalnie wyraz temu, że nie chcą dalej uczestniczyć w wymianie zdań i opuszczają dyskutującą grupę. Trzeba przy tym pamiętać, że zamierzona nieobecność może być ważnym sygnałem, jednakże w komunikacji grupy nie uczestniczy człowiek, który zupełnie rezygnuje z fizycznej obecności w niej.", "W tym ujęciu, istnienie obserwatora badającego komunikację w sposób zdystansowany i w pełni obiektywny nie jest możliwe. Wynika to stąd, że będzie on zawsze miał jakieś własne zdanie na temat zachodzących interakcji. Ponadto obecność dodatkowego świadka sprawia, że bierze on udział w procesie komunikowania, nawet gdy stara się w niego nie ingerować bezpośrednio. Teza głosząca ciągłość i nieodwołalność komunikacji była również wielokrotnie krytykowana. Jak słusznie zauważa np. Janet Beavin Bavelas, milczenie lub zawieszenie głosu bywa wprawdzie uważane za wyrażenie niechęci, jednak ta opinia nie musi okazać się prawdziwa [8].", "Komunikowanie w rodzinie czy grupie przebiega symetrycznie albo komplementarnie. W pierwszym przypadku podział władzy pozostaje w równowadze, w drugim – występuje w nim zróżnicowanie. Watzlawick nie oceniał żadnego z tych układów, uznając, że dopóki stanowią one zharmonizowaną całość, w której wszyscy czują się bezpieczni, należy je uznać za właściwe rozwiązania. Każdy system, zwłaszcza rodzinny, ma bardzo duży wpływ na jego uczestników, także wówczas, gdy odrzucają jego zasady. Konflikt nie zawsze ma charakter negatywny, czasami tylko dzięki niemu rodzina może znaleźć nową, bardziej adaptacyjną formułę współistnienia. Transformacja funkcjonowania systemu dokonuje się w procesie przeformułowania, które polega na zmianie perspektywy i zdystansowaniu się wobec konfliktu. W tej sytuacji kluczem staje się dostrzeżenie tego, że inni ludzie mają prawo do własnych poglądów i upodobań, a nawet zarzutów względem siebie, nie mają jednak prawa do krzywdzenia innych. Przeformułowanie wymaga wyjścia poza własne irracjonalne i niedojrzałe wyobrażenia o świecie, dlatego Watzlawick nazywał ten proces budzeniem ze snu i otwieraniem oczu na otaczającą rzeczywistość [9]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 901, "subject": "Komunikacja międzypokoleniowa", "paragraphs": ["Problemem komunikacyjnym we współczesnym świecie stało się nie tylko zderzenie wielu kultur, lecz także różnych pokoleń, które mówią innymi językami i uważają odmienne wartości za ważne. Kwestia komunikacyjnego porozumienia tych generacji jest ważna nie tylko w kontekście funkcjonowania rodzin, lecz także na rynku pracy, w obszarze którego spotykają się ich przedstawiciele. Na znaczącą zmianę w tej perspektywie jako pierwsza zwróciła uwagę Margaret Mead (1901-1978), która wyróżniła trzy typy kultur, różniące się rodzajem przekazu dostępnej w nich wiedzy [1].", "Typ pierwszy, określony jako kultury postfiguratywne odnosi się do społeczeństw o charakterze tradycyjnym, w których życie kolejnych pokoleń w zasadzie nie różni się od siebie, a dzieci w swoim rozwoju podążają drogą dziadków i rodziców. W takich społecznościach wiele wysiłku poświęca się na zachowanie niezmiennej ciągłości przekazu, a najważniejszych wzorców postępowania i komunikowania dostarcza przeszłość, natomiast zmiany, zwłaszcza radykalne, są postrzegane jako zło. Utrzymanie trwałości zapewnia nauczanie dzieci przez przedstawicieli starszych pokoleń, uznanych za autorytety i najważniejsze źródło wiedzy. Kultury postfiguratywne opierały się w dużej mierze na przekazie ustnym (oralnym). Pieczołowicie są w nich przechowywane modele tradycyjnych zachowań i związanego z nimi obrazowania świata. Kultury tego typu mogą istnieć tylko wówczas, gdy opierają się na trzech współistniejących ze sobą generacjach.", "Typ drugi, występujący stosunkowo rzadko, nazywany kulturami kofiguratywnymi, opiera się na więzach rówieśniczych i jest nakierowany na przetrwanie w teraźniejszości. W tym układzie autorytet starszych pozostaje niekwestionowany, jednakże nie oni przekazują wiedzę następnym pokoleniom. Rozpad systemu postfiguratywnego powodują czynniki zewnętrzne, takie jak katastrofy naturalne (np. wybuchy wulkanów, powodzie, epidemie), konflikty wojenne, czy przewroty polityczne i religijne. Wydarzenia te przyczyniają się do rozdzielenia generacji żyjących do tej pory wspólnie, wymuszonego przez nagłą śmierć starszych lub konieczność migracji młodych. W systemach kofiguratywnych zaznacza się brak dziadków, reprezentujących przeszłość, która bezpowrotnie minęła. Dlatego też transmisja wiedzy kulturowej się „spłaszcza”, a dzieci, podobnie jak dorośli, którzy znaleźli się w sytuacji dla siebie bezprecedensowej, uczą się wzajemnie od siebie. W konsekwencji, może dominować wśród nich wiele sprzecznych poglądów. Kultury kofiguratywne mają tendencję do przekształcania się z czasem w model postfiguratywny.", "Zupełnie nowym modelem są kultury prefiguratywne, nazywane przez Mead także „kulturami zagadkowych dzieci”. Wśród przyczyn ukonstytuowania tej transformacji autorka wymienia: szybkość zachodzących zmian, rozkład rodziny, upadek kapitalizmu, rozwój technologii, a także rozpad pierwotnych założeń cywilizacji Zachodu. Autorka zaznaczyła, że typ ten pojawił się w świecie, w którym dominuje właściwie jedna kultura, a w każdym razie jeden wzorzec cywilizacji technologicznej, zintegrowanej dzięki wspólnym zagrożeniom i wiedzy. Wprawdzie władza ciągle jest w rękach średniego pokolenia, jednakże decydujące znaczenie zdobywają reprezentanci młodych, którzy urodzili się już w świecie innowacji technicznych, kształtujących potencjał nowych modeli komunikacji. To oni uczą starsze pokolenia technologii i są grupą mediującą w życiowych wyzwaniach. W ich oczach wszyscy stają się równi i do siebie podobni. Sytuacja ta nie ma żadnego odpowiednika w przeszłości, dlatego na tej drodze nie znajdziemy pewnych prognoz dotyczących kulturowego rozwoju. Typ prefiguralny jest nastawiony na budowanie przyszłości i świata, którego nie znamy.", "W pewnym sensie wszystkie powojenne pokolenia w jakimś stopniu reprezentowały status zagadkowych dzieci. Przedstawiciele dwóch pierwszych generacji tego ciągu, czyli pokolenie baby boomers (urodzeni w latach 1946-1964) i pokolenie X (urodzeni w latach 1965-1979), pojawili się wprawdzie na świecie jeszcze przed największą rewolucją technologiczną, jednak to oni z zaangażowaniem ją tworzyli [2]. Ludzi z grupy baby boomers cechuje duży optymizm i osobista aktywność. Praca, podobnie jak rodzina, stanowi dla nich wartość samą w sobie. Zmianę traktują z dużą ostrożnością, chociaż jej nie wykluczają. Lubią działać zgodnie z wypracowanymi standardami. Oczekują systematycznego feedbacku, by móc ulepszać swoje umiejętności w określonym zawodzie. Preferują współpracę w tradycyjnych grupach, którymi zarządzają zdecydowani liderzy. W kontaktach cenią sobie zachowanie pewnego dystansu oraz panowanie nad emocjami. Preferują konwencjonalne zasady komunikacji. Nawet jeśli reprezentanci tego pokolenia opanowali narzędzia sieciowe (mają swe konta w mediach społecznościowych, z którymi dobrze sobie radzą, korzystają ze smartfonów, opłacają rachunki w internecie, realizują e-recepty, zamawiają w sieci miejsca noclegowe czy zakupy itp.), jednak ciągle wolą bezpośredni kontakt. Dlatego mogą nie ufać propozycjom składanym w sieci, a także procedurze spotkań, choćby biznesowych, organizowanych w przestrzeni wirtualnej, należy jednak przypuszczać, że okres pandemii znacząco wpłynie na zmianę tych przekonań.", "Douglas Coupland nazwał kolejne pokolenie generacją X, dla podkreślenia jej zagadkowości [3]. Dziś już wiadomo, że jej reprezentanci wysoko cenią osobistą niezależność, a także samodzielność w zdobywaniu wiedzy. Dostrzegają wartość zmiany w rozwoju osobistym i w karierze. Praca bywa całym ich życiem. Oczekują od lidera kompetencji coachingowych, a także tego, że będzie on chciał skorzystać z ich umiejętności, doceniając je i na bieżąco udzielając informacji zwrotnej. Chociaż ludzie ci pamiętają życie bez internetu, w większości bardzo skutecznie posługują się zawodowo narzędziami sieciowymi, prowadzą też ożywioną działalność na portalach społecznościowych, a szczególnie na Facebooku, traktując go również jako miejsce spotkań towarzyskich. Współczesna technologia stała się odkryciem ich życia, a także symbolem awansu po transformacji ustrojowej, która nastąpiła w latach dziewięćdziesiątych XX wieku, dlatego dobrze się do niej zaadaptowali. Mimo to, bardzo sobie cenią tradycyjne ramy komunikowania [4], [5], [6].", "Pokolenia, o których tu mowa, zbudowały społeczeństwo informacyjne, natomiast generacje kolejne traktują nowe technologie jako integralny element codziennej egzystencji, a ich preferencje komunikacyjne ciągle się kształtują (zob. Wzory komunikacji millenialsów i post-millenialsów ). Ciągłym przemianom ulega również struktura społeczna, w której system rodzinny traci swoje tradycyjne znaczenie. Już pod koniec lat osiemdziesiątych XX wieku Michel Maffesoli zapowiadał powrót trybalizacji, czyli społeczności plemiennych, realizowanych jednak na nowych zasadach [7]. Uważał on, że współczesnymi plemionami będą wspólnoty młodych, które zastąpią dotychczasowe społeczności w cywilizacji Zachodu, dzięki czemu stanie się ona bardziej multikulturowa i wieloetniczna, a zarazem umożliwiająca realizację swobodnego rozwoju każdej jednostki. Do charakterystyki nowych plemion miały należeć: witalizm i niechęć do politykowania, a jednocześnie spontaniczność i czasowość, czy wręcz chwilowość wyborów, dotycząca życiowych ról, grup przynależności, czy preferowanych zachowań.", "Jedną z przyczyn tej społecznej transformacji Maffesoli upatrywał w zaniku tradycyjnych wzorców komunikowania, a zarazem braku jego nowych modeli, odpowiadających wyzwaniom przyszłości. Pisał: „Nowoczesność, mnożąc możliwości relacji społecznych, opróżniła je po części z wszelkich realnych treści. Było to w szczególności cechą nowoczesnych metropolii i wiemy dobrze, że proces ten nie pozostawał bez znaczenia dla samotności w tłumie, o której tyle już naopowiadano” [8]. Maffesoli miał w swoich przewidywaniach wiele racji, jednak w życiu i poglądach przedstawicieli generacji młodych oprócz dążenia do wolności i indywidualizmu, ujawniły się też mroczne strony, choćby związane ze wspomnianym przez niego doświadczeniem samotności, alienacji i niemożności porozumienia, a kwestia wypracowania nowych szlaków komunikacyjnych w rzeczywistości on- i offline pozostaje ciągle otwarta i pełna nierozwiązanych problemów."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 899, "subject": "Wzory komunikacji millenialsów i post-millenialsów", "paragraphs": ["Istotne zmiany w komunikacji kulturowej zaznaczyły się wraz z pojawieniem się pokolenia Y, czyli millenialsów (urodzeni w przedziale od końca lat siedemdziesiątych do początku lat dziewięćdziesiątych XX wieku, w Polsce w latach 1980-1999), które pozostaje nierozłącznie związane z cywilizacyjną rewolucją cyfrową [1], [2]. Jego przedstawiciele byli wychowywani bezstresowo, dlatego są skłonni uznawać przestrzeganie rozmaitych zasad za zbędne i dyskomfortowe. Trudno przyjmują krytykę. Chcą wierzyć, że wszyscy, chociaż na różne sposoby, mogą zwyciężać w danej sytuacji. Reprezentanci tej generacji preferują pracę wielozadaniową. Szukają przede wszystkim zajęć, które ich interesują. Są gotowi do przemieszczania się, a nawet migracji, by realizować satysfakcjonującą, ich zdaniem, karierę zawodową. Dobrze znają języki, a zwłaszcza angielski. Transformację uważają za część życia. Zamiast słuchać szefa, wolą przeczytać skomplikowaną instrukcję obsługi. Oczekują szybkiej informacji zwrotnej. Często nie są zainteresowani karierą w zhierarchizowanej firmie, gdzie musieliby zaczynać od początku i piąć się przez kolejne stanowiska. Szukają nowych wyzwań, nawet jeśli są one obarczone ryzykiem i niestałe. Przedstawiciele pokolenia Y oczekują od swojego lidera, że będzie się uczył i dyskutował wraz z nimi. Przez pracodawców bywają uważani za pokolenie nielojalne, ponieważ nie szukają stabilizacji w tradycyjnym rozumieniu i często nie chcą podpisywać długich umów.", "Millenialsi szczególnie cenią indywidualne i spersonalizowane podejście, umiejętność wyrażania emocji, których wstydzą się lub nie umieją zamanifestować starsi, chociaż i Y-ki nie zawsze radzą sobie z tym wyzwaniem. Angażują się w projekty społeczne. Ich życie w dużej mierze toczy się w sieci. Brak reakcji, na przykład lajków, może ich peszyć i powodować wycofanie z kontaktu. Niestety, sami nie zawsze udzielają feedbacku. Badania poświadczają, że polskich millenialsów wiele łączy z przedstawicielami generacji baby boomers i X [3], [4] (zob. Komunikacja międzypokoleniowa ). Reprezentanci wszystkich wspomnianych pokoleń wykorzystują bowiem połączenia sieciowe do pracy lub rozrywki, sprawnie posługują się smartfonami lub innymi narzędziami umożliwiającym połączenie z internetem, a jednocześnie bezpośredni kontakt stanowi dla nich ciągle fundamentalną wartość.", "Niezwykle trudno przedstawić grupę najmłodszych millenialsów, urodzonych na przełomie wieku XX i XXI, a także później i nazywanych generacją Z, post-millenialsami, „cyfrowym pokoleniem”, a także generacją C (connect, communicate, change), „pokoleniem @”, czy „pokoleniem N” (net). Przedstawiciele tej grupy nie znają świata bez internetu, a Polacy urodzeni w tym okresie nie pamiętają czasu, kiedy nasz kraj nie stanowił części Unii Europejskiej. Prowadzą równoległe życia na forach społecznościowych i w grach. Nie widzą różnic między życiem on- i offline. Są nastawieni na automatyzację, którą traktują jako naturalny proces. Chętnie uczą się sami i przy wsparciu technologicznych narzędzi, a także alternatywnych metod. Nie lubią klasycznych lekcji i wykładów. Niezwykle za to cenią sobie elastyczny czas pracy i niekonwencjonalne zajęcia. Jak każde młode pokolenie, również generacja post-millenialsów wypracowała własny język, często bardzo specjalistyczny, np. związany z praktykami informatycznymi, którego nie rozumieją starsze pokolenia.", "Reprezentanci tego pokolenia mają świadomość, że stoją przed wieloma wyzwaniami, wywodzącymi się również spoza rzeczywistości cyfrowej, które mogą przyczynić się do katastrofalnego rozwoju wydarzeń na świecie. Noreena Hertz, ekonomistka, prof. University College London, wskazuje, że wielu młodych ludzi ma dzisiaj poczucie konieczności podjęcia walki o przetrwanie w świecie rządzonym przez strach. Jest to lęk przed bezrobociem, długami, zmianami klimatycznymi, wojną, migracją, a obecnie należałoby jeszcze dodać: epidemiami i nieoczekiwanymi wydarzeniami oddziałującymi w skali globalnej. Hertz nazwała tę generację „pokoleniem K”, nawiązując do postaci Katniss Everdeen, bohaterki książki \"Igrzyska śmierci\" autorstwa Suzanne Collins [5].", "Źródło: Salesforce.org, Professor Noreena Hertz, Generation K: How to Engage the Post-Millennials, 29.11.2018 (dostęp 10.09.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=ZC3SvAnADss.", "Natomiast Klaus Hurrelmann i Erik Albrecht określili pokolenie post-millenialsów „generacją Grety”, nawiązując do działań Grety Thunberg walczącej o wprowadzanie ekologicznych rozwiązań na świecie [6]. W swojej książce oparli się oni na badaniach przeprowadzonych w Niemczech. Zgodnie z nimi, post-millenialsi są stosunkowo nieliczni w porównaniu do starszych pokoleń, a także podzieleni w swych przekonaniach. Mimo, że jest wśród nich wielu zwolenników wielokulturowego otwarcia, znaczące grono sprzyja również hasłom populistycznym i nacjonalistycznym. Post-millenialsi dobrze radzą sobie w rzeczywistości cyfrowej, traktując ją jako naturalną przestrzeń komunikacji i wymiany wiedzy, natomiast rzadko korzystają z radia czy telewizji. Nie wierzą politykom, organizują własne projekty i protesty. Rzecz znamienna, oczekują takiego procesu edukacji, dzięki któremu będą mogli lepiej komunikować się i współpracować w sieci. Swój głos uważają za równoważny z sądami starszych pokoleń.", "Można więc stwierdzić, że generacja post-millenialsów łączy obecnie w swoim światopoglądzie dwie postawy, które na pierwszy rzut oka mogą wydawać się sprzeczne. Jedna z nich wiąże się z komunikowaniem przeniesionym do przestrzeni cyfrowej, w czym nie mają sobie równych, ale która też sprawia, że młodzież nie radzi sobie z bezpośrednim kontakcie tak dobrze jak poprzednie pokolenia. Natomiast druga wynika z lęku spowodowanego narastającymi zmianami o zasięgu globalnym i szukaniem swojego miejsca w świecie, a także własnego wzorca powrotu do natury. To, w jaki sposób post-millenialsi uporają się z obecną traumą i wyzwaniami nadchodzącej epoki, a także wypracują nowe sposoby porozumiewania się i negocjowania opozycyjnych stanowisk, w dużej mierze określi także życie następnych pokoleń przyszłości."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 902, "subject": "Komunikacja z chatbotem", "paragraphs": ["Największą rewolucją we współczesnej komunikacji stały się kontakty ze światem programów i maszyn, możliwe dzięki wprowadzeniu chatbotów, czyli wirtualnych programów wykonujących czynności kojarzone z działaniami ludzi. Zazwyczaj określa się je mianem \"agentów\". Są one znacznie bardziej autonomiczne niż programy asystujące, które jedynie towarzyszą ludziom w sieci. Niektóre z tych programów posługują się głosem, chociaż ze względu na ciągle jeszcze niską jakość syntezatorów mowy, aspekt ten nie jest rozpowszechniony. Zadania agentów mają różny charakter – coraz częściej spotykamy boty w oprogramowaniu banków lub bibliotek, gdzie pośredniczą one w pierwszym kontakcie z klientami, kierując ich na właściwe miejsce i przekazując podstawowe informacje. Programy projektują trasy podróży, udzielają konsultacji, przygotowują prognozy pogody, piszą artykuły prasowe, a nawet przeprowadzają rekrutację pracowników. Ciekawe są też przypadki chatbotów wykorzystywanych w psychoterapii. Problem ten stał się obecnie przedmiotem wielu badań [1], [2], [3], [4]. Nie sposób w tym miejscu przedstawić historię wszystkich istotnych chatbotów, toteż przypomnę tylko kilka szczególnie znanych.", "W 1966 roku Joseph Weizenbaum, profesor Massachusetts Institute of Technology zaprojektował program noszący nazwę ELIZA. Był to stosunkowo prosty program, który prowadził terapeutyczne rozmowy z ludźmi. Bardzo ważnym aspektem skryptu tego chatbota stała się umiejętność przekształcania frazy wpisanej przez człowieka i odnajdywania w niej słów kluczy, używanych potem w konstruowaniu odpowiedzi. Tak zmodyfikowane i odzwierciedlone treści dawały odbiorcy poczucie zrozumienia jego przekazu. Weizenbaum informował wszystkich o charakterze i ograniczeniach programu. Mimo to, wiele osób rozmawiających z ELIZĄ miało jak najlepszą opinię na temat udzielanej przez nią \"pomocy\". Rozmówcy czuli się wysłuchani i w tym upatrywali największą wartość swej „terapii”. Co szczególnie interesujące, odbioru ELIZY nie determinowało jej żeńskie imię, gdyż wiele osób odbierało ją jako neutralną postać, a niektóre pacjentki przenosiły na nią nawet postać swojego ojca.", "W 1995 roku Richard Wallace rozpoczął pracę nad systemem A.L.I.C.E. (Artificial Linguistic Internet Computer Entity), dla którego ELIZA była inspiracją (https://alicebot.org/). Wallace doszedł do wniosku, że większość codziennej wymiany zdań opiera się na określonym zestawie bardzo prostych sformułowań, dlatego przygotował początkowo 40 000 wyrażeń, które uznał za reprezentatywne dla podstawowej komunikacji [5]. Taki zasób okazał się wystarczający, by wciągnąć człowieka do rozmowy. Działanie A.L.I.C.E. opiera się nie tylko na odzwierciedleniu, jak w przypadku ELIZY, gdyż nowy chatbot ma również własny repertuar niekonwencjonalnych, a nawet intrygujących fraz. Wprawdzie program ten nie został przeznaczony do terapii, jednak jego błyskotliwe reakcje dają do myślenia i inspirują uczestników rozmowy. Spike Jonze przyznał, że właśnie ten system podsunął mu pomysł nakręcenia filmu \"Her\" (\"Ona\") z 2013 roku. Program A.L.I.C.E. ciągle się uczy i trzykrotnie otrzymał Nagrodę Loebnera, przyznawaną chatbotom, które prowadzą rozmowę w najbardziej „ludzki” sposób.", "Chatbot Ellie został zaprojektowany przez inżynierów DARPA (Defense Advanced Research Projects Agency), czyli Agencji Zaawansowanych Projektów Badawczych w wyniku badań prowadzonych w 2009 roku w grupie pacjentów ze stresem pourazowym. Wcześniej \\( 28\\% \\) badanych przyznało się do okłamywania pracowników służby zdrowia lub nieinformowania ich o problemach i wydarzeniach, które mogły mieć znaczący wpływ na przebieg ich choroby. Po skutecznych działaniach z weteranami, także w kontekście ich problemów seksualnych, chatbot Ellie został wdrożony do pracy z osobami chorymi na raka. Zadaniem algorytmu jest obserwacja 66 punktów na twarzy pacjenta, które pomagają zidentyfikować mikroekspresje, mogące świadczyć na przykład o stresie albo o kłamstwie. Program zwraca też uwagę na tempo mowy i tembr głosu, reagując stosownie do nich. Dzięki skrupulatnej analizie, jego interakcje są uznawane przez większość pacjentów za wyjątkowo adekwatne względem poruszanych przez nich problemów.", "Celem aplikacji Woebot (https://woebothealth.com/) stało się wspieranie ludzi w depresji, a także innych chorobach psychicznych. Program nie tylko przeprowadza proste rozmowy, które mogą pomóc w pierwszym rozpoznaniu problemów, lecz także na co dzień wykazuje troskę o swoich odbiorców, na przykład pytając o to, jak się czują. Firma deklaruje, że „Ludzie mogą używać Woebota samodzielnie lub w połączeniu z tradycyjną rozmową, lub terapią medyczną, aby uzyskać niezawodne i pełne współczucia wsparcie, dokładnie wtedy, gdy tego najbardziej potrzebują”.", "3 sierpnia 2011 roku w teście Turinga wziął udział Cleverbot Rollo Carpentera. W głosowaniu oddano 1334 głosy, z których \\( 59,3\\% \\) uznało jego reakcje za ludzkie. Jak przypomina Aleksandra Przegalińska [6], ludzie uzyskują na ogół w takim teście \\( 63,3\\% \\). 7 czerwca 2014 roku test Turinga zaliczył chatbot Eugene Goostman, symulujący osobowość trzynastolatka z Ukrainy, zaprojektowany przez Władimira Wiesiełowa, Jewgienija Demczenko i Siergieja Ulasena. W tym przypadku ważne znaczenie miało skrupulatne określenie \"osobowości\" programu, prowadzącego wiarygodne rozmowy z pozycji nastolatka, który nie wie jeszcze wszystkiego i może się mylić. W tym samym roku inny program, nazwany Samantha West i pełniący funkcję telemarketera, spierał się z rozmówcami, zaprzeczając, że jest chatbotem (https://newsroom.cisco.com/feature-content?type=webcontent&articleId=1833794).", "Ludzie zazwyczaj dobrze oceniają komunikację z chatbotami i antropomorfizują je, uznając, że wreszcie znalazł się ktoś skupiony na swoim rozmówcy, słuchający go z uwagą, a nawet empatią, zamiast powszechnych nudy i rozproszenia. Jednocześnie fenomen interakcji z chatbotami pokazuje pewną słabość naszej kultury, w której coraz częściej zapomina się, że komunikowanie polega nie tylko na zrozumiałym przekazie treści, lecz także na relacji wyrażającej się w uważnym słuchaniu. Jak słusznie zauważa Sherry Turkle, tak wysoka ocena chatbotów może budzić również niepokój, ponieważ jedną z jej konsekwencji jest znamienna symetria – personalizując program, depersonalizujemy samych siebie [7]."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 903, "subject": "Ciało awatara w komunikacji", "paragraphs": ["Erving Goffman pokazał, że ludzie w ciągu swojego życia odgrywają różne społeczne role – rodzinne, czy zawodowe, które w dużej mierze określają ich sposób bycia i ubioru w danej sytuacji [1]. Rzeczywistość wirtualna otwarła nową przestrzeń dla teatru życia codziennego i wygenerowała kreacje, w których szczególną rangę zyskały awatary [2], [3]. Słowo to wywodzi się z sanskrytu (avatāra) i w tradycji hinduistycznej oznacza wcielenie bóstwa przyjmującego postać człowieka, zwierzęcia lub ich hybrydy. W świecie elektronicznym awatar zostaje wybrany przez użytkownika, który posługuje się tym wizerunkiem na przykład w grach, czy na forach społecznościowych. Wykorzystanie wirtualnej postaci w komunikacji z jednej strony ujawnia osobowość danego internauty, z drugiej – pozostaje swoistą maską, za którą ukrywa się rzeczywisty człowiek, dlatego Anna Tylikowska nazywa ten stan „e-maskacją” [4]. Ta diagnoza nie wyczerpuje jednak opisu funkcji awatara, które sięgają daleko poza sferę oddziaływania obrazu, gdyż jego użycie wydatnie wiąże się z kreowaniem tożsamości użytkowników sieci, a także z ich postrzeganiem własnego ciała.", "Podkreśla to Sidey Myoo (Michał Ostrowicki), który rozwija \"filozofię awataryzmu\", będącą refleksją dotyczącą kondycji i komunikowania w \"elektronicznej antroposferze\" [5]. Wyróżnikiem tego stanu pozostaje immersyjność i hybrydalność. Zauważmy, że jednym z elementów oswajania komunikacji w rzeczywistości wirtualnej stało się wprowadzenie do tego obszaru szumu charakterystycznego dla zewnętrznego świata (zob. Cybernetyczne ujęcie komunikacji ). Wprawdzie może on przeszkadzać w interakcjach, jednak gdy otoczenie zostaje go pozbawione, komunikowanie staje się nienaturalne lub wręcz niemożliwe. Tom Boellstroff zwraca uwagę, że przestrzeń gier jest pełna szumów – mogą to być odgłosy natury, na przykład wiatru, czy płynącej rzeki, gwar rozmowy, szczęk oręża, wystrzały rakiet, a także muzyka [6]. W takim kontekście komunikowanie nabiera cech \"naturalnych\" i integruje biologiczne ciało człowieka z jego elektroniczną inkarnacją. Tym samym, awatary są ważnym czynnikiem cyborgizacji, w procesie której przestrzenią działalności i nabywania doświadczeń staje się świat wykreowany przez zaawansowaną technologię.", "Obecnie awatary gwarantujące pełną anonimowość są wykorzystywane znacznie rzadziej niż jeszcze dziesięć lat temu. Z pewnością zdecydowało o tym słabnące zainteresowanie przestrzenią Second Life'u, a także wielka popularność platform społecznościowych, w przestrzeni których ludzie występują zazwyczaj pod własnym imieniem i nazwiskiem lub nickiem, kojarzonym przez większość znajomych danej osoby. Jednak jak słusznie zauważa Sherry Turkle, młodzież często traktuje swoje profile jako rodzaje awatarów [7].", "Według Aleksandry Przegalińskiej, nawet typowy awatar nie powinien być uważany wyłącznie za wirtualną reprezentację, gdyż odgrywa on ważną rolę w procesie nawiązywania społecznych relacji oraz ujmowania własnej cielesności [8]. Dzięki temu, staje się on specyficznym narzędziem „kinestetycznym”, które pozwala rozpoznawać, a także kreować przestrzeń cyfrową, by stała się ona bardziej realna i oswojona. Jednocześnie przyjmowanie formy określonego awatara może wpływać w istotny sposób na niewirtualną egzystencję. Doświadczenia, będące udziałem kogoś, kto występuje pod postacią awatara, nie są fikcją, lecz faktycznymi przeżyciami – uczą nawiązywania relacji, wzbudzają emocje, wzbogacają osobisty zbiór wspomnień. W postaci awatara ludzie prowadzą więc życie, w którym doświadczają przygód i spotykają inne osoby, pojawiające się także w niezwykłych wirtualnych formach, z którymi, być może, nigdy nie zetknęliby się w innym miejscu.", "Turkle opowiedziała historię dziewczyny, która straciła nogę w wypadku samochodowym i miała związane z tym liczne kompleksy [9]. Stworzyła ona dla siebie awatara posługującego się protezą, który pomógł jej w nawiązaniu związków także poza siecią. Natomiast Nick Yee i Jeremy Bailenson prowadzili badania społecznych zachowań ludzi, posługujących się atrakcyjnymi awatarami. Okazuje się, że miało to swoje pozytywne przełożenie na budowanie obrazu samego siebie, a w konsekwencji również na kontakty nawiązywane poza internetem, co badacze nazwali efektem Proteusza [10].", "Można więc stwierdzić, że awatar jako jedna z istotnych ról człowieka, bierze udział w przetwarzaniu osobistych doświadczeń i wzmacnianiu ich rezultatów. Istnienie awatarów przebiega oczywiście inaczej niż biologiczne życie ludzi. Postaci z gier, czy alternatywnych światów wirtualnych zmieniają się niezależnie od upływu czasu lub nie zmieniają się wcale. Użytkownicy portali społecznościowych pokazują tylko takie transformacje, jakie są gotowi ujawnić w sieci. Problemy pojawiają się nie tylko wtedy, gdy profil, czy awatar traci spójność z doświadczeniami człowieka, który ich używa, lecz także, gdy nie wywołuje on pożądanego odzewu komunikacyjnego, choćby w postaci lajków, komentarzy i udostępnień. Kiedy te nie następują, wzrasta poczucie wyobcowania. Jeszcze mocniej uderzają obraźliwe i szkalujące uwagi. W takiej sytuacji zazwyczaj okazuje się, że w świecie wirtualnym bywamy równie samotni jak w obszarze biologicznego terytorium.", "W cyborgicznej przestrzeni awatarów współistniejące struktury mapy i terytorium (zob. Mapa i terytorium ) ulegają zasadniczym transformacjom. Wynika to przede wszystkim z faktu, że rzeczywistość wirtualna, która jawiła się początkowo jako przedłużenie poznawczych map, zyskuje właśnie terytorialną autonomię. Wypracowanie nowych narzędzi komunikacyjnych właściwych dla tej sytuacji, stanowi obecnie jedno z najważniejszych kulturowych wyzwań."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 905, "subject": "Komunikacja w \"dolinie niesamowitości\"", "paragraphs": ["W 1970 roku japoński inżynier Masahiro Mori (ur. 1927) został zaproszony na dyskusję poświęconą problematyce robotów. Opublikował potem podsumowujący swoje wystąpienie esej pod tytułem \"Dolina niesamowitości\" [1]. Badacza interesowały emocjonalne reakcje ludzi na postaci robotów. Nie prowadził on wcześniej żadnych badań na ten temat, jak sam mówił – jego hipoteza była całkowicie intuicyjna i wynikała z jego własnych obaw, trapiących go, gdy w dzieciństwie przyglądał się figurom woskowym [2]. Zdaniem uczonego, ludzie reagują bardzo pozytywnie na postaci robotów. To życzliwe zainteresowanie rośnie wraz z antropomorfizacją maszyn. Kiedy jednak te ostatnie stają się zbyt naturalistyczne w naśladowaniu człowieka, podejście odbiorców nagle się zmienia, a ludzie odrzucają taką maszynę, zawieszając interakcję. Metafora \"doliny niesamowitości\" obrazuje właśnie tę radykalną zmianę nastawienia. Termin ten w języku angielskim pojawił się po raz pierwszy w książce Jasi Reinchard wydanej w 1978 roku [3].", "Należy wspomnieć, że na początku lat siedemdziesiątych XX wieku nikt nie traktował robotyki jako poważnej nauki, a Mori wspominał, że nawet studenci obawiali się o jego karierę. Nie porzucił jednak swojej pasji i w 1978 roku zaczął prowadzić regularne badania w tej dziedzinie, zainspirował też wielu innych naukowców. Na przykład jego uczniowie stworzyli dla Hondy robota ASIMO (Advanced Step in Innovative Mobility) nazwanego tak na cześć Isaaca Asimova (1920-1992) (https://asimo.honda.com/). ASIMO został zaprezentowany w 2000 roku, w 2018 projekt zamknięto. Robot ten mógł chodzić i biegać, nawiązywał kontakt z ludźmi, prowadził nawet orkiestrę symfoniczną. W 2003 roku premier Japonii zabrał go w podróż do Czech, gdzie ASIMO wystąpił w roli ambasadora wszystkich robotów, składając kwiaty pod pomnikiem Karela Čapka (1890-1938), by uhonorować w ten sposób pisarza, który jako pierwszy użył słowa „robot”. Mori wspomniał o ASIMO, podkreślając, jak trudne jest definiowanie robotów. Mówił: „Nie możesz zdefiniować robota. To jest jak próba zdefiniowania góry Fudżi. Jeśli strome zbocze nagle wyłania się z równiny, możesz narysować linię, żeby pokazać, gdzie zaczyna się góra; jednak góra Fudżi wznosi się stopniowo i nie można narysować takiej linii. Roboty są jak góra Fudżi. Trudno oddzielić to, co jest robotem, od tego, co nim nie jest. Asimo jest już blisko szczytu, więc każdy może z łatwością nazwać go robotem. Ale co ze zmywarką? Potrafi automatycznie myć naczynia, dlatego ją również można nazwać go robotem. Linia jest zamazana” [2].", "Dopiero w 2005 roku problematyka efektu „doliny niesamowitości” została podjęta przez akademickie grupy badawcze, które potwierdziły jej istnienie. Również współcześnie zostały przeprowadzone szczegółowe badania mające na celu ukazanie fizjologicznych reakcji ludzi na humanoidalne roboty. Osoby biorące udział w eksperymencie były poddawane m.in. elektromiografii (EMG), elektrokardiografii (EKG), badano je respirometrem (RSP), oraz sprawdzano aktywność elektrodermalną (EDA). Dodatkowo uczestnicy eksperymentu wypełniali kwestionariusz dotyczący opisu własnych przeżyć, a także oceny stopnia antropomorfizacji danego chatbota [4], [5]. Badania te raz jeszcze potwierdziły, że realistyczne postaci robotów budzą negatywne uczucia w przeciwieństwie do form stosunkowo prostych i mechanicznych, a także chatbotów. Nie udało się wprawdzie wskazać jednoznacznego źródła takiego odruchu, pozostaje jednak faktem, ze większość ludzi nie akceptuje takich postaci.", "Nie wszyscy badacze zgadzają się z hipotezą „doliny niesamowitości”. Jednym z jej przeciwników jest Hiroshi Ishiguro (ur. 1963), japoński uczony i wynalazca, który zbudował trzy androidy będące wiernymi kopiami jego samego, jego żony i kilkuletniej córki (https://eng.irl.sys.es.osaka-u.ac.jp/home). Przez swojego androida prowadzi on wykłady na uniwersytecie w Osace i występuje na międzynarodowych konferencjach. Jego maszynowa kopia mruga oczyma, porusza rękami, a nawet naśladuje oddychanie. Isiguro prowadzi systematyczne obserwacje reakcji swoich studentów i twierdzi, że nie są one wcale tak negatywne wobec robotów, jak zakłada Mori.", "Tak czy inaczej, robotyka rozwija się dziś bardzo dynamicznie [6], a eksperymenty związane z wytwarzaniem naturalistycznych robotów stanowią jedną z istotnych gałęzi technologii. Do szczególnie interesujących eksperymentów należy stworzona w 2010 roku w Hanson Robotics BINA 48, będąca prototypem mindclone’u, mającego umożliwić przeniesienie do sieci sobowtóra umysłu człowieka. BINA 48 otrzymała wspomnienia i przekonania Biny Aspen Rothblatt, żony Martine’a Rothblatta (obecnie: Martine Rothblatt), czerpie jednak dane również z sieci, co pozwala jej formułować treści niezależne od biologicznego prototypu [7].", "Źródło: The LifeNaut Project, Bina 48 Meets Bina Rothblatt - Part One, 27.11 2014 (dostęp 10.09.2010). Dostępne w YouTube: https://www.youtube.com/watch?v=KYshJRYCArE.", "Młodszą i znacznie bardziej znaną „siostrą” BINA 48 stała się Sophia, która otrzymała obywatelstwo Arabii Saudyjskiej od króla tego kraju, Salmana ibn Abd al-Aziza Al Su’uda, a przy okazji warto wspomnieć, że odwiedziła również AGH (https://www.hansonrobotics.com/?fbclid=IwAR0Tj9d4wHinOSv81LVFSqm7UVCVb9fUlKbcmtmQvVagWoL6Z7WhGpFfAhQ).", "Zbudowana w 2015 roku Aiko Chihara wygląda jak 32-letnia kobieta, ma 1,65 metra wzrostu (https://www.reuters.com/article/us-japan-robot-store-idUSKBN0NB1OZ20150420). Posługuje się językami japońskim, angielskim i chińskim, przygotowywana jest również wersja koreańska. Pełni funkcję recepcjonistki w tokijskich domach towarowych Mitsukoshi. Wita klientów w zwyczajowy sposób, opowiada o najnowszej ofercie i zachęca do kupowania. Nie wchodzi jednak jeszcze w interakcje z ludźmi i nie odpowiada na ich pytania. Docelowo Aiko ma opiekować się seniorami, można więc przypuszczać, że zostaną do jej programu wprowadzone również bardziej złożone elementy komunikowania. Wprowadzenie jej do pracy z seniorami stanowiłoby zresztą znamienny precedens, ponieważ do tej pory w domach opieki były wykorzystywane jedynie proste, mechaniczne roboty, budzące, jak wiadomo, dużą sympatię.", "Źródło: TIME, Robots Working In Elder Care | TIME, 28.08.2019 (dostęp 10.09.2020). Dostępne w YouTube: https://www.youtube.com/watch?v=SZTYyFNSL5o&feature=emb_logo.", "Z tego względu również inne instytucje korzystające z robotów zazwyczaj wolą ich prostsze formy. Na przykład w Japonii klientów Softbanku obsługują roboty Pepper, natomiast banku Mitsubishi – roboty NAO. Nie tylko witają one klientów i pomagają trafić do odpowiedniego miejsca, lecz także odpowiadają na pytania. Można jeszcze wspomnieć o eksperymentach firmy Boston Dynamics, która opracowuje roboty na zlecenie DARPA, mające znaleźć zastosowanie w armii. Pierwotnie maszyny kojarzyły się z czworonogami lub owadami. Jeden z ostatnich projektów o imieniu Atlas, jest potężny (waży 150 kg) i ma humanoidalne kształty, jednak ciągle wygląda raczej jak maszyna, w związku z czym budzi niekłamany podziw dla swoich możliwości i ciągle więcej sympatii, niż strachu.", "Poznanie fizjologicznego mechanizmu odczucia \"doliny niesamowitości\", które pozwoli na jej przekroczenie, może stać się warunkiem istotnej zmiany, w rezultacie której roboty zyskają zupełnie nowe miejsce w procesie komunikacji."], "definitions": []} {"field": "Nauki społeczne", "coursebook": "Komunikacja społeczna", "chapter": "Antropologia komunikacji w dobie nowych mediów", "subject_id": 904, "subject": "Komunikowanie w świecie VUCA", "paragraphs": ["Claude Shannon (1916-2001), twórca telegraficznego modelu komunikacji, uważał, że dostęp do informacji znosi niepewność (zob. Cybernetyczne ujęcie komunikacji ). Paradoksalnie jednak obecnie, kiedy jest on większy niż kiedykolwiek, trudno sobie wyobrazić możliwość kształtowania przewidywalnych modeli rozwoju cywilizacji. Jedną z odpowiedzi na komunikacyjny impas współczesności stał się model określony mianem \"świata VUCA\". Pojęcie to wprowadzili w 1987 roku Warren Bennis i Burt Nanus, przedstawiając nowy model przywództwa [1], [2].", "VUCA jest akronimem angielskich słów oznaczających:", "Metafora świata VUCA stosuje się nie tylko do wybuchu pandemii, ale też do wszelkich kryzysów, które obecnie się pojawiają. Określa również charakter życia w społecznej rzeczywistości rozdartej konfliktami „nowych plemion”, które okazały się znacznie mniej pokojowe niż prognozował to w latach osiemdziesiątych XX wieku Michel Maffesoli [3] (zob. Komunikacja międzypokoleniowa ). Podstawową potrzebą staje się więc nawiązanie współpracy z ludźmi, zrozumienie ich potrzeb, możliwości, a zarazem komunikacyjnych zwyczajów, zwłaszcza, że niezwykle ważnym wyzwaniem jest dzisiaj radzenie sobie z nadmiarem pojawiających się codziennie danych, w których trudno znaleźć porządek i zastosować właściwą interpretację.", "Działanie w takiej rzeczywistości bywa trudne, ponieważ większość aktywności wymuszonych przez nakładające się kryzysy zostaje podejmowana po raz pierwszy i – być może – jedyny, a niespodziewane zwroty akcji mogą wywoływać lęk, niezadowolenie, a nawet ataki paniki. Eksperci problematyki VUCA podkreślają, że w tej sytuacji konieczny okazuje się intensywny trening komunikacyjny, który przebiega zarówno w sieci, jak i poza nią. Obejmuje on nie tylko poznawanie nowych reguł, kodów i warunków komunikowania, lecz także praktykę elastyczności i tolerancji. W świecie VUCA dobrze radzą sobie zespoły, których członkowie umieją darzyć się zaufaniem, wykazują wzajemne zrozumienie, a jednocześnie potrafią wyjść poza gotowe, konwencjonalne wzorce porozumiewania się, analizując każdą sytuację od nowa. W tych warunkach pojawia się też nowy typ wyrazistego przywódcy, który potrafi przekonać innych do swoich decyzji i przedstawić im kolejne zadania w jasny sposób."], "definitions": []}