Science.gov

Sample records for kvantovoj teorii polja

  1. Application of Rough Set Theory for Choosing Optimal Location for Flotation Tailings Dump / Zastosowanie Teorii Zbiorów Przybliżonych Do Wyboru Optymalnej Lokalizacji Składowiska Odpadów Poflotacyjnych

    NASA Astrophysics Data System (ADS)

    Štirbanović, Zoran; Miljanović, Igor; Marković, Zoran

    2013-09-01

    Flotation tailings dumps represent a potential threat to the environment. To corroborate this, numerous environmental disasters have occurred worldwide in the past. Pollution caused by breaking of tailings dump dams and overflowing of hazardous materials is still present, after several decades, and continue to threaten the environment. This paper presents a method for determining the most appropriate location for the flotation tailings dump using rough set theory. The review of the criteria that influence the choice of flotation tailings dump location is given. Based on these criteria, an analysis and evaluation of the proposed locations for the flotation tailings dump are done using rough set theory and the most suitable location that meets all the requirements is suggested. Składowiska odpadów poflotacyjnych stanowią potencjalne zagrożenie dla środowiska naturalnego. Dla potwierdzenia, wymieniać można różnorakie katastrofy dla środowiska, które miały miejsce w przeszłości. Skażenie spowodowane przerwaniem tam zabezpieczających składowiska utrzymuje się nadal, nawet po upływie kilku dekad a przelewanie się materiałów niebezpiecznych wciąż stanowi zagrożenie dla środowiska. W pracy przedstawiono metodę wyboru najodpowiedniejszej lokalizacji składowiska odpadów poflotacyjnych w oparciu o teorię zbiorów przybliżonych. Zaprezentowano przegląd kryteriów w oparciu o które dokonuje się wyboru lokalizacji składowiska. W oparciu o powyższe kryteria, przeprowadzono analizę i ocenę proponowanych lokalizacji składowisk odpadów poflotacyjnych przy zastosowaniu teorii zbiorów przybliżonych i na tej podstawie dokonano wyboru odpowiedniej lokalizacji, spełniającej wszystkie powyższe kryteria.

  2. Mathematical Model of Forecasting the Formation of Sinkhole Using Salustowicz's Theory / Model Matematyczny Prognozowania Zapadlisk Przy Wykorzystaniu Teorii Sklepienia Ciśnień Sałustowicza

    NASA Astrophysics Data System (ADS)

    Strzałkowski, Piotr

    2015-03-01

    In area affected by old, shallow extraction in some cases sinkholes are formed, causing security issues in urbanized areas. Problem of working out deterministic forecast of this threat seems to be important and up-to-date. Mathematical model presented in this work let us predict the possibility of sinkhole formation. That prediction is essential for analyzing possibility of investments in such areas. Basing on presented work, it is also possible to determine dimensions of sinkhole. Considerations are based on known from literature Sałustowicz's theory, which is utilises Huber's solution of equation describing the stress state around elliptic void made in flat plate Początki eksploatacji górniczej na Górnym Śląsku sięgają XVIII stulecia. Dawna eksploatacja prowadzona na głębokościach nie przekraczających 80 m, do dziś generuje zagrożenia bezpieczeństwa powszechnego z uwagi na możliwość wystąpienia zapadlisk. Jak to wynika z pracy (Chudek i in., 2013), obszary pod którymi prowadzono w minionych latach płytką eksploatację zajmują znaczną powierzchnię śląskich miast, które w dalszym ciągu się rozbudowują. Dlatego problem występowania zapadlisk należy w dalszym ciągu uznać za ważny i aktualny. Duża liczba zapadlisk, ze zrozumiałych względów, jest wynikiem utraty stateczności płytkich wyrobisk korytarzowych. Istniejące metody prognozowania zapadlisk pozwalają głównie określać prawdopodobieństwo wystąpienia zapadliska. Jeśli wartość prawdopodobieństwa wystąpienia zapadliska jest większa od 0, wówczas należy się liczyć z zagrożeniem bezpieczeństwa terenu i co istotniejsze ludności. Taki sposób prognozowania wystąpienia zapadlisk nie daje jednoznacznej odpowiedzi na pytanie, czy teren objęty analizą jest rzeczywiście zagrożony. Dlatego istotnym jest stworzenie możliwości deterministycznego prognozowania tego typu deformacji. W tym kierunku zmierza propozycja autora pracy, w której wykorzystano teorię sklepienia ciśnień (Sałustowicz, 1956). Teoria ta znakomicie nadaje się do tego celu, gdyż jako jedyna z wielu w tym zakresie pozwala określić, czy pustka związana z wyrobiskiem znajduje się w stanie stateczności. Znane są bowiem przypadki, gdy płytkie wyrobiska górnicze, bez obudowy przez wiele lat pozostają w stanie nienaruszonym. W ramach pracy dokonano szczegółowych obliczeń pola strefy odprężonej nad wyrobiskiem, bez stosowania uproszczeń przyjętych przez autora metody. Stosując podobne założenia jak w innych, znanych z literatury rozwiązaniach, podano warunki, mówiące o tym kiedy gruzowisko skalne zapełni szczelnie pustkę, bez powstania pustki wtórnej, a kiedy pustka wtórna powstanie. Zależy to od wymiarów i głębokości lokalizacji pustki oraz własności górotworu nad pustką. Warunkiem wystąpienia zapadliska jest aby strefa odprężona, związana z pustką pierwotną lub wtórną osiągnęła wysokość, przy której obejmować będzie nadkład, zbudowany ze skał luźnych. W dalszej kolejności zaproponowano wzory umożliwiające określenie wymiarów zapadlisk. Wyróżniono przy tym dwa przypadki: • gdy strop pustki osiąga spąg nadkładu - wzór (15), • gdy strefa odprężona obejmuje swym zasięgiem luźne skały nadkładu - wzór (19). Dalszym etapem badań prowadzonych przez autora jest sformułowanie warunków, pozwalających stwierdzić, kiedy eksploatacja górnicza prowadzona pod pustką może wywołać jej samopodsadzenie, a w konsekwencji spowodować powstanie zapadliska na powierzchni. Prowadzone są również prace związane z utworzeniem oprogramowania komputerowego, wykorzystującego podane wzory i z weryfikacją rozwiązania w oparciu o przypadki znane z praktyki górniczej.

  3. An Estimation of Profitability of Investment Projects in The Oil and Gas Industry Using Real Options Theory / Ocena Opłacalności Projektów Inwestycyjnych W Przemyśle Naftowym Z Wykorzystaniem Teorii Opcji Realnych

    NASA Astrophysics Data System (ADS)

    Kosowski, Piotr; Stopa, Jerzy

    2012-11-01

    Paper discusses issues relating to the valuation of investment efficiency in the oil and gas industry using a real options theory. The example of investment pricing using real options was depicted and it was confronted with the analysis executed with the use of traditional methods. Indicators commonly used to evaluate profitability of investment projects, based on a discounted cash flow method, have a few significant drawbacks, the most meaningful of which is staticity which means that any changes resulting from a decision process during the time of investment cannot be taken into consideration. In accordance with a methodology that is currently used, investment projects are analysed in a way that all the key decisions are made at the beginning and are irreversible. This approach assumes, that all the cash flows are specified and does not let the fact that during the time of investment there may appear new information, which could change its original form. What is also not analysed is the possibility of readjustment, due to staff managment's decisions, to the current market conditions, by expanding, speeding up/slowing down, abandoning or changing an outline of the undertaking. In result, traditional methods of investment projects valuation may lead to taking wrong decisions, e.g. giving up an owned exploitation licence or untimely liquidation of boreholes, which seem to be unprofitable. Due to all the above-mentioned there appears the necessity of finding some other methods which would let one make real and adequate estimations about investments in a petroleum industry especially when it comes to unconventional resources extraction. One of the methods which has been recently getting more and more approval in a world petroleum economics, is a real options pricing method. A real option is a right (but not an obligation) to make a decision connected with an investment in a specified time or time interval. According to the method a static model of pricing using DCF is no longer used; an investment project is divided into a series of steps and after each one there is a range of possible investment decisions, technical and organizational issues and all the others called `real options'. This lets one take many different varieties of modyfiying a strategy while pricing the project. This also makes it possible to react to the changing inner and outer situation and introducing new information while accomplishing the investment project. Owing to those, the decision process is a continuous operation, what is an actual vision of a real investment project management in the petroleum industry.

  4. Seeking realistic upper-bounds for internal reliability of systems with uncorrelated observations

    NASA Astrophysics Data System (ADS)

    Prószyński, Witold

    2014-06-01

    From the theory of reliability it follows that the greater the observational redundancy in a network, the higher is its level of internal reliability. However, taking into account physical nature of the measurement process one may notice that the planned additional observations may increase the number of potential gross errors in a network, not raising the internal reliability to the theoretically expected degree. Hence, it is necessary to set realistic limits for a sufficient number of observations in a network. An attempt to provide principles for finding such limits is undertaken in the present paper. An empirically obtained formula (Adamczewski 2003) called there the law of gross errors, determining the chances that a certain number of gross errors may occur in a network, was taken as a starting point in the analysis. With the aid of an auxiliary formula derived on the basis of the Gaussian law, the Adamczewski formula was modified to become an explicit function of the number of observations in a network. This made it possible to construct tools necessary for the analysis and finally, to formulate the guidelines for determining the upper-bounds for internal reliability indices. Since the Adamczewski formula was obtained for classical networks, the guidelines should be considered as an introductory proposal requiring verification with reference to modern measuring techniques. Z teorii niezawodności wynika, że im większy jest nadmiar obserwacyjny w sieci, tym wyższy poziom jej niezawodności wewnętrznej. Biorąc jednakże pod uwagę fi zykalną naturę procesu pomiaru można zauważyć, że projektowane dodatkowe obserwacje mogą zwiększyć liczbę potencjalnych błędów grubych w sieci, nie podnosząc niezawodności wewnętrznej do oczekiwanego według teorii poziomu. Niezbędne jest zatem ustalenie realistycznych poziomów górnych dla liczby obserwacji w sieci. W niniejszym artykule podjęta jest próba sformułowania zasad ustalania takich poziom

  5. Comments on "Determination and Analysis of the Theoretical Production of a Bucket Wheel Excavator" / Uwagi I Komentarze Do Pracy: "Określanie I Analiza Teoretycznej Wydajności Pracy Koparki Wielonaczyniowej Kołowej"

    NASA Astrophysics Data System (ADS)

    Bošnjak, Srđan M.

    2015-03-01

    This paper comments on the recently published work dealing with the problem in the determination of the theoretical output of the bucket wheel excavator. It also includes remarks on the inadequacy in the problem approach and highlights the mistakes in the mathematical model. This work emphasizes the demand for a much wider and deeper approach to the problem of determining the output of the bucket wheel excavator. Opublikowany niedawno artykuł autorstwa Che i Chena (2014) poświecony jest ważnej kwestii jaką jest określenie teoretycznej wydajności koparki kołowej wielonaczyniowej. W załączonym przeglądzie literatury Che i Chen (2014) nie umieścili pozycji odnoszących się do metod urabiania, parametrów pracy koparki oraz teoretycznej wydajności wydobycia i być może to właśnie jest przyczyną pewnych niedokładności powstałych w trakcie rozwiązywania problemu. Intencją autora obecnej publikacji było: • Odniesienie się do krytycyzmu wyrażonego przez Che i Chena (2014) dotyczącego procedury obliczania prędkości w ruchu łukowym podanej w cytowanej literaturze przedmiotu (Pajer i in., 1971; Vetrov, 1971; Rasper, 1975; Durst i Vogt, 1988); • Zbadanie różnic pomiędzy procedurą określania teoretycznej wydajności zaproponowaną w pracy Che i Chena (2014) a odpowiednimi rozwiązaniami podanymi w literaturze; • Określenie prawidłowości i stosowalności teorii zaprezentowanej w pracy Che i Chena (2014) poprzez porównanie wyników uzyskanych z wykorzystaniem ich teorii oraz teorii podanych w wymienionych pozycjach literatury. W rozdziale 2 pracy (Che i Chen 2014) zatytułowanym " Uprzednio stosowane metody określania teoretycznej wydajności pracy koparki kołowej wielonaczyniowej" autorzy nie podali głównych odniesień literaturowych z których zaczerpnięte zostały równania (1)-(6)**. Ponadto, nie podali charakterystyki modelu działania koparki, na podstawie którego wyprowadzone zostały rzeczone r

  6. Empirical tests of performance of some M - estimators

    NASA Astrophysics Data System (ADS)

    Banaś, Marek; Ligas, Marcin

    2014-12-01

    The paper presents an empirical comparison of performance of three well known M - estimators (i.e. Huber, Tukey and Hampel's M - estimators) and also some new ones. The new M - estimators were motivated by weighting functions applied in orthogonal polynomials theory, kernel density estimation as well as one derived from Wigner semicircle probability distribution. M - estimators were used to detect outlying observations in contaminated datasets. Calculations were performed using iteratively reweighted least-squares (IRLS). Since the residual variance (used in covariance matrices construction) is not a robust measure of scale the tests employed also robust measures i.e. interquartile range and normalized median absolute deviation. The methods were tested on a simple leveling network in a large number of variants showing bad and good sides of M - estimation. The new M - estimators have been equipped with theoretical tuning constants to obtain 95% efficiency with respect to the standard normal distribution. The need for data - dependent tuning constants rather than those established theoretically is also pointed out. W artykule przedstawiono empiryczne porównanie trzech dobrze znanych M - estymatorów (Huber'a, Tukey'a oraz Hampel'a) jak również kilku nowych. Nowe estymatory motywowane były funkcjami wagowymi wykorzystywanymi w teorii wielomianów ortogonalnych, estymacji jądrowej oraz jeden motywowany przez funkcję gęstości "półokręgu" Wigner'a. Każdy z estymatorów został użyty do wykrywania obserwacji odstających w skażonych zbiorach danych. Obliczenia wykonano za pomocą "reważonej" metody najmniejszych kwadratów. Ze względu na fakt, iż wariancja resztowa (używana w konstrukcji macierzy kowariancyjnych) nie jest odpornym estymatorem skali, w testach wykorzystano również odporne miary takie jak: rozstęp ćwiartkowy oraz znormalizowane odchylenie medianowe. Testy wykonano na prostej sieci niwelacyjnej w dużej ilości wariantów ukazuj

  7. Turbulent Sensible Heat Flux in Łódź Obtained from Scintillometer Measuerments - Comparison of Free and Mix Algorithms

    NASA Astrophysics Data System (ADS)

    Zieliński, Mariusz; Fortuniak, Krzysztof; Pawlak, Włodzimierz

    2012-01-01

    The primary aim of this paper was to present the results of turbulent sensible heat flux (QH) measurements with Scintillometer Scintec BLS900 (LAS). The theoretical background of scintillation method has been presented as well as two different ways of sensible heat flux computation from LAS. The measurements presented here were conducted from April to December 2011. Diurnal and partially annual variability of QH has been analyzed, moreover the mean diurnal course of QH in considered months has been prepared. In order to choose the optimal method of QH computation from LAS the results obtained with three different Monin-Obuchov similarity theory functions as well as free convection assumption has been compared. In first case it has been proved that sensible heat flux differs significantly depending on chosen universal function. In turn in case of free convection assumptions it has been revealed that it is valid only for very unstable conditions. Therefore it does not apply to long-time heat flux measurement in case of Łódź. Nevertheless, this study has shown that scintillation method is valuable and reasonable source of path-averaged QH estimates in considered city. Głównym celem pracy była prezentacja wyników pomiarów turbulencyjnego strumienia ciepła jawnego (QH) w Łodzi za pomocą scyntylometru Scintec BLS900. Przedstawione zostały założenia teoretyczne metody scyntylacyjnej, jak również metody wyznaczania strumienia ciepła jawnego za pomocą scyntylometru. Pomiary obejmowały okres od kwietnia do grudnia 2011 roku. Przeanalizowano dobową oraz częściowo roczną zmienność QH, wyznaczając przy tym średnie dobowe jego przebiegi dla poszczególnych miesięcy. W celu wyznaczenia optymalnej metody estymacji QH z pomiarów scyntylometrycznych porównano wyniki uzyskane przy wykorzystaniu trzech różnych funkcji uniwersalnych teorii podobieństwa Monina- Obuchova, jak również przybliżenia dla swobodnej konwekcji. W pierwszym przypadku wykazano

  8. Reliability Analysis of Drilling Operation in Open Pit Mines / Analiza niezawodności urządzeń wiertniczych wykorzystywanych w kopalniach odkrywkowych

    NASA Astrophysics Data System (ADS)

    Rahimdel, M. J.; Ataei, M.; Kakaei, R.; Hoseinie, S. H.

    2013-06-01

    możliwych stanów działania, a prawdopodobieństwa znalezienia się jednego z urządzeń wiertniczych w każdym z podanych stanów obliczono z wykorzystaniem teorii Markowa. Wyniki pokazują, że poziom prawdopodobieństwa tego, że wszystkie urządzenia wiertnicze znajdować się będą w stanie gwarantującym ich właściwe działanie wynosi 77.2%. Biorąc pod uwagę 360 dni roboczych w roku, oznacza to, że prace wiertnicze prowadzone być mogą w warunkach niezawodności przez 277.92 dni w roku.

  9. Value of Geological Information in Exploitation Management: the Case of Exploitation Units of the Polkowice-Sieroszowice Mine

    NASA Astrophysics Data System (ADS)

    Krzak, Mariusz; Panajew, Paweł

    2014-03-01

    informacji. Informacja, adekwatna do problemu, dla którego jest pozyskiwana, zwiększa zasób wiedzy podmiotu gospodarującego, jednak rosnąca jej ilość stwarza możliwość dezinformacji. Instrumentów analizy posiadanej przez decydenta informacji dostarczają m.in. narzędzia teoria gier. W teorii gier informacja modelowana jest zazwyczaj z wykorzystaniem koncepcji zbiorów informacyjnych (rys. 2). Zwykle uczestnicy gry nie dysponują pełną informacją, co implikuje fakt, ze sytuacja decyzyjna rozgrywa się w warunkach niepewności. Działalność operacyjna kopalni zmierzająca do udostępnienia i eksploatacji poszczególnych części złoża realizowana jest etapami. Nieodzownym staje się zatem podejmowanie decyzji i wybór optymalnej strategii na każdym z nich. Dążeniem kopalni może być uzyskanie najkorzystniejszych wypłat, niezależnie od zaistniałych warunków otoczenia. Działanie takowe zaprezentowano na przykładzie trzech parcel eksploatacyjnych A, B i C uruchamianych w obrębie ZG Polkowice-Sieroszowice. Charakterystykę parcel zestawiono w tabelach 1, 2 i 3, a schematyczne przekroje zmienności zobrazowano na figurach 3, 4 oraz 5. Na podstawie formuły NSR (3) obliczono ceny rudy w parcelach. Bazując na analogii określono prawdopodobieństwa napotkania konkretnych układów wskaźników jakościowych rudy w parcelach. Zestawiając oczekiwane przychody w odniesieniu do możliwych dwóch stanów natury zdefiniowano macierz gry (4). Wygenerowany problem decyzyjny sprowadzony został do modelu gry koordynacji, a rozstrzygano w nim, które z parcel należy poddać eksploatacji. Opierając się na zakresie informacji o parametrach złoża we wszystkich parcelach będącej w posiadaniu geologa nadzorującego postęp frontu eksploatacyjnego, przeanalizowano dostępne struktury informacyjne, wskazując te optymalne. Oczekiwane średnie wielkości przychodów dla poddawanych ocenie struktur zestawiono w tabelach 4, 5 oraz 6.

  10. Interpolation and Sampling Errors of the Ash and Sulphur Contents in Selected Polish Bituminous Coal Deposit (Upper Silesian Coal Basin - USCB) / Błędy Interpolacji I Opróbowania Zawartości Popiołu I Siarki W Wytypowanych Polskich Złożach Węgla Kamiennego (Górnośląskie Zagłębie Węglowe)

    NASA Astrophysics Data System (ADS)

    Mucha, Jacek; Wasilewska-Błaszczyk, Monika

    2015-09-01

    coal seams by means of contour maps is unreasonable if they are based on drill core sampling. Prawo geologiczne i górnicze a w szczególności Rozporządzenie Ministra Środowiska w sprawie dokumentacji geologicznej złoża kopaliny z dnia 22 grudnia 2011 r. nakłada na dokumentatora złoża obowiązek ilustrowania zmienności jakości kopaliny za pomocą map. W odniesieniu do złóż węgla kamiennego rozmieszczenie wartości parametrów charakteryzujących jego jakość najczęściej wizualizuje się za pomocą map izoliniowych zawartości siarki, zawartości popiołu lub wartości opałowej konstruowanych w oparciu o wyniki ich interpolacji w regularnej sieci interpolacyjnej znacznie zagęszczonej w stosunku do sieci rozpoznania złoża. Podstawowymi źródłami informacji o wartościach tych parametrów w warunkach złóż Górnośląskiego Zagłębia Węglowego są wyniki opróbowania rdzeni z otworów wiertniczych (we wczesnych fazach rozpoznania złoża) i wyniki opróbowania bruzdowego pokładów w wyrobiskach górniczych (w zaawansowanych fazach rozpoznania złoża). Otwory wiertnicze są wykonywane w nieregularnej sieci ale z reguły zapewniają jednolite pokrycie złoża. Próby bruzdowe w wyrobiskach górniczych pobierane są na ogół ze stałym rozstawem ale charakteryzują jedynie części złóż rozciętych wyrobiskami. W artykule przestawiono wyniki badań nad wielkością błędów interpolacji zawartości siarki i popiołu oraz na ich tle przedstawiono oszacowania błędów opróbowania wykonane dla dwóch pokładów kopalni Murcki (330 i 334/2) oraz jednego pokładu kopalni Brzeszcze (405/1) (Fig. 1 i 2). Metodyczną podstawę badań stanowiła statystyczna i geostatystyczna analiza zmienności wyników opróbowań, geostatystyczna procedura interpolacji tych parametrów za pomocą zwyczajnego krigingu punktowego oraz dla określenia błędów przygotowania próbki do analizy chemicznej elementy teorii opróbowania Gy (Mucha i Wasilewska, 2006