wtorek, 10 czerwca 2014

Krytyczna Analiza Dyskursu (ang. critical discourse analysis) - subdyscyplina językoznawstwa zajmująca się społecznym aspektem funkcjonowania językowego - dyskursem. Rozumiana jest jako semioza, czyli wytwarzania znaczeń poprzez bogactwo środków semiotycznych, obejmujących język werbalny oraz język wizualny w odniesieniu do procesów i zjawisk społecznych. Dyskurs jest kluczowym czynnikiem w konstrukcji życia społecznego i ma w nim siłę sprawczą, odnosi się do języka w użyciu do publicznych wystąpień lub też do języka mówionego oraz sposobów wypowiadania się.

AD. Lokucja -to jest temat (każda wypowiedźma jakiśtemat) -język, kod, pismo, mowa -materialny wyraz przekazu -komunikacyjnej treści ZNAKI I KODY

AD. Illokucja -remat(intencja, dlaczego ktoścośtakiego mówi, znajduje sięw różnych środkach językowych -motywacja, intencja, obraz mentalny, założenia wypowiedzi, cele rola -obraz rzeczywistość-wyobrażenie, postawa, wartości, znaczenie –WIEDZA

AD. Perlokucja -sprzężenie zwrotnej -co ktośrobi z tym tematem, rematem i czy go to zmienia (chodzi o władzęi wiedzę) -tutaj jest teżprzemoc symboliczna -wzorce zachowań, kulturowe uwarunkowania, rytuały, odbiór -WŁADZA, sprzężenie zwrotne 

ADH (adhesion) - wskaźnik wykorzystywany w badaniach telemetrycznych do oszacowania procentowego udziału grupy docelowej programu telewizyjnego w stosunku do jego całkowitej widowni. 

AFF (ang. affinity) - wskaźnik wykorzystywany w badaniach telemetrycznych do oceny oglądalności programu telewizyjnego przez grupę docelową w stosunku do całej jego widowni. Wskaźnik AFF wyrażony jest w postaci procentowej. Jeżeli wskaźnik wynosi 100%, to oznacza, że oglądalność programu w grupie docelowej jest taka sama jak w całej populacji. Wskaźnik wynoszący powyżej 100% informuje, że oglądalność danego programu w grupie docelowej jest wyższa, niż w całej populacji. Można wtedy wnioskować, że program jest właściwie dopasowany do swojej widowni (jest rzeczywiście odbierany przez grupę docelową, a nie przez przypadkowych widzów). 

AIDA -Attention, Interest, Desire, Action (Satisfaction) 

ATS (ang. average time spend) - wskaźnik wykorzystywany w badaniach telemetrycznych do oszacowania średniej liczby godzin i minut spędzonych na oglądaniu telewizji (stacji telewizyjnej) przez statystycznego telewidza w wybranym odcinku czasu (tygodniu, miesiącu, roku). 

ATV (ang. average time viewing) - wskaźnik wykorzystywany w badaniach telemetrycznych do określenia średniej długości czasu oglądania telewizji w wybranym okresie (tygodniu, miesiącu, roku). Wskaźnik ten wyrażony jest w godzinach i minutach; podawany jest na podstawie szacowania czasu oglądania telewizji przez wszystkich uczestników widowni objętych badaniem telemetrycznym.

Audience share - wskaźnik wykorzystywany w badaniach telemetrycznych do określenia średniego czasu oglądania programów stacji telewizyjnej przez uczestnika widowni, w stosunku do całkowitego czasu spędzonego przez niego przed telewizorem. 

Analiza Zawartości to technika badawcza (zespół technik badawczych) służąca do obiektywnego, systematycznego i ilościowego jawnej zawartości przekazu.  Typy: retoryczna, narracyjna, dyskursu  AZ jest zespołem różnych, apriorycznych technik, badających w sposób obiektywny, całościowy, systematyczny i ilościowy jawną zawartość przekazu oraz pozwalających na uzyskanie powtarzalnośći wiarygodnych wyników dających się ekstrapolować na całą populację 

Badania analityczne -diagnoza i wyjaśnianie zjawisk, postaw i warunków-odpowiedzenie na pytanie dlaczego?-kilka zmiennych, tesyzacja hipotez -relacja wewnętrzne między zmiennych (korelacje) styl życia a oglądane audycje 

Badania deklaratywne - czytelnictwo, słuchalność, telemetria 

Badania eksperymentalne -Eye-tracking, Shadows, Garbage research, Mystery Shopping Badania ilościowe (ile, gdzie, iedy, kto, jak?) -> Face-to-face (on-street, CLT, dzienniczek) 

Badania jakościowe(jak, dlaczego, po co) -> FGD, IDI , obserwacje terenowe, badania etnograficzne 

Badania internetowe - ePanele, Polskie Badania Internetu - Megapanel PBI, Gemius, Web Crawling, Data Mining

Badania opisowe -diagnoza bieżących warunków lub postaw -co istnieje tu i teraz (np. stopa bezrobocia, opinie elektoratu o kandydatach, bieżące gusta audytorów) 

Badania reaktywne (reakcja z respondentem - potrzeba człowieka), np badania sondażowe 

Badania niereaktywne (badanie wytworów kultury, analiza dyskursu, analiza narracji)

Badania sondażowe [opisowe + analityczne]- sondaże opisowe, sondaże analityczne, metodologia kwestionariusza, sondaże telefoniczne, CAPI, CAWI, CATI) 

Badania telemetryczne (ang. TV-audience research) -badania, których celem jest systematyczny pomiar oglądalności kanałów i programów telewizyjnych. Pozwalają na ustalenie: 1. udziału stacji telewizyjnych w całym rynku 2. liczebności widowni programów oraz stacji telewizyjnych 3. przepływów widowni pomiędzy stacjami 4. struktury społeczno-demograficznej widowni poszczególnych stacji.
Telemetria to elektroniczny system pozwalający pozyskiwać i przetwarzać dane (z minutową dokładnością) z panelu gospodarstw domowych wyposażonych w telewizory. Pomiar sygnału telewizyjnego urządzenia elektronicznego podłączone do telewizora pozwalają określić, czy telewizor jest włączony oraz jaki kanał oglądają domownicy. Niezwykle pomocnym narzędziem jest pilot telemetryczny, którego używają respondenci w momencie oglądania, „lokalizuje” on daną osobę, ma również możliwość wydawania opinii o programie, czy rejestrowaniu gości. Każdy domownik posiada swój własny guzik, za pomocą którego można odnotować co, kiedy i jak długo ogląda np. dziecko lat 12 czy emerytka lat 70.

Badanie naukowe to bardzo szeroki termin, którego używa się na określenie niemal wszelkiej działalności naukowej człowieka. Badaniami nazywa się zarówno eksperymenty, gromadzenie danych z natury, analizę statystyczną, studiowanie literatury źródłowej czy analizowanie zebranych danych i wyciąganie z nich wniosków. 

Baza danych - jest to arkusz / tabela zawierająca na jednej ze współrzędnych oznaczenia poszczególnych testów, na drugiej zaś - warianty odpowiedzi na każde z podstawowych w kluczu kategoryzacyjnych pytań. 

CAPI (Computer Assisted Personal Interview) – wywiady wspomagane komputerowo na specjalnie przygotowanym do tego celu oprogramowaniu. Wielką zaletą tych badań jest fakt, że wszystkie dane są automatycznie zapisywane na dysku twardym komputera, co następnie umożliwia ich łatwy eksport przez szyfrowane połączenie. Przeszkolony ankieter przez Dział Realizacji i/lub Badań, ma możliwość prezentowania respondentowi wszelkiego rodzaju materiałów multimedialnych (oczywiście jeżeli wymaga tego badanie). 7

CASI – ( computer assisted self-interviewing ) stosowana w socjologii metoda badania sondażowego. Respondent samodzielnie wypełnia komputerową ankietę wpisując swoje odpowiedzi do, przyniesionego przez pracownika organizacji badawczej, komputera. 

CATI (Computer Assisted Telephone Interview) – telefoniczne wywiady wspomagane komputerowo dają możliwość realizowania dużych prób celowych lub ogólnopolskich w szybkim czasie i przy mniejszych kosztach. Dzięki specjalistycznemu oprogramowaniu eksport danych po zakończonym badaniu jest bardzo szybki, a tym samym czas oczekiwania na raport jest krótszy. Przeszkolony ankieter przez Dział Realizacji i/lub Badań, przeprowadza wywiady z respondentami według ściśle określonego scenariusza. Wszyscy ankieterzy są poddawani kontroli wykwalifikowanych supervisorów, dzięki czemu badanie jest ściśle kontrolowane. Niewątpliwą zaletą tych badań jest anonimowość respondenta co daje mu swoiste poczucie bezpieczeństwa, a tym samym zezwala na szczere i bardziej śmiałe udzielanie odpowiedzi. Respondenci w badaniach CATI są zwykle albo losowani z bazy danych (np. w badaniach satysfakcji klientów) albo dobierani poprzez losowe tworzenie numerów telefonów – taka metoda nazywa się RDD (ang.Random Digit Dial).

CAWI (Computer Assisted Web Interviews) – wywiady realizowane za pośrednictwem internetu, metoda zbierania informacji w ilościowych badaniach rynku i opinii publicznej, w której respondent jest proszony o wypełnienie ankiety w formie elektronicznej Wielką zaletą tych badań jest fakt, iż można je realizować na bardzo dużych próbach (często bardzo specyficznych), w szybkim czasie i stosunkowo niskich kosztach. Respondent czuje się anonimowy, co daje mu możliwość udzielania odpowiedzi na pytania (np. odnośnie wysokości zarobków). Dzięki specjalistycznemu oprogramowaniu eksport danych po zakończonym badaniu jest bardzo szybki, a tym samym czas oczekiwania na raport jest krótszy.7

CLT (Central Location Test) – są to badania konsumenckie dzięki którym w łatwy i szybki sposób można przeprowadzić testy smakowe, testy zapachowe, testy reklam, itd. Instytut Almares posiada własne studio do przeprowadzania testów CLT, przez co koszty realizacji tego typ badań jest znacznie niższy niż u konkurencji. Studio jest wyposażone w laptopy z podłączeniem do internetu, przez co istnieje możliwość realizacji badania na platformie klienta (odpowiedzi z kwestionariusza są umieszczane bezpośrednio na serwerze klienta). 

Clutter - wskaźnik wykorzystywany w badaniach reklamy, oznaczający ilość czasu przeznaczonego w stacjach telewizyjnych na emisję spotów reklamowych, zapowiedzi filmowych, komunikatów i wszelkich innych treści nie należących do ramówki telewizyjnej. Innymi słowy clutter to wskaźnik tzw. szumu reklamowego. Przedstawiany jest często w postaci procentowej, jako liczba minut przeznaczonych na emisję reklam i innych komunikatów w stosunku do jednej godziny nadawania programu. Wskaźnik clutter obliczany jest osobno dla poszczególnych godzin emisji programów stacji telewizyjnych: przedpołudniowych, popołudniowych, wieczornych i nocnych. Wskaźnik ten ma duże znaczenie dla planowania kampanii reklamowych przez media plannerów. Z najwyższym wskaźnikiem szumu reklamowego spotykamy się zwykle w godzinach o najwyższej oglądalności telewizji. Dopuszczalna długość czasu przeznaczonego na emisję reklam, jest prawnie uregulowana - nie może przekraczać 12 minut na 1 godzinę nadawania programu. 

CPP (ang. Cost per Point) -wskaźnik wykorzystywany w badaniach telemetrycznych do oszacowania średniego kosztu dotarcia emitowanej reklamy do 1 procenta telewidzów. 

CPT (ang. Cost per Thousand) - wskaźnik wykorzystywany w badaniach telemetrycznych do oszacowania średniego kosztu dotarcia emitowanej reklamy do 1 procenta grupy docelowej. 

Debriefing -ustne podsumowanie, po badaniu 

Diada - między FGI i IDI - 2 respondentów naraz - kontrdyskusja - minimalizacja dominacji tematów pobocznych

FGI - Zogniskowane wywiady grupowe (wywiad interakcyjny z 7-9 osobami) -> Minigrupa (4-5 osób), grupa przedłużona (exteded group), grupa powtarzana (recovent group), grupa znajomych (affinity group) .  Najważniejsze techniki: Asocjacje -wyobrażeniowy profil użytkownika / typowe sytuacje konsumpcyjne, Animalizacja, Personifikacja, Uzupełnienie –komiks, Konstrukcje -Rodzina / Firma (hierarchizacja rynku, kolaż), Ekspresja -psychodrama, fantazja (Kraina, wyspa, lustro, targi, drzwi, stars, fotografia etc.)  Podkreśla ona aktywność prowadzącego (moderatora), który zadaje pytania – prowadzi wywiad równocześnie z kilkoma osobami. Nazwa „grupa zogniskowana” (focus group) sugeruje, że uczestnicy są skupieni na określonym temacie.  aktywności badawczej polegającej na tym, że moderator prowadzi dyskusję zaproszonych wcześniej respondentów, dobranych zgodnie z kryteriami wynikającymi z celów projektu. Grupa dyskusyjna liczy 6 – 8 osób, dawniej (do końca lat osiemdziesiątych) preferowano grupy większe, od 8 do 12 osób. Jedna sesja trwa zwykle około 2 godzin. Prototypem takiej sytuacji są autentyczne spotkania i dyskusje ludzi w świecie naturalnym. Dyskusja jest prowadzona według opracowanego wcześniej scenariusza, opisującego cele każdego etapu badania (czyli jakie informacje chce się uzyskać podczas tego etapu), czasem (ale nie jest to konieczne) zawierającego także dosłowne brzmienia pytań, które będą zadawane uczestnikom badania. Przebieg dyskusji jest zwykle nagrywany na taśmie magnetofonowej i/ lub video, może być także obserwowany przez lustro fenickie przez osoby znajdujące się w przyległym pokoju (tzw.podglądowni), transmisję video lub transmisję za pomocą Internetu. 

Fidelity -wskaźnik wykorzystywany w badaniach telemetrycznych do oszacowania czasu oglądania programu przez telewidza w stosunku do ogólnej długości trwania programu. Wskaźnik fidelity przedstawiony jest w postaci procentowej. Jeżeli cały program trwa 60 minut, a telewidz ogląda z tego 30 minut programu, to wskaźnik będzie wynosił ~ 50%. Im wyższy wskaźnik, tym bardziej program jest atrakcyjny dla telewidzów. 

GRP (ang. Gross Rating Point) - wskaźnik wykorzystywany w badaniach telemetrycznych do oszacowania oglądalności wszystkich emisji reklamy w jej grupie docelowej. 

Grupa docelowa (ang. target group) - grupa osób będących właściwymi odbiorcami produktów, usług, programów telewizyjnych, stacji radiowych, gazet i czasopism, reklam, strategii promocyjnych itp. 

IDI (In-depth Interview) - pogłębione indywidualne wywiady (1-2 godzinna rozmowa dwóch osób). Zindywidualizowane rozmowy analityka z podmiotem badawczym, mniejsze próbki, długość, bogactwo szczegółów (problem uogólnienia, generalizacji). Ustalony schemat wątków tematycznych -> szczegółowość(pozyskiwanie danych, kodowanie -agregacja, ekscerpcja, prezentacja, raportowanie). Scenariusz -ustalony porządek (porównywalność, intersubiektywność, trafność, wiarygodność). Otwarte pytania! Cel pytającego -
stworzyćwarunki rozmówcy do pełnego wyrażania własnych odczuć, impresji, emocji, motywów, intencji, doświadczeń. Intymnośćmiejsca, czasu, atmosfery -interioryzacja

Klucz kategoryzacyjny- narzędzie stosowane w analizie zawartości, to lista problemów, rodzaj kwestionariusza w formie listy problemów, a nie pytań. 

MBJ - obserwacja terenowa 

Megapanel PBI/Gemius - badanie panelowe polskiego internetu (stan na luty 2007). Badanie, stanowiące standard pomiaru oglądalności witryn internetowych w Polsce, jest prowadzone na zlecenie PBI przez firmę Gemius S.A.. Megapanel PBI/Gemius jest badaniem dostarczającym informacji na temat preferencji i zachowań polskich internautów w sieci. Wyniki stanowią narzędzie pracy wydawców internetowych, domów mediowych i firm prowadzących działania marketingowe i biznesowe w internecie. Są także podstawą do tworzenia analiz na temat rozwoju rynku internetowego w Polsce. 

Miary ważone -miary, które na siebie wpływają(np. mnożniki) -robi sięto np. w gazetach -artykułna 33 stronie ma 2 kolumny, a na pierwszej 1, dlatego to sięmnoży, żeby wiedziećco jest ważniejsze 

NBCP – niezależne badania czytelnictwa prasy - firma, która wykonuje ilościowe (a więc dotyczące konkretnych, dających się opisać liczbowo zjawisk) badania marketingowe oraz badania opinii publicznej. Główne specjalności to badania typu store chceck (odnotowywanie cen i innych danych w sklepach i hurtowniach cash and carry) oraz wszelkiego rodzaju badania ankietowe: zarówno z udziałem ankieterów (telefoniczne, face-to-face) jak i bez ich udziału - respondent wypełnia ankietę sam (pocztowe, prasowe, internetowe, dystrybuowane w miejscach publicznych) 

OTH (ang. Opportunity to Hear) - wskaźnik wykorzystywany w badaniach słuchalności radia do oceny efektywności kampanii reklamowej; określa średnią liczbę kontaktów słuchacza stacji radiowej z reklamą emitowaną na jej antenie w określonym odstępie czasu. 

OTS (ang. Opportunity to See) -wskaźnik wykorzystywany w badaniach telemetrycznych i badaniach reklamy do oceny efektywności kampanii reklamowej; określa średnią liczbę kontaktów osoby z grupy docelowej z reklamą emitowaną w stacji telewizyjnej, w jakimś odstępie czasu. 

PAPI (Paper And Pen Personal Interview) – klasyczna metoda badawcza powszechnie nazywana „papier i ołówek”. Przeszkolony ankieter przez Dział Realizacji i/lub Badań, zostaje wyposażony w papierową wersję ankiety, a następnie realizuje w terenie wywiady z respondentami. Zadaniem ankietera jest pozyskanie odpowiedniej ilości wywiadów na określonej próbie osób.

Proces badawczy - jest to kompleksowy (próba przewidzenia wszystkiego co może wpłynąć na badanie) i proceduralny schemat działań, jakie podejmuje badacz w celu udzielenia odpowiedzi na postawione pytania badawcze. Etapy: problem badawczy -> pytania, tezy i hipotezy badawcze -> wybór metody badawczej -> dobór próby badawczej z określonej populaci -> zbieranie danych -> analiza danych -> uogólnianie (generalizowanie) + raport 

Rama konceptualna dyskursu –  NP.: Czasem powstania przekazu (Ten sam przekaz w różnym czasie - obraz Polki w czasoposmach w przeciągu 30 lat) [Ramy = perspektywy- Rosja vs. UE - w polskich, europejskich i rosyjskich dziennikach). (c)  

Raport badawczy - jest to ostatni etap analizy zawartości. Badacz, pisząc raport badawczy, zdaje relacje odbiorcy w poczynionych założeń, postawionych hipotez oraz pytań badawczych, zastosowanych metod badawczych, stworzonych kategorii badawczych, skonstruowanego klucza kategoryzującego i instrukcji do niego, napotkanych problemów, zakodowanych danych i wreszcie z wyciągniętych wniosków 

Rating - wskaźnik wykorzystywany w badaniach telemetrycznych do określenia odsetka osób, które zetknęły się z emisją konkretnego programu lub reklamy telewizyjnej. 

Reach - wskaźnik wykorzystywany w badaniach telemetrycznych do oszacowania odsetka osób, które przynajmniej raz zetknęły się z emisją konkretnego programu lub reklamy telewizyjnej. 

RSH (ang. reception share) - wskaźnik wykorzystywany w badaniach telemetrycznych do oszacowania średniej dziennej oglądalności programu telewizyjnego w porównaniu do widowni pozostałych programów tej samej stacji. 

Sondaż (w ang. pooling, survey, z franc. sondaże) jest to badanie opinii publicznej, rodzaj badań statystycznych w celu określenia preferencji ludności. Jest to szczególny sposób badania opinii, postaw, wartości, norm społecznych czy aspiracji, przy pomocy wywiadów z konkretnymi ludźmi, najczęściej posiłkujący się z góry przygotowanymi kwestionariuszami. Należy przy tym pamiętać, że żaden sondaż nie daje pełnego obrazu, a jedynie przybliżony wynik. Stanowi jednak silny wyznacznik trendu. Stosowany jest w wielu dziedzinach, m.in.: w badaniu opinii publicznej, w handlu do badania preferencji konsumentów w okresie poprzedzającym wybory (sondaż wyborczy) oraz w zakresie konsumpcji mediów. Sondaż prawidłowo przeprowadzony powinien uwzględniać różne grupy społeczne, wiekowe i zawodowe. 

Top-lines -pisemne opracowanie głównych wyników, przygotowywanie na drugi dzień(top-of-mind reports -z pamięci)

Triangulacja - łączenie badań jakościowych i ilościowych. 

TVR (ang. total viewing rate) - wskaźnik wykorzystywany w badaniach telemetrycznych do oszacowania średniej wielkości widowni wszystkich stacji telewizyjnych w danym okresie czasu. Wskaźnik ten może być wyrażony w liczbach bezwzględnych (milionach osób oglądających telewizję w tym samym czasie) lub odsetkach (jaki % populacji oglądał jednocześnie telewizję). 

Widownia (ang. audience) - ogół osób oglądających program lub stację telewizyjną

Wiedza naukowa: oparta jest na wnioskowaniu;oparta jest na doświadczeniu (obserwacji); naukowcy stosują kryteria logiczne i empiryczne do weryfikacji twierdzeń nauki;nie zadowala się samym opisem, uczonych obowiązuje przestrzeganie trzech podstawowych reguł; wyraźne określenie problematyki badawczej w kontekście dotychczasowej

Wiedza potoczna: nabywamy ją „samoistnie”;wiąże się ona z ograniczonym zasięgiem ludzkiej obserwacji; człowiek kieruje się nie tylko rozumem, ale emocjami,w związku z tym, rzadko jest neutralna; związana jest z wartościowaniem; mówi, co dobre, a co złe;operuje podziałami dychotomicznymi „dobry-zły”; ma tendencje do uogólniania, np. „cała dzisiejsza młodzież” przesiąknięta jest stereotypami, upraszcza, jest sztywna i odporna na zmiany
wiedzy i istniejących teorii;staranne zbieranie danych, umożliwiające kontrolę ich rzetelności; odróżnianie twierdzeń opartych na faktach, od tych, które są domysłami; wyróżnikiem nauki jest neutralność i powstrzymanie się od wartościowania. 

Współczynnik zgodności - liczba wyrażająca jaki procent wszystkich decyzji podjętych na podstawie instrukcji kodowej jest jednakowy dla dwóch niezależnie kodujących ten sam materiał koderów. winien wynosić nie mniej jak 0,8. Wtedy można mówić o pewnej adekwatności klucza kategoryzującego oraz o skutecznym kodowaniu zespołu koderskiego. 

Współczynnik zgodności. Trzy wymiary zgodności klucza: 1. Odtwarzalność - powtórzenie kodowania przez dwie niezależne od siebie działające osoby ze względnie jednakowych wynikiem (test-test) 2. Powtarzalność - umożliwia powtórzenie kodowania ze względnie jednakowym wynikiem po upływie jakiegoś czasu (test-retekst) 3. Wierność - umożliwia powtórzenie kodowania tej samej lub innych osobom z wynikiem maksymalnie zbliżonym dla wyznaczonego wcześniej "ideału" - kodowania dokonanego przez jednego lub kilku niezależnych ekspertów ściśle na podstawie instrukcji kodowej (test-forma)

niedziela, 11 maja 2014

antro

1) Małgorzata Magda-Czekaj bada nazwiska mieszkańców Olesna pochodzące z wieków:

XVII-XIX

2)Jak zmniejszyła się ludność Olesna po epidemii dżumy na początku XVIII wieku?
zmarło 90% mieszkańców
zmarło ok. 900 mieszkańców

3)W Olesnie brak jest nazwisk żydowskich.

fałsz

4)W XVIII wieku w Olesnie było ... cechów.
11

5) W XVIII wieku w Olesnie najwięcej było przedstawicieli
szewców

6)W którym słowniku notowany jest apelatyw "gniota"? Co on oznacza?

słownik j. polskiego (tzw. warszawski) red. J. Karłowicz, A Kryński, w. Niedźwiedzki
gniota - niezdara niedołęga ślamazara

7) Jak klasyfikuje nazwiska mieszkańców Olesna autorka pracy?
Dzieli je na dwie grupy nadrzędne: derywowane słowotwórczo i niederywowane
słowotwórczo.
Nazwiska niederywowane dzieli na te motywowane genetycznie przez nazwy pospolite i te pochodzące od nazw własnych. Za to te derywowane dzieli na formacje z podstawowym -k w części sufiksalnej, formacje z sufiksem -cki i -ski, formacje z podstawowym -l, -ł, formacje z podstawowym -s w części sufiksalnej, formacje z podstawowym -n w części sufiksalnej, formacje z podstawowym -c w części sufiksalnej, formacje z -r w częśći sufiksalnej, formacje z podstawowym -ch w części sufiksalnej, formacje z -t w częsci sufisalnej, formacje z podstawowym -w, -d, -j, - g w częsci sufiksalnej, formacje powstałe na drodze derywacji fleksyjnej  i nazwiska od przezwisk złożonych

8) Co w słowniku oznacza kwalifikator "f" przy nazwisku Kubatka?
kwalifikator f oznacza to że nazwisko Kubatka ma sufiks żeński i tym samymjest antroponimem żeńskim.

9)Co było podstawą ekscerpcji nazwisk Żydów w Olesnie?
Fakt że nie było ich mało bo w XVIII w. aż 1000 rodzin, poza tym odgrywali istotną rolę gospodarczą i kulturową w Oleśnie.

10)W którym wieku i dlaczego w Olesnie było najwięcej nazwisk niemieckich?
Najwięcej nazwisk niemieckich było ich w XIX wieku bo  219.
Na przyrost nazwisk niemieckich miały wpływ rządy Ottona Bismarcka, który germanizował ludność tych terenów co przejawiało się również z zmianie polskich nazwisk na niemieckie.

11) Jakie przyrostki tworzyły nazwiska kobiet w Olesnie?
Przyrostki -owa, -ka, -ówka/-awka, -ska/-cka, -ina/-yna, -in, -owna/-ówna, -anka, -a

12) Proszę wymienić trzy nazwiska powstałe od skróconych imion chrześcijańskich, znajdujące się w słowniku Magdy-Czekaj.
Kato, Klausa, Grzesz

13)Które przyrostki są najliczniejsze wśród derywowanych nazwisk mieszkańców Olesna?
Najliczniejszy są nazwiska z przyrostkiem -ski (156), następnie z sufiksem -ek (100) i potem z sufiksem -ała (22)

14) Ile nazwisk oleskich zostało utworzonych za pomocą formantu -ke?
Utworzono 13 nazwisk oleskich z pomocą formantu - ke.

15)Z jakim językiem należy związać nazwisko Noster? Jak Państwo wyjaśnią obecność nazwisk tego typu w antroponimii Olesna?
Noster jest nazwiskiem pochodzym z łaciny. Noster czyli Nasz. Znaczenie tego nazwiska posiada funkcję klasyfikująca daną osobę jako członka społeczności, co był istotne w miejscowości w której było dużo obcych np. niemców (bo aż 15 %)

16)W których latach notowane jest nazwisko Kalinka w Olesnie?
Nazwisko Kalinka jest notowane w Oleśnie w latach: 1804, 1885, 1887 i 1890

17) Ile osób nosiło nazwisko Baron?
11

18)Wśród nazwisk oleskich derywowanych dominują nazwiska:
odapelatywne

19)Jarmarki w Olesnie odbywały się w następujące święta:
a. Matki Boskiej Gromnicznej, Boże Ciało, św. Michał

20)W jakim powiecie leżało Olesno w XVIII wieku?
Nie ma takiej informacji w tekści obecnie jest to powiat Oleski przed tem był to powiat Rosenberg

21)Jakie nazwisko było najpopularniejsze w Olesnie?
Nowak

22) W słowniku nazwisk znalazły się nazwiska:
właścicieli okolicznych majątków, dzierżawców, zarządców,kupców, rzemieślników, Niemców, Włochów, Czechów, Żydów

23) Jaką funkcję w antroponimii oleskiej pełnią sufiksy z -n- w części sufiksalnej?
Sufiksy -n w części sufiksalnej w antroponimii oleskiej pełnią funkcję strukturalną czyli pozawalają na to by tworzyć nowe formy nazwisk bez nacechowania emocjonalnego.

24)Nazwisko Mrugała to nazwisko z ... w części sufiksalnej.
ł
25)Co to jest transonimizacja?
 Transonimizacja to proces przechodzenia nazwy własnej z jednej kategorii w nazwę własną innej kategorii, z jednego obiektu na drugi wciąż w obrębie nazw własnych.

26)Najprężniejszy rozwój gospodarczy Olesna nastąpił w wieku:
XIII

27)Obowiązkiem płócienników podczas pożaru było:
przynoszenie wody do głównego zbiornika

28)Dlaczego w antroponimii Olesna znajdują się nazwiska niemieckie?
Bo z powodów historycznych stanowią dużą część nazwiska w całej miejscowość aż 15% wszystkich nazwisk oleskich.

29)Jaka jest, zdaniem Małgorzaty Magdy-Czekaj etymologia nazwiska Cohn?
Według Małgorzaty Czekaj Cohn jest nazwiskiem o pochodzeniu żydowski, korzeni należy szukać w języku hebrajskim w którym to słowo "cohen" oznacza kapłana.

30)Czym różnią się nazwiska odzawodowe od nazwisk przezwiskowych?
Nazwiska odzawodowe pochodzą od zawodu danego członka społecznośći o jego funkcji w grupie, która przynosi mu utrzymanie, za to nazwiska przezwiskowe są stowrzone od przezwisk odnoszących się do cech zewnętrznych, psychicznych, nawyków etc.

31) Jakie są cele pracy Małgorzaty Magdy-Czekaj?
Celem pracy Małgorzaty Czekaj jest stworzenie słownika historycznych nazwisk oleskich, popartego dokumentacją źródłową i uzupełnionego o etymologię. Autorka chce także opisać kontekst socjologiczny i historyczny tworzenia tych nazwisk.

32) Proszę wymienić wszystkie elementy składowe artykułu hasłowego w słowniku Małgorzaty Magdy-Czekaj.
Elementy składowe artykułu hasłowego: kwalifikator f  lub jego brak, liczba nosicieli tego nazwiska, cytaty źródłowe nazwisk wraz z imieniem lub same,  data w której pojawia się zapis o danym nazwisku oraz skrót nazwy źródła, w nawiasie etymologia nazwiska

33)Czym różni się (z punktu widzenia etymologii) nazwisko Lis od nazwiska Wesoły?
Wesoły jest nazwiskiem odprzezwiskowym zaliczającym się do grupy nazwisk pochodzących od przymiotników, za to Lis to nazwiksko pochodząca od nazw zwierząt.

34)Nazwiska mieszkańców Olesna z sufiksem -ski były tworzone również od podstaw imiennych.
prawda

35)Który formant występuje najczęściej w derywowanych nazwiskach odimiennych?
Najcześćiej w derywowanych nazwiskach odimiennych występuje formant -ek.

36)Jak zostało utworzone nazwisko Misterek?
Nazwisko Misterek zostało utworzone albo od nazwy miasta Mister koło Lippstadt albo z średnio-wysoko-niemieckiego apelatywy 'mist' czyli błoto, błoto, brud, gnój.

37)Jakie nazwy miejscowe (z okolic Olesna czy spoza nich?) częściej motywują nazwiska mieszkańców miasta?
Częściej motywują nazwiska mieszkańców Olesna nazwy odmiejscowe nie pochodzące z okolic, tę grupę stanowi tylko 11 nazwisk na 115, reszta to nazwy miejscowe ze Śląska i dalszych regionów polski

38)Jakie problemy pojawiają się przy analizie historycznych dokumentów śląskich z punktu widzenia badacza antroponimii?
Pojawiają się dwa główne problemy. Po pierwsze  jest brak obszerniejszych opracowań na ten temat. Po drugie jako, że jest to jeszcze okres kształtowania się nazwisk (nie jest jeszcze rozpowszechnione nazwisko w takim sensie jak obecnie) tak więc nie funkcjonują one jeszcze w swojej ostatecznej formie, przez to czasem nie można stwierdzić  o ich dziedziczności.

39)Proszę wymienić trzy nazwiska odetniczne, które znalazły się w pracy Magdy-Czekaj.
Cyganek, Turek, Żydziak

40)Kim była Masłówka?
Masłówka była mieszkanką Olesna, na imię miała Anna i wzmianka na jej temat pojawia się w źródłach z 1660 roku, jest wymieniona jako Anna Maslowka

41) W którym roku notowane jest w Olesnie nazwisko Frasek?
1899

42)Sufiksem posiadający l/ł w części sufiksalnej pełnił funkcję
ekspresywna

43)Czy nazwiska mieszkańców Olesna powielają stereotypy nazewnicze charakterystyczne dla nazwisk mieszczańskich? Swoją odpowiedź proszę uzasadnić.

Tak, powielają takie stereotypy nazewcznie typowe dla nazwis mieszczańskich ponieważ dużą grupę stanowią nazwiska odmiejscowe zakończone sufiksem -cki i -ski, a nazwiska mieszczańskie pierwotnie były tworzone od nazw odmiejscowych.

44)Jaka może być etymologia nazwiska Hanke?
Magda Czekaj podaje w swoim słowniku że nazwisko Hanke pochodzi od nazwy osoby o imieniu Hanke, czyli jest nazwiskiem odimiennym zgermanizowanym.

45) pytanie o 3 nazwiska złożone
Walignat - przezwisko określające cechy fizyczne właściciela wyrażone bezpośrednio, osoba o takim nazwisku mogła być znana z ciężkiej pięści albo chęci do bitki,

Golibrzuch - przezwisko określające cechy fizyczne właściciela wyrażone bezpośrednio, osoba o takim nazwisku mogła być znana z chodzenia bez wierchniego okrycia z odsłoniętym brzuchem

Darmochwał - przezwisko określające cechy psychiczne właściciela wyrażone bezpośrednio, osoba tak była zapewne znana z swej skłonności do chwalenia się

czwartek, 30 stycznia 2014

Eko pytania

1. MEDIAMORFOZA – złożony proces oddziaływania i dostosowania się subiektywnych potrzeb odbiorców, konsumentów i klientów mediów, istniejącej struktury politycznej i jej zdolności adaptatywnej, stanu konkurencji oraz innowacji społecznych i technologicznych, ze szczególnym naciskiem na technologię cyfrową.
2. Zakres badań Ekonomiki Mediów wg F.H. Flecka

1) poziom mikro / elementarny – poziom poszczególnych przedsięwzięć w dziedzinie mediów – np. ekonomika GW

2) poziom analiz cząstkowych - analiza sytuacji na rynku – np. ekonomika TV, prasy codziennej

3) poziom sektora mediów jako całości np. media w Pl

4) poziom makroanaliz – np. media w gospodarce – przyrównanie sektora mediów do innych dziedzin gospodarki
3. Potrzeby odbiorców:
  1. Poznawcze
  2. Uczuciowe
  3. Integracji interpersonalnej
4. Ucieczki od rzeczywistości
4. CR4/CR8/ - czyli procentowy udział czterech, lub ośmiu największych firm./ HHI
cr4- wysoka- gdy firmy mają 50% lub więcej; średnia, gdy mają między 33% a 50%; niska, gdy mają mniej niż 33%
cr8- wysoka, gdy firmy mają 75% i więcej, średnia, gdy mają między 50% a 75%, niska mniej niż 50%
Indeks Herfindala Hirschmana (HHI) – jest miarą koncentracji rynku i określa szacunkowy poziom zagęszczenia w danej branży oraz poziom konkurencji na danym rynku podnosi się udziały do kwadratu i sumuje – wysoki udział powyżej 1800, średni pomiędzy 1000 a 1800, niski poniżej 1000
5. KLASYFIKACJA RYNKU (PRZYKŁADY)
  • rynki geograficzne
  • obszary dominującego wpływu (mało ważny w skali ogółu, ale ważne w skali jakiejś grupy np. target Radia Kampus)
  • rynki zamierzone lub docelowe
  • obszar statystyki miejskiej
  • strefa miejska lub handlu detalicznego (łatwa dystrybucja np. w metrze)
  • rynek pierwotny i wtórny
  • rynek administracyjny (określa to jakiś organ)
6. Różnorodność refleksyjna:
  • poziom w jakim istniejące w społeczeństwie preferencje są proporcjonalnie obecne w mediach
  • równy dostęp do mediów
7. Przesłanki interwencji państwa:
- prawna i techniczna regulacja telekomunikacji- np. Federalna Komisja komunikowania USA
- urząd komunikacji elektronicznej- np. Krajowa Rada Radiofonii i Telewizji
- polityka anty-monopolowa
- informacyjne zabezpieczenie procesu rządzenia
- tworzenie warunków dla politycznej debaty

8. Instrumenty polityki ekonomicznej państwa w stosunku do mediów:
• Podatki
• Opłaty pocztowe
• Taryfy telekomunikacyjne
• Opłaty transportowe /kolej, samochody/
• Wspieranie edukacji
• Prasa mniejszości
• Kredyty preferencyjne
• Rządowe ogłoszenia
• Kontrakty z agencjami informacyjnymi
9. Oligopol- kilku dostawców, znaczna różnorodność produktów z tendencją do homogenizacji, stabilność cen- wzrost ani spadek cen się nie opłacają, intensywny marketing, umiarkowana konkurencja cenowa
10. konkurencja monopolistyczna- Wielu dostawców/ Towary i usługi są zróżnicowane (w innym źródle znalazłam, że są mało zróżnicowane, trzeba sprawdzić)/ Ograniczona lojalność klientów (tendencja do przerzucania się z jednego dostawcy do drugiego)/ Możliwość wejścia na rynek i wyjścia z niego/ Maksymalizacja zysku/ Bardzo wiele książek (tytułów), filmów, ale pochodzących od bardzo niewielu dostawców, producentów.
11. konkurencja doskonała- /Liczni dostawcy i odbiorcy/ Brak wpływu na ceny (zbyt mali na rynku by móc kształtować ceny)/ Maksymalizacja zysku/ Swoboda wejścia i wyjścia z rynku/ Produkty i usługi homogeniczne/ Kontinuum struktur rynkowych
12. Refocus- Ponowne skupienie uwagi Zmiany dokonujące się w otoczeniu społecznym i ekonomicznym są nieustanne, co oznacza, że relacje czasopisma z jego audytorium mogą osiągnąć punkt krytyczny, przy czym nic nie jest oczywiste. Część czytelników może oczekiwać pewnej postawy konserwatywnej, wierności pewnej koncepcji i rozwiązaniom, inni dokładnie czegoś wręcz przeciwnego, a więc zmiany, dostosowania do realiów czasu bieżącego. Każda modyfikacja rodzi kontrowersje, wydawca musi się jednak liczyć z tym, że zmiana w zawartości czasopisma może zarazem oznaczać nową strukturę audytorium. Niezdolność do właściwego określenia celu i audytorium może oznaczać niepowodzenie pisma i jego zniknięcie z rynku.
Ponadto czytelnicy mogą okazać się lojalni tylko w ograniczonym stopniu i przenieść swoje zainteresowania na tytuły konkurencyjne (z książki prof. Kowalskiego i b. Junga - "Media na rynku".
13. Cele firm medialnych:
Wzory oficjalne /oświadczenia, deklaracje, art. Wstępne, koncesyjne dokumenty/
Wzory komercyjne /praktyczne sposoby realizacji wzorów oficjalnych/
Wzory partykularne /pomysły osób tworzących program/
Wzory nieformalne /lobbing, naciski i inne wpływy/

14. Strategie firm medialnych

MAINSTREAM – nie wiemy, czy to, co robimy jest potrzebne, wiemy jednak, ze nie możemy z tego zrezygnować, bo inni też to robią
UPSTREAM – posiadania lub kontrola kluczowych zasobów dla działalności firmy
DOWNSTREAM – zwiększenie wpływu na rynek i stopnia kontroli operacji rynkowych
UP-SCALE – zwiększenie skali działalności, więcej produktów lub usług
UP-SCOPE – obejmowanie różnych dziedzin i branż mediów, dywersyfikacja działalności

15. dual produkt market
Podwójny produkt rynkowy - chyba chodzi o rynek towarów i usług medialnych, który dzieli się na rynek zawartości i rynek reklamy ( a między nimi występuje sprzężenie zwrotne). 
16. kapitalistyczne podejście do ekonomiki
"Ekonomia kapitalistyczna rozwiązuje problem mediów, jako dóbr ekonomicznych, z sobie właściwą prostotą, uznając, że każda 
wytwórczość i usługa, która przynosi dochód przysparza tym samym narodowego bogactwa, a więc tworzy produkt krajowy"
17. angażowanie środków finansowych
model klasyczny- intensywnosc kunkurencji-> finansowe zaagnazowanie-> jakosc zawartosci-> uzytecznosc dla audytorium-> dzialania rynku 
model zmodyfikowany- stosunki konkurencji: odbiorcy- innowacje- renta strukturalna-> zaagnazowanie finansowe: budżet- re-lanch-> jakosc zawartosci: info+ rozrywka= jakosc techniczna-> użytecznosc dla odbiorcow: info- rozyrwka- prestiż- uslugi dodatkowe-> dzialania rynku: odbiorcow- reklamy- renta strukturalna
18. wpływ polityki ekonomicznej na media:
Zmiany społeczne i historyczne, filozofia wartości, praktyka.




wtorek, 28 stycznia 2014

  1. Neutralność sieci
Berners-Lee stwierdził, że kto płaci za łącze internetowe o szybkości 300 Mb/s, powinien surfować z dokładnie taką prędkością. Nie ma przy tym znaczenia, czy akurat ogląda strumień wideo, pobiera duży plik czy rozmawia z babcią za pośrednictwem usługi VoIP - opłacone 300 Mb/s to zawsze 300 Mb/s.

  1. Spowalnianie łączy
1. Blokowanie bądź hamowanie transmisji P2P oraz telefonii internetowej. W tym celu wykorzystuje się standardowo kontrowersyjną technologię głębokiej inspekcji pakietów (DPI), pozwalającą analizować zawartość przesyłanych pakietów danych.
2. Jeden na czterech providerów korzysta z metod zarządzania siecią, aby zapewnić niezawodność i stabilność oferowanych łączy - w ramach tych działań
mieści się często hamowanie dostępu do określonych rodzajów treści, na przykład strumieniowania multimediów.
3. Co trzeci dostawca usług internetowych manipuluje przepustowością łączy, aby promować własne usługi takie jak IPTV czy telefonia internetowa.

  1. Internet i ekstranet
NAS – komputer z dyskiem, do którego ma dostęp każdy komputer połączony do sieci LAN
Internet = infrastruktura łączności (linie, sprzęt, oprogramowanie).
WWW = zasoby (informacje i usługi) dostępne za pośrednictwem Internetu.
•Online – w czasie rzeczywistym (podobnie jak rozmowa przez telefon) bezpośrednie, zdalne korzystanie z usług i zasobów informacyjnych udostępnianych przez odległe od siebie komputery.
•Offline – przesyłanie informacji pomiędzy komputerami, która dociera do adresata z opóźnieniem czasowym (podobnie jak wysłanie maila lub napisanego listu).

  1. Rozpoczynając wdrażanie Intranetu w firmie, należy:
• opisać wizję funkcjonowania Intranetu,
• dopilnować zweryfikowania tej wizji przez kompetentne i zaufane osoby,
• sprecyzować swoją wizję na poziomie wdrożenia dla dwóch wyróżnionych grup,
• przemyśleć sposób wykorzystania Intranetu przez członków wybranych grup i rozwinąć w tym kierunku plan, koncentrując się na szybkich powodzeniach i ewentualnych długoterminowych niepowodzeniach,
• przystąpić do szczegółowego projektowania krótkoterminowych zamiarów,
• pracować nad zainteresowaniem kolejnych grup projektem wdrożenia Intranetu do redakcji,
• opracować kompleksowy plan ze szczególnym uwzględnieniem ukrytych kosztów,
• pamiętać o ocenie postępów prac, najlepiej w okresach tygodniowych, zwracając jednocześnie uwagę na pojawiające się trendy w tej branży,
• aktualizować swoją wizję, strategię i bieżące zadania.
  1. VPN – tworzenie tuneli pomiędzy komputerami
Obejście blokady providerów
• Operatorzy sieci VPN, np. blackVPN, dysponują serwerami w różnych krajach i oferują szerokopasmowe, szyfrowane połączenia z tymi serwerami w cenach już od 5 € miesięcznie.
• Oprócz ograniczeń lokalnego operatora można w ten sposób obejść blokady usług internetowych dla użytkowników z określonych krajów. Przez tunel VPN można korzystać na przykład z usługi Hulu czy z zablokowanych dla naszego kraju klipów na portalu YouTube.

Extranet
• Prywatna sieć oparta na internetowym protokole transmisji informacji,
• służy do bezpiecznej (podobnie jak ma to miejsce w Intranecie) komunikacji z wyróżnionymi zewnętrznymi użytkownikami – np. między odległymi redakcjami jednego pisma, a także z biznesowymi partnerami, zaopatrzeniowcami i klientami.
• Sieć tego typu jest także nazywana siecią korporacyjną, VPN – Virtual Private Networks lub WLAN – Wide Local Area Network (także, ale już w innym znaczeniu, lokalnym, nazywany Wireless LAN – bezprzewodowy LAN).
• VPN – tworzenie tuneli pomiędzy komputerami.
  1. Atrakcyjność nazw domen
•Wyspa Nive oferuje – .nu po prawej stronie adresu, w wielu językach oznaczają „coś nowego” lub „teraz”.
•Republika Congo - .cd.
•Stacje radiowe .fm (rmf.fm) lub .am, którymi dysponuje Armenia i Mikronezja.
•Dla Brytyjczyków .bt – skrót wyróżniający Bhutan.
•Austriacy dysponują ciekawym skrótem nazwy państwa .at,
•.is – Islandia (who.is)
•Tongo – mała wysepka na Pacyfiku - .to (zrobie.to)
•Tuval - .tv

  1. Cybersquatting „dziki lokator internetowy”
•Proceder kupowania domen w celu ich późniejszego odsprzedania po zawyżonej cenie.
•„dziki lokator internetowy”.

  1. Typosquatting
•Badacze z Uniwersytetu Harvarda obliczyli, że Google może zarabiać na typosquattingu aż 497 milionów dolarów rocznie.
•Typosquatting polega na rejestrowaniu domen o nazwach bardzo podobnych do domen często odwiedzanych.
•Badacze Tyler Moore i Benjamin Edelman postanowili oszacować jak duże mogą być przychody z typosquattingu dla Google. W tym celu wybrali 3264 adresy z domeny .com i korzystając z listy typowych literówek wygenerowali 900 000 adresów. Za pomocą odpowiedniego programu sprawdzili 285 000 z nich i stwierdzili, że 60% z nich zawierało reklamy Google. Na podstawie tych danych obliczyli, że Google może na tych reklamach zarabiać prawie pół miliarda dolarów rocznie.
•Domeny z literówkami są więc na pewno na rękę Google. Trzeba jednak dodać, że Google usuwa reklamy ze stron z literówkami na wniosek właściciela domeny na podstawie której domeny te zostały utworzone.

  1. Składowe adresów
Top-level domains ustalane przez ICANN (The Internet Corporation for Assigned Names) dzielą się na trzy kategorie:
–generic top-level domains (gTLD),
–country code top-level domains (ccTLD)
–infrastructure top-level domains.
•Strefy zastosowań: com - komercyjne edu - edukacyjne gov - rządowe int - międzynarodowe mil - wojskowe net - organizacje sieci komputerowych org – reszta

Second Level Domain – druga składowa domeny SLD
•Nazwa funkcjonalna adresu, jeśli w ogóle występuje, jest umieszczana na drugim poziomie, np. com.pl.
•Wspomniany drugi poziom adresu tworzy składowa nazywana Second-Level Domain (SLD).
•Zwykle w tym miejscu pojawia się nazwa funkcjonalna (com, gov, net itp.) lub regionalna (waw, poznan, szczecin itp.).
•Komputery, których nazwa adresu kończy się na: com.pl, są zarejestrowane w Polsce i zadedykowane (zazwyczaj) sprawom komercyjnym – tak jak przykładowy adres www.xxx.com.pl.
•W Polsce rejestracją nazw domen na poziomie SLD zajmuje się NASK (www.nask.pl). „Zajmowanie się” to także przyjmowanie określonych opłat za rejestrację domeny. 178 partnerów: dns.pl/porozumienie/partner.html

  1. Subdomena
•Właściciel domeny o nazwie np. „pt.pl” ma prawo tworzenia pełnych adresów dla każdego komputera w swojej domenie/sieci, a także kolejnych subdomen, np. archiwum.pt.pl, na dalszych poziomach adresacji – (podobnie jak numery mieszkań w bloku pozostają w gestii administracji lub właściciela budynku, a nie w gestii miasta lub dzielnicy).

URL – Uniformal Resource Locator – precyzyjny adres strony
•Uniformal Resource Locator, np. http://www.pol.pl./katalog
•http
•www.pol.pl.
•katalog
DNS – Domain Name Servers – adres precyzyjny strony, operator domeny – registrator.
IPv4 I IPv6
•Tłumaczeniem słów (literowych skrótów) na liczbową postać zajmują się DNSy - Domain Name Servers.
•Liczbowy adres jest to ciąg czterech liczb z zakresu 0-255 każda, rozdzielonych kropkami, np. 196.116.146.6.
•DNS służy do przyjaznego użytkownikowi oznaczania adresów stron i stronic internetowych.
•Opisy każdej domeny znajdują się, z powodów niezawodnościowych, w co najmniej dwóch serwerach – Primary DNS i dalszych – Secondary DNS.
•Międzykontynentalny i międzynarodowy ruch ma natomiast swojego „globalnego tłumacza” i swój „globalny drogowskaz” adresów w DNS-ach o nazwie Root-Servers, stanowiących wierzchołek hierarchii DNS-ów.
•System informacji o adresach oraz tłumacz adresów symbolicznych.
•DNS Servers np. www.chip.pl = 195.116.104.13
•.Third-Level-Domain.Second-Level domain.Top-Level-Domains (TLD) nazwa_hosta.treści(znaczenie).pochodzenie geograficzne
•Na szczycie struktury DNS - Root-Level-Servers (w USA) = kręgosłup całego Internetu.

  1. Aliasy
•Długie adresy: np. f128.us.mail.Yahoo!.com, czy ww.setiathome.ssl.berkeley.edu/stats/country_134.html.
•Użytecznym rozwiązaniem jest w tym przypadku korzystanie z tzw. aliasów.
•Usługę tę świadczą firmy o prostej nazwie domeny (np. www.w.pl).
•Alias jest zatem uproszczeniem nazwy adresu (odnosi się to także do adresów poczty elektronicznej) i w sygnalizowanym wcześniej przypadku adres www.dobry.com.pl/abacki przyjmie postać www.abacki.w.pl.
•Alias może być też nadawany przez administratorów sieci, na przykład rambo.id.uw.edu.pl zamiast www.do.id.uw.edu.pl/~rambo.

USŁUGI W INTERNECIE
  1. Zasady konstrukcji stron
    1. Oczekiwania
Pierwsze wrażenie jakie odnosi wizytujący stronę,
•umieszczanie na pierwszych stronicach podstawowych informacji o zakresie usług/produktów firmy, a dalej katalogów online oraz odnośników do wszelkich publikacji związanych z przedmiotem działalności firmy,
•misje witryny: edukacyjna i zarządzania reputacją firmy.
•Przykładem przestrzegania takich zasad są takie firmy jak ICI lub Elf. Na stronie Elfa jest przedstawiona historia benzyny od początku świata, przez tworzenie się ropy, jej wydobycie, przetwórstwo, aż do transportu do stacji benzynowej.
•Rzadko bywa tak, iż firma jest bardzo dobra, a jej witryna kiepska. Zazwyczaj rzeczywisty, bieżący obraz firmy znajduje swoje bezpośrednie odzwierciedlenie w wirtualnym świecie.
    1. B
      Strona – Site
      URL - page
      udowa stron
Zasoby Sieci tworzą zbiory pogrupowane w stronach (witrynach, portalach). W większości są one zapisane w formacie nazywanym hipertekst. Jest to logiczna kombinacja komputera i tekstu, komputerowy interfejs pozwalający na encyklopedyczne przeglądanie tekstów.
Każda strona (site) WWW zawiera zazwyczaj jeden monotematyczny zbiór informacji. Jest ona podzielona na części, które niefortunnie także są nazywane stronami (page) - dla wyróżnienia przyjęto nazywać je słowem: stronice, w znaczeniu pojedynczych kartek.
A zatem zbiory WWW są nazywane stronami, które z kolei są dzielone na pojedyncze „kartki” – stronice.

    1. Hipertekst
•Strony WWW są budowane w specjalny sposób, potocznie mówi się, iż są napisane w HTML-u. O HTML: home.pl/pomoc/kursy/html,
•ułatwia przeglądanie i odczytywanie zawartości stron i stronic,
•strony mogą zawierać informacje w każdej formie – teksty, rysunki, fotografie, dźwięki i sekwencje wideo (multimedia).
•Linki - wskazanie linku można porównać do zainicjowania czynności odszukania hasła w encyklopedii.
    1. Link inaczej
•wzbogaci Sieć o wiele nowych możliwości, np. pozwoli odtwarzać filmy bez dodatkowych wtyczek.
•+ JavaScript ostatecznie pogrzebią prywatność w Internecie.
•HTML5 umożliwia zapisywanie danych stron WWW w pamięci komputera czy telefonu. Dane mogą być zdalnie odczytywane, zmieniane i usuwane.
    1. Test zgodności kodu z przeglądarkami
SLAJDY
    1. Strony
•Portal, „superstrona” – udostępnia jeden punkt interakcji z całym potencjałem informacyjno-usługowym;
•Zazwyczaj składają się na nią: wewnętrzny szperacz, zasoby informacyjno-usługowe, katalog tych zasobów, linki do wyróżnionych innych stron (np. sklepy, giełdy) oraz darmowe usługi – skrzynka pocztowa, miejsce na prywatną stronę, kawiarenka internetowa;
•Portal wielotematyczny – portal horyzontalny,
•portal monotematyczny – portal wertykalny (wortal),
•witryna – strona zazwyczaj prezentująca firmę, osobę.
  1. Mush-ups
Połączenie fragmentów zawartości wielu stron w celu stworzenia nowej strony – hybrydy.
Przykładami takich stron są połączenia map (Google) z ofertą sprzedaży nieruchomości (HausingMaps.com), gromadzenie informacji o sytuacji na drogach z miejskich WebCamów i innych źródeł.
PERSONALNE mash-ups
•Yahoo, I.B.M., Microsoft i inni tworzą systemy pozwalające użytkownikom, bez przygotowania informatycznego, tworzyć użyteczne aplikacje łączące (“mashing up”) różne onlinowe źródła informacji.
Yahoo’s mash-up tool, Pipes,
•Produkt I.B.M., - QEDWiki — dedykowane sprzedawcom, księgowym – osobom potrzebującym informacji z różnych źródeł do rozwiązywania biznesowych problemów. I.B.M. opracował 10-minutowy tutorial QEDWiki opublikowany w YouTube.

  1. Kreator stron

  1. Narzędzia do budowy stron
•Dreamweaver
•Microsoft FrontPage (następcy: Expression Web Designer, SharePoint Designer)
•Pajączek
•Edytor tekstowy
•Inne
•GoLive
•NetObjects Fusion

  1. Komponenty używane przy konstrukcji stron
JavaScript 55.87%
Frames 23.49%
StyleSheets 35.06%
Java 2.58%
IFrames 7.72%
GIF Images 61.22%
JPG Images 46.42%
PNG Images 4.11%
Flash/Shockwave 9.55%
  1. Java Script
•jest językiem programowania.
•Umożliwia wprowadzenie interaktywności do HTML-owych Stron.
•Produkty Javy można wprost wkładać do Stron.
•Narzędzia JavaScriptu dostępne są bez opłat, subsydiowane przez Netscapea i Internet Explorera.
    1. Style Sheets
    2. GIF, JPEG, PNG
    3. Widgety
•Interaktywne moduły reklamowe instalowane na stronach, także „elementy graficzne interfejsu graficznego”.
For consumers, they show the lowest price on goods that would interest them based on page context. For publishers, it shows the highest price consumers are willing to pay for a given item.
  1. Najlepsze czcionki do internetu:
Veranda, Tahoma, Arial, Times New Roman
  1. Czcionki na ekranie
Czytelność strony jest pochodną doboru formy zapisu treści publikowanych w Sieci.
•krój czcionki,
•kolor czcionki,
•tło czcionki,
•kolor elementów tła całej strony

  1. Struktura oglądania strony
•Większość stron jest przeglądana, ale nie jest czytana.
•Naturalny odruch czytania (w języku polskim) od lewej do prawej i z góry w dół zmusza do zachowania równowagi między obrazem i tekstem; obraz powinien być umieszczony po lewej stronie ekranu.
•Ważne ilustracje należy umieszczać po prawej stronie ekranu – zdominują one treści będące po lewej stronie ekranu.
•Najczęściej zwracana jest uwaga na lewy górny róg stronicy oraz na tekst, który jest umieszczony bezpośrednio pod ilustracją zajmującą tę część obrazu (najlepiej logo).
•Uwaga czytających jest skierowana na wyróżnione fragmenty tekstów.
•Podobny efekt jest związany z odwracaniem uwagi od zasadniczych treści strony przez przyciski nawigacyjne. Celowe jest zatem zastępowanie ich innymi formami nawigacji, na przykład łatwym dostępem do mapy strony.

  1. CMS – System Zarządzania Zawartością
(Content Management System)
•Jest to program umożliwiający bezpośrednie wprowadzanie informacji do „szablonów”.
•Redaktor dbający o aktualność określonych informacji wyświetlanych na zarządzanej przez niego Stronie, opracowuje wiadomość (np. bieżące notowania walut) przy pomocy dowolnego edytora i za pośrednictwem CMS-u bezpośrednio przesyła swój materiał na Stronę.
Standardowe funkcje CMS:
•zarządzanie zasobami,
•rozbudowany edytor umożliwiający tworzenie i formatowanie dokumentów bez znajomości HTML,
•integracja z pakietem MS Office,
•definiowanie procesów workflow dla publikowanych dokumentów,
•mechanizmy służące do zarządzania wyglądem i strukturą portalu - modułowość, dedykowane narzędzia,
•możliwość dodawania metadanych do dokumentów,
•podział użytkowników na role ze względu na wykonywane zadania i udostępnione im funkcje systemu,
•mechanizmy bezpieczeństwa i autoryzacji,
•otwarta architektura systemu (możliwość dodawania mechanizmów dynamicznych: bazy notowań, wykresy, kalkulatory, aplikacje do tworzenia formularzy, zlecenia internetowe, testy, listy dyskusyjne, chaty, forum, gry itp., e-commerce, SMSy),
•personalizacja i statystyki,
•wyszukiwarka.

  1. BYOD – Bring Your Own Device
BYOD (Bring Your Own Device) to trend polegający na używaniu przez pracowników w miejscu pracy swoich prywatnych smartfonów i tabletów.
ZAGROŻENIE: wyciek danych - Urządzenia przynoszone do pracy na ogół łączą się z internetem przez firmową sieć WiFi. Użytkownicy logują się do sieci używając swoich loginów i haseł, ale to nie znaczy, że ich smartfony, tablety i laptopy są objęte firmowymi politykami bezpieczeństwa. Aby tak było, urządzenia te musiałyby zostać wciągnięte do zarządzanej sieci firmowej, ale instalacja agentów domeny na wszystkich prywatnych urządzeniach nie jest możliwa ze względu na różnorodność systemów operacyjnych i ich wersji. Takie niezarządzane urządzenia nie tylko narażają sieć na zwiększone ryzyko infekcji i wycieku danych, mogą też zbytnio ją obciążać poprzez aplikacje takie, jak radio internetowe, czy streaming wideo.
  1. Oczekiwania odwiedzających stronę
•Użyteczność,
•Funkcjonalność,
•Intuicyjność,
•Wydajność.
  1. Zarządzanie stronami powinno uzględniać…
•szacunkową liczbę odwiedzających Stronę,
•kim są odwiedzający Stronę Internauci?
•jakiego systemu operacyjnego (SO) używają i jakiej przeglądarki (np. czy Strona spełnia wymogi standardów HTML, XHTML, CSS)?
•kto polecił odwiedzającym Stronę?
•liczba rzeczywistych odwiedzin (Stat4You, TheCounter.com),
•szybki, ciągły (24/7) dostęp do Strony,
•dzienne, tygodniowe, miesięczne statystyki pozwalające ocenić:
–jakiej przeglądarki używają odwiedzający?
–rozdzielczość ekranu odwiedzających?
–SO odwiedzających?
–jakie Strony mają linki do budowanej Strony?
–jakie szperacze wykorzystano do lokalizacji budowanej Strony?
–jakich słów kluczowych używali odwiedzający w szperaczach?
•stan liczników życia Strony, łącznie z niewidocznym.
  1. 7 zasad efektywnej strony WWW
•Zasada 1: konsument ma rację – słuchaj i odpowiadaj na jego potrzeby. Należy zrozumieć dlaczego konsumenci odwiedzają stronę.
•Zasada 2: Określenie podstawowego celu utrzymywania strony. Uświadomienie akcji, które chcemy sprowokować u określonych klientów.
•Zasada 3: Nadawać priorytet doświadczeniu klientów. Klienci odchodzą do konkurencji, bo czują się niedocenieni lub szacują, że koszt dalszego prowadzenia interesów jest większy od uzyskiwanych korzyści. Uwzględniając znane doświadczenia klientów łatwiej ich utrzymać.
•Zasada 4: Wykorzystywanie wiedzy o klientach.
•Zasada 5: Ocena uchybień strony. Np. Analiza niesatysfakcjonujących wyników poszukiwań na stronie.
•Zasada 6: Kreowanie dialogu z konsumentem. Dostępne narzędzia personalizacji ułatwiają prowadzenie dialogu, dostosowanie go do specyficznych odbiorców (kwestia pozyskanych danych osobowych, zachowań).
•Zasada 7: Optymalizacja skuteczności strony. Wykorzystanie strony jako niedrogiego narzędzia oceny nowych koncepcji i idei.

  1. Kategorie zasad konstrukcji I utrzymywania stron internetowych
•dostępność,
•zawartość merytoryczna,
•komunikatywność,
•nawigacja.
  1. SEO – Search Engine Optimalisation
Optymalizacja dla wyszukiwarek internetowych (ang. Search Engine Optimization; zwana także pozycjonowaniem) procesy zmierzające do osiągnięcia przez dany serwis internetowy jak najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych dla wybranych słów i fraz kluczowych. Proces pozycjonowania jest elementem szeroko pojętego marketingu internetowego. Pozycjonowanie bazuje na znanych elementach działania algorytmu wyszukiwarek, ciągłym poznawaniu nowych, które algorytmy biorą pod uwagę przy rangowaniu strony oraz na weryfikowaniu już istniejących.

  1. KATEGORIA – Zawartość merytoryczna
    1. Dane o firmie
Cel istnienia firmy;
Slogan reklamowy;
Informacje ogólne – definicje podstawowych pojęć związanych z branżą;
Informacje o usługach/produktach oferowanych przez firmę;
Najważniejsze osoby w firmie + zdjęcia;
Historia firmy/produktów z nią związanych;
Dane finansowe;
Problematyka socjalna;
Sukcesy - opis efektów działań firmy, pochlebne cytaty, referencje, nagrody itp.;
Lista klientów.

    1. Dane kontaktowe
pełna nazwa firmy;
numer ulicy;
numer lokalu;
kod pocztowy;
miasto;
mapka dojazdu;
NIP;
e-mail;
numer telefonu;
numer faksu.
    1. Informacje o firmie

  1. KATEGORIA – komunikatywność
Interaktywność:
Czas załadowania strony głównej nie powinien przekraczać 2 s.;
Brak błędów połączeń podczas poruszania się po witrynie;
Biuro prasowe online powinno być dostępne ze strony głównej witryny;
Obecność linków w tym troska o ich aktualność, związek z branżą i zgodność zasobów z ich zapowiedzią;
Szybkość i jakość odpowiedzi na e-maila;
Poprawność i aktualność e-maila podanego na oficjalnej stronie firmy – możliwość skontaktowania się z firmą za jego pośrednictwem;
Obecność okna e-mail do tzw. szybkiej komunikacji.

Personalizacja:
Dostępność: newslettera, RSS-a, formularza rejestracyjnego;
Możliwość zalogowania się.

Aktualność danych:
Aktualność informacji na stronie;
Aktualność linków.

Zrozumiałość przekazu:
poprawność pod kątem ortograficznym, gramatycznym, stylistycznym;
Niestosowanie niewytłumaczonych skrótów i pojęć;
Dostępność witryny w przynajmniej dwóch językach.

Czytelność przekazu:
Obecność podtytułów, które powinny być:
oWyraźnie oznaczone;
oUmiejscowione w dobrym miejscu - podtytuł powinien otaczać swoją konstrukcją określoną zawartość;
oSzybkie w lekturze;
oZrozumiałe;
oDobrze definiujące określony tekst.
Linki:
oWyraźne oznaczenie linków przed kliknięciem;
oWyraźne oznaczenie linków po kliknięciu;
oZgodność linków z ich wcześniejszym tematycznym kliknięciem.
Obecność multimediów.

  1. KATEGORIA – nawigacja
Pasek nawigacji:
Obecność paska nawigacji na stronie głównej;
Obecność paska nawigacji na wszystkich stronnicach;
Pasek narzędzi jest wszędzie taki sam.
Obecność drzewa strony;
Dostępność strony głównej z dowolnego miejsca serwisu;
Dostępność przycisku wstecz z dowolnego miejsca serwisu;
Możliwość szybkiego drukowania;
Wewnętrzny szperacz witryny;
Obecność Identyfikatora witryny lub logo na każdej stronicy;
Jednolitość witryny pod kątem treści, formy i koloru;
Wyraźne oznaczenie przycisków do kliknięcia

  1. Ocena stron
W odniesieniu do mediów i innych branż
w Sieci, fundamentalna jest interaktywność Stron oraz możliwość dynamicznego łączenia (linki) informacji tekstowych z bogactwem uzupełnień w formie multimedialnych zasobów. Dzięki temu portale stają się żywe, często z aktualizowanymi na bieżąco danymi, z grafiką, dźwiękiem i multimedialnymi prezentacjami.

  1. Sprawdź swoją stronę
•Gdzie kierujesz wzrok w pierwszej kolejności?
•Czy potrafisz powiedzieć o czym jest strona?
•Czy ważne informacje są na pierwszej stronicy (bez przewijania)?
•Czy korzyści dla czytelnika są podkreślone?
•Czy są czytelne zachęty do akcji (druk, info.)?
•Czy kolory, znaki, animacje są rozpraszające?
•Czy czujesz osobisty związek ze stroną?
•Czy są linki do stron społecznościowych?

  1. Kategorie merytorycznych ocen stron
Technologia i funkcjonalność
•Technologia – wygląd i nawigacja
•Interaktywność
•Linki, wydarzenia i słowniki
•Dostępność
Zawartość
•Informacje finansowe
•Informacje o firmie
•Informacje adresowe

  1. Co ważne na stronie?
•Interaktywność jest interpretowana jako możliwość subskrypcji określonych informacji dostarczanych via mail, np. czas udzielenia odpowiedzi na zadane pytanie mailem.
•O wartości linków na stronie świadczą ich aktualność i związek z branżą oraz wskazywanie informacji o wydarzeniach dotyczących przedmiotu działalności firmy – właścicielki strony.
•Dostępność i zasobność słowników związanych z firmą,
•Kluczowe elementy: informacje adresowe, schemat organizacyjny, prezentacja władz i historia firmy.
•Dodatkowe informacje o firmie: sprawy socjalne oraz ogłoszenia o wolnych miejscach pracy i możliwości zdalnego składania CV.
•W ramach finansowych informacji o firmie - dostępność online: ostatniego raportu finansowego (w formatach PDF/HTML), archiwum poprzednich raportów, kalendarza firmowych zdarzeń, notowania akcji, wielkości obrotów akcjami firmy, polityki, historii dywidend, informacji o właścicielach i innych istotnych danych finansowych.

  1. Liczniki – samoocena konstrukcji i atrakcyjności strony
•szybki dostęp do statystyk strony – 24/7/365, czyli w skali dnia, tygodnia i roku,
•możliwość oceny:
–jakiej przeglądarki używa wizytujący stronę,
–rozdzielczość ekranu odwiedzającego,
–system operacyjny odwiedzającego,
–które strony polecają ocenianą witrynę,
–który szperacz wskazał wizytującemu stronę,
–jakich słów kluczowych używał odwiedzający w tym szperaczu,
–kilka różnych stylów licznika, łącznie z niewidocznym dla internautów,
•mailowe komunikaty (alerty).

  1. Pojęcia ilościowych ocen
•Wywołanie/hit – wczytanie dowolnego elementu z serwera WWW. Np. załadowanie strony z 3 plikami graficznymi = 4 hity
•Strona WWW – wywołanie dokumentu o rozszerzeniu HTM, HTML, TXT lub skryptu, np. PHP.
•Sesja – ciąg plików (kolejnych wywołań) pobranych przez jednego użytkownika z konkretnego adresu WWW
•Wejście – dokument, od którego użytkownik zaczyna przeglądanie strony.
•Transfer – ilość danych (w KB), które zostały pobrane z serwera.

  1. Rafinacja zasobów sieciowych
Informacyjne źródło zasobów sieciowych – biały wywiad 2.0 Big data – baza rafinacji
• Big Data to zasoby w postaci cyfrowej, których istotną część tworzą wszelkie informacje dostępne w internecie:
- posty, blogi, strony, fora, profesjonalne wydawnictwa (dzienniki, periodyki, książki i inne podobne wydawnictwa, np. – 235 terabajtów danych zebranych w US Library of Congress do IV.2011).
• Zbiór 100 milionów wiadomości agencyjnych z całego świata, który obejmuje pół wieku ludzkiej cywilizacji, cyfrowa biblioteka 4% wszystkich książek wydrukowanych w okresie sześciu wieków, zasoby branżowe, np. Służba zdrowia.
• Big data są także tworzone przez urządzenia komórki (5 mld w 2010 r.), komputery, cyfrowe kamery, aparaty fotograficzne, czytniki RFID, samochody, domy, inteligentne mierniki np. poboru energii elektrycznej i GPSy.

Inteligentne liczniki prądu – Smart Meter
• Źródło informacji o prywatnych zachowaniach użytkowników prądu:
– Posiłki
– Sen
– Toaleta
– Pranie
– Typ TV (skok poboru mocy)

Rafinacja informacji
• Jest peryskopem pomiędzy dwoma poziomami informacji: poziomu bazowego i poziomu wyniku rafinacji.
• Umożliwia dostrzeganie informacji z otoczenia/poziomu bazowych informacji (czyste informacje z WWW) tych, które są na poziomie informacji będących wynikiem rafinacji.

Culturomics
• Dwa istniejące filary rafinacji: Culturomics i Curation.
• Culturomics obejmuje aktywności związane z eksploracją szerokiego spektrum kulturowych trendów poprzez komputerową analizę cyfrowych archiwów książek. Stwarza nowe możliwości wglądu w funkcjonowanie społeczeństwa
113 „curation"
• dopasowywanie wyników wyszukiwania w internecie do preferencji użytkownika.
• Curatorem jest ktoś kto ciągle szuka, grupuje, organizuje i udostępnia najlepszą, najbardziej odpowiednie treści dla specyficznych potrzeb online.
Przykład curation
• Axiom – 500 milionów konsumentów, 1500 kategorii informacji o każdym
• Każdy umieszczany jest w jednej z 70 socjoekonomicznych kategorii Consumer Data, but Not for Consumers, By NATASHA SINGER, Published: July 21, 2012, NYT. Rafinacja - zasięg
• Analizując miliardy postów, blogów i artykułów dostępnych online możliwe jest uzyskanie nowych informacji o społecznych fenomenach, państwach, organizacjach i osobach (relacje, migracje itp.)
• Wynik: ocena emocji relacji: sympatia, antypatia, poczucie szczęścia, optymizm, pesymizm, strach.

Narzędzia rafinacji
• Wyszukiwarki
• Dane behawioralne (zachowania w Sieci)
• Personalizacja (np. kryteria opisujących osobę decydują o wynikach wyszukiwania)
• Zaawansowane narzędzia, np. ocena sentymentu (Attentio). Diagnoza emocjonalnych
odczuć adresata przekazu
• Tłumaczenie emocjonalnych odczuć na liczby.
• Analityczne narzędzia mierzące sentyment użytkownika Sieci (sentiment analysis). Do określonych zdarzeń, informacji, marek towarowych oraz towarów, a nawet wskazywania dni, w których Internauci są najbardziej podatni na określone przekazy informacyjne.

Wyniki rafinacji – przewidywanie przyszłości
• Zachowania giełd, sprzedaż książek, wideo
• Choroby
• Zjawiska polityczne i społeczne
• Konflikty społeczne
Prognozowanie z informacji sieciowych
• Ludzie szukając dzisiaj wskazują co będą robili w przyszłości.
• Np. bezrobocie, sprzedaż samochodów, choroby.
• Badania potwierdziły prognozy sprzedaży filmów i pozycję muzyki na liście przebojów.
• Realne przewidywanie kolektywnych zachowań w zakresie ekonomii, kultury i polityki.

Minerva – inicjatywa Pentagonu
• Poszukiwania w celu zdefiniowania i rozwoju podstawowej wiedzy o obecnych i przyszłych konfliktach w kierunku lepszego zrozumienia politycznych trajektorii w kluczowych regionach świata.
• Doskonalenie możliwości DoD w celu rozwoju nauk społecznych, problemów zagranicznych i interdyscyplinarnych studiów.
Psychohistoria Issac Asimov
• Kombinacja matematyki i psychologii do przewidywania przyszłości.
• Obecnie bazą „big data”: RFID, POSy,Twitter, Facebook, blogi, Wiki, lokalizacja komórek, ruch w Sieci, zapytania, dane z rynków finansowych, webcamy z ulic. Efekt – przewidywanie
politycznych kryzysów, rewolucji i innych form społecznej i ekonomicznej niestabilności, epidemii.
Brandometr
• Brandometr pozwala na bieżąco śledzić nowe wypowiedzi, jakie pojawiły się w Internecie na temat danej marki.
• Umożliwia łatwe odnajdowanie trwających dyskusji, przysłuchiwanie się im oraz włączanie się do nich.
Cyfrowy testament
• Facebook – kilka milionów kont osób nieżyjących. W tym roku przybędzie kolejne 1,5
mln kont należących do zmarłych.
• Usługa polegająca na spisaniu cyfrowego testamentu. Umożliwia to bliskim zmarłych użytkowników odzyskanie ich kont i zarządzanie nimi.
• Po zmarłych mogły pozostać pieniądze w PayPalu, zdjęcia w sieciowych galeriach,
życiorysy i CV w serwisach rekrutacyjnych, poczta itp.
Przykłady miejsc i form testamentów
• Nagrania wideo i audio (legacylocker, greatgoodbye)
• Zamieszczanie komunikatów na blogu (mywebwill)
• Konieczność potwierdzenia przez dwie osoby lub cykliczne potwierdzanie życia.
• Testament sieciowy bywa łączony z tradycyjnym.

  1. Ocena przez statystyki stron internetowych
•49 % wszystkich odwiedzin na witrynach pochodzi od fizycznych osób.
•20 % całego ruchu w Internecie generują mechanizmy katalogujące witryny w wyszukiwarkach.
•31% to „złośliwy„ ruch, czyli skrypty i spamboty.
•5% sztucznego ruchu generowane jest przez narzędzia hakerskie.
•5% - „zbieracze", kradną treści umieszczane w witrynach.
•2% boty generujące spamowe komentarze i wpisy w których umieszczane są reklamy na forach.
•19 % - pospolity spyware.

  1. Jak sprawdzić statystyki strony
Teqpad to narzędzie, pozwalające uzyskać dostęp do statystyk każdej witryny dostępnej w Internecie, a także wielu innych, użytecznych informacji dotyczących danego serwisu.
Sprawdzenie strony WWW w Teqpad dostarczy nam takich informacji jak: dzienna ilość wizyt, odsłon, użytkowników, udział witryny w globalnym ruchu, a nawet jej przybliżoną wartość oraz dzienne zarobki. Ponadto znajdziemy tam ilość linków prowadzących do owej strony, mierzoną przez kilka wyszukiwarek, obecność serwisu w popularnych katalogach, a także jej pozycję w różnego rodzaju rankingach.
Dodatkowe dane, do których zyskujemy dostęp to szczegółowe informacje na temat serwera oraz domeny, tytuł, opis i screen strony głównej, a także datę ostatniej wizyty robota Google.

  1. Najpopularniejsze statystyki
    1. Opentracker
*Płatne, ale jest 4-tygodniowy okres próbny.
*Statystki o naprawdę dużych możliwościach. Przyjemnie zaprojektowane.
*Koszt to 16,99 USD miesięcznie lub 169$ USD rocznie.
*Jest to cena najczęściej wykraczająca poza budżet zwykłego webmastera, ale niewygórowana dla internetowego biznesu średniej wielkości.
*Choć jest to produkt amerykański, udostępnia wiele wersji językowych interfejsu użytkownika, w tym polską.

    1. Stat24
*Statystyki rodem z Polski, dostępne zarówno w wersji darmowej, jak i profesjonalna wersja płatna.
*Obsługiwane przez zewnętrzny serwer.
*Cena tej ostatniej waha się od 600 zł do 3500 zł rocznie, w zależności od liczby odsłon serwisu.
*Warunkiem korzystania z w pełni funkcjonalnej, bezpłatnej wersji statystyk statStandard jest zamieszczenie logotypu na stronie głównej monitorowanej witryny oraz wyrażenie zgody na emisję ankiet badawczych i reklam komercyjnych na łamach swojej witryny.

*Ranking stat24 to narzędzie służące zarówno witrynom zainteresowanym bezpłatną promocją w internecie, jak również pełniące funkcję wiarygodnego źródła informacji dla internautów poszukujących tematycznych serwisów.
*Jest to także miejsce, w którym istnieje możliwość zaprezentowania swojej witryny reklamodawcom.

    1. AWStats
*Darmowy program instalowany na serwerze użytkownika. Statystyki Awstats są bardzo często domyślnie dostępne na serwerach WWW.


  1. Inne źródła statystyki

  1. Wartość strony
•Websiteoutlook jest miejscem/narzędziem szacunkowej oceny wartości strony.
•Użyteczne w chwili sprzedaży/kupna strony.

  1. AdWords i AdSense
AdSense
•Opłacanie przez szperacze twórców stron, włączając blogerów.
•Twórca dostaje wynagrodzenie proporcjonalne do liczby reklam ukazujących się w otoczeniu linku jego strony, który wyświetlany jest na SERP. Reklamy powiązane są kontekstualnie z treścią strony jej twórcy.

AdWords
•Reklamy są wyświetlane - obok wyników wyszukiwania wybranych słów kluczowych -użytkownikom wyszukującym te słowa w Google. To znaczy, że reklama trafia do osób już nią zainteresowanych.
•Użytkownicy mogą kliknąć w reklamę i dokonać zakupu albo dowiedzieć się więcej o firmie.
•50% wpływów pochodzi z tego typu reklam.

  1. Lista narzędzi do oceny stron
    1. Google Analitics
Slajdy od 125 z „Usługi” – kilka ich jest, dlatego nie wrzucam
•Darmowy system udostępniony przez Google
•Raporty dla dni, tygodni, miesięcy oraz lat
•Podstawowe parametry: liczba odwiedzin, liczba odsłon, średni czas spędzony na stronie oraz współczynnik odrzuceń (udział wizyt, które składały się tylko z jednej odsłony).
    1. Browswershots.org
Browsershots.org – wygląd WWW w różnych przeglądarkach np. IE, Android, Firefox; 60 zrzutów. Bada także, jak działają skrypty Java i Flash .

    1. Raven
Raven – jak wypada moje WWW na tle konkurencji; monitoring sieci; miesiąc próbny za darmo; raventools.com .

    1. Web Site Optimization
czas ładowania i reakcji WWW; standardy: 5-8 sek. ładowanie strony; reakcja na działanie użytkownika 0,5 sek;

    1. Clean CSS

  1. Do oceny ½
Poza konkursem (wspomniany wcześniej): W3C – aplikacja do kontrolowania skryptu CSS i HTML . Bada txt kodu czy jest zgodny ze standardem. Działa podobnie do narzędzia Raven

  1. Page Rank
metoda nadawania indeksowanym stronom internetowym określonej wartości liczbowej, oznaczającej ich jakość.
Algorytm PageRank jest wykorzystywany przez popularną wyszukiwarkę internetową Google. Został opracowany przez założycieli firmy Google Larry'ego Page'a i Sergeya Brina podczas ich studiów na Uniwersytecie Stanforda w 1998 roku. Nazwa algorytmu pochodzi nie od angielskiego wyrazu określającego stronę (ang. page), lecz od nazwiska twórcy, czyli Larry'ego Page'a. Wynik PageRank pokazywany jest jako jedna z opcji dostępnych w pasku narzędziowym Google, sprawdzać można go również w wielu serwisach niezależnych.
Nazwa "PageRank" jest znakiem handlowym Google, a sam algorytm został 9 stycznia 1998 opatentowany w Stanach Zjednoczonych (nr patentu US6285999). Patent należy jednak do Uniwersytetu Stanforda, a nie firmy Google. Uzyskała ona od Uniwersytetu Stanforda prawa licencyjne na wyłączność, a w zamian za zezwolenie na korzystanie z patentu uniwersytet otrzymał 1,8 miliona akcji Google. Akcje zostały sprzedane w 2005 za 336 milionów dolarów.

  1. Programy do zbierania informacji ze stron www

  1. Optymalizacja stron dla urządzeń mobilnych

  1. Dostosowanie maili do komórek

  1. Luki w zabezpieczeniach ma 86% stron www

  1. Przeglądarki
•Przeglądarki - tak zwane browsery - są programami, które umożliwiają wędrówkę po Sieci.
•Umożliwiają obsługę komputera podczas wykonywania wszystkich operacji niezbędnych do korzystania z zasobów Sieci.
•Czynności związane z poprawnym odczytaniem treści wybranej Strony wykonuje przeglądarka. Informacje zapisane w różnych formatach, z użyciem różnych komponentów.
•Jest wzbogacana o tak zwane wtyczki – programy uzupełniające funkcjonalność przeglądarki.

  1. Warstwy przeglądarki
•interfejs, za pomocą którego użytkownik wykonuje rozmaite polecenia,
•wewnętrzny silnik wyświetlający/renderujący zawartość strony na monitorze;
–Microsoft rozwija silnik Trident
–Opera pracuje nad silnikiem Presto
–Mozilla wykorzystuje tworzony przez społeczność silnik Gecko (ang. 'gekon'),
–Chrome (podobnie jak Safari Apple'a) korzysta z tworzonego przez społeczność silnika Webkit,
–i kilkanaście innych.

  1. Przeglądarki – szybkość, zabezpieczenia
•Szybkość: 1. Chrome, 2. Firefox, 3. IE9
•Zabezpieczenia: jw.
•Zgodność z HTML5: jw.

  1. Która z dodatkowych funkcji przeglądarek internetowych jest dla ciebie najważniejsza

  1. Luki w przeglądarkach
  1. Tryb anonimowy
•Wykorzystanie innych serwerów proxy,
–by zgubić ślad (test: dnsstuff.com),
–by dynamicznie zmieniać: MultiProxy
–Oferty: www.freeproxy.ru, anonymizer.com, safersurf.com, tor.eff.org
•Wykorzystanie WLAN, najlepiej anonimowo obok firmy, lub przez „zdrapkę” w hotspocie.
•Anonymous Surfing ukrywa adres IP –wyklucza śledzenie stron, które są oglądane.
•Przekierowanie ruchu przez serwer Zone.
•Serwery uzbrojone w 128 bitowy SSL.
•Torbark – przeglądarka na bazie Firefoxa. Zapewnia anonimowość w systemie TOR (torproject.org), sieć serwerów ukrywających tożsamość w Sieci.
•The Torpark 1.5.0.7 (oparte na Firefoksie); IE 8 beta2; Google Chrome; Stealther 1.0.6 (dodatek do Firefox 3.0).
•Programy anonimizujące, np.: Java Anon Proxy (JAP); The Onion Router (TOR)
•Do ukrywania tożsamości stosuje się kaskadę mieszanych proxy, składającą się z przynajmniej trzech serwerów.
www.bugmeont.com
•„Trasowanie cebulowe” – tor.eff.org/index.html.pl
•Przez serwery proxy - www.publicproxyservers.com


  1. Przeglądarki offlineowe
•„ekonomiczne czytanie stron offline”.
•Zasada ich działania polega na sprawnym pobieraniu wskazanych zasobów sieciowych, zapisywaniu ich na dysku, a następnie stwarzaniu możliwości ich przeglądania lokalnie na dysku komputera, także w czasie, gdy internauta nie ma podłączonego komputera do Internetu.
•Podstawowe funkcje przeglądarek offline to: automatyczna aktualizacja wcześniej pobranych stron, możliwość ich edycji i kompresji, kontynuacja realizacji przerwanych zadań oraz możliwość wyboru rodzaju i maksymalnego rozmiaru ściąganego pliku, a także obsługa HTTPS i FTP, szperacz wewnętrzny, możliwość określania „głębokości ściągania” i parametryzowania filtrów na „nie”.

  1. Akceleratory
•Inaczej menedżery pobierania.
•Początkowo umożliwiały kontynuowanie pobierania po przerwaniu transmisji. Następnie stworzono wielowątkową technikę pobierania. Przyspieszenie nawet o 100 razy, zależnie od liczby fragmentów równocześnie ściąganych.
•Pasmo barierą nie do przebicia.
Przykłady:
•DownThemAll!
•Download Accelerator Plus 7.4 9.0
•NetAnts1.25 8.8
•GetRight 5.2d 8.7
•Mass Downloader 3.1 8.7
FlashGet 1.65 8.4
•LeechGet 2007, Gigaget

  1. Pobieranie standardowe, a pobieranie z segmentacją


  1. Teleportery
•funkcja ściągania na komputer internauty wskazanych stron w całości lub w części.
•Dzięki odpowiednim narzędziom programowym możliwe jest pobranie wyróżnionych/wszystkich zasobów z lokalizacji wskazanej przez internautę.
•skopiowane zasoby mają identyczną jak oryginał strukturę i są dostępne na lokalnym komputerze
•możliwe jest wybieranie pewnych tylko rodzajów pobieranych multimediów, a nawet decydowanie o „głębokości” kopiowania strony.

  1. Teleporter – programy
•Dla początkujących: WinHTTrack, Offline Commander, Offline Explorer Pro, Advanced Site Crawler 2003,
•Dla średnio zaawansowanych: BlackWidow, WebWhacker, WebZip, WebCopier, WebStripper.

Web 2.0 – media społecznościowe Web 2.0
•Obywatele rozwiniętych państw spędzają jedną trzecią wolnego czasu uczestnicząc w internetowych grupach społecznościowych
•regularnie kontaktują się z szesnastoma osobami, które spotkali w wirtualnym świecie.
•Sieć stała się dla nich integralną częścią codziennego życia, w postaci poczty elektronicznej, e-komercji, forów, blogów lub wirtualnych miejsc spotkań (Facebook, Grono, Nasza Klasa, Second Live)
•Nowa faza rozwoju WWW,
•Interakcja z wirtualnym światem – osobami, firmami,
•Wykorzystanie nowych technologii, od blogów, przez social networking do AJAXu,
•Wynik ewolucji jakości i intuicyjności stron
•Narzędzia i kanały do komercjalizacji tego typu stron
•Nowe wyzwanie – miary relacji zachodzących w WEB 2.0, głównie odnośnie biznesu
  1. Media społecznościowe

  1. Popularne platformy społecznościowe
•Świat: Facebook
•U.S. i Kanada: MySpace,Twitter, LinkedIn, Facebook, Google+, Pinterest
•Europa: MySpace, Twitter, Hi5, V Kontakte
•Ameryka Płd.: Hi5, Orkut, Tagged
•Azja: QQ, Friendster, Xiaonei, Orkut, Mixi, Hi5
•Śr. Wschód i Afryka: Maktoob, Hi5

  1. W jakim stopniu technologie zostały przyjęte przez klientów
•Jeśli tworzą user-generated content i są lojalni – stwórz warunki do publikacji
•Czy są wśród klientów eksperci – jeśli tak zaproś do forum i zachęć do Wiki
•Jakie technologie wykorzystuje konkurencja?
•Elastyczność/kompetencja klientów wobec wprowadzania nowych technologii

  1. Zdobywanie klientów
•Niektóre technologie Web 2.0, takie jak RSS feeds, podcast, social networks i porównywarki cen stwarzają nowe warunki pozyskiwania nowych klientów i promocji firmy
•Np. opinie na Facebook, Gronie, filmy w YouTube, pozycja w del.icio.us
•Spełniać oczekiwania nowych technologii - Rich internet applications (RIAs) np. wideo, AJAX i Flash oraz telefonów komórkowych (np. m.grono.net w komórkach)

  1. Personalizacja
•Banalne stwierdzenie co Internauci lubią, nie lubią, co jest ich pasją życiową
•By zrozumieć klienta trzeba mieć dane o każdej interakcji.
•Lifetime Individual Visitor Experience (LIVE) Profile™ - umożliwia tworzenie obrazu indywidualnego użytkownika
•Efekt – personalizacja
•MySpace pages – pierwsza faza programu: “interest-based targeting” - algorytmy kategoryzujące członków zależnie od ich zainteresowań, np. sport, moda, finanse, gry komputerowe, auta i zdrowie.
•Druga faza: setki subkategorii, np. fani sportu są podzieleni na grupy - koszykówka, piłka nożna w szkołach, narty. Filmowi entuzjaści: komedie, dramaty, filmy niezależne, a także wg nazwisk aktorów. Także: płeć, wiek, przyjaciele
Blogging
  1. Blogging
–Blog jest to angielski neologizm: weblog (Web – Sieć WWW; log – dziennik, rejestr). Określany jest także jako webowe pismo (web journal), „blogsphere”.
–Zazwyczaj owe autorskie zapiski ułożone są w odwrotnym porządku chronologicznym.
–Skala tego zjawiska oraz doskonalenie technologii tworzenia i aktualizacji blogów często traktowane są jako nowy etap rozwoju Sieci nazywany „Web 2.0” lub „Internet 2.0”
•stał się nieformalnym medium wymiany informacji, także kształtowania poglądów, opinii na wybrane tematy lub o dostępnych dla określonego środowiska usługach i produktach, a nawet promocji.
•Blog jest to neologizm angielskiego słowa: weblog (Web – Sieć WWW; log – dziennik, rejestr); określany jest także jako webowe pismo (web journal), „blogsphere”.
•blogsfera - wszelkie zjawiska związane z blogingiem. Zazwyczaj owe autorskie zapiski są ułożone w odwrotnym porządku chronologicznym.
•Skala tego zjawiska oraz doskonalenie technologii tworzenia i aktualizacji blogów często są traktowane jako nowy etap rozwoju Sieci nazywany „Web 2.0” lub „Internet 2.0”
•Na etap ten składają się także takie formy operowania informacją jak np. podcasty, RSSy. Tę nową fazę WWW zainicjował społeczny fenomen – „społeczne media” (social media) - jakim stał się udział indywidualnych osób w samodzielnym tworzeniu i dystrybucji produktów informacyjnych za pośrednictwem Internetu.

  1. Klasyfikacja blogów
–osobiste (pierwotna forma blogów przypominająca dzienniki i pamiętniki)
–zawodowe (stanowiące przejaw działalności zawodowej lub naukowej)
–opisujące świat (odpowiednik publicystyki starych mediów)
–relacyjne (ich celem jest nawiązywanie i utrzymywanie relacji międzyludzkich)
–reklamowe (tak zwane fake blogs, czyli sztuczne blogi mające za zadanie promować towar)
–splogi (jeden z przejawów działalności automatów spamujących).

  1. Słowniczek Twittera

  1. RSS z blogów
•RSS umożliwia agregację wybranych informacji z różnych blogów
•Agregatory blogów: Topix.net, Bloglines, Yahoo's blog aggregator lub desktopowe narzędzie FeedDemon do śledzenia aktualizacji ulubionych blogów.

  1. Blog w firmie
•Blog może łączyć pracowników, konsumentów, partnerów i dostarczycieli (Radio Userland).
•Blog widziany staje się jako „sieciowa gazeta” (web newspaper).
•Np. do dzielenia się wiadomościami na temat pracy nad wspólnym projektem.
•Blog, krok po IM w firmach

  1. splog’iem” lub „spamblogi”
•polega na manipulowaniu bloggingiem w celu osiągnięcia zysku.
•W splogach wykorzystywane są słowa – klucze (z blogów) w celu uzyskania wyższej pozycji na liście rezultatów wyszukiwań szperaczy (SERP).
•Zawierają linki do promowanych stron
•Często generowane automatycznie (tysiące blogów tworzy jedna osoba/instytucja) np. Programem Blue Diamond’a – Blog Mass Installer, setki komentarzy do „ziołowej viagry”
•90% nowych blogów - splogi
•Efektem jest zwiększona skuteczność reklamy i jednoczesne niszczenie reputacji autorów najlepszych blogów.

  1. Największe społeczności
•Chiny – Tancent (890 mln – 2009)
•Brazylia – Orkut (2004)
•Hi5 – 25 krajów, 23 języki.
•Europa: Netlog.com i Bebo
•Najwięksi: MySpace i Facebook

  1. Crowd sourcing – mądrość tłumu
•Współpraca wielu osób przy tworzeniu pomysłów związanych ze wspólnym celem
•Skalowalność: grupa, firma, państwo, świat
Crowdsourcing – mądrość tłumu inaczej
•Indywidualnie chcemy sterować tym co tworzymy, jeśli się nie udaje, zmieniamy przedmiot/obiekt zainteresowania.
•Jako grupa sterujemy przez konsumpcję. Większe/liczniejsze zainteresowanie produktem/usługą – wyższa ocena „mądrości tłumu”. Próba kontroli/manipulacji takiego sterowania, czyni ową mądrość mniej wartościową
•...on the" individual" level, we want to control the things that we create (and, that if we can't, we'll go elsewhere). On the "collective" level, we "create as we consume" collectively, and that the "crowd" itself owns the "wisdom of the crowd". If someone tries to "own" this crowd-wisdom generated from consumption, they make it less valuable by trying to disconnect it from larger networks to control it.

  1. Narzędzia do badania zawartości w mediach społecznościowych
    1. Seer – Social Radar
•Wykorzystuje do analizy treści pochodzące z blogów, mikroblogów, komentarzy, forów, portali informacyjnych, a także stron z treściami wideo i zdjęciami.
•Pokazuje relacje między słowami kluczowymi na określonych stronach internetowych a działaniami, jakie one wywołują
•Narzędzie to jest dostępne w językach: chińskim, duńskim, niderlandzkim, angielskim, francuskim, hiszpańskim, niemieckim, włoskim, japońskim, koreańskim, polskim, portugalskim, rosyjskim, szwedzkim, tajskim oraz tureckim.

    1. Brandometr
•monitoruje treści zarówno portali internetowych, jak i blogów, mikroblogów (w tym Twitter, Blip, Flaker, Pinger), a także forów internetowych, grup dyskusyjnych, serwisów społecznościowych.
•M.in. pozwala na wyszukanie publikacji najbardziej istotnych dla badanych słów kluczowych (publikacje o największym potencjale do rozprzestrzeniania się, z którymi może się zapoznać największa liczba użytkowników). Interesującą funkcjonalnością jest śledzenie autorów generujących treści. Dzięki niej możliwe jest odnalezienie liderów opinii, którzy często wypowiadają się na badany temat lub odnoszą się do interesujących badacza marek.

    1. Attentio Brand Dashboard
*Śledzenie i analizowanie treści internetowych dotyczących marek i produktów.
*Treści te są śledzone i analizowane w czasie rzeczywistym.
*Monitorowanie informacji pochodzących z głównych portali informacyjnych i opiniotwórczych w danym kraju, portali społecznościowych, forów, blogów, mikroblogów. Ponadto jest możliwe dodawanie nowych źródeł.

  1. Narzędzia i źródła informacji do analizowania treści tworzonych przez społeczności
•Amplify
•Attentio
•Biz360
•Brandimensions
•Brandometr
•BrandWatch
•Buzz Metrics (Nielsen)
•BuzzLogic
•Cision
•CollectiveIntellect
•CyberAlert
•DNA
•Dow Jones
•Integrasco
•Kaava
•Magpie
•Millward Brown
•Newspoint
•Onalytica
•Radian6
•Scoutlabs
•Seer
•TNS cymfony
•Unruly Media (Video Tracking)
•Visible Technologies
•Vocus
•Wavemetrix

  1. Komórki – nowy wymiar Social Networkingu


Komunikacja sieciowa
  1. Sieciowa komunikacja
proces wymiany przetwarzanych informacji. Odnosi się do podmiotów biorących udział w akcie komunikacji, przy czym przynajmniej jednym z nich jest Sieć. Jest tu mowa o tzw. środowisku zewnętrznym – nadbudowie nad inżynierską interpretacją komunikacji cyfrowej, nad środowiskiem OSI. (Open System Interconnection)

wykorzystuje Sieć z jej potencjałem wymiany informacji, magazynowania jej oraz korzystania z mocy obliczeniowej tworzących sieć komputerów.
Komunikacja sieciowa obejmuje sobą także bezpośredni kontakt człowieka z komputerem. Jest to przedmiotem dynamicznie rozwijającej się dyscypliny naukowej – CMC.

  1. (7 warstw komunikacyjnych)
???

  1. Komunikatory
•W 1996 roku powstała podobna do IRC usługa zdalnej łączności – ICQ (I Seek You).
•Jest to darmowe oprogramowanie umożliwiające zainteresowanym „pisaną rozmowę” za pośrednictwem Internetu. Po zainstalowaniu oprogramowania można stworzyć listę osób, które dysponują podobnym oprogramowaniem. W chwili włączenia komputera z dostępem do Sieci możliwa jest wymiana informacji między internautą a osobami ze wspomnianej listy.
•ICQ jest protoplastą współczesnych komunikatorów – IM. Komunikator daje możliwość komunikowania się tylko z wybranymi osobami, w czatach z losowo połączonymi osobami.
  • IM IM jest to rodzaj usługi (komunikator) dostępnej w Internecie (niemal identycznej do ICQ), która za pomocą specjalnego programu (zazwyczaj bezpłatnego) umożliwia stworzenie prywatnego połączenia między dwoma lub większą liczbą wybranych osób w celu wymiany informacji (tekst, dźwięk, obraz, wideo i załączniki). Obecnie jest to najszybciej rozwijające się medium komunikacyjne na świecie.


  1. Telefon przez internet – VoIP (Voice over IP, IP telephony)
•Jest to technologia, która umożliwia wykorzystywanie Internetu jako medium łączności do rozmów telefonicznych za pośrednictwem transmisji pakietów danych będących cyfrową reprezentacją kolejnych fragmentów rozmowy.
•Zważywszy na elastyczność wykorzystanych do tego celu narzędzi, można jednocześnie prowadzić rozmowy między wieloma użytkownikami (telekonferencje) przebywającymi nawet na różnych kontynentach.
•Ograniczeniem, coraz mniej odczuwalnym, jest cyfrowy zapis rozmowy, którego transmisja wymaga stosunkowo szerokiego pasma dostępu do Internetu (w jednej chwili muszą być przesyłane duże liczby bajtów cyfrowego zapisu mowy).
VoIP – Voice over IP
•Oprogramowanie umożliwiające wykorzystanie Internetu do rozmów telefonicznych.
•Najpopularniejszy: Skype, potem: Tlenofon, Nagłos, Spik (Wp), Stefan (Interia),
•Inne: PhoneFree 7.1; Buddy Phone 4.0; Tlen 3.71; ICQ 2002a; Gadu-Gadu 5.0; MSN Messenger 5.5.

  1. Bramki VoIP
•Telefony USB, rozmowa telefoniczna odbywa się za pośrednictwem urządzenia współpracującego z pecetem (np. easycall). Urządzenie symuluje tradycyjny telefon.
•Urządzenia współpracujące z programami VoIP (np. Skype), które autonomicznie dokonują połączenia telefonicznego (bez komputera). Np. fritzbox.

  1. Komunikacja pośrednia – asynochroniczna
•Uniezależnienie wymiany informacji od czasu i przestrzeni oraz dostępność bardziej złożonych funkcji sprzężenia zwrotnego podmiotów uczestniczących w akcie komunikacji.
•Informacje/komunikaty są wcześniej zgromadzone w pamięciach maszyn. Sieć pozostaje pasywna wobec tych informacji. Nie wprowadza do nich żadnych zmian.
Np. blogi, fora/listy dyskusyjne, usnety, korespondencja elektroniczna, gazety elektroniczne, audycje (na żądanie) radiowe i telewizyjne.
•Internet pełni funkcje magazynu informacji i narzędzia do jej dystrybucji.
•Gromadzone w Sieci informacje są udostępniane po zauważalnym, ale praktycznie nieograniczonym czasie.
•Odbiorca przestaje być tylko pasywnym odbiorcą i inicjatorem aktu komunikacji, staje się aktywny w doborze, także ocenie (świadomej, lub pozyskiwanej bez jego wiedzy) odbieranych z Sieci informacji.
•Rosnąca część zasobów Sieci wzbogacana jest przez atrybuty wskazujące na ich umowną wartość, która jest wynikiem ocen uzyskiwanych od użytkowników Sieci.

  1. Procedury odbioru poczty
•Protokołem POP3 (Post Office Protocol) – poczta przychodzi na skrzynkę pocztową na serwerze operatora poczty. Odbiór pobierasz wiadomości programem pocztowym na twardy dysk swojego komputera. Z reguły pobrane wiadomości są automatycznie usuwane z serwera.
•Mniej znany protokół IMAP (Internet Message Access Protocol) pozwala zarządzać wiadomościami na serwerze w kilku uporządkowanych hierarchicznie skrzynkach pocztowych. Wiadomości pozostają na serwerze operatora.

  1. Zalety płatnych skrzynek
• Niezawodność,
• brak e-maili reklamowych,
• brak reklam dołączanych do listów,
• duża pojemność skrzynki,
• mniejsze ograniczenie objętości wysyłanego listu lub brak limitu
• możliwość przetestowania konta,
• ochrona antywirusowa,
• filtry antyspamowe,
• powiadamianie SMS-em o nowej poczcie
• dostęp do pomocy technicznej,
• bezpieczeństwo danych osobowych,
• profesjonalny wygląd adresu e-mail,
• możliwość zakładania aliasów.

  1. Komercyjne usługi pocztowe
•Bez reklam, większa stabilność, możliwość samodzielnego zdefiniowania aliasów, przekierowania poczty, autoryzacja SMTP (tzw. antyoszust). Zazwyczaj nie obowiązują ograniczenia liczby aliasów czy sygnatur i można wysyłać o wiele większe załączniki do e-maili.
•Jedno konto e-mail na komercyjnym serwerze kosztuje ok. 50 złotych rocznie. np. Homapl, NetArt (Nazwa.pl), AZ.pl, 1&1 Internet, OVH.pl i setki niniejszych operatorów.

  1. Mail – zagrożenia
•Łatwość odczytania poczty,
•brak klawisza „cofnij operację”,
•„reply all” (odpowiedz wszystkim) oraz „cc” (do wiadomości), które najlepiej wyeliminować,
•wykładniczy wzrost liczby spamu, w tym niechcianych reklam, oraz dołączanie do maili wirusów.

  1. Electronic communication tools can demand constant switching, which contributes to a feeling of “discontinuity” in the workpleace. On the other hand, people sometimes deliberately introduce…

  1. Społeczna izolacja i nowe technologie grupy społecznościowe
•Amerykanie mają mniej ścisłe związki z sąsiadami i organizacjami społecznymi.
•Są bliższe związki w wirtualnym świecie, ale w bardziej podzielonych grupach społecznych.
•Sposoby kontaktów:
–Face-to-face 210/365 dni
–Komórki 195/rok
–IM 125
–Listy papierowe/kartki - 8
•Uczestnicy grup w 30% mniej chętnie poznają sąsiadów.
•W 40% mniej polegają na pomocy sąsiadów.
•Przeciętny internauta ma trzech bliskich członków grup w Sieci.

  1. P2P
•Początkowo pobieranie plików z serwerów FTP,
•Pierwszy P2P – Napster,
•Obecnie najpopularniejsze: BitTorrent, eDonkey (ed2k) i Gnutella.
•Architektura sieciowa wykorzystująca bezpośrednią komunikację osób.
•Współdzielenie zasobów komputerowych i usług przez bezpośrednią ich wymianę.
•Równorzędna komunikacja komputerów przez sieć typu „każdy z każdym”.
•Współczesny P2P – 1999 rok – NAPSTER, do wymiany mp3, dzieło nastolatka: Shawna Fanninga.
•Jednym z najpopularniejszych sposobów wymiany informacji w wirtualnym świecie była i jest architektura sieciowa lub inaczej P2P.
•Umożliwia ona komunikację osób, współdzielenie zasobów komputerowych i usług poprzez bezpośrednią ich wymianę. Jest to równorzędna komunikacja komputerów przez sieć typu „każdy z każdym”.
•Napster – dzieło nastolatka Shawna Fanninga. Napster pełnił rolę pośrednika, „biura kontaktowego” w wymianie informacji. Żaden z plików przez niego oferowanych nie był umieszczony na komputerze Napstera (Napster tylko pośredniczył – miał informacje o lokalizacji zbiorów). Pliki były umieszczone na współpracujących z Napsterem komputerach, najczęściej prywatnych osób.
Obecnie najpopularniejsze:
•eDonkey i KaZaA – ok. pięć milionów komputerów, 10–14 mln użytkowników.
Alternatywą dla eDonkey jest – eMule (open source). Stanowi to dla internautów zabezpieczenie przed sytuacją, jaka np. miała miejsce w chwili zamknięcia Napstera, a także w przypadku awarii.
•Najbardziej aktywnym systemem P2P jest BitTorrent, który tworzy około jedną trzecią całkowitego ruchu w Internecie.
•W większości użytkownicy P2P są odbiorcami zasobów (70%), a połowa zasobów jest udostępniana przez zaledwie jeden procent uczestników kręgu P2P.

  1. Kłopoty i zagrożenia P2P
•Medium rozprzestrzeniania wirusów (przybierając atrakcyjne nazwy Windows, Quake, DivX),
•podróbki dzieł,
•prawa autorskie.
•P2P, poza działalnością często sprzeczną z prawem, jest groźnym medium rozprzestrzeniania wirusów (przybierając atrakcyjne nazwy – Windows, Quake, DivX).
•Ułatwia proceder rozpowszechniania podróbek wszelkiego typu dzieł dostępnych w postaci cyfrowej.
•Dziewięćdziesiąt procent zasobów sieciowych P2P jest nielegalna – niezgodna z obowiązującymi regulacjami praw autorskich.

  1. Sieci P2P są zastępowane przez usługi hostingowe
•Świadomość istnienia Art. 23 Prawa Autorskiego jest coraz bardziej powszechna.
•Coraz większe znaczenie mają sieci hostingowe (z najbardziej znanych: Megaupload, Rapidshare) oraz polski (płatny za symboliczną kwotę) portal Chomikuj.

  1. Wady sieci hostingowej
•mniej plików (młodsza metoda niż p2p), wrzucane na serwery są tylko rzeczy uznane za wartościowe, nie wszystko co się przeciągnie do folderu "shared",
•nieco trudniejszy upload niż tworzenie torrenta,
•w przypadku muzyki można znaleźć właściwie tylko utwory albo albumy - nie da się znaleźć całych dyskografii (z racji wielkości takiego pliku) -> trzeba ściągać album po albumie - ograniczenia przy braku płatnego konta premium (np. możliwość ściągania jednego pliku na raz oraz konieczność odczekania określonego czasu po skończeniu jednego ściągania) [Da się to jednak obejść korzystając z kilku różnych hostingów oraz używając nowszych portali, na przykład: Mediafire]. - brak możliwości sprawdzenia, co znajduje się wewnątrz ściąganego pliku (torrenty w większości wypadków dawały taką szansę).

  1. Inne formy sieciowej komunikacji aktywnej
    1. Handel
    2. Gry
•World of Warcraft jest jedną z najbardziej popularnych gier tego typu na świecie.
•Pozostałe to EverQuest2, Aion3, Guild Wars4.
•Miejsce zabawy, spotkań towarzyskich i randek (Match.com, ma mniej niż 2 mln użytkowników).
•Ponad 40 procent graczy online to kobiety, grupa dorosłych kobiet rośnie najszybciej, więcej niż chłopców 17 i młodszych (20%).
    1. Rozrywka
  1. Przykład komunikacji autonomicznej
*epidemie wirusów komputerowych, które poza ludzką kontrolą uruchamiają funkcje autonomicznej, celowej wymiany informacji (np. umożliwiające uodparnianie się na programy antywirusowe) i kształtują niektóre „zachowania” komputerów,
*przestępcze przejmowanie zdalnej kontroli nad milionami komputerów (boty i zombi),
*automatyczne rozsyłanie aktualizacji oprogramowania instalowanego na firmowych i domowych komputerach,
*samodzielne uczenie się obsługi dynamicznie zmieniających się sieci przez routery (urządzenia zarządzające ruchem informacyjnym w Sieci) do poziomu złożoności, który pozostaje poza ludzką kontrolą,
*rosnąca liczba funkcji powierzanych cloud computingowi.

(Bot i zombie) – przestępcze przejmowanie zdalnej kontroli nad milionami komputerów

  1. Rola maszyn w komunikacji aktywnej
*W procesie zbierania informacji tworzących zasoby sieciowe i ich udostępniania malejącą rolę pełnią ludzie, pozostawiając inicjatywę maszynom.
*Następuje oddawanie decyzyjności informacyjnej maszynom, które autonomicznie segregują, które informacje zostaną udostępnione (z zachowaniem personalizacji i innych kryteriów), a które nie zostaną wyświetlone na ekranie monitora komputerowego Internauty.

  1. Test Touringa
To sposób określania zdolności maszyny do posługiwania się językiem naturalnym i pośrednio mającym dowodzić opanowania przez nią umiejętności myślenia w sposób podobny do ludzkiego. W 1950 roku Alan Turing zaproponował ten test w ramach badań nad stworzeniem sztucznej inteligencji - zamianę pełnego emocji i w jego pojęciu bezsensownego pytania "Czy maszyny myślą?" na pytanie lepiej zdefiniowane. Test wygląda następująco: sędzia – człowiek – prowadzi rozmowę w języku naturalnym z pozostałymi stronami. Jeśli sędzia nie jest w stanie wiarygodnie określić, czy któraś ze stron jest maszyną czy człowiekiem, wtedy mówi się, że maszyna przeszła test. Zakłada się, że zarówno człowiek, jak i maszyna próbują przejść test zachowując się w sposób możliwie zbliżony do ludzkiego.

Test pochodzi od zabaw polegających na zgadywaniu płci osoby znajdującej się w innym pokoju przy pomocy serii pytań i odpowiedzi pisanych na kartkach papieru. W pierwotnym pomyśle Turinga człowiek musiał udawać przeciwną płeć, a test był ograniczony do pięciominutowej rozmowy. Dziś nie uważa się tych cech za podstawowe i zasadniczo nie umieszcza w specyfikacji testu Turinga.

  1. Komórki i sieć ostoją języków
•Pisane komunikaty podtrzymują zanikające języki świata – jest ich 6 909.
Szperacze
  1. Zasada pracy szperacza

Wyniki szperaczy – linki do wyszukanych zasobów – są wyświetlane w postaci stronicy search engine results page – SERP.

•Główne szperacze wyświetlają zazwyczaj trzy rodzaje list SERP:
–wynikające z indeksacji dokonywanej przez automaty
–przez ludzi
–różnych form opłat za umieszczanie adresów stron na tej liście – tak zwany sponsoring.
•Interesującym źródłem informacji o bieżącej kolejności (aktualizacja co 12 sekund) pierwszych dziesięciu słów kluczowych w 17 kategoriach jest: http://hot.aol.com/hot/hot.
  1. SERP
Stronica, której treść stanowią wyniki pracy szperacza. Zazwyczaj główne szperacze wyświetlają trzy rodzaje list SERP: listy wynikające z indeksacji dokonywanej przez automaty, przez ludzi i wynikające z opłat za umieszczanie adresów Stron na tej liście.
  1. Typy szperaczy
•„ręczne” (A human-based search engine) – powszechnie nazywane katalogami (directory).
•Bazują na pracy ludzkiej np. Yahoo!, Open Directory i Business.com, LookSmart.

  1. Indeksacja
•W zdecydowanej większości wykonują ją automaty – specjalne programy: pająki, roboty („spidery”, „crawlery”),
•szperacz udziela odpowiedzi na zadawane pytania o adresy stron zawierających określone słowa–klucze, nie wyszukując ich w Sieci, a przeglądając gotowy indeks.
•Fundamentem każdego indeksu są metadane stanowiące sumę informacji o informacjach, np. dotyczące struktury opisu określonego materiału: nazwa strony, jej adres, tytuł, pierwszy akapit.

  1. Indeksacja strony
podstawowe źródła indeksowanej strony
•Tytuł strony + opis
•Treści
•Wyróżnione słowa
•Treści w nagłówkach
•Odnośniki i opisy
•Atrybuty (alt i title)
•Wiek domeny
•Linki wewnętrzne

  1. Indeksacja – utrudnienia
•ograniczone możliwości rozpoznawania niektórych form zawartości stron. Chodzi tu o zasoby multimedialne (obrazy, muzyka) i o skomplikowane składowe stron, których szperacze „nie widzą”; są to m.in.: JavaScripty, ramki, flashe.
•rozwiązanie - tzw. doorway pages

  1. Tagi
•Informacje zostają „otagowane” – przyporządkowane odpowiedniej kategorii; sygnalizowanie to ich popularność
•1/3 internautów korzysta z tagów
•Np. del.icio.us

  1. SEO
O

ptymalizacja dla wyszukiwarek internetowych (ang. Search Engine Optimization; zwana także pozycjonowaniem) procesy zmierzające do osiągnięcia przez dany serwis internetowy jak najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych dla wybranych słów i fraz kluczowych. Proces pozycjonowania jest elementem szeroko pojętego marketingu internetowego. Pozycjonowanie bazuje na znanych elementach działania algorytmu wyszukiwarek, ciągłym poznawaniu nowych, które algorytmy biorą pod uwagę przy rangowaniu strony oraz na weryfikowaniu już istniejących.


  1. Pozycjonowanie
  2. Waga słów kluczowych
•Słowa – hasła lub całe frazy opisujące treść Witryny. Są one umieszczane w określonym, widocznym dla indeksującego szperacza, a niewidocznym dla Internauty, miejscu Witryny
Najważniejsze słowa kluczowe
•Google's Webmaster Tools – informacje o wyświetlaniu słów kluczowych i poprawnej segmentacji informacji
•Google Keyword Tool: dobór słów kluczowych, na jakie urządzenia (PC, mobilne), analiza strony – sugestie słów
•Google Analytics do identyfikacji najskuteczniejszych słów kluczowych

  1. Wiek strony
•Whois onet.pl
•http://archive.org/web/web.php
•Należy kupować stare domeny – wyższa pozycja w PageRank (dropped.pl, aftermarket.pl, az.pl).

  1. 6 kroków optymalizacji obrazów dla SEO
1.Zapewnienie kontekstu obrazu do tekstu słów kluczowych
2.Nadanie poprawnej nazwy obrazom
3.Dobranie stosownej wielkości obrazu
4.Optymalizacja wagi (wielkość, kompresja)
5.Korzystanie z deskryptorów atrybutów ALT i TITLE
6.Załączać opis obrazka

  1. Troska o atrakcyjność strony
•wykluczyć spam (zbyt częste zgłaszanie strony do szperacza); karą za spam jest ignorowanie przez szperacze spamującej witryny,
•unikać wstawiania słów kluczowych w innych, od przeznaczonych do tego celu, miejscach na stronie,
•nie wpisywać fragmentów tekstów czcionką o tym samym kolorze jak tło,
•unikać stosowania wielu tytułów dla jednej strony,
•unikać zgłaszania kopii tej samej strony pod innymi nazwami,
•nie zgłaszać tej samej strony częściej niż raz na 24 godziny,
•nie stosować jako identyfikatorów (słowa klucze, meta tags) słów, które nie są merytorycznie związane z treścią strony.
•Bardzo pomocne w procesie konstruowania strony jest korzystanie z analitycznego oprogramowania służącego do oceny stron, np. WebTrends, ClickTracks, HitBox.

  1. Szperacze multimedialne
•Szperacze wideo (m.in. Google, Yahoo!, MSN) umożliwiają wyszukiwanie, przeglądanie (na zasadzie podglądu), odtwarzanie i ściąganie plików wideo. Są to wiadomości (często uszeregowane w kolejności od najczęściej oglądanych), reklamy filmów, a także tradycyjne reklamy towarów i usług
•wyszukiwanie obrazów na podstawie opisów ich treści. Zapowiedzią takiego rodzaju szperacza jest system Diamond, który udostępnia funkcje np. wyszukiwanie obrazów postaci ubranych w określony sposób – np. mają ubranie koloru czerwonego. Prowadzone w tym kierunku prace przez MIT, Carnegie Mellon i Yahoo! koncentrują się na automatycznym indeksowaniu kształtów, wyglądu twarzy, a także form ruchu. Dane te uzupełniane są informacjami o logo i tekstowymi wstawkami materiałów filmowych
•ditto.com
•gallery.Yahoo!.com
•altavista.com/sites/search/simage
•multimedia.alltheweb.com
•multimedia.lycos.com
•streamsearch.com
•music-robot.com
•photoseek.net
•audioFind.net
•music.Cnet.com
•dgolpe.com
•getsongs.com (multiszperacz)
•music.lycos.com
•Napster, Gnutella.

Google
  1. Potencjał Google’a
•Zawiera 240 milionów nazw domen, przeszukiwane przez Google 3,3 mld dziennie.

  1. Podstawowe usługi Google’a
•Gmail,
•Google Desktop,
•Froogle (usługa polegająca na porównywaniu cen w sklepach),
•Google Earth,
•Picasa (fotografie),
•Google Talk (otwarta platforma dla VoIP)
•+ YouTube + DobleClick

  1. Zasoby informacyjne Google’a
•Użytkownicy utrzymują w zasobach Google’a: foto, blogi, wideo, kalendarze, e-maile, wiadomości, mapy (odpłatne dla dużych i średnich firm – 25 tys. Otwarć dziennie w kwartale), kontakty, social networks, dokumenty, arkusze kalk., prezentacje i numery kart – niemal wszystko o swoim życiu.
•Google planuje dodać informacje medyczne, adresy związane z osobą (przez komórki) i więcej.
•Wszystko także bezprzewodowo.
•Prawdopodobnie najtrudniejsze wyzwanie prywatności w historii ludzkości.

  1. Szukanie z Googlem
•WYSZUKIWANIE WEDŁUG KATEGORII: Po wpisaniu słowa kluczowego możemy zawęzić wyszukiwanie do zadanej kategorii treści, np. »Grafika«, »Miejsca«, »Książki« czy »Dyskusje«.

•OPCJE WYSZUKIWANIA GRAFIKI: Znalezione obrazy można filtrować według daty utworzenia, wielkości, a nawet koloru. Można też ograniczyć wyszukiwanie do zdjęć twarzy, obrazów typu clip-art czy grafik wektorowych.

•HISTORIA WYSZUKIWANIA: Po zalogowaniu się na koncie Google kliknijmy ikonę ustawień, a następnie wybierzmy opcję »Historia online«. Google pamięta, czego szukaliśmy do tej pory.

•GRAFIKA JAKO SŁOWO KLUCZOWE:

•Aby wyszukać w Sieci obiektu przedstawionego w pliku graficznym, otwórzmy na stronie Google kategorię »Grafika«, a następnie kliknijmy ikonę aparatu w polu wyszukiwania i podajmy adres URL tego pliku lub załadujmy go bezpośrednio z dysku. W wynikach wyszukiwania znajdziemy zarówno strony, na których pojawia się ta grafika, jak i wizualnie podobne obrazy.

•ZAAWANSOWANE WYSZUKIWANIE: Kliknijmy ikonę ustawień i wybierzmy opcję »Szukanie zaawansowane«. Wypełniając formularz, zdefiniujmy dodatkowe kryteria i ograniczenia wyszukiwania. Podpowiedzi widoczne po prawej stronie wprowadzą nas w składnię pola wyszukiwania

  1. Google – inwigilacja
•Google Search: gromadzi wiele różnych typów informacji o aktywności online
•Przyszłe produkty będą zawierały gromadzenie danych i „targetowanie” jako podstawowy cel.
•Wszystkie usługi Google (Google search, Gmail, Orkut i Google Desktop) mają podlinkowane cookies, o czasie działania – 2038 r. Każdy z cookies ma globalny unikalny identyfikator (GuID) i może rejestrować wszystkie zadawane przez użytkownika pytania. Google nie kasuje żadnych informacji z cookies.
•Orkut: Google’owy socialnetworking zawiera poufne informacje (nazwisko, adres mailowy, nr tel., wiek, adres pocztowy, status relacji, liczba dzieci, region i hobby).
Gmail Patents: Patent #20040059712 : “serving advertisements using information associated with email.” (usługi reklamowe powiązane z mailami)
•Google Desktop: tekstowe informacje, arkusze kalkulacyjne, maile i obrazy. Indeks jest zapisany na lokalnym komputerze.
•Chrome (przeglądarka) - ryzyko: każde słowo, jego część wpisane do „belki”, nawet bez kliknięcia w Enter/Return, jest pobierane przez Google. Chrome automatycznie wysyła te informacje do centrali przy każdym wyszukiwaniu.
•Android (SO dla komórek): gromadzi informacje o wybieranych numerach, numery otrzymanych telefonów, przebieg poszukiwań w sieci, maile, lokalizacje geograficzne, w których telefon był używany.
•Google Health: produkt rejestrujący dane o zdrowiu (pracowników, indywidualnych osób). Wiele firm medycznych i farmaceutycznych (CVS Caremark, Walgreens, Longs Drugs) w USA zgodziło się na import ich baz danych.

  1. Zyski/straty
  2. Inne wyszukiwarki
Factiva
•Ponad 28,000 źródeł z 200 krajów w 23 językach,
•600 aktualizowanych na bieżąco serwisów informacyjnych.

QDA Miner 3.2
•Zaawansowane narzędzie programowe do analizy, kodowania, zarządzania danymi/dokumentami.
•Identyfikuje i szuka relacji pomiędzy dokumentami.

Buzz (do Gmail)
•Odpowiedź na Facebooka i Twittera
•Gotowa sieć (bez pytania o zgodę do jej tworzenia) znajomych automatycznie wyselekcjonowana wg: firma, najczęściej wysyłane maile, czatowanie.
•Łatwo sprawdzić powiązania
•Google wycofuje się z tej wersji

Linguboty
•Są to programowe narzędzia, najczęściej stosowane w formie usług dostępnych w Sieci, które usiłują symulować naturalną rozmowę z zadającym pytania.
•Najczęściej usługa ta wykorzystywana jest w celach marketingowych – służy do udzielania informacji na temat firmy (www.spsa.pl, ww.hestia.pl). Wśród najsłynniejszych na świecie lingubotów wyróżniane są: ELIZA i ALICE

Quaero i Theseus
•Francja (budżet i 23 przedsiębiorstwa, wśród nich Thomson i France Telecom) i Niemcy (budżet) dofinansowują wyszukiwarki – ograniczenie dominacji Google’a, kultury anglosaskiej.

•Quaero, multimedia - 99 milionów €.
•Niemcy – Theseus, bardziej tekstowa.

Wyszukiwarki w czasie rzeczywistym – real time search
  1. Istota
* SERP aktualizowany na bieżąco
* Źródła – głównie sieci społecznościowe
– Facebook
– MySpace
– Twitter
– Google Buzz
– FriendFeed
– nagłówki artykułów
– posty z blogów
*Ocena – użytkownicy, sieć.

  1. Kryteria szukania
•Data wiadomości
•Czas
•Lokalizacja

  1. Wyszukiwarki realtime
•Rezultaty z blogów, mikroblogów, feedów wiadomości i serwisów udostępniających fotografie.
•Podstawą wyszukiwania: oceny użytkowników internetu – linki (Twitter, Facebook, Delicious) rekomendowane przez użytkowników – social relevance rank. Np.
•Collecta
•OneRiot
•CrowdEye
•Google – „najnowsze”
Wyszukiwarki czasu rzeczywistego
•Google
•Collecta (www.collecta.com) sprawdza: mikroblogi, komentarze na forach i w blogach, zdjęcia z serwisu Flickr i filmy z YouTube'a.
•monitter (www.monitter.com) – śledzi w czasie rzeczywistym wyniki dla trzech różnych słów kluczowych jednocześnie w Twitterze.
•Yauba (www.yauba.com)
•Twazzup (www.twazzup.com) - pozwala przeszukiwać statusy popularnych osób korzystających z serwisu Twitter. Dodatkową funkcją jest możliwość wyszukiwania wiadomości tylko w języku polskim.

  1. Wyszukiwanie w czasie rzeczywistym
•po wpisaniu frazy w wyszukiwarce pojawia się wynik wyszukiwania wzbogacony o fragmenty rozmów toczących się aktualnie w serwisach społecznościowych.
•W praktyce opiera się ono na założeniu, że internauci potrafią lepiej niż sztuczne algorytmy ocenić przydatność aktualnych informacji.

  1. Semantyczna sieć
•doskonalenie stosowanych technologii precyzyjnego lokalizowania informacji w Sieci.
•idea twórcy WWW – Tim’a Berners-Lee’a – tworzenia semantycznej Sieci (ang. The semantic Web),
•stworzenie narzędzi do logicznej komunikacji z Siecią - wyszukiwania informacji za pośrednictwem naturalnego dialogu człowiek - maszyna.
•Trudność w realizacji tego przedsięwzięcia wynika z tego, iż forma zasobów informacyjnych Sieci jest dostosowana do oczekiwań ludzi. Automatyzacja ich analizy, z zachowaniem rozpoznawania relacji słów stanowiących przedmiot zadanego pytania (np. która budowla jest starsza – Pałac Kultury czy Pałac Staszica?) wymaga odpowiedniej organizacji zapisów gromadzonych w Sieci.
•Do danych, w sieci semantycznej, muszą być dołączone dodatkowe informacje o relacjach między nimi. Służą temu stworzone i nadal budowane standardy zapisu meta danych (np. XML, SPARQL, RDF, OWL) oraz programowe narzędzia wykorzystujące sztuczną inteligencję i lingwistykę.

  1. Semantyka sieci
*Na razie komputery rozumieją tylko proste polecenia
*Nie rozumieją języka naturalnego
*Mogą wyszukiwać słowa, ale słowa to nie wszystko
*Nie widzą związków między słowami i nie mogą domyślać się z kontekstu

  1. Wyszukiwarki semantyczne
Analizują nie tylko informacje bezpośrednio napisane na stronie, ale potrafią łączyć ze sobą różne fakty, wyciągać wnioski.
Agenci
•komputerowy twór, który samodzielnie wykonuje zadania zlecone przez użytkownika, w tym przypadku – wyszukuje na bieżąco, w czasie rzeczywistym informacje według zadanych kryteriów.
•Podczas wyszukiwania najczęściej są przeglądane treści następujących składowych witryn: tytuły, nagłówki, słowa kluczowe, streszczenia, daty aktualizacji, rozmiary stronic i daty ostatniej wizyty agenta.
•Wyniki poszukiwania informacji są dostarczane zamawiającemu online, lub offline, za pośrednictwem maila.
•Na przykład MySimon przegląda informacje z tysięcy sklepów w dziesięciu kategoriach, m.in.: książki, elektronika, informatyka (sprzęt i oprogramowanie), filmy, ubrania, muzyka i zabawki.
  1. Przyszłość szperaczy
•włączanie do usług szperaczy bezpłatnej telefonii internetowej (Google), RSS’ów i blogów (Yahoo!). Np. indeksowaniem RSSowych feedów zajmuje się Feedster
•system w postaci megaszperacza integrującego dane o zasobach informacyjnych Internetu – stanowi docelowy model uniwersalnego narzędzia służącego do lokalizacji zasobów Sieci.

  1. And” – operator logiczny (sumujący)
Media Online
  1. Nowe/cyfrowe media
•technologie komunikacyjne i informacyjne oraz ich otoczenie społeczne
•obejmują: narzędzia programowo-techniczne, które mają bezpośredni związek z funkcjonowaniem Sieci
•ułatwiają i zmieniają gromadzenie oraz udostępnianie informacji na drodze komunikacji sieciowej.

  1. Zasobne media”
•bogate we wszystkie formy multimedialnej informacji, stają się coraz popularniejszym sposobem dostępu do wszechobecnej informacji w postaci cyfrowej.
•zasobne media są definiowane jako obrazy, materiały audio, wideo i pozostałe wizualnie zorientowane, nieustrukturyzowane zasoby, takie jak animacje i prezentacje.

  1. Ekspansja mediów online
•zwraca uwagę na wnioski wypływające z kilkuletniego ignorowania zapotrzebowania na cyfrową dystrybucję produktów muzycznych, a w konsekwencji niemal zapaści tradycyjnych form ich dystrybucji.
•Wartościowe wskazówki sposobów mariażu z IT wynikają także z doświadczeń bankowości internetowej.
•Szukanie piratów w Sieci, różne formy restrykcji, tworzenie praw okazało się krótkowzroczne, nie przyniosło i nie przyniesie oczekiwanych rezultatów.
•Tradycyjne media, bogatsze o doświadczenia przemysłu muzycznego, bankowości online, zmuszone są do stawienia czoła nowym wyzwaniom formułowanym przez chłonny i szybko rozszerzający się wirtualny świat. Rozwiązań poszukuje się w nowych modelach płatności i nowoczesnych technologiach dystrybucji finalnych produktów medialnych – media nie mają nic do zyskania, a wszystko do stracenia.

  1. Zmiany
•Jeśli starsza siwa dama wśród gazet - The New York Times – zmieniła swoje wyzwanie z „wszystkie wiadomości, które nadają się do druku” na „wszystkie wiadomości, które można kliknąć”, to oznacza niewątpliwą, fundamentalną zmianę w świecie publikacji.
•When the grand, gray lady of newspapers, The New York Times, changes its tagline from “All the News That’s Fit to Print” to “All the News That’s Fit to Click,” there can be no question that momentous changes are underway in the publishing world.

  1. Gazety online
•są to wszelkie formy publikowania informacji w Internecie, które stanowią całość lub część drukowanej postaci dzienników i czasopism.
•Niektóre gazety online uzupełniane są o bieżąco aktualizowane informacje, także w formie multimedialnej.
•Szczególną formą gazet online są gazety wirtualne – publikowane tylko w Sieci – które nie mają swojego odpowiednika w formie drukowanej.
•Globalna poczytność gazet drukowanych zmalała w ciągu ostatnich piętnastu lat o jedną trzecią. Towarzyszy temu zjawisko starzenia się czytelników tradycyjnych gazet.
fragment regulaminu Związku Kontroli Dystrybucji Prasy
•E-wydanie jest to elektronicznie rozpowszechniana wersja, przynajmniej jednej mutacji, kontrolowanego tytułu prasowego, zawierająca ten sam w formie i treści materiał redakcyjny i reklamy co wersja drukowana.
•Wymóg całkowitej zgodności e-wydania z wersją drukowaną nie dotyczy insertów i gadgetów. (...)
•Materiał redakcyjny w wersji elektronicznej może być dodatkowo rozszerzony, a reklamy mogą być zaadaptowane w sposób pozwalający na wykorzystanie możliwości medium elektronicznego.

  1. E-kiosk.pl
•portfolio e-Kiosk.pl 230 tytułów prasowych, +1000 audiobooków i e-booków

  1. W jakim czytniku jaki DRM
  1. DRM (Digital Right Manager) – elektroniczne zabezpieczenie dokumentów. Zabezpieczenie przed kopiowaniem. Ustawia się tu przywileje dla poszczególnych klientów.

  1. Audio I video online
•Coraz większa liczba osób do słuchania audycji radiowych wybiera Internet, a nie tradycyjny odbiornik radiowy
•Słuchanie radia przez Internet jest popularniejsze niż oglądanie telewizji online.
•Cyfrowe wideo, w tym audycje telewizyjne nadawane przez Internet cieszą się mniejszą ale szybko rosnącą popularnością.
•Sieć wydaje się już wychodzić z ery „filmu niemego”, stanowiąc nie tylko doskonałe narzędzie do dystrybucji tekstu, nieruchomych obrazów i muzyki, ale także materiałów filmowych.
•Zapowiedzią ugruntowania tego stanu jest rosnąca liczba wdrożeń cyfrowej dystrybucji programów radiowych i telewizyjnych. Jest to już widoczne w „cyfrowym radiu” – „digital audio broadcasting” (DAB), którego europejskim standardem jest Eureka.

  1. Wave – 1024 kb/s
MP3 – 512 kb/s (format po kompresji Wave)

  1. Radio online, licencje
•Za: autor muzyki, tekstu, wykonawca i producent
•Komu: ZAiKS, SAWUMiSM, ZSAW STOART, ZPA-V
•Opłata zależy od % chronionych utworów w programie. Do 10% - 1% przychodów do 7% gdy 70% chronione
•Minima: 100 zł dla<50 słuchaczy, 200 zł dla <200

  1. Własne stacje radiowe
•Większość nadaje: 32 Kb/s (AAC+), 56, 64, 96 do 128 Kb/s. Minimum – 96
•Uniwersalny Serwis radiowy SHOUTcast: info o radiach i platforma (wirtualne serwery) dla stacji
•Ceny: kilkadziesiąt groszy/jeden słuchacz (48-64 Kb/s), 0,8-1zł (98-128 Kb/s)
Zasoby informacyjne
  1. Zasoby informacyjne sieci
•Zarysowuje się brak równowagi między narzędziami umożliwiającymi korzystanie z Internetu, a oferowanymi tam zasobami informacyjnymi i usługami (rafinacja informacji sieciowych).
•Sieciowe zasoby zazwyczaj są szczególnie cenne ze względu na ich aktualność i możliwość szybkiego i powszechnego do nich dostępu.
•Wiedza o tym potencjale ma kapitalne znaczenie w obszarach społeczno-ekonomicznym oraz nauki i edukacji.
•W odniesieniu do mediów zasoby informacyjne są wartościowym źródłem informacji backgroundowych i bieżących oraz kontroli poczynań konkurencji.

  1. Wiarygodność informacji sieciowych
•Nawet niewielka część nieprawdziwych danych w wyróżnionym zasobie czyni jego całość mało wiarygodną.
•Stwarza to ryzyko, często bezkrytycznego, wykorzystywania mało wartościowego informacyjnego potencjału Internetu.
•Mamy do czynienia z paradoksem, iż „nieograniczonemu dostępowi do informacji towarzyszy ryzyko uzyskiwania mniejszej wiedzy”.
•Współczesne technologie informacyjne istnieją bez odpowiednio wykształconych ram, w postaci struktur wartości i wzorców mających wpływ na sieciowe zasoby.
•Ramy te nie mają stosownych związków z regulacjami prawnymi oraz instytucjonalnymi strukturami.

  1. Co wspólnego ma wiarygodność informacji w sieci z wyszukiwarkami w czasie rzeczywistym?
  2. Co wspólnego ma iloczyn logiczny informacji z wiarygodnością wyszukiwarek w czasie rzeczywistym?
prawnymi oraz instytucjonalnymi strukturami.
  1. Ograniczenie „smogu”
•Korzystanie ze stron internetowych o powszechnie akceptowanej wiarygodności, o wysokich ocenach nadawanych przez uznane autorytety. Ich właścicielami są zazwyczaj instytucje o dużym prestiżu. Innym sposobem uwiarygodniania są:
–społeczna, środowiskowa akceptacja źródeł, których wyraz stanowi liczba i częstotliwość powoływania się na te źródła przez uznane autorytety, np. w świecie nauki.
–porównywanie informacji z różnych niezależnych źródeł sieciowych,
–korzystanie z komercyjnych zasobów informacyjnych oraz stron urzędów biorących udział w tworzeniu prawa i generujących raporty na potrzeby państwa.

  1. GIODO
•Wyszukiwanie Funkcja "Wyszukiwanie" umożliwia wyszukiwanie zbiorów w prowadzonym przez GIODO ogólnokrajowym rejestrze zbiorów danych osobowych, według kryteriów podstawowych do których należą: nazwa administratora danych, nazwa miejscowości, nazwa zgłoszonego zbioru, numer księgi rejestrowej oraz numer zgłoszenia.
•Wyszukiwanie zaawansowane Funkcja "Wyszukiwanie zaawansowane" umożliwia przeszukiwanie rejestru według kryteriów rozszerzonych, do których należą: nazwa administratora danych, siedziba administratora (nazwa miejscowości, nazwa ulicy, kod pocztowy, REGON, nazwa zgłoszonego zbioru, numer księgi rejestrowej oraz numer zgłoszenia).

  1. Otwarte zasoby – motyw sieci, altruizm w sieci

  1. Dane Otwarte, Open Data


  1. Dane o osobach
•dostępne we wszelkiego rodzaju katalogach typu Who is Who (np. obecny w Dialogu – Marquis Who’s Who®),
•Social networking - SoFlow.com – miejsce w wirtualnym świecie, które pomaga odszukiwać osoby mające wspólne zainteresowania, usiłujące nawiązać współpracę na płaszczyźnie prowadzenia interesów (partnerzy, inwestorzy, kontakty). Jest to rodzaj aukcji skrzyżowanej z blogiem, gdzie przedmiotem są osoby.

  1. Australia – przykład manipulacji
•Australijski rząd to kolejna instytucja, która poprawia informacje umieszczane w Wikipedii na swój temat.
•System Wikipedii wykrył, że australijskie ministerstwo obrony wprowadziło 5 tys. zmian w hasłach encyklopedii. Częstych zmian w Wiki dokonuje również CIA oraz BBC.

  1. Problem archiwizacji informacji
•Informacje w postaci cyfrowej nanoszone są na przeróżne nośniki (taśmy, dyski, dyskietki, CD, DVD). Jednak wszystkie one gwarantują stosunkowo krótki okres trwałości przechowywanych na nich informacji. Maksymalnie do 100 lat
•Maleje proporcja informacji gromadzonych na tradycyjnych nośnikach informacji – papierowych – na korzyść zapisu cyfrowego

  1. Cyfrowe nośniki vs. Papierowe
•Papier przestał być głównym nośnikiem informacji
•Przykład częstotliwości korzystania z książki telefonicznej
•Konsekwencje
–zagrożenie trwałości zapisów
–większa konsumpcja energii elektrycznej

  1. Negatywne informacje
•Trudne do usunięcia. Koszt 500 – 1000 USD
•Blokada w wyszukiwarkach negatywnych informacji – tysiące USD + kolejne tysiące w danych o osobach: Intellius lub PeopleFinder
•Usunięcie oszczerczych (ktoś o firmie) informacji – dziesiątki tysięcy USD

  1. Czas życia w profilu w sieci
•Prośba o kontakt (Facebook) od osoby, która zmarła.
•Problem narasta ze wzrostem wieku internautów
•Facebook umożliwia zgłoszenie śmierci (krewny, znajomy) stosownym dowodem, np. informacją z drukowanej gazety.

  1. Sieciowa pamięć
•Nieprzemyślane informacje o sobie (tekst, obrazy) pozostają na lata w Sieci bez możliwości ich usunięcia. Sieć nie daje drugiej szansy!
•75% profesjonalistów HR kontroluje kandydatów w Sieci (szperacze, społecznościowe, foto, wideo, osobiste strony, blogi, gry online. Efekt - 70% kandydatów odrzucona.

  1. GPS
•Global Positioning System,
•Światowy system określania położenia
• baza: 24 satelity
•Dokładność do 10 m.
Rafinacja informacji
•Jest peryskopem pomiędzy dwoma poziomami informacji: poziomu bazowego i poziomu wyniku rafinacji.
•Umożliwia dostrzeganie informacji z otoczenia/poziomu bazowych informacji (czyste informacje z WWW) tych, które są na poziomie informacji będących wynikiem rafinacji.
  1. Diagnoza emocjonalnych odczuć adresata przekazu
•Tłumaczenie emocjonalnych odczuć na liczby.

•Analityczne narzędzia mierzące sentyment użytkownika Sieci (sentiment analysis) Do określonych zdarzeń, informacji, marek towarowych oraz towarów, a nawet wskazywania dni, w których Internauci są najbardziej podatni na określone przekazy informacyjne.