Neutralność
sieci
Berners-Lee stwierdził, że kto płaci za łącze internetowe o
szybkości 300 Mb/s, powinien surfować z dokładnie taką
prędkością. Nie ma przy tym znaczenia, czy akurat ogląda strumień
wideo, pobiera duży plik czy rozmawia z babcią za pośrednictwem
usługi VoIP - opłacone 300 Mb/s to zawsze 300 Mb/s.
Spowalnianie
łączy
1.
Blokowanie bądź hamowanie transmisji P2P oraz telefonii
internetowej. W tym celu wykorzystuje się standardowo kontrowersyjną
technologię głębokiej inspekcji pakietów (DPI), pozwalającą
analizować zawartość przesyłanych pakietów danych.
2. Jeden na
czterech providerów korzysta z metod zarządzania siecią, aby
zapewnić niezawodność i stabilność oferowanych łączy - w
ramach tych działań
mieści się
często hamowanie dostępu do określonych rodzajów treści, na
przykład strumieniowania multimediów.
3. Co
trzeci dostawca usług internetowych manipuluje przepustowością
łączy, aby promować własne usługi takie jak IPTV czy telefonia
internetowa.
Internet
i ekstranet
NAS –
komputer z dyskiem, do którego ma dostęp każdy komputer połączony
do sieci LAN
Internet =
infrastruktura łączności (linie, sprzęt, oprogramowanie).
WWW = zasoby
(informacje i usługi) dostępne za pośrednictwem Internetu.
•Online – w
czasie rzeczywistym (podobnie jak rozmowa przez telefon)
bezpośrednie, zdalne korzystanie z usług i zasobów informacyjnych
udostępnianych przez odległe od siebie komputery.
•Offline –
przesyłanie informacji pomiędzy komputerami, która dociera do
adresata z opóźnieniem czasowym (podobnie jak wysłanie maila lub
napisanego listu).
Rozpoczynając
wdrażanie Intranetu w firmie, należy:
• opisać wizję funkcjonowania
Intranetu,
• dopilnować zweryfikowania tej wizji przez
kompetentne i zaufane osoby,
• sprecyzować swoją wizję na
poziomie wdrożenia dla dwóch wyróżnionych grup,
•
przemyśleć sposób wykorzystania Intranetu przez członków
wybranych grup i rozwinąć w tym kierunku plan, koncentrując się
na szybkich powodzeniach i ewentualnych długoterminowych
niepowodzeniach,
• przystąpić do szczegółowego
projektowania krótkoterminowych zamiarów,
• pracować nad
zainteresowaniem kolejnych grup projektem wdrożenia Intranetu do
redakcji,
• opracować kompleksowy plan ze szczególnym
uwzględnieniem ukrytych kosztów,
• pamiętać o ocenie
postępów prac, najlepiej w okresach tygodniowych, zwracając
jednocześnie uwagę na pojawiające się trendy w tej branży,
•
aktualizować swoją wizję, strategię i bieżące zadania.
VPN
– tworzenie tuneli pomiędzy komputerami
Obejście blokady providerów
• Operatorzy sieci VPN, np. blackVPN,
dysponują serwerami w różnych krajach i oferują szerokopasmowe,
szyfrowane połączenia z tymi serwerami w cenach już od 5 €
miesięcznie.
• Oprócz ograniczeń lokalnego
operatora można w ten sposób obejść blokady usług internetowych
dla użytkowników z określonych krajów. Przez tunel VPN można
korzystać na przykład z usługi Hulu czy z zablokowanych dla
naszego kraju klipów na portalu YouTube.
Extranet
• Prywatna sieć oparta na
internetowym protokole transmisji informacji,
• służy do bezpiecznej (podobnie
jak ma to miejsce w Intranecie) komunikacji z wyróżnionymi
zewnętrznymi użytkownikami – np. między odległymi redakcjami
jednego pisma, a także z biznesowymi partnerami, zaopatrzeniowcami i
klientami.
• Sieć tego typu jest także
nazywana siecią korporacyjną, VPN – Virtual Private Networks lub
WLAN – Wide Local Area Network (także, ale już w innym znaczeniu,
lokalnym, nazywany Wireless LAN – bezprzewodowy LAN).
• VPN – tworzenie tuneli pomiędzy
komputerami.
Atrakcyjność
nazw domen
•Wyspa Nive oferuje – .nu po prawej stronie
adresu, w wielu językach oznaczają „coś nowego” lub „teraz”.
•Republika Congo - .cd.
•Stacje radiowe .fm (rmf.fm) lub .am, którymi
dysponuje Armenia i Mikronezja.
•Dla Brytyjczyków .bt – skrót
wyróżniający Bhutan.
•Austriacy dysponują ciekawym skrótem nazwy
państwa .at,
•.is – Islandia (who.is)
•Tongo – mała wysepka na Pacyfiku - .to
(zrobie.to)
•Tuval - .tv
Cybersquatting
„dziki lokator internetowy”
•Proceder kupowania domen w celu ich
późniejszego odsprzedania po zawyżonej cenie.
•„dziki lokator internetowy”.
Typosquatting
•Badacze z Uniwersytetu Harvarda obliczyli, że Google może
zarabiać na typosquattingu aż 497 milionów dolarów rocznie.
•Typosquatting polega na rejestrowaniu domen o nazwach bardzo
podobnych do domen często odwiedzanych.
•Badacze Tyler Moore i Benjamin Edelman postanowili oszacować jak
duże mogą być przychody z typosquattingu dla Google. W tym celu
wybrali 3264 adresy z domeny .com i korzystając z listy typowych
literówek wygenerowali 900 000 adresów. Za pomocą odpowiedniego
programu sprawdzili 285 000 z nich i stwierdzili, że 60% z nich
zawierało reklamy Google. Na podstawie tych danych obliczyli, że
Google może na tych reklamach zarabiać prawie pół miliarda
dolarów rocznie.
•Domeny z literówkami są więc na pewno na rękę Google. Trzeba
jednak dodać, że Google usuwa reklamy ze stron z literówkami na
wniosek właściciela domeny na podstawie której domeny te zostały
utworzone.
Składowe
adresów
•Top-level domains ustalane przez ICANN (The
Internet Corporation for Assigned Names) dzielą się na trzy
kategorie:
–generic top-level domains (gTLD),
–country code top-level domains (ccTLD)
–infrastructure top-level domains.
•Strefy zastosowań: com - komercyjne edu - edukacyjne gov -
rządowe int - międzynarodowe mil - wojskowe net - organizacje sieci
komputerowych org – reszta
Second Level Domain – druga składowa domeny SLD
•Nazwa funkcjonalna adresu, jeśli w ogóle występuje, jest
umieszczana na drugim poziomie, np. com.pl.
•Wspomniany drugi poziom adresu tworzy składowa nazywana
Second-Level Domain (SLD).
•Zwykle w tym miejscu pojawia się nazwa funkcjonalna (com, gov,
net itp.) lub regionalna (waw, poznan, szczecin itp.).
•Komputery, których nazwa adresu kończy się na: com.pl, są
zarejestrowane w Polsce i zadedykowane (zazwyczaj) sprawom
komercyjnym – tak jak przykładowy adres www.xxx.com.pl.
•W Polsce rejestracją nazw domen na poziomie SLD zajmuje się NASK
(www.nask.pl). „Zajmowanie się” to także przyjmowanie
określonych opłat za rejestrację domeny. 178 partnerów:
dns.pl/porozumienie/partner.html
Subdomena
•Właściciel domeny o nazwie np. „pt.pl” ma prawo tworzenia
pełnych adresów dla każdego komputera w swojej domenie/sieci, a
także kolejnych subdomen, np. archiwum.pt.pl, na dalszych poziomach
adresacji – (podobnie jak numery mieszkań w bloku pozostają w
gestii administracji lub właściciela budynku, a nie w gestii miasta
lub dzielnicy).
URL – Uniformal Resource Locator – precyzyjny adres strony
•Uniformal Resource Locator, np. http://www.pol.pl./katalog
•http
•www.pol.pl.
•katalog
DNS – Domain
Name Servers – adres precyzyjny strony, operator domeny –
registrator.
IPv4 I IPv6
•Tłumaczeniem słów (literowych skrótów) na liczbową postać
zajmują się DNSy - Domain Name Servers.
•Liczbowy adres jest to ciąg czterech liczb z zakresu 0-255 każda,
rozdzielonych kropkami, np. 196.116.146.6.
•DNS służy do przyjaznego użytkownikowi oznaczania adresów
stron i stronic internetowych.
•Opisy każdej domeny znajdują się, z powodów
niezawodnościowych, w co najmniej dwóch serwerach – Primary DNS i
dalszych – Secondary DNS.
•Międzykontynentalny i międzynarodowy ruch ma natomiast swojego
„globalnego tłumacza” i swój „globalny drogowskaz” adresów
w DNS-ach o nazwie Root-Servers, stanowiących wierzchołek
hierarchii DNS-ów.
•System informacji o adresach oraz tłumacz adresów symbolicznych.
•DNS Servers np. www.chip.pl = 195.116.104.13
•.Third-Level-Domain.Second-Level domain.Top-Level-Domains (TLD)
nazwa_hosta.treści(znaczenie).pochodzenie geograficzne
•Na szczycie struktury DNS - Root-Level-Servers (w USA) = kręgosłup
całego Internetu.
Aliasy
•Długie adresy: np. f128.us.mail.Yahoo!.com,
czy ww.setiathome.ssl.berkeley.edu/stats/country_134.html.
•Użytecznym rozwiązaniem jest w tym
przypadku korzystanie z tzw. aliasów.
•Usługę tę świadczą firmy o prostej
nazwie domeny (np. www.w.pl).
•Alias jest zatem uproszczeniem nazwy adresu
(odnosi się to także do adresów poczty elektronicznej) i w
sygnalizowanym wcześniej przypadku adres www.dobry.com.pl/abacki
przyjmie postać www.abacki.w.pl.
•Alias może być też nadawany przez
administratorów sieci, na przykład rambo.id.uw.edu.pl zamiast
www.do.id.uw.edu.pl/~rambo.
USŁUGI
W INTERNECIE
Zasady
konstrukcji stron
Oczekiwania
Pierwsze wrażenie
jakie odnosi wizytujący stronę,
•umieszczanie na
pierwszych stronicach podstawowych informacji o zakresie
usług/produktów firmy, a dalej katalogów online oraz odnośników
do wszelkich publikacji związanych z przedmiotem działalności
firmy,
•misje witryny:
edukacyjna i zarządzania reputacją firmy.
•Przykładem
przestrzegania takich zasad są takie firmy jak ICI lub Elf. Na
stronie Elfa jest przedstawiona historia benzyny od początku świata,
przez tworzenie się ropy, jej wydobycie, przetwórstwo, aż do
transportu do stacji benzynowej.
•Rzadko bywa
tak, iż firma jest bardzo dobra, a jej witryna kiepska. Zazwyczaj
rzeczywisty, bieżący obraz firmy znajduje swoje bezpośrednie
odzwierciedlenie w wirtualnym świecie.
B
Strona – Site
URL - page
udowa stron
Zasoby Sieci
tworzą zbiory pogrupowane w stronach (witrynach, portalach). W
większości są one zapisane w formacie nazywanym hipertekst. Jest
to logiczna kombinacja komputera i tekstu, komputerowy interfejs
pozwalający na encyklopedyczne przeglądanie tekstów.
Każda strona
(site) WWW zawiera zazwyczaj jeden monotematyczny zbiór informacji.
Jest ona podzielona na części, które niefortunnie także są
nazywane stronami (page) - dla wyróżnienia przyjęto nazywać je
słowem: stronice, w znaczeniu pojedynczych kartek.
A zatem zbiory WWW
są nazywane stronami, które z kolei są dzielone na pojedyncze
„kartki” – stronice.
Hipertekst
•Strony WWW są
budowane w specjalny sposób, potocznie mówi się, iż są napisane
w HTML-u. O HTML: home.pl/pomoc/kursy/html,
•ułatwia
przeglądanie i odczytywanie zawartości stron i stronic,
•strony mogą
zawierać informacje w każdej formie – teksty, rysunki,
fotografie, dźwięki i sekwencje wideo (multimedia).
•Linki - wskazanie linku można porównać do zainicjowania
czynności odszukania hasła w encyklopedii.
Link
inaczej
•wzbogaci Sieć
o wiele nowych możliwości, np. pozwoli odtwarzać filmy bez
dodatkowych wtyczek.
•+ JavaScript
ostatecznie pogrzebią prywatność w Internecie.
•HTML5 umożliwia
zapisywanie danych stron WWW w pamięci komputera czy telefonu. Dane
mogą być zdalnie odczytywane, zmieniane i usuwane.
Test
zgodności kodu z przeglądarkami
SLAJDY
Strony
•Portal,
„superstrona” – udostępnia jeden punkt interakcji z całym
potencjałem informacyjno-usługowym;
•Zazwyczaj
składają się na nią: wewnętrzny szperacz, zasoby
informacyjno-usługowe, katalog tych zasobów, linki do wyróżnionych
innych stron (np. sklepy, giełdy) oraz darmowe usługi – skrzynka
pocztowa, miejsce na prywatną stronę, kawiarenka internetowa;
•Portal
wielotematyczny – portal horyzontalny,
•portal
monotematyczny – portal wertykalny (wortal),
•witryna –
strona zazwyczaj prezentująca firmę, osobę.
Mush-ups
Połączenie fragmentów zawartości wielu
stron w celu stworzenia nowej strony – hybrydy.
Przykładami takich stron są połączenia map
(Google) z ofertą sprzedaży nieruchomości (HausingMaps.com),
gromadzenie informacji o sytuacji na drogach z miejskich WebCamów i
innych źródeł.
PERSONALNE mash-ups
•Yahoo, I.B.M., Microsoft i inni tworzą
systemy pozwalające użytkownikom, bez przygotowania
informatycznego, tworzyć użyteczne aplikacje łączące (“mashing
up”) różne onlinowe źródła informacji.
•Yahoo’s mash-up tool,
Pipes,
•Produkt I.B.M., - QEDWiki — dedykowane
sprzedawcom, księgowym – osobom potrzebującym informacji z
różnych źródeł do rozwiązywania biznesowych problemów. I.B.M.
opracował 10-minutowy tutorial QEDWiki opublikowany w YouTube.
Kreator
stron
Narzędzia
do budowy stron
•Dreamweaver
•Microsoft FrontPage (następcy: Expression
Web Designer, SharePoint Designer)
•Pajączek
•Edytor tekstowy
•Inne
•GoLive
•NetObjects Fusion
Komponenty
używane przy konstrukcji stron
JavaScript 55.87%
Frames 23.49%
StyleSheets 35.06%
Java 2.58%
IFrames 7.72%
GIF Images 61.22%
JPG Images 46.42%
PNG Images 4.11%
Flash/Shockwave 9.55%
Java Script
•jest językiem
programowania.
•Umożliwia
wprowadzenie interaktywności do HTML-owych Stron.
•Produkty Javy
można wprost wkładać do Stron.
•Narzędzia
JavaScriptu dostępne są bez opłat, subsydiowane przez Netscapea i
Internet Explorera.
Style Sheets
GIF, JPEG, PNG
Widgety
•Interaktywne
moduły reklamowe instalowane na stronach, także „elementy
graficzne interfejsu graficznego”.
•For
consumers, they show the lowest price on goods that would interest
them based on page context. For publishers, it shows the highest
price consumers are willing to pay for a given item.
Najlepsze
czcionki do internetu:
Veranda,
Tahoma, Arial, Times New Roman
Czcionki
na ekranie
Czytelność strony jest pochodną doboru formy zapisu treści
publikowanych w Sieci.
•krój czcionki,
•kolor czcionki,
•tło czcionki,
•kolor elementów tła całej strony
Struktura
oglądania strony
•Większość stron jest przeglądana, ale nie jest czytana.
•Naturalny odruch czytania (w języku polskim) od lewej do prawej i
z góry w dół zmusza do zachowania równowagi między obrazem i
tekstem; obraz powinien być umieszczony po lewej stronie ekranu.
•Ważne ilustracje należy umieszczać po prawej stronie ekranu –
zdominują one treści będące po lewej stronie ekranu.
•Najczęściej zwracana jest uwaga na lewy górny róg stronicy
oraz na tekst, który jest umieszczony bezpośrednio pod ilustracją
zajmującą tę część obrazu (najlepiej logo).
•Uwaga czytających jest skierowana na wyróżnione fragmenty
tekstów.
•Podobny efekt jest związany z odwracaniem uwagi od zasadniczych
treści strony przez przyciski nawigacyjne. Celowe jest zatem
zastępowanie ich innymi formami nawigacji, na przykład łatwym
dostępem do mapy strony.
CMS
– System Zarządzania Zawartością
(Content Management System)
•Jest to program umożliwiający bezpośrednie
wprowadzanie informacji do „szablonów”.
•Redaktor dbający o aktualność określonych
informacji wyświetlanych na zarządzanej przez niego Stronie,
opracowuje wiadomość (np. bieżące notowania walut) przy pomocy
dowolnego edytora i za pośrednictwem CMS-u bezpośrednio przesyła
swój materiał na Stronę.
Standardowe
funkcje CMS:
•zarządzanie zasobami,
•rozbudowany edytor umożliwiający tworzenie
i formatowanie dokumentów bez znajomości HTML,
•integracja z pakietem MS Office,
•definiowanie procesów workflow dla
publikowanych dokumentów,
•mechanizmy służące do zarządzania
wyglądem i strukturą portalu - modułowość, dedykowane narzędzia,
•możliwość dodawania metadanych do
dokumentów,
•podział użytkowników na role ze względu
na wykonywane zadania i udostępnione im funkcje systemu,
•mechanizmy bezpieczeństwa i autoryzacji,
•otwarta architektura systemu (możliwość
dodawania mechanizmów dynamicznych: bazy notowań, wykresy,
kalkulatory, aplikacje do tworzenia formularzy, zlecenia internetowe,
testy, listy dyskusyjne, chaty, forum, gry itp., e-commerce, SMSy),
•personalizacja i statystyki,
•wyszukiwarka.
BYOD
– Bring Your Own Device
BYOD (Bring Your Own Device) to trend polegający na używaniu przez
pracowników w miejscu pracy swoich prywatnych smartfonów i
tabletów.
ZAGROŻENIE: wyciek danych - Urządzenia przynoszone do pracy na ogół
łączą się z internetem przez firmową sieć WiFi. Użytkownicy
logują się do sieci używając swoich loginów i haseł, ale to nie
znaczy, że ich smartfony, tablety i laptopy są objęte firmowymi
politykami bezpieczeństwa. Aby tak było, urządzenia te musiałyby
zostać wciągnięte do zarządzanej sieci firmowej, ale instalacja
agentów domeny na wszystkich prywatnych urządzeniach nie jest
możliwa ze względu na różnorodność systemów operacyjnych i ich
wersji. Takie niezarządzane urządzenia nie tylko narażają sieć
na zwiększone ryzyko infekcji i wycieku danych, mogą też zbytnio
ją obciążać poprzez aplikacje takie, jak radio internetowe, czy
streaming wideo.
Oczekiwania
odwiedzających stronę
•Użyteczność,
•Funkcjonalność,
•Intuicyjność,
•Wydajność.
Zarządzanie
stronami powinno uzględniać…
•szacunkową liczbę odwiedzających Stronę,
•kim są odwiedzający Stronę Internauci?
•jakiego systemu operacyjnego (SO) używają i jakiej przeglądarki
(np. czy Strona spełnia wymogi standardów HTML, XHTML, CSS)?
•kto polecił odwiedzającym Stronę?
•liczba rzeczywistych odwiedzin (Stat4You, TheCounter.com),
•szybki, ciągły (24/7) dostęp do Strony,
•dzienne, tygodniowe, miesięczne statystyki pozwalające ocenić:
–jakiej przeglądarki używają odwiedzający?
–rozdzielczość ekranu odwiedzających?
–SO odwiedzających?
–jakie Strony mają linki do budowanej Strony?
–jakie szperacze wykorzystano do lokalizacji budowanej Strony?
–jakich słów kluczowych używali odwiedzający w szperaczach?
•stan liczników życia Strony, łącznie z niewidocznym.
7
zasad efektywnej strony WWW
•Zasada 1: konsument ma rację – słuchaj i odpowiadaj na jego
potrzeby. Należy zrozumieć dlaczego konsumenci odwiedzają stronę.
•Zasada 2: Określenie podstawowego celu utrzymywania strony.
Uświadomienie akcji, które chcemy sprowokować u określonych
klientów.
•Zasada 3: Nadawać priorytet doświadczeniu klientów. Klienci
odchodzą do konkurencji, bo czują się niedocenieni lub szacują,
że koszt dalszego prowadzenia interesów jest większy od
uzyskiwanych korzyści. Uwzględniając znane doświadczenia klientów
łatwiej ich utrzymać.
•Zasada 4: Wykorzystywanie wiedzy o klientach.
•Zasada 5: Ocena uchybień strony. Np. Analiza
niesatysfakcjonujących wyników poszukiwań na stronie.
•Zasada 6: Kreowanie dialogu z konsumentem. Dostępne narzędzia
personalizacji ułatwiają prowadzenie dialogu, dostosowanie go do
specyficznych odbiorców (kwestia pozyskanych danych osobowych,
zachowań).
•Zasada 7: Optymalizacja skuteczności strony. Wykorzystanie strony
jako niedrogiego narzędzia oceny nowych koncepcji i idei.
Kategorie
zasad konstrukcji I utrzymywania stron internetowych
•dostępność,
•zawartość
merytoryczna,
•komunikatywność,
•nawigacja.
SEO
– Search Engine Optimalisation
Optymalizacja dla
wyszukiwarek internetowych (ang. Search Engine Optimization; zwana
także pozycjonowaniem) procesy zmierzające do osiągnięcia przez
dany serwis internetowy jak najwyższej pozycji w wynikach
organicznych wyszukiwarek internetowych dla wybranych słów i fraz
kluczowych. Proces pozycjonowania jest elementem szeroko pojętego
marketingu internetowego. Pozycjonowanie bazuje na znanych elementach
działania algorytmu wyszukiwarek, ciągłym poznawaniu nowych, które
algorytmy biorą pod uwagę przy rangowaniu strony oraz na
weryfikowaniu już istniejących.
KATEGORIA
– Zawartość merytoryczna
Dane o firmie
Cel istnienia
firmy;
Slogan
reklamowy;
Informacje
ogólne – definicje podstawowych pojęć związanych z branżą;
Informacje o
usługach/produktach oferowanych przez firmę;
Najważniejsze
osoby w firmie + zdjęcia;
Historia
firmy/produktów z nią związanych;
Dane finansowe;
Problematyka
socjalna;
Sukcesy - opis
efektów działań firmy, pochlebne cytaty, referencje, nagrody itp.;
Lista klientów.
Dane kontaktowe
pełna nazwa
firmy;
numer ulicy;
numer lokalu;
kod pocztowy;
miasto;
mapka dojazdu;
NIP;
e-mail;
numer telefonu;
numer faksu.
Informacje o firmie
KATEGORIA
– komunikatywność
Interaktywność:
Czas
załadowania strony głównej nie powinien przekraczać 2 s.;
Brak błędów połączeń podczas
poruszania się po witrynie;
Biuro prasowe online powinno być dostępne
ze strony głównej witryny;
Obecność linków w tym troska o ich
aktualność, związek z branżą i zgodność zasobów z ich
zapowiedzią;
Szybkość i jakość odpowiedzi na e-maila;
Poprawność i aktualność e-maila podanego
na oficjalnej stronie firmy – możliwość skontaktowania się z
firmą za jego pośrednictwem;
Obecność okna e-mail do tzw. szybkiej
komunikacji.
Personalizacja:
Dostępność: newslettera, RSS-a,
formularza rejestracyjnego;
Możliwość zalogowania się.
Aktualność danych:
Aktualność informacji na stronie;
Aktualność linków.
Zrozumiałość przekazu:
poprawność pod kątem ortograficznym,
gramatycznym, stylistycznym;
Niestosowanie niewytłumaczonych skrótów i
pojęć;
Dostępność witryny w przynajmniej dwóch
językach.
Czytelność przekazu:
Obecność podtytułów, które powinny być:
oWyraźnie oznaczone;
oUmiejscowione w dobrym miejscu - podtytuł
powinien otaczać swoją konstrukcją określoną zawartość;
oSzybkie w lekturze;
oZrozumiałe;
oDobrze definiujące określony tekst.
Linki:
oWyraźne oznaczenie linków przed kliknięciem;
oWyraźne oznaczenie linków po kliknięciu;
oZgodność linków z ich wcześniejszym
tematycznym kliknięciem.
Obecność multimediów.
KATEGORIA
– nawigacja
Pasek nawigacji:
Obecność paska nawigacji na stronie
głównej;
Obecność paska nawigacji na wszystkich
stronnicach;
Pasek narzędzi jest wszędzie taki sam.
Obecność drzewa strony;
Dostępność strony głównej z dowolnego
miejsca serwisu;
Dostępność przycisku wstecz z dowolnego
miejsca serwisu;
Możliwość szybkiego drukowania;
Wewnętrzny szperacz witryny;
Obecność Identyfikatora witryny lub logo
na każdej stronicy;
Jednolitość witryny pod kątem treści,
formy i koloru;
Wyraźne oznaczenie przycisków do
kliknięcia
Ocena
stron
W odniesieniu do mediów i innych branż
w Sieci, fundamentalna jest interaktywność Stron oraz możliwość
dynamicznego łączenia (linki) informacji tekstowych z bogactwem
uzupełnień w formie multimedialnych zasobów. Dzięki temu portale
stają się żywe, często z aktualizowanymi na bieżąco danymi, z
grafiką, dźwiękiem i multimedialnymi prezentacjami.
Sprawdź
swoją stronę
•Gdzie kierujesz wzrok w pierwszej kolejności?
•Czy potrafisz powiedzieć o czym jest strona?
•Czy ważne informacje są na pierwszej stronicy (bez przewijania)?
•Czy korzyści dla czytelnika są podkreślone?
•Czy są czytelne zachęty do akcji (druk, info.)?
•Czy kolory, znaki, animacje są rozpraszające?
•Czy czujesz osobisty związek ze stroną?
•Czy są linki do stron społecznościowych?
Kategorie
merytorycznych ocen stron
Technologia i funkcjonalność
•Technologia – wygląd i nawigacja
•Interaktywność
•Linki, wydarzenia i słowniki
•Dostępność
Zawartość
•Informacje finansowe
•Informacje o firmie
•Informacje adresowe
Co ważne
na stronie?
•Interaktywność jest interpretowana jako możliwość subskrypcji
określonych informacji dostarczanych via mail, np. czas udzielenia
odpowiedzi na zadane pytanie mailem.
•O wartości linków na stronie świadczą ich aktualność i
związek z branżą oraz wskazywanie informacji o wydarzeniach
dotyczących przedmiotu działalności firmy – właścicielki
strony.
•Dostępność i zasobność słowników związanych z firmą,
•Kluczowe elementy: informacje adresowe, schemat organizacyjny,
prezentacja władz i historia firmy.
•Dodatkowe informacje o firmie: sprawy socjalne oraz ogłoszenia o
wolnych miejscach pracy i możliwości zdalnego składania CV.
•W ramach finansowych informacji o firmie - dostępność online:
ostatniego raportu finansowego (w formatach PDF/HTML), archiwum
poprzednich raportów, kalendarza firmowych zdarzeń, notowania
akcji, wielkości obrotów akcjami firmy, polityki, historii
dywidend, informacji o właścicielach i innych istotnych danych
finansowych.
Liczniki –
samoocena konstrukcji i atrakcyjności strony
•szybki dostęp do statystyk strony – 24/7/365, czyli w skali
dnia, tygodnia i roku,
•możliwość oceny:
–jakiej przeglądarki używa wizytujący stronę,
–rozdzielczość ekranu odwiedzającego,
–system operacyjny odwiedzającego,
–które strony polecają ocenianą witrynę,
–który szperacz wskazał wizytującemu stronę,
–jakich słów kluczowych używał odwiedzający w tym szperaczu,
–kilka różnych stylów licznika, łącznie z niewidocznym dla
internautów,
•mailowe komunikaty (alerty).
Pojęcia
ilościowych ocen
•Wywołanie/hit – wczytanie dowolnego
elementu z serwera WWW. Np. załadowanie strony z 3 plikami
graficznymi = 4 hity
•Strona WWW – wywołanie dokumentu o
rozszerzeniu HTM, HTML, TXT lub skryptu, np. PHP.
•Sesja – ciąg plików (kolejnych wywołań)
pobranych przez jednego użytkownika z konkretnego adresu WWW
•Wejście – dokument, od którego
użytkownik zaczyna przeglądanie strony.
•Transfer – ilość danych (w KB), które
zostały pobrane z serwera.
Rafinacja
zasobów sieciowych
Informacyjne źródło zasobów sieciowych – biały wywiad 2.0 Big
data – baza rafinacji
• Big Data to zasoby w postaci cyfrowej, których istotną część
tworzą wszelkie informacje dostępne w internecie:
- posty, blogi, strony, fora, profesjonalne wydawnictwa (dzienniki,
periodyki, książki i inne podobne wydawnictwa, np. – 235
terabajtów danych zebranych w US Library of Congress do IV.2011).
• Zbiór 100 milionów wiadomości agencyjnych z całego świata,
który obejmuje pół wieku ludzkiej cywilizacji, cyfrowa biblioteka
4% wszystkich książek wydrukowanych w okresie sześciu wieków,
zasoby branżowe, np. Służba zdrowia.
• Big data są także tworzone przez urządzenia komórki (5 mld w
2010 r.), komputery, cyfrowe kamery, aparaty fotograficzne, czytniki
RFID, samochody, domy, inteligentne mierniki np. poboru energii
elektrycznej i GPSy.
Inteligentne liczniki prądu – Smart Meter
• Źródło informacji o prywatnych zachowaniach użytkowników
prądu:
– Posiłki
– Sen
– Toaleta
– Pranie
– Typ TV (skok poboru mocy)
Rafinacja informacji
• Jest peryskopem pomiędzy dwoma poziomami informacji: poziomu
bazowego i poziomu wyniku rafinacji.
• Umożliwia dostrzeganie informacji z otoczenia/poziomu bazowych
informacji (czyste informacje z WWW) tych, które są na poziomie
informacji będących wynikiem rafinacji.
Culturomics
• Dwa istniejące filary rafinacji: Culturomics i Curation.
• Culturomics obejmuje aktywności związane z eksploracją
szerokiego spektrum kulturowych trendów poprzez komputerową analizę
cyfrowych archiwów książek. Stwarza nowe możliwości wglądu w
funkcjonowanie społeczeństwa
113 „curation"
• dopasowywanie wyników wyszukiwania w internecie do preferencji
użytkownika.
• Curatorem jest ktoś kto ciągle szuka, grupuje, organizuje i
udostępnia najlepszą, najbardziej odpowiednie treści dla
specyficznych potrzeb online.
Przykład curation
• Axiom – 500 milionów konsumentów, 1500 kategorii informacji o
każdym
• Każdy umieszczany jest w jednej z 70 socjoekonomicznych
kategorii Consumer Data, but Not for Consumers, By NATASHA SINGER,
Published: July 21, 2012, NYT. Rafinacja - zasięg
• Analizując miliardy postów, blogów i artykułów dostępnych
online możliwe jest uzyskanie nowych informacji o społecznych
fenomenach, państwach, organizacjach i osobach (relacje, migracje
itp.)
• Wynik: ocena emocji relacji: sympatia, antypatia, poczucie
szczęścia, optymizm, pesymizm, strach.
Narzędzia rafinacji
• Wyszukiwarki
• Dane behawioralne (zachowania w Sieci)
• Personalizacja (np. kryteria opisujących osobę decydują o
wynikach wyszukiwania)
• Zaawansowane narzędzia, np. ocena sentymentu (Attentio).
Diagnoza emocjonalnych
odczuć adresata przekazu
• Tłumaczenie emocjonalnych odczuć na liczby.
• Analityczne narzędzia mierzące sentyment użytkownika Sieci
(sentiment analysis). Do określonych zdarzeń, informacji, marek
towarowych oraz towarów, a nawet wskazywania dni, w których
Internauci są najbardziej podatni na określone przekazy
informacyjne.
Wyniki rafinacji – przewidywanie przyszłości
• Zachowania giełd, sprzedaż książek, wideo
• Choroby
• Zjawiska polityczne i społeczne
• Konflikty społeczne
Prognozowanie z informacji sieciowych
• Ludzie szukając dzisiaj wskazują co będą robili w
przyszłości.
• Np. bezrobocie, sprzedaż samochodów, choroby.
• Badania potwierdziły prognozy sprzedaży filmów i pozycję
muzyki na liście przebojów.
• Realne przewidywanie kolektywnych zachowań w zakresie ekonomii,
kultury i polityki.
Minerva – inicjatywa Pentagonu
• Poszukiwania w celu zdefiniowania i rozwoju podstawowej wiedzy o
obecnych i przyszłych konfliktach w kierunku lepszego zrozumienia
politycznych trajektorii w kluczowych regionach świata.
• Doskonalenie możliwości DoD w celu rozwoju nauk społecznych,
problemów zagranicznych i interdyscyplinarnych studiów.
Psychohistoria Issac Asimov
• Kombinacja matematyki i psychologii do przewidywania przyszłości.
• Obecnie bazą „big data”: RFID, POSy,Twitter, Facebook,
blogi, Wiki, lokalizacja komórek, ruch w Sieci, zapytania, dane z
rynków finansowych, webcamy z ulic. Efekt – przewidywanie
politycznych kryzysów, rewolucji i innych form społecznej i
ekonomicznej niestabilności, epidemii.
Brandometr
• Brandometr pozwala na bieżąco śledzić nowe wypowiedzi, jakie
pojawiły się w Internecie na temat danej marki.
• Umożliwia łatwe odnajdowanie trwających dyskusji,
przysłuchiwanie się im oraz włączanie się do nich.
Cyfrowy testament
• Facebook – kilka milionów kont osób nieżyjących. W tym roku
przybędzie kolejne 1,5
mln kont należących do zmarłych.
• Usługa polegająca na spisaniu cyfrowego testamentu. Umożliwia
to bliskim zmarłych użytkowników odzyskanie ich kont i zarządzanie
nimi.
• Po zmarłych mogły pozostać pieniądze w PayPalu, zdjęcia w
sieciowych galeriach,
życiorysy i CV w serwisach rekrutacyjnych, poczta itp.
Przykłady miejsc i form testamentów
• Nagrania wideo i audio (legacylocker, greatgoodbye)
• Zamieszczanie komunikatów na blogu (mywebwill)
• Konieczność potwierdzenia przez dwie osoby lub cykliczne
potwierdzanie życia.
• Testament sieciowy bywa łączony z tradycyjnym.
Ocena
przez statystyki stron internetowych
•49 % wszystkich odwiedzin na witrynach pochodzi od fizycznych
osób.
•20 % całego ruchu w Internecie generują mechanizmy katalogujące
witryny w wyszukiwarkach.
•31% to „złośliwy„ ruch, czyli skrypty i spamboty.
•5% sztucznego ruchu generowane jest przez narzędzia hakerskie.
•5% - „zbieracze", kradną treści umieszczane w witrynach.
•2% boty generujące spamowe komentarze i wpisy w których
umieszczane są reklamy na forach.
•19 % - pospolity spyware.
Jak
sprawdzić statystyki strony
Teqpad to narzędzie, pozwalające uzyskać dostęp do statystyk
każdej witryny dostępnej w Internecie, a także wielu innych,
użytecznych informacji dotyczących danego serwisu.
Sprawdzenie strony WWW w Teqpad dostarczy nam takich informacji jak:
dzienna ilość wizyt, odsłon, użytkowników, udział witryny w
globalnym ruchu, a nawet jej przybliżoną wartość oraz dzienne
zarobki. Ponadto znajdziemy tam ilość linków prowadzących do owej
strony, mierzoną przez kilka wyszukiwarek, obecność serwisu w
popularnych katalogach, a także jej pozycję w różnego rodzaju
rankingach.
Dodatkowe dane, do których zyskujemy dostęp to szczegółowe
informacje na temat serwera oraz domeny, tytuł, opis i screen strony
głównej, a także datę ostatniej wizyty robota Google.
Najpopularniejsze
statystyki
Opentracker
*Płatne, ale jest
4-tygodniowy okres próbny.
*Statystki o
naprawdę dużych możliwościach. Przyjemnie zaprojektowane.
*Koszt to 16,99
USD miesięcznie lub 169$ USD rocznie.
*Jest to cena
najczęściej wykraczająca poza budżet zwykłego webmastera, ale
niewygórowana dla internetowego biznesu średniej wielkości.
*Choć jest to
produkt amerykański, udostępnia wiele wersji językowych interfejsu
użytkownika, w tym polską.
Stat24
*Statystyki rodem
z Polski, dostępne zarówno w wersji darmowej, jak i profesjonalna
wersja płatna.
*Obsługiwane
przez zewnętrzny serwer.
*Cena tej
ostatniej waha się od 600 zł do 3500 zł rocznie, w zależności od
liczby odsłon serwisu.
*Warunkiem
korzystania z w pełni funkcjonalnej, bezpłatnej wersji statystyk
statStandard jest zamieszczenie logotypu na stronie głównej
monitorowanej witryny oraz wyrażenie zgody na emisję ankiet
badawczych i reklam komercyjnych na łamach swojej witryny.
*Ranking stat24 to
narzędzie służące zarówno witrynom zainteresowanym bezpłatną
promocją w internecie, jak również pełniące funkcję
wiarygodnego źródła informacji dla internautów poszukujących
tematycznych serwisów.
*Jest to także
miejsce, w którym istnieje możliwość zaprezentowania swojej
witryny reklamodawcom.
AWStats
*Darmowy program
instalowany na serwerze użytkownika. Statystyki Awstats są bardzo
często domyślnie dostępne na serwerach WWW.
Inne
źródła statystyki
Wartość
strony
•Websiteoutlook jest miejscem/narzędziem szacunkowej oceny
wartości strony.
•Użyteczne w chwili sprzedaży/kupna strony.
AdWords
i AdSense
AdSense
•Opłacanie przez szperacze twórców stron,
włączając blogerów.
•Twórca dostaje wynagrodzenie proporcjonalne
do liczby reklam ukazujących się w otoczeniu linku jego strony,
który wyświetlany jest na SERP. Reklamy powiązane są
kontekstualnie z treścią strony jej twórcy.
AdWords
•Reklamy są wyświetlane - obok wyników
wyszukiwania wybranych słów kluczowych -użytkownikom wyszukującym
te słowa w Google. To znaczy, że reklama trafia do osób już nią
zainteresowanych.
•Użytkownicy mogą kliknąć w reklamę i
dokonać zakupu albo dowiedzieć się więcej o firmie.
•50% wpływów pochodzi z tego typu reklam.
Lista
narzędzi do oceny stron
Google
Analitics
Slajdy od 125 z „Usługi” – kilka ich jest, dlatego nie wrzucam
•Darmowy system udostępniony przez Google
•Raporty dla dni, tygodni, miesięcy oraz lat
•Podstawowe parametry: liczba odwiedzin, liczba odsłon, średni
czas spędzony na stronie oraz współczynnik odrzuceń (udział
wizyt, które składały się tylko z jednej odsłony).
Browswershots.org
Browsershots.org – wygląd WWW w różnych przeglądarkach np. IE,
Android, Firefox; 60 zrzutów. Bada także, jak działają skrypty
Java i Flash .
Raven
Raven – jak wypada moje WWW na tle konkurencji; monitoring sieci;
miesiąc próbny za darmo; raventools.com .
Web Site
Optimization
czas ładowania i reakcji WWW; standardy: 5-8 sek. ładowanie strony;
reakcja na działanie użytkownika 0,5 sek;
Clean CSS
Do
oceny ½
Poza konkursem (wspomniany wcześniej): W3C –
aplikacja do kontrolowania skryptu CSS i HTML . Bada txt kodu czy
jest zgodny ze standardem. Działa podobnie do narzędzia Raven
Page Rank
metoda nadawania
indeksowanym stronom internetowym określonej wartości liczbowej,
oznaczającej ich jakość.
Algorytm PageRank
jest wykorzystywany przez popularną wyszukiwarkę internetową
Google. Został opracowany przez założycieli firmy Google Larry'ego
Page'a i Sergeya Brina podczas ich studiów na Uniwersytecie
Stanforda w 1998 roku. Nazwa algorytmu pochodzi nie od angielskiego
wyrazu określającego stronę (ang. page), lecz od nazwiska twórcy,
czyli Larry'ego Page'a. Wynik PageRank pokazywany jest jako jedna z
opcji dostępnych w pasku narzędziowym Google, sprawdzać można go
również w wielu serwisach niezależnych.
Nazwa "PageRank"
jest znakiem handlowym Google, a sam algorytm został 9 stycznia 1998
opatentowany w Stanach Zjednoczonych (nr patentu US6285999). Patent
należy jednak do Uniwersytetu Stanforda, a nie firmy Google.
Uzyskała ona od Uniwersytetu Stanforda prawa licencyjne na
wyłączność, a w zamian za zezwolenie na korzystanie z patentu
uniwersytet otrzymał 1,8 miliona akcji Google. Akcje zostały
sprzedane w 2005 za 336 milionów dolarów.
Programy
do zbierania informacji ze stron www
Optymalizacja
stron dla urządzeń mobilnych
Dostosowanie
maili do komórek
Luki w
zabezpieczeniach ma 86% stron www
Przeglądarki
•Przeglądarki - tak zwane browsery - są programami, które
umożliwiają wędrówkę po Sieci.
•Umożliwiają obsługę komputera podczas wykonywania wszystkich
operacji niezbędnych do korzystania z zasobów Sieci.
•Czynności związane z poprawnym odczytaniem treści wybranej
Strony wykonuje przeglądarka. Informacje zapisane w różnych
formatach, z użyciem różnych komponentów.
•Jest wzbogacana o tak zwane wtyczki – programy uzupełniające
funkcjonalność przeglądarki.
Warstwy
przeglądarki
•interfejs, za pomocą którego użytkownik
wykonuje rozmaite polecenia,
•wewnętrzny silnik wyświetlający/renderujący
zawartość strony na monitorze;
–Microsoft rozwija silnik Trident
–Opera pracuje nad silnikiem Presto
–Mozilla wykorzystuje tworzony przez
społeczność silnik Gecko (ang. 'gekon'),
–Chrome (podobnie jak Safari Apple'a)
korzysta z tworzonego przez społeczność silnika Webkit,
–i kilkanaście innych.
Przeglądarki
– szybkość, zabezpieczenia
•Szybkość: 1. Chrome, 2. Firefox, 3. IE9
•Zabezpieczenia: jw.
•Zgodność z HTML5: jw.
Która z
dodatkowych funkcji przeglądarek internetowych jest dla ciebie
najważniejsza
Luki w
przeglądarkach
Tryb
anonimowy
•Wykorzystanie innych serwerów proxy,
–by zgubić ślad (test: dnsstuff.com),
–by dynamicznie zmieniać: MultiProxy
–Oferty: www.freeproxy.ru, anonymizer.com, safersurf.com,
tor.eff.org
•Wykorzystanie WLAN, najlepiej anonimowo obok firmy, lub przez
„zdrapkę” w hotspocie.
•Anonymous Surfing ukrywa adres IP –wyklucza śledzenie stron,
które są oglądane.
•Przekierowanie ruchu przez serwer Zone.
•Serwery uzbrojone w 128 bitowy SSL.
•Torbark – przeglądarka na bazie Firefoxa. Zapewnia anonimowość
w systemie TOR (torproject.org), sieć serwerów ukrywających
tożsamość w Sieci.
•The Torpark 1.5.0.7 (oparte na Firefoksie); IE 8 beta2; Google
Chrome; Stealther 1.0.6 (dodatek do Firefox 3.0).
•Programy anonimizujące, np.: Java Anon Proxy (JAP); The Onion
Router (TOR)
•Do ukrywania tożsamości stosuje się kaskadę mieszanych proxy,
składającą się z przynajmniej trzech serwerów.
•www.bugmeont.com
•„Trasowanie cebulowe” – tor.eff.org/index.html.pl
Przeglądarki
offlineowe
•„ekonomiczne czytanie stron offline”.
•Zasada ich działania polega na sprawnym pobieraniu wskazanych
zasobów sieciowych, zapisywaniu ich na dysku, a następnie
stwarzaniu możliwości ich przeglądania lokalnie na dysku
komputera, także w czasie, gdy internauta nie ma podłączonego
komputera do Internetu.
•Podstawowe funkcje przeglądarek offline to: automatyczna
aktualizacja wcześniej pobranych stron, możliwość ich edycji i
kompresji, kontynuacja realizacji przerwanych zadań oraz możliwość
wyboru rodzaju i maksymalnego rozmiaru ściąganego pliku, a także
obsługa HTTPS i FTP, szperacz wewnętrzny, możliwość określania
„głębokości ściągania” i parametryzowania filtrów na „nie”.
Akceleratory
•Inaczej menedżery pobierania.
•Początkowo umożliwiały kontynuowanie
pobierania po przerwaniu transmisji. Następnie stworzono
wielowątkową technikę pobierania. Przyspieszenie nawet o 100 razy,
zależnie od liczby fragmentów równocześnie ściąganych.
•Pasmo barierą nie do przebicia.
Przykłady:
•DownThemAll!
•Download Accelerator Plus 7.4 9.0
•NetAnts1.25 8.8
•GetRight 5.2d 8.7
•Mass Downloader 3.1 8.7
•FlashGet 1.65 8.4
•LeechGet 2007, Gigaget
Pobieranie
standardowe, a pobieranie z segmentacją
Teleportery
•funkcja ściągania na komputer internauty
wskazanych stron w całości lub w części.
•Dzięki odpowiednim narzędziom programowym
możliwe jest pobranie wyróżnionych/wszystkich zasobów z
lokalizacji wskazanej przez internautę.
•skopiowane zasoby mają identyczną jak
oryginał strukturę i są dostępne na lokalnym komputerze
•możliwe jest wybieranie pewnych tylko
rodzajów pobieranych multimediów, a nawet decydowanie o
„głębokości” kopiowania strony.
Teleporter
– programy
•Dla początkujących: WinHTTrack, Offline
Commander, Offline Explorer Pro, Advanced Site Crawler 2003,
•Dla średnio zaawansowanych: BlackWidow,
WebWhacker, WebZip, WebCopier, WebStripper.
Web 2.0 –
media społecznościowe Web 2.0
•Obywatele
rozwiniętych państw spędzają jedną trzecią wolnego czasu
uczestnicząc w internetowych grupach społecznościowych
•regularnie
kontaktują się z szesnastoma osobami, które spotkali w wirtualnym
świecie.
•Sieć stała
się dla nich integralną częścią codziennego życia, w postaci
poczty elektronicznej, e-komercji, forów, blogów lub wirtualnych
miejsc spotkań (Facebook, Grono, Nasza Klasa, Second Live)
•Nowa faza
rozwoju WWW,
•Interakcja z
wirtualnym światem – osobami, firmami,
•Wykorzystanie
nowych technologii, od blogów, przez social networking do AJAXu,
•Wynik ewolucji
jakości i intuicyjności stron
•Narzędzia i
kanały do komercjalizacji tego typu stron
•Nowe wyzwanie –
miary relacji zachodzących w WEB 2.0, głównie odnośnie biznesu
Media
społecznościowe
Popularne
platformy społecznościowe
•Świat: Facebook
•U.S. i Kanada: MySpace,Twitter, LinkedIn, Facebook, Google+,
Pinterest
•Europa: MySpace, Twitter, Hi5, V Kontakte
•Ameryka Płd.: Hi5, Orkut, Tagged
•Azja: QQ, Friendster, Xiaonei, Orkut, Mixi, Hi5
•Śr. Wschód i Afryka: Maktoob, Hi5
W jakim
stopniu technologie zostały przyjęte przez klientów
•Jeśli tworzą user-generated content i są lojalni – stwórz
warunki do publikacji
•Czy są wśród klientów eksperci – jeśli tak zaproś do forum
i zachęć do Wiki
•Jakie technologie wykorzystuje konkurencja?
•Elastyczność/kompetencja klientów wobec wprowadzania nowych
technologii
Zdobywanie
klientów
•Niektóre technologie Web 2.0, takie jak RSS feeds, podcast,
social networks i porównywarki cen stwarzają nowe warunki
pozyskiwania nowych klientów i promocji firmy
•Np. opinie na Facebook, Gronie, filmy w YouTube, pozycja w
del.icio.us
•Spełniać oczekiwania nowych technologii - Rich internet
applications (RIAs) np. wideo, AJAX i Flash oraz telefonów
komórkowych (np. m.grono.net w komórkach)
Personalizacja
•Banalne stwierdzenie co Internauci lubią, nie lubią, co jest ich
pasją życiową
•By zrozumieć klienta trzeba mieć dane o każdej interakcji.
•Lifetime Individual Visitor Experience (LIVE) Profile™ -
umożliwia tworzenie obrazu indywidualnego użytkownika
•Efekt – personalizacja
•MySpace pages – pierwsza faza programu: “interest-based
targeting” - algorytmy kategoryzujące członków zależnie od ich
zainteresowań, np. sport, moda, finanse, gry komputerowe, auta i
zdrowie.
•Druga faza: setki subkategorii, np. fani sportu są podzieleni na
grupy - koszykówka, piłka nożna w szkołach, narty. Filmowi
entuzjaści: komedie, dramaty, filmy niezależne, a także wg nazwisk
aktorów. Także: płeć, wiek, przyjaciele
Blogging
Blogging
–Blog jest to angielski neologizm: weblog (Web – Sieć WWW; log –
dziennik, rejestr). Określany jest także jako webowe pismo (web
journal), „blogsphere”.
–Zazwyczaj owe autorskie zapiski ułożone są w odwrotnym porządku
chronologicznym.
–Skala tego zjawiska oraz doskonalenie technologii tworzenia i
aktualizacji blogów często traktowane są jako nowy etap rozwoju
Sieci nazywany „Web 2.0” lub „Internet 2.0”
•stał się nieformalnym medium wymiany informacji, także
kształtowania poglądów, opinii na wybrane tematy lub o dostępnych
dla określonego środowiska usługach i produktach, a nawet
promocji.
•Blog jest to neologizm angielskiego słowa: weblog (Web – Sieć
WWW; log – dziennik, rejestr); określany jest także jako webowe
pismo (web journal), „blogsphere”.
•blogsfera - wszelkie zjawiska związane z blogingiem. Zazwyczaj
owe autorskie zapiski są ułożone w odwrotnym porządku
chronologicznym.
•Skala tego zjawiska oraz doskonalenie technologii tworzenia i
aktualizacji blogów często są traktowane jako nowy etap rozwoju
Sieci nazywany „Web 2.0” lub „Internet 2.0”
•Na etap ten składają się także takie formy operowania
informacją jak np. podcasty, RSSy. Tę nową fazę WWW zainicjował
społeczny fenomen – „społeczne media” (social media) - jakim
stał się udział indywidualnych osób w samodzielnym tworzeniu i
dystrybucji produktów informacyjnych za pośrednictwem Internetu.
Klasyfikacja
blogów
–osobiste (pierwotna forma blogów przypominająca dzienniki i
pamiętniki)
–zawodowe (stanowiące przejaw działalności zawodowej lub
naukowej)
–opisujące świat (odpowiednik publicystyki starych mediów)
–relacyjne (ich celem jest nawiązywanie i utrzymywanie relacji
międzyludzkich)
–reklamowe (tak zwane fake blogs, czyli sztuczne blogi mające za
zadanie promować towar)
–splogi (jeden z przejawów działalności automatów spamujących).
Słowniczek
Twittera
RSS
z blogów
•RSS umożliwia agregację wybranych informacji z różnych blogów
•Agregatory blogów: Topix.net, Bloglines, Yahoo's blog aggregator
lub desktopowe narzędzie FeedDemon do śledzenia aktualizacji
ulubionych blogów.
Blog
w firmie
•Blog może łączyć pracowników, konsumentów, partnerów i
dostarczycieli (Radio Userland).
•Blog widziany staje się jako „sieciowa gazeta” (web
newspaper).
•Np. do dzielenia się wiadomościami na temat pracy nad wspólnym
projektem.
•Blog, krok po IM w firmach
„splog’iem”
lub „spamblogi”
•polega na manipulowaniu bloggingiem w celu osiągnięcia zysku.
•W splogach wykorzystywane są słowa – klucze (z blogów) w celu
uzyskania wyższej pozycji na liście rezultatów wyszukiwań
szperaczy (SERP).
•Zawierają linki do promowanych stron
•Często generowane automatycznie (tysiące blogów tworzy jedna
osoba/instytucja) np. Programem Blue Diamond’a – Blog Mass
Installer, setki komentarzy do „ziołowej viagry”
•90% nowych blogów - splogi
•Efektem jest zwiększona skuteczność reklamy i jednoczesne
niszczenie reputacji autorów najlepszych blogów.
Największe
społeczności
•Chiny – Tancent (890 mln – 2009)
•Brazylia – Orkut (2004)
•Hi5 – 25 krajów, 23 języki.
•Europa: Netlog.com i Bebo
•Najwięksi: MySpace i Facebook
Crowd
sourcing – mądrość tłumu
•Współpraca wielu osób przy tworzeniu pomysłów związanych ze
wspólnym celem
•Skalowalność: grupa, firma, państwo, świat
Crowdsourcing – mądrość tłumu inaczej
•Indywidualnie chcemy sterować tym co tworzymy, jeśli się nie
udaje, zmieniamy przedmiot/obiekt zainteresowania.
•Jako grupa sterujemy przez konsumpcję. Większe/liczniejsze
zainteresowanie produktem/usługą – wyższa ocena „mądrości
tłumu”. Próba kontroli/manipulacji takiego sterowania, czyni ową
mądrość mniej wartościową
•...on the" individual" level, we want to control the
things that we create (and, that if we can't, we'll go elsewhere). On
the "collective" level, we "create as we consume"
collectively, and that the "crowd" itself owns the "wisdom
of the crowd". If someone tries to "own" this
crowd-wisdom generated from consumption, they make it less valuable
by trying to disconnect it from larger networks to control it.
Narzędzia
do badania zawartości w mediach społecznościowych
Seer –
Social Radar
•Wykorzystuje do analizy treści pochodzące z blogów,
mikroblogów, komentarzy, forów, portali informacyjnych, a także
stron z treściami wideo i zdjęciami.
•Pokazuje relacje między słowami kluczowymi na określonych
stronach internetowych a działaniami, jakie one wywołują
•Narzędzie to jest dostępne w językach: chińskim, duńskim,
niderlandzkim, angielskim, francuskim, hiszpańskim, niemieckim,
włoskim, japońskim, koreańskim, polskim, portugalskim, rosyjskim,
szwedzkim, tajskim oraz tureckim.
Brandometr
•monitoruje treści zarówno portali internetowych, jak i blogów,
mikroblogów (w tym Twitter, Blip, Flaker, Pinger), a także forów
internetowych, grup dyskusyjnych, serwisów społecznościowych.
•M.in. pozwala na wyszukanie publikacji najbardziej istotnych dla
badanych słów kluczowych (publikacje o największym potencjale do
rozprzestrzeniania się, z którymi może się zapoznać największa
liczba użytkowników). Interesującą funkcjonalnością jest
śledzenie autorów generujących treści. Dzięki niej możliwe jest
odnalezienie liderów opinii, którzy często wypowiadają się na
badany temat lub odnoszą się do interesujących badacza marek.
Attentio
Brand Dashboard
*Śledzenie i analizowanie treści internetowych dotyczących marek i
produktów.
*Treści te są śledzone i analizowane w czasie rzeczywistym.
*Monitorowanie informacji pochodzących z głównych portali
informacyjnych i opiniotwórczych w danym kraju, portali
społecznościowych, forów, blogów, mikroblogów. Ponadto jest
możliwe dodawanie nowych źródeł.
Narzędzia
i źródła informacji do analizowania treści tworzonych przez
społeczności
•Amplify
•Attentio
•Biz360
•Brandimensions
•Brandometr
•BrandWatch
•Buzz Metrics (Nielsen)
•BuzzLogic
•Cision
•CollectiveIntellect
•CyberAlert
•DNA
•Dow Jones
•Integrasco
•Kaava
•Magpie
•Millward Brown
•Newspoint
•Onalytica
•Radian6
•Scoutlabs
•Seer
•TNS cymfony
•Unruly Media (Video Tracking)
•Visible Technologies
•Vocus
•Wavemetrix
Komórki –
nowy wymiar Social Networkingu
Komunikacja sieciowa
Sieciowa
komunikacja
proces wymiany przetwarzanych informacji.
Odnosi się do podmiotów biorących udział w akcie komunikacji,
przy czym przynajmniej jednym z nich jest Sieć. Jest tu mowa o tzw.
środowisku zewnętrznym – nadbudowie nad inżynierską
interpretacją komunikacji cyfrowej, nad środowiskiem OSI. (Open
System Interconnection)
•wykorzystuje Sieć z jej potencjałem
wymiany informacji, magazynowania jej oraz korzystania z mocy
obliczeniowej tworzących sieć komputerów.
•Komunikacja sieciowa obejmuje sobą także
bezpośredni kontakt człowieka z komputerem. Jest to przedmiotem
dynamicznie rozwijającej się dyscypliny naukowej – CMC.
(7
warstw komunikacyjnych)
???
Komunikatory
•W 1996 roku powstała podobna do IRC usługa zdalnej łączności
– ICQ (I Seek You).
•Jest to darmowe oprogramowanie umożliwiające zainteresowanym
„pisaną rozmowę” za pośrednictwem Internetu. Po zainstalowaniu
oprogramowania można stworzyć listę osób, które dysponują
podobnym oprogramowaniem. W chwili włączenia komputera z dostępem
do Sieci możliwa jest wymiana informacji między internautą a
osobami ze wspomnianej listy.
•ICQ jest protoplastą współczesnych komunikatorów – IM.
Komunikator daje możliwość komunikowania się tylko z wybranymi
osobami, w czatach z losowo połączonymi osobami.
IM IM jest to
rodzaj usługi (komunikator) dostępnej w Internecie (niemal
identycznej do ICQ), która za pomocą specjalnego programu
(zazwyczaj bezpłatnego) umożliwia stworzenie prywatnego połączenia
między dwoma lub większą liczbą wybranych osób w celu wymiany
informacji (tekst, dźwięk, obraz, wideo i załączniki). Obecnie
jest to najszybciej rozwijające się medium komunikacyjne na
świecie.
Telefon
przez internet – VoIP (Voice over IP, IP telephony)
•Jest to technologia, która umożliwia wykorzystywanie Internetu
jako medium łączności do rozmów telefonicznych za pośrednictwem
transmisji pakietów danych będących cyfrową reprezentacją
kolejnych fragmentów rozmowy.
•Zważywszy na elastyczność wykorzystanych do tego celu narzędzi,
można jednocześnie prowadzić rozmowy między wieloma użytkownikami
(telekonferencje) przebywającymi nawet na różnych kontynentach.
•Ograniczeniem, coraz mniej odczuwalnym, jest cyfrowy zapis
rozmowy, którego transmisja wymaga stosunkowo szerokiego pasma
dostępu do Internetu (w jednej chwili muszą być przesyłane duże
liczby bajtów cyfrowego zapisu mowy).
VoIP – Voice over IP
•Oprogramowanie umożliwiające wykorzystanie Internetu do rozmów
telefonicznych.
•Najpopularniejszy: Skype, potem: Tlenofon, Nagłos, Spik (Wp),
Stefan (Interia),
•Inne: PhoneFree 7.1; Buddy Phone 4.0; Tlen 3.71; ICQ 2002a;
Gadu-Gadu 5.0; MSN Messenger 5.5.
Bramki
VoIP
•Telefony USB, rozmowa telefoniczna odbywa się za pośrednictwem
urządzenia współpracującego z pecetem (np. easycall). Urządzenie
symuluje tradycyjny telefon.
•Urządzenia współpracujące z programami VoIP (np. Skype), które
autonomicznie dokonują połączenia telefonicznego (bez komputera).
Np. fritzbox.
Komunikacja
pośrednia – asynochroniczna
•Uniezależnienie wymiany informacji od czasu i przestrzeni oraz
dostępność bardziej złożonych funkcji sprzężenia zwrotnego
podmiotów uczestniczących w akcie komunikacji.
•Informacje/komunikaty są wcześniej zgromadzone w pamięciach
maszyn. Sieć pozostaje pasywna wobec tych informacji. Nie wprowadza
do nich żadnych zmian.
Np. blogi, fora/listy dyskusyjne, usnety, korespondencja
elektroniczna, gazety elektroniczne, audycje (na żądanie) radiowe i
telewizyjne.
•Internet pełni funkcje magazynu informacji i narzędzia do jej
dystrybucji.
•Gromadzone w Sieci informacje są udostępniane po zauważalnym,
ale praktycznie nieograniczonym czasie.
•Odbiorca przestaje być tylko pasywnym odbiorcą i inicjatorem
aktu komunikacji, staje się aktywny w doborze, także ocenie
(świadomej, lub pozyskiwanej bez jego wiedzy) odbieranych z Sieci
informacji.
•Rosnąca część zasobów Sieci wzbogacana jest przez atrybuty
wskazujące na ich umowną wartość, która jest wynikiem ocen
uzyskiwanych od użytkowników Sieci.
Procedury
odbioru poczty
•Protokołem POP3 (Post Office Protocol) –
poczta przychodzi na skrzynkę pocztową na serwerze operatora
poczty. Odbiór pobierasz wiadomości programem pocztowym na twardy
dysk swojego komputera. Z
reguły pobrane wiadomości są automatycznie usuwane z serwera.
•Mniej znany protokół IMAP (Internet
Message Access Protocol) pozwala zarządzać wiadomościami na
serwerze w kilku uporządkowanych hierarchicznie skrzynkach
pocztowych. Wiadomości
pozostają na serwerze operatora.
Zalety
płatnych skrzynek
• Niezawodność,
• brak e-maili reklamowych,
• brak reklam dołączanych do listów,
• duża pojemność skrzynki,
• mniejsze ograniczenie objętości wysyłanego listu lub brak
limitu
• możliwość przetestowania konta,
• ochrona antywirusowa,
• filtry antyspamowe,
• powiadamianie SMS-em o nowej poczcie
• dostęp do pomocy technicznej,
• bezpieczeństwo danych osobowych,
• profesjonalny wygląd adresu e-mail,
• możliwość zakładania aliasów.
Komercyjne
usługi pocztowe
•Bez reklam, większa stabilność, możliwość samodzielnego
zdefiniowania aliasów, przekierowania poczty, autoryzacja SMTP (tzw.
antyoszust). Zazwyczaj nie obowiązują ograniczenia liczby aliasów
czy sygnatur i można wysyłać o wiele większe załączniki do
e-maili.
•Jedno konto e-mail na komercyjnym serwerze kosztuje ok. 50 złotych
rocznie. np. Homapl, NetArt (Nazwa.pl), AZ.pl, 1&1 Internet,
OVH.pl i setki niniejszych operatorów.
Mail
– zagrożenia
•Łatwość odczytania poczty,
•brak klawisza „cofnij operację”,
•„reply all” (odpowiedz wszystkim) oraz „cc” (do
wiadomości), które najlepiej wyeliminować,
•wykładniczy wzrost liczby spamu, w tym niechcianych reklam, oraz
dołączanie do maili wirusów.
Electronic
communication tools can demand constant switching, which contributes
to a feeling of “discontinuity” in the workpleace. On the other
hand, people sometimes deliberately introduce…
Społeczna
izolacja i nowe technologie grupy społecznościowe
•Amerykanie mają mniej ścisłe związki z sąsiadami i
organizacjami społecznymi.
•Są bliższe związki w wirtualnym świecie, ale w bardziej
podzielonych grupach społecznych.
•Sposoby kontaktów:
–Face-to-face 210/365 dni
–Komórki 195/rok
–IM 125
–Listy papierowe/kartki - 8
•Uczestnicy grup w 30% mniej chętnie poznają sąsiadów.
•W 40% mniej polegają na pomocy sąsiadów.
•Przeciętny internauta ma trzech bliskich członków grup w Sieci.
P2P
•Początkowo pobieranie plików z serwerów FTP,
•Pierwszy P2P – Napster,
•Obecnie najpopularniejsze: BitTorrent, eDonkey (ed2k) i Gnutella.
•Architektura sieciowa wykorzystująca bezpośrednią komunikację
osób.
•Współdzielenie zasobów komputerowych i usług przez
bezpośrednią ich wymianę.
•Równorzędna komunikacja komputerów przez sieć typu „każdy z
każdym”.
•Współczesny P2P – 1999 rok – NAPSTER, do wymiany mp3, dzieło
nastolatka: Shawna Fanninga.
•Jednym z najpopularniejszych sposobów wymiany informacji w
wirtualnym świecie była i jest architektura sieciowa lub inaczej
P2P.
•Umożliwia ona komunikację osób, współdzielenie zasobów
komputerowych i usług poprzez bezpośrednią ich wymianę. Jest to
równorzędna komunikacja komputerów przez sieć typu „każdy z
każdym”.
•Napster – dzieło nastolatka Shawna Fanninga. Napster pełnił
rolę pośrednika, „biura kontaktowego” w wymianie informacji.
Żaden z plików przez niego oferowanych nie był umieszczony na
komputerze Napstera (Napster tylko pośredniczył – miał
informacje o lokalizacji zbiorów). Pliki były umieszczone na
współpracujących z Napsterem komputerach, najczęściej prywatnych
osób.
Obecnie najpopularniejsze:
•eDonkey i KaZaA – ok. pięć milionów komputerów, 10–14 mln
użytkowników.
•Alternatywą dla eDonkey jest – eMule (open
source). Stanowi to dla internautów zabezpieczenie przed
sytuacją, jaka np. miała miejsce w chwili zamknięcia Napstera, a
także w przypadku awarii.
•Najbardziej aktywnym systemem P2P jest BitTorrent, który tworzy
około jedną trzecią całkowitego ruchu w Internecie.
•W większości użytkownicy P2P są odbiorcami zasobów (70%), a
połowa zasobów jest udostępniana przez zaledwie jeden procent
uczestników kręgu P2P.
Kłopoty i
zagrożenia P2P
•Medium rozprzestrzeniania wirusów (przybierając atrakcyjne nazwy
Windows, Quake, DivX),
•podróbki dzieł,
•prawa autorskie.
•P2P, poza działalnością często sprzeczną z prawem, jest
groźnym medium rozprzestrzeniania wirusów (przybierając atrakcyjne
nazwy – Windows, Quake, DivX).
•Ułatwia proceder rozpowszechniania podróbek wszelkiego typu
dzieł dostępnych w postaci cyfrowej.
•Dziewięćdziesiąt procent zasobów sieciowych P2P jest
nielegalna – niezgodna z obowiązującymi regulacjami praw
autorskich.
Sieci P2P
są zastępowane przez usługi hostingowe
•Świadomość istnienia Art. 23 Prawa Autorskiego jest coraz
bardziej powszechna.
•Coraz większe znaczenie mają sieci hostingowe (z najbardziej
znanych: Megaupload, Rapidshare) oraz polski (płatny za symboliczną
kwotę) portal Chomikuj.
Wady sieci
hostingowej
•mniej plików (młodsza metoda niż p2p), wrzucane na serwery są
tylko rzeczy uznane za wartościowe, nie wszystko co się przeciągnie
do folderu "shared",
•nieco trudniejszy upload niż tworzenie torrenta,
•w przypadku muzyki można znaleźć właściwie tylko utwory albo
albumy - nie da się znaleźć całych dyskografii (z racji wielkości
takiego pliku) -> trzeba ściągać album po albumie -
ograniczenia przy braku płatnego konta premium (np. możliwość
ściągania jednego pliku na raz oraz konieczność odczekania
określonego czasu po skończeniu jednego ściągania) [Da się to
jednak obejść korzystając z kilku różnych hostingów oraz
używając nowszych portali, na przykład: Mediafire]. - brak
możliwości sprawdzenia, co znajduje się wewnątrz ściąganego
pliku (torrenty w większości wypadków dawały taką szansę).
Inne formy
sieciowej komunikacji aktywnej
Handel
Gry
•World of Warcraft jest jedną z najbardziej popularnych gier tego
typu na świecie.
•Pozostałe to EverQuest2, Aion3, Guild Wars4.
•Miejsce zabawy, spotkań towarzyskich i randek (Match.com, ma
mniej niż 2 mln użytkowników).
•Ponad 40 procent graczy online to kobiety, grupa dorosłych kobiet
rośnie najszybciej, więcej niż chłopców 17 i młodszych (20%).
Rozrywka
Przykład
komunikacji autonomicznej
*epidemie wirusów komputerowych, które poza
ludzką kontrolą uruchamiają funkcje autonomicznej, celowej wymiany
informacji (np. umożliwiające uodparnianie się na programy
antywirusowe) i kształtują niektóre „zachowania” komputerów,
*przestępcze przejmowanie zdalnej kontroli nad
milionami komputerów (boty i zombi),
*automatyczne rozsyłanie aktualizacji
oprogramowania instalowanego na firmowych i domowych komputerach,
*samodzielne uczenie się obsługi dynamicznie
zmieniających się sieci przez routery (urządzenia zarządzające
ruchem informacyjnym w Sieci) do poziomu złożoności, który
pozostaje poza ludzką kontrolą,
*rosnąca liczba funkcji powierzanych cloud
computingowi.
(Bot i zombie) – przestępcze przejmowanie
zdalnej kontroli nad milionami komputerów
Rola
maszyn w komunikacji aktywnej
*W procesie zbierania informacji tworzących zasoby sieciowe i ich
udostępniania malejącą rolę pełnią ludzie, pozostawiając
inicjatywę maszynom.
*Następuje oddawanie decyzyjności informacyjnej maszynom, które
autonomicznie segregują, które informacje zostaną udostępnione (z
zachowaniem personalizacji i innych kryteriów), a które nie zostaną
wyświetlone na ekranie monitora komputerowego Internauty.
Test
Touringa
To sposób określania zdolności maszyny do posługiwania się
językiem naturalnym i pośrednio mającym dowodzić opanowania przez
nią umiejętności myślenia w sposób podobny do ludzkiego. W 1950
roku Alan Turing zaproponował ten test w ramach badań nad
stworzeniem sztucznej inteligencji - zamianę pełnego emocji i w
jego pojęciu bezsensownego pytania "Czy maszyny myślą?"
na pytanie lepiej zdefiniowane. Test wygląda następująco: sędzia
– człowiek – prowadzi rozmowę w języku naturalnym z
pozostałymi stronami. Jeśli sędzia nie jest w stanie wiarygodnie
określić, czy któraś ze stron jest maszyną czy człowiekiem,
wtedy mówi się, że maszyna przeszła test. Zakłada się, że
zarówno człowiek, jak i maszyna próbują przejść test zachowując
się w sposób możliwie zbliżony do ludzkiego.
Test pochodzi od zabaw polegających na zgadywaniu płci osoby
znajdującej się w innym pokoju przy pomocy serii pytań i
odpowiedzi pisanych na kartkach papieru. W pierwotnym pomyśle
Turinga człowiek musiał udawać przeciwną płeć, a test był
ograniczony do pięciominutowej rozmowy. Dziś nie uważa się tych
cech za podstawowe i zasadniczo nie umieszcza w specyfikacji testu
Turinga.
Komórki i
sieć ostoją języków
•Pisane komunikaty podtrzymują zanikające języki świata –
jest ich 6 909.
Szperacze
Zasada
pracy szperacza
•
Wyniki szperaczy – linki do wyszukanych zasobów – są
wyświetlane w postaci stronicy search engine results page – SERP.
•Główne szperacze wyświetlają zazwyczaj trzy rodzaje list SERP:
–wynikające z indeksacji dokonywanej przez automaty
–przez ludzi
–różnych form opłat za umieszczanie adresów stron na tej liście
– tak zwany sponsoring.
•Interesującym źródłem informacji o bieżącej kolejności
(aktualizacja co 12 sekund) pierwszych dziesięciu słów kluczowych
w 17 kategoriach jest: http://hot.aol.com/hot/hot.
SERP
Stronica, której treść stanowią wyniki pracy szperacza. Zazwyczaj
główne szperacze wyświetlają trzy rodzaje list SERP: listy
wynikające z indeksacji dokonywanej przez automaty, przez ludzi i
wynikające z opłat za umieszczanie adresów Stron na tej liście.
Typy
szperaczy
•„ręczne” (A human-based search engine) – powszechnie
nazywane katalogami (directory).
•Bazują na pracy ludzkiej np. Yahoo!, Open
Directory i Business.com, LookSmart.
Indeksacja
•W zdecydowanej większości wykonują ją automaty – specjalne
programy: pająki, roboty („spidery”, „crawlery”),
•szperacz udziela odpowiedzi na zadawane pytania o adresy stron
zawierających określone słowa–klucze, nie wyszukując ich w
Sieci, a przeglądając gotowy indeks.
•Fundamentem każdego indeksu są metadane stanowiące sumę
informacji o informacjach, np. dotyczące struktury opisu określonego
materiału: nazwa strony, jej adres, tytuł, pierwszy akapit.
Indeksacja
strony
podstawowe źródła indeksowanej strony
•Tytuł strony + opis
•Treści
•Wyróżnione słowa
•Treści w nagłówkach
•Odnośniki i opisy
•Atrybuty (alt i title)
•Wiek domeny
•Linki wewnętrzne
Indeksacja
– utrudnienia
•ograniczone możliwości rozpoznawania niektórych form zawartości
stron. Chodzi tu o zasoby multimedialne (obrazy, muzyka) i o
skomplikowane składowe stron, których szperacze „nie widzą”;
są to m.in.: JavaScripty, ramki, flashe.
•rozwiązanie - tzw. doorway pages
Tagi
•Informacje zostają „otagowane” – przyporządkowane
odpowiedniej kategorii; sygnalizowanie to ich popularność
•1/3 internautów korzysta z tagów
•Np. del.icio.us
SEO
O
ptymalizacja dla wyszukiwarek internetowych (ang. Search
Engine Optimization; zwana także pozycjonowaniem) procesy
zmierzające do osiągnięcia przez dany serwis internetowy jak
najwyższej pozycji w wynikach organicznych wyszukiwarek
internetowych dla wybranych słów i fraz kluczowych. Proces
pozycjonowania jest elementem szeroko pojętego marketingu
internetowego. Pozycjonowanie bazuje na znanych elementach działania
algorytmu wyszukiwarek, ciągłym poznawaniu nowych, które algorytmy
biorą pod uwagę przy rangowaniu strony oraz na weryfikowaniu już
istniejących.
Pozycjonowanie
Waga słów
kluczowych
•Słowa – hasła lub całe frazy opisujące treść Witryny. Są
one umieszczane w określonym, widocznym dla indeksującego
szperacza, a niewidocznym dla Internauty, miejscu Witryny
Najważniejsze słowa kluczowe
•Google's Webmaster Tools – informacje o wyświetlaniu słów
kluczowych i poprawnej segmentacji informacji
•Google Keyword Tool: dobór słów kluczowych, na jakie urządzenia
(PC, mobilne), analiza strony – sugestie słów
•Google Analytics do identyfikacji najskuteczniejszych słów
kluczowych
Wiek
strony
•Whois onet.pl
•http://archive.org/web/web.php
•Należy kupować stare domeny – wyższa pozycja w PageRank
(dropped.pl, aftermarket.pl, az.pl).
6 kroków optymalizacji obrazów dla SEO
1.Zapewnienie kontekstu obrazu do tekstu słów kluczowych
2.Nadanie poprawnej nazwy obrazom
3.Dobranie stosownej wielkości obrazu
4.Optymalizacja wagi (wielkość, kompresja)
5.Korzystanie z deskryptorów atrybutów ALT i TITLE
6.Załączać opis obrazka
Troska o atrakcyjność strony
•wykluczyć spam (zbyt częste zgłaszanie strony do szperacza);
karą za spam jest ignorowanie przez szperacze spamującej witryny,
•unikać wstawiania słów kluczowych w innych, od przeznaczonych
do tego celu, miejscach na stronie,
•nie wpisywać fragmentów tekstów czcionką o tym samym kolorze
jak tło,
•unikać stosowania wielu tytułów dla jednej strony,
•unikać zgłaszania kopii tej samej strony pod innymi nazwami,
•nie zgłaszać tej samej strony częściej niż raz na 24 godziny,
•nie stosować jako identyfikatorów (słowa klucze, meta tags)
słów, które nie są merytorycznie związane z treścią strony.
•Bardzo pomocne w procesie konstruowania strony jest korzystanie z
analitycznego oprogramowania służącego do oceny stron, np.
WebTrends, ClickTracks, HitBox.
Szperacze
multimedialne
•Szperacze wideo (m.in. Google, Yahoo!, MSN) umożliwiają
wyszukiwanie, przeglądanie (na zasadzie podglądu), odtwarzanie i
ściąganie plików wideo. Są to wiadomości (często uszeregowane w
kolejności od najczęściej oglądanych), reklamy filmów, a także
tradycyjne reklamy towarów i usług
•wyszukiwanie obrazów na podstawie opisów ich treści.
Zapowiedzią takiego rodzaju szperacza jest system Diamond, który
udostępnia funkcje np. wyszukiwanie obrazów postaci ubranych w
określony sposób – np. mają ubranie koloru czerwonego.
Prowadzone w tym kierunku prace przez MIT, Carnegie Mellon i Yahoo!
koncentrują się na automatycznym indeksowaniu kształtów, wyglądu
twarzy, a także form ruchu. Dane te uzupełniane są informacjami o
logo i tekstowymi wstawkami materiałów filmowych
•ditto.com
•gallery.Yahoo!.com
•altavista.com/sites/search/simage
•multimedia.alltheweb.com
•multimedia.lycos.com
•streamsearch.com
•music-robot.com
•photoseek.net
•audioFind.net
•music.Cnet.com
•dgolpe.com
•getsongs.com (multiszperacz)
•music.lycos.com
•Napster, Gnutella.
Google
Potencjał
Google’a
•Zawiera 240 milionów nazw domen, przeszukiwane przez Google 3,3
mld dziennie.
Podstawowe
usługi Google’a
•Gmail,
•Google Desktop,
•Froogle (usługa polegająca na porównywaniu cen w sklepach),
•Google Earth,
•Picasa (fotografie),
•Google Talk (otwarta platforma dla VoIP)
•+ YouTube + DobleClick
Zasoby informacyjne Google’a
•Użytkownicy utrzymują w zasobach Google’a: foto, blogi, wideo,
kalendarze, e-maile, wiadomości, mapy (odpłatne dla dużych i
średnich firm – 25 tys. Otwarć dziennie w kwartale), kontakty,
social networks, dokumenty, arkusze kalk., prezentacje i numery kart
– niemal wszystko o swoim życiu.
•Google planuje dodać informacje medyczne, adresy związane z
osobą (przez komórki) i więcej.
•Wszystko także bezprzewodowo.
•Prawdopodobnie najtrudniejsze wyzwanie prywatności w historii
ludzkości.
Szukanie z Googlem
•WYSZUKIWANIE WEDŁUG KATEGORII: Po wpisaniu słowa kluczowego
możemy zawęzić wyszukiwanie do zadanej kategorii treści, np.
»Grafika«, »Miejsca«, »Książki« czy »Dyskusje«.
•OPCJE WYSZUKIWANIA GRAFIKI: Znalezione obrazy można filtrować
według daty utworzenia, wielkości, a nawet koloru. Można też
ograniczyć wyszukiwanie do zdjęć twarzy, obrazów typu clip-art
czy grafik wektorowych.
•HISTORIA WYSZUKIWANIA: Po zalogowaniu się na koncie Google
kliknijmy ikonę ustawień, a następnie wybierzmy opcję »Historia
online«. Google pamięta, czego szukaliśmy do tej pory.
•GRAFIKA JAKO SŁOWO KLUCZOWE:
•Aby wyszukać w Sieci obiektu przedstawionego w pliku graficznym,
otwórzmy na stronie Google kategorię »Grafika«, a następnie
kliknijmy ikonę aparatu w polu wyszukiwania i podajmy adres URL tego
pliku lub załadujmy go bezpośrednio z dysku. W wynikach
wyszukiwania znajdziemy zarówno strony, na których pojawia się ta
grafika, jak i wizualnie podobne obrazy.
•ZAAWANSOWANE WYSZUKIWANIE: Kliknijmy ikonę ustawień i wybierzmy
opcję »Szukanie zaawansowane«. Wypełniając formularz,
zdefiniujmy dodatkowe kryteria i ograniczenia wyszukiwania.
Podpowiedzi widoczne po prawej stronie wprowadzą nas w składnię
pola wyszukiwania
Google
– inwigilacja
•Google Search: gromadzi wiele różnych
typów informacji o aktywności online
•Przyszłe produkty będą zawierały
gromadzenie danych i „targetowanie” jako podstawowy cel.
•Wszystkie usługi Google (Google search,
Gmail, Orkut i Google Desktop) mają podlinkowane cookies, o czasie
działania – 2038 r. Każdy z cookies ma globalny unikalny
identyfikator (GuID) i może rejestrować wszystkie zadawane przez
użytkownika pytania. Google nie kasuje żadnych informacji z
cookies.
•Orkut: Google’owy socialnetworking zawiera
poufne informacje (nazwisko, adres mailowy, nr tel., wiek, adres
pocztowy, status relacji, liczba dzieci, region i hobby).
•Gmail Patents: Patent
#20040059712 : “serving advertisements using information associated
with email.” (usługi reklamowe
powiązane z mailami)
•Google Desktop: tekstowe informacje, arkusze
kalkulacyjne, maile i obrazy. Indeks jest zapisany na lokalnym
komputerze.
•Chrome (przeglądarka) - ryzyko: każde
słowo, jego część wpisane do „belki”, nawet bez kliknięcia w
Enter/Return, jest pobierane przez Google. Chrome automatycznie
wysyła te informacje do centrali przy każdym wyszukiwaniu.
•Android (SO dla komórek): gromadzi
informacje o wybieranych numerach, numery otrzymanych telefonów,
przebieg poszukiwań w sieci, maile, lokalizacje geograficzne, w
których telefon był używany.
•Google Health: produkt rejestrujący dane o
zdrowiu (pracowników, indywidualnych osób). Wiele firm medycznych i
farmaceutycznych (CVS Caremark, Walgreens, Longs Drugs) w USA
zgodziło się na import ich baz danych.
Zyski/straty
Inne
wyszukiwarki
Factiva
•Ponad 28,000 źródeł z 200 krajów w 23 językach,
•600 aktualizowanych na bieżąco serwisów informacyjnych.
QDA Miner 3.2
•Zaawansowane narzędzie programowe do analizy, kodowania,
zarządzania danymi/dokumentami.
•Identyfikuje i szuka relacji pomiędzy dokumentami.
Buzz (do Gmail)
•Odpowiedź na Facebooka i Twittera
•Gotowa sieć (bez pytania o zgodę do jej tworzenia) znajomych
automatycznie wyselekcjonowana wg: firma, najczęściej wysyłane
maile, czatowanie.
•Łatwo sprawdzić powiązania
•Google wycofuje się z tej wersji
Linguboty
•Są to programowe narzędzia, najczęściej stosowane w formie
usług dostępnych w Sieci, które usiłują symulować naturalną
rozmowę z zadającym pytania.
•Najczęściej usługa ta wykorzystywana jest w celach
marketingowych – służy do udzielania informacji na temat firmy
(www.spsa.pl, ww.hestia.pl). Wśród najsłynniejszych na świecie
lingubotów wyróżniane są: ELIZA i ALICE
Quaero i Theseus
•Francja (budżet i 23 przedsiębiorstwa, wśród nich Thomson i
France Telecom) i Niemcy (budżet) dofinansowują wyszukiwarki –
ograniczenie dominacji Google’a, kultury anglosaskiej.
•Quaero, multimedia - 99 milionów €.
•Niemcy – Theseus, bardziej tekstowa.
Wyszukiwarki w
czasie rzeczywistym – real time search
Istota
* SERP aktualizowany na bieżąco
* Źródła – głównie sieci społecznościowe
– Facebook
– MySpace
– Twitter
– Google Buzz
– FriendFeed
– nagłówki artykułów
– posty z blogów
*Ocena – użytkownicy, sieć.
Kryteria
szukania
•Data wiadomości
•Czas
•Lokalizacja
Wyszukiwarki
realtime
•Rezultaty z blogów, mikroblogów, feedów wiadomości i serwisów
udostępniających fotografie.
•Podstawą wyszukiwania: oceny użytkowników internetu – linki
(Twitter, Facebook, Delicious) rekomendowane przez użytkowników –
social relevance rank. Np.
•Collecta
•OneRiot
•CrowdEye
•Google – „najnowsze”
Wyszukiwarki czasu rzeczywistego
•Google
•Collecta (www.collecta.com) sprawdza: mikroblogi, komentarze na
forach i w blogach, zdjęcia z serwisu Flickr i filmy z YouTube'a.
•monitter (www.monitter.com) – śledzi w czasie rzeczywistym
wyniki dla trzech różnych słów kluczowych jednocześnie w
Twitterze.
•Yauba (www.yauba.com)
•Twazzup (www.twazzup.com) - pozwala przeszukiwać statusy
popularnych osób korzystających z serwisu Twitter. Dodatkową
funkcją jest możliwość wyszukiwania wiadomości tylko w języku
polskim.
Wyszukiwanie
w czasie rzeczywistym
•po wpisaniu frazy w wyszukiwarce pojawia się wynik wyszukiwania
wzbogacony o fragmenty rozmów toczących się aktualnie w serwisach
społecznościowych.
•W praktyce opiera się ono na założeniu, że internauci potrafią
lepiej niż sztuczne algorytmy ocenić przydatność aktualnych
informacji.
Semantyczna
sieć
•doskonalenie stosowanych technologii precyzyjnego lokalizowania
informacji w Sieci.
•idea twórcy WWW – Tim’a Berners-Lee’a – tworzenia
semantycznej Sieci (ang. The semantic Web),
•stworzenie narzędzi do logicznej komunikacji z Siecią -
wyszukiwania informacji za pośrednictwem naturalnego dialogu
człowiek - maszyna.
•Trudność w realizacji tego przedsięwzięcia wynika z tego, iż
forma zasobów informacyjnych Sieci jest dostosowana do oczekiwań
ludzi. Automatyzacja ich analizy, z zachowaniem rozpoznawania relacji
słów stanowiących przedmiot zadanego pytania (np. która budowla
jest starsza – Pałac Kultury czy Pałac Staszica?) wymaga
odpowiedniej organizacji zapisów gromadzonych w Sieci.
•Do danych, w sieci semantycznej, muszą być dołączone dodatkowe
informacje o relacjach między nimi. Służą temu stworzone i nadal
budowane standardy zapisu meta danych (np. XML, SPARQL, RDF, OWL)
oraz programowe narzędzia wykorzystujące sztuczną inteligencję i
lingwistykę.
Semantyka
sieci
*Na razie komputery rozumieją tylko proste polecenia
*Nie rozumieją języka naturalnego
*Mogą wyszukiwać słowa, ale słowa to nie wszystko
*Nie widzą związków między słowami i nie mogą domyślać się z
kontekstu
Wyszukiwarki
semantyczne
Analizują nie tylko informacje bezpośrednio napisane na stronie,
ale potrafią łączyć ze sobą różne fakty, wyciągać wnioski.
Agenci
•komputerowy
twór, który samodzielnie wykonuje zadania zlecone przez
użytkownika, w tym przypadku – wyszukuje na bieżąco, w czasie
rzeczywistym informacje według zadanych kryteriów.
•Podczas
wyszukiwania najczęściej są przeglądane treści następujących
składowych witryn: tytuły, nagłówki, słowa kluczowe,
streszczenia, daty aktualizacji, rozmiary stronic i daty ostatniej
wizyty agenta.
•Wyniki
poszukiwania informacji są dostarczane zamawiającemu online, lub
offline, za pośrednictwem maila.
•Na przykład
MySimon przegląda informacje z tysięcy sklepów w dziesięciu
kategoriach, m.in.: książki, elektronika, informatyka (sprzęt i
oprogramowanie), filmy, ubrania, muzyka i zabawki.
Przyszłość
szperaczy
•włączanie do usług szperaczy bezpłatnej telefonii internetowej
(Google), RSS’ów i blogów (Yahoo!). Np. indeksowaniem RSSowych
feedów zajmuje się Feedster
•system w postaci megaszperacza integrującego dane o zasobach
informacyjnych Internetu – stanowi docelowy model uniwersalnego
narzędzia służącego do lokalizacji zasobów Sieci.
„And”
– operator logiczny (sumujący)
Media Online
Nowe/cyfrowe
media
•technologie komunikacyjne i informacyjne oraz ich otoczenie
społeczne
•obejmują: narzędzia programowo-techniczne, które mają
bezpośredni związek z funkcjonowaniem Sieci
•ułatwiają i zmieniają gromadzenie oraz udostępnianie
informacji na drodze komunikacji sieciowej.
„Zasobne media”
•bogate we wszystkie formy multimedialnej
informacji, stają się coraz popularniejszym sposobem dostępu do
wszechobecnej informacji w postaci cyfrowej.
•zasobne media są definiowane jako obrazy,
materiały audio, wideo i pozostałe wizualnie zorientowane,
nieustrukturyzowane zasoby, takie jak animacje i prezentacje.
Ekspansja
mediów online
•zwraca uwagę na wnioski wypływające z kilkuletniego ignorowania
zapotrzebowania na cyfrową dystrybucję produktów muzycznych, a w
konsekwencji niemal zapaści tradycyjnych form ich dystrybucji.
•Wartościowe wskazówki sposobów mariażu z IT wynikają także z
doświadczeń bankowości internetowej.
•Szukanie piratów w Sieci, różne formy restrykcji, tworzenie
praw okazało się krótkowzroczne, nie przyniosło i nie przyniesie
oczekiwanych rezultatów.
•Tradycyjne media, bogatsze o doświadczenia przemysłu muzycznego,
bankowości online, zmuszone są do stawienia czoła nowym wyzwaniom
formułowanym przez chłonny i szybko rozszerzający się wirtualny
świat. Rozwiązań poszukuje się w nowych modelach płatności i
nowoczesnych technologiach dystrybucji finalnych produktów
medialnych – media nie mają nic do zyskania, a wszystko do
stracenia.
Zmiany
•Jeśli starsza siwa dama wśród gazet - The New York Times –
zmieniła swoje wyzwanie z „wszystkie wiadomości, które nadają
się do druku” na „wszystkie wiadomości, które można kliknąć”,
to oznacza niewątpliwą, fundamentalną zmianę w świecie
publikacji.
•When the grand, gray lady of newspapers, The New York Times,
changes its tagline from “All the News That’s Fit to Print” to
“All the News That’s Fit to Click,” there can be no question
that momentous changes are underway in the publishing world.
Gazety
online
•są to wszelkie formy publikowania informacji w Internecie, które
stanowią całość lub część drukowanej postaci dzienników i
czasopism.
•Niektóre gazety online uzupełniane są o bieżąco aktualizowane
informacje, także w formie multimedialnej.
•Szczególną formą gazet online są gazety wirtualne –
publikowane tylko w Sieci – które nie mają swojego odpowiednika w
formie drukowanej.
•Globalna poczytność gazet drukowanych zmalała w ciągu
ostatnich piętnastu lat o jedną trzecią. Towarzyszy temu zjawisko
starzenia się czytelników tradycyjnych gazet.
fragment regulaminu Związku Kontroli Dystrybucji Prasy
•E-wydanie jest to elektronicznie rozpowszechniana wersja,
przynajmniej jednej mutacji, kontrolowanego tytułu prasowego,
zawierająca ten sam w formie i treści materiał redakcyjny i
reklamy co wersja drukowana.
•Wymóg całkowitej zgodności e-wydania z wersją drukowaną nie
dotyczy insertów i gadgetów. (...)
•Materiał redakcyjny w wersji elektronicznej może być dodatkowo
rozszerzony, a reklamy mogą być zaadaptowane w sposób pozwalający
na wykorzystanie możliwości medium elektronicznego.
E-kiosk.pl
•portfolio e-Kiosk.pl 230 tytułów
prasowych, +1000 audiobooków i e-booków
W
jakim czytniku jaki DRM
DRM
(Digital Right Manager)
– elektroniczne zabezpieczenie dokumentów. Zabezpieczenie przed
kopiowaniem. Ustawia się tu przywileje dla poszczególnych
klientów.
Audio
I video online
•Coraz większa liczba osób do słuchania
audycji radiowych wybiera Internet, a nie tradycyjny odbiornik
radiowy
•Słuchanie radia przez Internet jest
popularniejsze niż oglądanie telewizji online.
•Cyfrowe wideo, w tym audycje telewizyjne
nadawane przez Internet cieszą się mniejszą ale szybko rosnącą
popularnością.
•Sieć wydaje się już wychodzić z ery
„filmu niemego”, stanowiąc nie tylko doskonałe narzędzie do
dystrybucji tekstu, nieruchomych obrazów i muzyki, ale także
materiałów filmowych.
•Zapowiedzią ugruntowania tego stanu jest
rosnąca liczba wdrożeń cyfrowej dystrybucji programów radiowych i
telewizyjnych. Jest to już widoczne w „cyfrowym radiu” –
„digital audio broadcasting” (DAB), którego europejskim
standardem jest Eureka.
Wave
– 1024 kb/s
MP3 – 512 kb/s (format po kompresji Wave)
Radio
online, licencje
•Za: autor muzyki, tekstu, wykonawca i
producent
•Komu: ZAiKS, SAWUMiSM, ZSAW STOART, ZPA-V
•Opłata zależy od % chronionych utworów w
programie. Do 10% - 1% przychodów do 7% gdy 70% chronione
•Minima: 100 zł dla<50 słuchaczy, 200 zł
dla <200
Własne
stacje radiowe
•Większość nadaje: 32 Kb/s (AAC+), 56, 64, 96 do 128 Kb/s.
Minimum – 96
•Uniwersalny Serwis radiowy SHOUTcast: info o radiach i platforma
(wirtualne serwery) dla stacji
•Ceny: kilkadziesiąt groszy/jeden słuchacz (48-64 Kb/s), 0,8-1zł
(98-128 Kb/s)
Zasoby
informacyjne
Zasoby
informacyjne sieci
•Zarysowuje się brak równowagi między narzędziami
umożliwiającymi korzystanie z Internetu, a oferowanymi tam zasobami
informacyjnymi i usługami (rafinacja informacji sieciowych).
•Sieciowe zasoby zazwyczaj są szczególnie cenne ze względu na
ich aktualność i możliwość szybkiego i powszechnego do nich
dostępu.
•Wiedza o tym potencjale ma kapitalne znaczenie w obszarach
społeczno-ekonomicznym oraz nauki i edukacji.
•W odniesieniu do mediów zasoby informacyjne są wartościowym
źródłem informacji backgroundowych i bieżących oraz kontroli
poczynań konkurencji.
Wiarygodność
informacji sieciowych
•Nawet niewielka część nieprawdziwych
danych w wyróżnionym zasobie czyni jego całość mało wiarygodną.
•Stwarza to ryzyko, często bezkrytycznego,
wykorzystywania mało wartościowego informacyjnego potencjału
Internetu.
•Mamy do czynienia z paradoksem, iż
„nieograniczonemu dostępowi do informacji towarzyszy ryzyko
uzyskiwania mniejszej wiedzy”.
•Współczesne technologie informacyjne
istnieją bez odpowiednio wykształconych ram, w postaci struktur
wartości i wzorców mających wpływ na sieciowe zasoby.
•Ramy te nie mają stosownych związków z
regulacjami prawnymi oraz instytucjonalnymi strukturami.
Co
wspólnego ma wiarygodność informacji w sieci z wyszukiwarkami w
czasie rzeczywistym?
Co
wspólnego ma iloczyn logiczny informacji z wiarygodnością
wyszukiwarek w czasie rzeczywistym?
prawnymi oraz instytucjonalnymi strukturami.
Ograniczenie
„smogu”
•Korzystanie ze stron internetowych o powszechnie akceptowanej
wiarygodności, o wysokich ocenach nadawanych przez uznane
autorytety. Ich właścicielami są zazwyczaj instytucje o dużym
prestiżu. Innym sposobem uwiarygodniania są:
–społeczna, środowiskowa akceptacja źródeł, których wyraz
stanowi liczba i częstotliwość powoływania się na te źródła
przez uznane autorytety, np. w świecie nauki.
–porównywanie informacji z różnych niezależnych źródeł
sieciowych,
–korzystanie z komercyjnych zasobów informacyjnych oraz stron
urzędów biorących udział w tworzeniu prawa i generujących
raporty na potrzeby państwa.
GIODO
•Wyszukiwanie Funkcja "Wyszukiwanie" umożliwia
wyszukiwanie zbiorów w prowadzonym przez GIODO ogólnokrajowym
rejestrze zbiorów danych osobowych, według kryteriów podstawowych
do których należą: nazwa administratora danych, nazwa
miejscowości, nazwa zgłoszonego zbioru, numer księgi rejestrowej
oraz numer zgłoszenia.
•Wyszukiwanie zaawansowane Funkcja "Wyszukiwanie zaawansowane"
umożliwia przeszukiwanie rejestru według kryteriów rozszerzonych,
do których należą: nazwa administratora danych, siedziba
administratora (nazwa miejscowości, nazwa ulicy, kod pocztowy,
REGON, nazwa zgłoszonego zbioru, numer księgi rejestrowej oraz
numer zgłoszenia).
Otwarte
zasoby – motyw sieci, altruizm w sieci
Dane
Otwarte, Open Data
Dane o
osobach
•dostępne we wszelkiego rodzaju katalogach typu Who is Who (np.
obecny w Dialogu – Marquis Who’s Who®),
•Social networking - SoFlow.com – miejsce w wirtualnym świecie,
które pomaga odszukiwać osoby mające wspólne zainteresowania,
usiłujące nawiązać współpracę na płaszczyźnie prowadzenia
interesów (partnerzy, inwestorzy, kontakty). Jest to rodzaj aukcji
skrzyżowanej z blogiem, gdzie przedmiotem są osoby.
Australia
– przykład manipulacji
•Australijski rząd to kolejna instytucja, która poprawia
informacje umieszczane w Wikipedii na swój temat.
•System Wikipedii wykrył, że australijskie ministerstwo obrony
wprowadziło 5 tys. zmian w hasłach encyklopedii. Częstych zmian w
Wiki dokonuje również CIA oraz BBC.
Problem
archiwizacji informacji
•Informacje w postaci cyfrowej nanoszone są na przeróżne nośniki
(taśmy, dyski, dyskietki, CD, DVD). Jednak wszystkie one gwarantują
stosunkowo krótki okres trwałości przechowywanych na nich
informacji. Maksymalnie do 100 lat
•Maleje proporcja informacji gromadzonych na tradycyjnych nośnikach
informacji – papierowych – na korzyść zapisu cyfrowego
Cyfrowe
nośniki vs. Papierowe
•Papier przestał być głównym nośnikiem informacji
•Przykład częstotliwości korzystania z książki telefonicznej
•Konsekwencje
–zagrożenie trwałości zapisów
–większa konsumpcja energii elektrycznej
Negatywne
informacje
•Trudne do usunięcia. Koszt 500 – 1000 USD
•Blokada w wyszukiwarkach negatywnych informacji – tysiące USD +
kolejne tysiące w danych o osobach: Intellius lub PeopleFinder
•Usunięcie oszczerczych (ktoś o firmie) informacji – dziesiątki
tysięcy USD
Czas życia
w profilu w sieci
•Prośba o kontakt (Facebook) od osoby, która zmarła.
•Problem narasta ze wzrostem wieku internautów
•Facebook umożliwia zgłoszenie śmierci (krewny, znajomy)
stosownym dowodem, np. informacją z drukowanej gazety.
Sieciowa
pamięć
•Nieprzemyślane informacje o sobie (tekst, obrazy) pozostają na
lata w Sieci bez możliwości ich usunięcia. Sieć nie daje drugiej
szansy!
•75% profesjonalistów HR kontroluje kandydatów w Sieci
(szperacze, społecznościowe, foto, wideo, osobiste strony, blogi,
gry online. Efekt - 70% kandydatów odrzucona.
GPS
•Global Positioning System,
•Światowy system określania położenia
• baza: 24 satelity
•Dokładność do 10 m.
Rafinacja
informacji
•Jest peryskopem
pomiędzy dwoma poziomami informacji: poziomu bazowego i poziomu
wyniku rafinacji.
•Umożliwia
dostrzeganie informacji z otoczenia/poziomu bazowych informacji
(czyste informacje z WWW) tych, które są na poziomie informacji
będących wynikiem rafinacji.
Diagnoza
emocjonalnych odczuć adresata przekazu
•Tłumaczenie emocjonalnych odczuć na
liczby.
•Analityczne narzędzia mierzące sentyment
użytkownika Sieci (sentiment analysis) Do określonych zdarzeń,
informacji, marek towarowych oraz towarów, a nawet wskazywania dni,
w których Internauci są najbardziej podatni na określone przekazy
informacyjne.